JP2022078741A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2022078741A
JP2022078741A JP2020189627A JP2020189627A JP2022078741A JP 2022078741 A JP2022078741 A JP 2022078741A JP 2020189627 A JP2020189627 A JP 2020189627A JP 2020189627 A JP2020189627 A JP 2020189627A JP 2022078741 A JP2022078741 A JP 2022078741A
Authority
JP
Japan
Prior art keywords
user
robot
facility
terminal
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020189627A
Other languages
English (en)
Inventor
雅樹 上山
Masaki Kamiyama
裕貴 向井
Hiroki Mukai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020189627A priority Critical patent/JP2022078741A/ja
Priority to US17/453,724 priority patent/US20220152836A1/en
Publication of JP2022078741A publication Critical patent/JP2022078741A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】施設を走行する際、ユーザから施設にいる他のユーザに操作を切り替えることができ、使い勝手の向上を図ることのできるロボットを提供する。【解決手段】ユーザU1のユーザ端末50による遠隔操作指示を受信する通信部31と、走行可能な胴部15と、胴部15に取付けられ向きを変更可能な頭部12と、カメラ13と、通信部31で受信された操作指示に基づいて胴部15、頭部12およびカメラ13を制御する制御部35と、を備え、ユーザU1のユーザ端末50による操作指示と、施設ユーザU2の施設端末60による操作指示とを切り替える操作切替入力部40を備え、操作切替入力部40は、操作指示を切り替える際に、ユーザU1にユーザ切替の可否を求め、ユーザU1によりユーザ端末50を介して操作指示の切り替えを承認した場合に、ユーザ端末50から施設端末60に操作指示を切り替える。【選択図】図2

Description

本発明は、ロボットに関する。
近年、テレビ会議技術、遠隔操作技術、及びロボット技術を組み合わせたテレプレゼンスロボットが注目されている。テレプレゼンスロボットは、通信元のユーザの分身として、会議に参加したり、様々な場所を移動したりする移動型ロボットも提案されている。
このようなテレプレゼンスロボットとして、従来、ディスプレイ、マイク、カメラ、タブレットPC、スマートフォン装置を支える交換可能な先頭付着装置と、全方向車輪によりどんな方向にも動く事ができるベース(土台)と、レーザー・ポインターと2Dと3Dの360度カメラ装置を組み込んだ中間部モジュールと、を備え、遠隔PCあるいはタブレットとロボット間の通信可能とし、タブレットから、ロボット内のモータ駆動部、超音波センサー、パノラマカメラ、そして処理などの遠隔処理ができる構成が開示されている(例えば、特許文献1参照)。
特開2014-506023号公報
しかしながら、前記特許文献の技術では、ロボットの遠隔操作は、通信元のユーザのみが操作することができるようになっている。
そのため、例えば、施設内などは、施設の施設管理者や案内人など(以下、施設ユーザと表現する)の方が、施設の通路や展示物などを熟知しているため、施設ユーザがロボットの操作を行った方が便利な場合がある。
この場合に、施設ユーザがロボットの操作を勝手に切り替えてしまうと、ユーザの意図に反してロボットが操作されてしまい、ユーザにとっては不都合な場合がある。
また、施設内で非常事態が発生した場合、ロボットが通路などを走行していると邪魔になり、施設内の人が速やかに避難を行うことができない問題がある。
そこで、本発明は前記した点に鑑みてなされたものであり、テレプレゼンスロボットを備えた構成施設で使用する際、ユーザから施設ユーザに操作を切り替えることができ、使い勝手の向上を図ることができ、さらに、施設での非常事態時に適正に対応することのできるロボットを提供することを目的とする。
前記目的を達成するために、本発明は、ユーザのユーザ端末による遠隔操作指示を受信する通信部と、走行可能な胴部と、胴部に取付けられ向きを変更可能な頭部と、撮影部と、前記通信部で受信された操作指示に基づいて前記胴部、前記頭部および前記撮影部を制御する制御部と、を備え、前記ユーザの前記ユーザ端末による操作指示と、他のユーザの他のユーザ端末による操作指示とを切り替える操作切替入力部を備え、前記操作切替入力部は、操作指示を切り替える際に、前記ユーザにユーザ切替の可否を求め、前記ユーザにより前記ユーザ端末を介して操作指示の切り替えを承認した場合に、前記ユーザ端末から前記他のユーザ端末に操作指示を切り替えることを特徴とする。
前記構成において、前記他のユーザの前記他のユーザ端末に操作指示を切り替えた場合、前記他のユーザの前記他のユーザ端末から、複数のロボットに操作指示を送ることが可能であり、前記複数のロボットは、互いに協調した動作が可能であることを特徴とする。
前記構成において、前記撮影部は、前記頭部に取付けられ、前記制御部は、前記他のユーザ端末による操作指示に切り替えた場合でも、前記ユーザ端末による前記頭部の動作指示を受け付けることを特徴とする。
前記構成において、前記制御部は、前記他のユーザ端末に操作指示を切り替えた場合、前記撮影部による撮影画像に基づいて前記他のユーザ、あるいは追随走行させる他のロボットを認識し、追随走行させるように制御することを特徴とする。
前記構成において、前記制御部は、前記撮影部により前記他のユーザ、あるいは他のロボットを撮影した撮影画像に基づいて、前記他のユーザ、あるいは他のロボットをあらかじめ登録しておき、前記制御部は、前記他のユーザ端末に操作指示を切り替えた場合、前記撮影部による撮影画像に基づく他のユーザ、あるいは他のロボットと、あらかじめ登録された前記他のユーザ、あるいは他のロボットとが一致した場合に、前記他のユーザ、あるいは他のロボットに追随走行させるように制御することを特徴とする。
前記構成において、前記制御部は、前記他のユーザ、あるいは他のロボットが持つIDを読み取ることで、前記他のユーザ、あるいは他のロボットを認識し、当該他のユーザ、あるいは他のロボットに追随走行させるように制御することを特徴とする。
前記構成において、前記制御部は、前記操作切替入力部に前記他のユーザ端末の操作切替の解除を行った場合、前記他のユーザ端末による操作を終了し、自動的に、前記ユーザの前記ユーザ端末による操作に切り替えることを特徴とする。
前記構成において、非常事態スイッチをさらに備え、前記非常事態スイッチが操作された場合、前記制御部は、前記ユーザに操作切替の承認を得ることなく、所定の待避場所に自律走行するように制御することを特徴とする。
前記構成において、1台のロボットの前記非常事態スイッチが操作された場合、避難通路を確保するよう他のロボットが協調して動作し、避難通路を確保した状態で待避場所に自律走行してその位置で待避状態を保持することを特徴とする。
前記構成において、前記制御部は、あらかじめ地図情報を取得しており、前記制御部は、前記待避場所をあらかじめ登録してあることを特徴とする。
前記構成において、前記制御部は、前記待避場所を現在地からも最も近い壁沿いに設定することを特徴とする。
前記構成において、前記制御部は、人の避難通路を登録しておき、前記避難通路以外の壁沿いに待避場所を設定することを特徴とする。
本発明によれば、他のユーザ端末による操作指示を切り替える際に、ユーザの承認を得るようにしているので、勝手にユーザから他のユーザに操作指示が切り替えられることを防止することができる。また、施設内において、他のユーザにより他のユーザ端末を操作を行うことができるので、施設を熟知した他のユーザによりロボットを操作させることができ、ユーザは、他のユーザの操作するロボットを介して施設内の見学などを行うことができる。
また、非常事態スイッチを操作することで、ロボットを所定の待避場所に待避させることができ、非常事態時にロボットが人の避難を妨げてしまうことを防止することができる。
本発明に係るロボットを適用した遠隔操作システムの実施の形態を示す概略構成図である。 本実施の形態のロボットの機能構成を示すブロック図である。 本実施の形態における施設内で施設ユーザがロボットを操作している状態を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の実施の形態に係るロボットを含む遠隔操作システムを示している。
この遠隔操作システムに利用されるロボット10は、テレビ会議技術、遠隔操作技術、及びロボット技術を組み合わせたテレプレゼンスロボットに分類されるロボット10である。このロボット10は、遠隔地のユーザU1が操作するユーザ端末50と通信ネットワーク100を介して通信する通信機能、走行機能、撮影機能、及び表示機能などを有している。
ユーザ端末50は、パーソナルコンピュータ、スマートフォン、又はタブレットなどのコンピュータ装置であり、所定のアプリケーションプログラムをインストールすることによって、ロボット10の遠隔操作装置として機能する。
図1に示すように、ロボット10は、ロボット本体11と、ロボット本体11の上部に取り付けられた頭部12と、頭部12の正面が向く側を撮影可能な撮影部としてのカメラ13とを備えている。
ロボット本体11は、ロボット10を移動させる移動部として機能する走行部14と、走行部14から上方に延出する胴部15と、胴部15の上部に延出する首部16とを備えている。
走行部14は、複数の車輪(図示せず)を有し、各車輪の向きや駆動方向を制御することによって前後左右に走行可能である。走行部14には、公知の走行ユニットを適用すればよく、例えば、操舵輪と駆動輪を別々に有する構成、又は左右の車輪の独立駆動によって前後左右に移動可能な構成を適用すればよい。
首部16は、単一の支柱形状に形成され、胴部15に上下に伸縮自在、かつ、左右に旋回自在に支持されている。
頭部12は、首部16の上端に支持され、首部16の作動によって首部16と一体に上下に移動したり、左右に旋回したりする。頭部12の正面には、公知の表示パネルを備えた表示部17が設けられる。図1には、表示部17にユーザU1の顔画像を表示した場合を示している。
首部16には、この首部16から頭部12の後方を通って頭部12の上方に延出する連結部材18が連結されている。この連結部材18の先端にカメラ13が支持されることによって、カメラ13が頭部12の正面が向く側を撮影可能に配置される。
カメラ13が頭部12の上方に配置されるので、例えば、ロボット10の頭部12の高さを平均的な人の頭部12位置よりも低くした場合に、カメラ13をロボット10の周辺の人物の顔に近い位置に配置でき、その人物の顔を撮影し易くなる。
本構成では、ロボット10を、走行部14と、単一の首部16と、単一の頭部12と、首部16から延びてカメラ13を支持する単一の連結部材18とを備えた形状にすることにより、走行部14よりも上方の部分を左右にコンパクト化し、シンプルな外観形状を実現している。また、部品点数の低減やコスト低減にも有利な形状である。
なお、ロボット10の形状は変更してもよい。例えば、頭部12の正面が向く側を撮影可能な範囲であれば、カメラ13を首部16または頭部12に配置してもよい。また、頭部12を正面視で丸型形状に形成したが、これに限定されず、頭部12を正面視で矩形形状などに形成してもよい。
図2は、ロボット10の機能構成を示すブロック図である。
ロボット10は、カメラ13と、マイク20と、表示部17と、スピーカ21と、頭部旋回用アクチュエータ22と、頭部上下用アクチュエータ23と、走行部アクチュエータ24と、制御装置30とを備えている。カメラ13は、撮影画像を示す撮影データを出力する。カメラ13は、頭部12の正面が向く側に向けられるので、少なくとも頭部12の正面側の風景、人物、及び他のロボット10等を撮影可能である。
なお、このカメラ13に、広角タイプ又は超広角タイプのカメラ13を適用して撮影範囲を上下及び左右等に拡げてもよい。また、複数台のカメラ13を備える構成にしてもよい。
マイク20は、ロボット10周囲の音声を集音し、集音した音声を示す音声データを出力する。例えば、マイク20は、頭部12の正面等に配置され、頭部12の周囲の音声を集音する。なお、マイク20を頭部12以外の位置に配置してもよい。
表示部17は、液晶表示パネルなどの公知の表示パネルを有し、制御装置30の制御の下、各種の情報を表示する。この表示部17は、頭部12の正面に設けられるので、頭部12の正面に各種の情報を表示させる。この表示部17には、例えば、図1に例示したようにユーザU1の顔画像を表示したり、ユーザU1をデフォルメしたキャラクター画像等を表示したりすることで、ロボット10の周囲の人物(他のロボット10を含む)がユーザU1を認識し易くなる。
スピーカ21は、ロボット10の周囲にユーザU1の音声等の各種の音声を発する。このスピーカ21は、例えば、頭部12の正面などに取り付けられ、頭部12の正面に向けて音声を発する。なお、スピーカ21を頭部12以外の位置に配置してもよい。
頭部旋回用アクチュエータ22は、頭部12を左右に旋回させるアクチュエータである。このアクチュエータは、例えば、首部16を左右に旋回させることによって頭部12とカメラ13とを一体的に左右に旋回させる。
頭部上下用アクチュエータ23は、頭部12を上下に移動させるアクチュエータである。この頭部上下用アクチュエータ23は、例えば、首部16を伸縮させることによって、頭部12とカメラ13とを上下に移動させる。頭部12を上下に移動させることによって頭部12の高さを変更したり、人の頷き動作と類似する動作をさせたりすることが可能になる。
走行部アクチュエータ24は、走行部14を前後左右に走行させるアクチュエータである。これらの頭部旋回用アクチュエータ22、頭部上下用アクチュエータ23および走行部アクチュエータ24には、電動モータや電動シリンダ等を備えた公知の機構を適用すればよい。また、頭部12を左右及び上下に移動させる構成は上記の構成に限らず、様々な公知構造を適用してもよい。
制御装置30は、通信部31と、情報取得部32と、表示制御部33と駆動制御部34とを備えた制御部35と、記憶部36と、位置検知部37と、周囲認識部38とを備えている。
通信部31は、無線通信網を利用してユーザ端末50と通信可能な通信モジュールを有している。制御装置30は、通信部31を利用することにより、ユーザU1によるユーザ端末50からの各種の指示、表示部17に表示させるユーザU1の画像、スピーカ21から出力させるユーザU1の音声などを取得する。また、制御装置30は、カメラ13の撮影データ、及びマイク20からの音声データを、通信部31を利用してユーザU1のユーザ端末50に送信する。これにより、ユーザU1側でロボット10の周囲の画像や音声を視聴できる。
情報取得部32は、通信部31が受信したデータ、カメラ13の撮影データ、及び、マイク20からの音声データなどを取得する。情報取得部32は、制御部35の制御の下、取得した各種のデータを、制御装置30の各部に出力する。これにより、例えば、送信対象のデータは通信部31に出力され、記憶対象のデータは記憶部36に出力され、検知や認識に使用するデータは、周囲認識部38に出力される。
表示制御部33は、制御部35の制御の下、表示部17の表示内容を制御する。例えば、表示制御部33は、通信部31を介して取得したユーザU1のリアルタイムの実写画像を表示部17に表示させたり、ユーザU1に指定されたキャラクター画像(例えば、ユーザU1のアバター画像)を表示部17に表示させたりする。
駆動制御部34は、制御部35の制御の下、ロボット10が有する駆動部、つまり、スピーカ21、頭部旋回用アクチュエータ22、頭部上下用アクチュエータ23、及び、走行部アクチュエータ24などを駆動する。駆動制御部34は、通信部31を介して受信したユーザU1の音声をスピーカ21から出力させる。これによって、ユーザU1はロボット10の周囲の人物などに話しかけることができる。また、上述したように、ユーザU1はロボット10の周囲の画像や音声を視聴できるので、ロボット10の周囲の人物などからの音声も視聴できる。これらによって、ユーザU1はロボット10の周囲の人などとコミュニケーションが可能になる。
また、駆動制御部34は、通信部31が受信したデータ、カメラ13の撮影データ、周囲認識部38の情報、位置検出部の情報に基づいて、頭部旋回用アクチュエータ22、頭部上下用アクチュエータ23、及び、走行部アクチュエータ24を制御することによって、ロボット10の動作を制御する。これによって、ロボット10の頭部12を動かしたり、ロボット10を前後左右に移動させたりすることが可能になる。本構成では、ユーザ端末50に操作用画面を表示し、この操作用画面を利用してユーザU1がロボット10の操作を行う。
制御部35は、CPU(Central Processing Unit)及び周辺回路などで構成されるECU(Electronic Control Unit)である。制御部35は、ロボット10の各部を中枢的に制御するコンピュータとして機能する。
例えば、制御部35は、通信部31を利用してインターネットなどの通信ネットワーク100にアクセスし、通信ネットワーク100を介して各種の情報を取得したり、各種のサービスを利用可能にしたりする。通信ネットワーク100を利用した会議システムサービスを利用することによって、ユーザU1がロボット10を介して他者とオンライン会議したり、チャットしたりすることが可能になる。
記憶部36は、制御部35などが利用する各種のデータを記憶する。具体的には、記憶部36は、制御部35が読み出して実行する制御プログラムなどを記憶する。制御プログラムは、ロボット10の各部を制御するためのプログラムであり、各種の制御を行うためのプログラムを含んでいる。
また、記憶部36には、ロボット10の基本動作を規定する情報、ユーザU1がロボット10を遠隔操作するための情報、ロボット10が自律走行するための情報が記憶されている。
位置検知部37は、ロボット10の現在位置を検知する処理を行う。例えば、位置検知部37は、GPSを利用した公知技術を利用して現在位置を検出する。
周囲認識部38は、ロボット10の周囲を認識するためのものであり、カメラ13による撮影画像に基づいて周囲の状況を把握する。なお、カメラ13の他、レーダやセンサなどを併用してもよい。
ロボット10は、ユーザU1によるユーザ端末50の操作により、ロボット10の駆動制御部34を介して走行部アクチュエータ24を制御することで、走行部14を駆動してロボット10を任意の場所に走行させることが可能となっている。
この場合に、ロボット10は、一般の道路の他、各種施設70内の走行も可能となっている。
ここで、施設70としては、例えば、博物館や美術館などの屋内施設や、観光地、動物園、テーマパーク、公園などの屋外施設が考えられる。
施設70には、施設70の管理者や施設ガイドなどの施設ユーザU2(他のユーザ)が存在している。施設ユーザU2は、ユーザU1のユーザ端末50と同様に、施設端末60を操作することができる。すなわち、ロボット10の通信部31は、施設ユーザU2の施設端末60とも通信可能であり、施設端末60の操作指示によるロボット10の操作も可能となっている。
施設ユーザU2は、施設70内部の展示物や見所、見学ルートなどを熟知しており、施設ユーザU2がロボット10を操作することで、ロボット10を効率よく走行させることが可能となる。
この場合に、ユーザU1がユーザ端末50により操作している状態で、施設ユーザU2がロボット10の操作を行うことができるようにしてしまうと、ユーザU1によるロボット10の管理が及ばなくなってしまい、また、ロボット10もユーザ端末50と施設端末60とのどちらの操作を優先するか判断できなくなってしまうおそれがある。
そのため、本実施の形態においては、施設ユーザU2が施設端末60を操作してロボット10を操作する場合には、施設ユーザU2がユーザU1に対して端末操作の切替要求を行うことができるようになっている。
次に、ユーザU1と施設ユーザU2との操作端末の切替制御について説明する。
図2に示すように、制御装置30は、操作切替入力部40を備えている。ロボット10が所定の施設70内に位置している場合に、所定の施設70に存在する施設管理者や施設ガイドなどの施設ユーザU2により、操作切替入力部40に対して端末操作の切替要求があったときに、制御装置30は、ユーザ端末50に端末操作の切替の可否を要求するものである。
端末操作の切替要求は、例えば、施設ユーザU2が、施設ユーザU2が管理する施設端末60を操作することで、施設端末60から切替要求信号が通信部31を介して制御装置30に送信されて操作切替入力部40に対して端末操作の切替要求が行われる。
なお、施設ユーザU2が、例えば、ロボット10の外部から操作可能なスイッチを操作することで、端末操作の切替要求を行うようにしてもよい。
操作切替入力部40に、端末操作の切替要求があった場合は、制御部35は、通信部31を介してユーザ端末50に端末操作の切替要求がある旨を通知する。ユーザ端末50は、切替要求の通知があった場合には、ユーザ端末50に、切替要求があった旨を表示させる。
ユーザU1は、ユーザ端末50により、端末操作の切替要求の可否を決定する。
ユーザU1が端末操作の切替要求を認めた場合には、ユーザU1がユーザ端末50を操作することで、切替を承認する旨の指示をロボット10に送信する。
制御装置30が通信部31を介して切替承認の指示を受信した場合、制御部35は、通信部31を介して施設端末60に切替容認の結果を通知するとともに、施設端末60を操作端末として設定する。
この状態で、制御部35は、施設端末60の操作に基づいて、ロボット10の制御を行う。
なお、施設端末60の操作に基づいて、ロボット10の制御を行う場合、施設端末60は、複数のロボット10の操作を行うことができるようにしてもよい。この場合には、複数のロボット10は、互いに連携(協調)して動作するようにしてもよいし、1台のロボット10に他のロボット10が追随走行するようにしてもよい。
図3は、施設70内において施設ユーザU2がロボットを操作している状態を示す図である。
図3に示すように、施設端末60は、ロボット10が所定の通路71を走行するように操作することで、制御装置30は、ロボット10の走行部アクチュエータ24を制御する。
また、ロボット10のカメラ13で撮影した撮影画像は、通信部31を介してユーザ端末50に送信され、これにより、ユーザU1は、ユーザ端末50を介してロボット10の撮影画像を視認することができる。
すなわち、ユーザU1は、ロボット10が施設70内を走行することで、施設70内の展示物や見所などの画像を視認することができる。
また、ユーザU1は、ユーザ端末50を操作して制御装置30に操作指示を行うことで、頭部旋回用アクチュエータ22および頭部上下用アクチュエータ23を駆動し、カメラ13の方向および高さを操作することが可能となっている。その他、ユーザU1は、ユーザ端末50を操作して制御装置30に操作指示を行うことで、カメラ13のズーム調整や露出調整などの制御も可能となっている。
これにより、施設70内において、ユーザU1が見たい箇所にカメラ13を向けることができ、ユーザU1は、施設70内の好きな箇所を自由に視認することが可能となる。
また、施設ユーザU2は、マイク20を介して施設70内の展示物や見所などについて、解説を行うこともできる。制御装置30は、マイク20により情報取得部32を介して音声を取得した場合、この音声情報をユーザ端末50に送信する。ユーザU1は、ユーザ端末50に送られる音声情報により施設70の解説を視聴することができる。
すなわち、ロボット10を介することで、ユーザU1は、施設70内の見学および解説を楽しむことが可能となる。
なお、施設ユーザU2の施設端末60は、ロボット10の制御装置30の記憶部36にあらかじめ登録しておき、あらかじめ登録してある施設端末60からの端末操作の切替要求のみを受け付けるようにしてもよい。
また、例えば、施設ユーザU2の画像を制御装置30の記憶部36にあらかじめ登録しておき、施設ユーザU2をカメラ13による撮影画像で認識することで、適正な施設ユーザU2及び施設端末60であることを確認するようにしてもよい。
さらに、施設ユーザU2または施設端末60にあらかじめIDを配布しておき、ロボット10のカメラ13によりIDをスキャンすることで、施設ユーザU2または施設端末60の認識や登録を行うようにしてもよい。
これにより、登録していない第三者の端末によりロボット10が操作されてしまうことを防止できる。
また、本実施の形態においては、施設端末60によりロボット10を操作することができるようにしたが、施設端末60による操作の他、ロボット10を施設ユーザU2、あるいは他のロボット10への追随制御に切り替えるようにしてもよい。
この場合には、制御装置30は、カメラ13により施設ユーザU2を撮影し、その撮影画像を解析することで、施設ユーザU2、あるいは他のロボット10を認識する。
このとき、前述のように、施設ユーザU2の画像を制御装置30の記憶部36にあらかじめ登録しておき、施設ユーザU2、あるいは他のロボット10をカメラ13による撮影画像で認識することで、適正な施設ユーザU2、あるいは他のロボット10であることを確認するようにしてもよい。また、施設ユーザU2、あるいは他のロボット10があらかじめ取得したIDをスキャンすることで、施設ユーザU2、あるいは他のロボット10を確認するようにしてもよい。
制御装置30が施設ユーザU2、あるいは他のロボット10を認識した場合は、制御装置30は、カメラ13による撮影画像を情報取得部32で解析し、この解析結果に基づいて、駆動制御部34により走行部アクチュエータ24を制御することで、施設ユーザU2、あるいは他のロボット10に対して所定の間隔を持って追随させるように走行制御する。
このように施設ユーザU2、あるいは他のロボット10への追随制御を行うことにより、施設ユーザU2、あるいは他のロボット10が施設70内の所定の場所、例えば、施設70内の展示物や見所などに沿って移動することで、ロボット10を施設70内の所定の場所に案内することができる。ユーザU1は、ユーザ端末50を介してロボット10、あるいは他のロボット10のカメラ13が撮影した撮影画像を視認することができる。
そして、施設ユーザU2により、操作切替入力部40に施設端末60の操作切替の解除を行った場合、制御装置30は、施設端末60による操作を終了し、自動的に、ユーザU1のユーザ端末50による操作に切り替える。
次に、施設70において非常事態が発生した場合の制御について説明する。
本実施の形態においては、制御装置30は、施設70において、例えば、火事や地震などの非常事態が発生した場合に対応するための非常事態スイッチ41を備えている。
なお、非常事態スイッチ41は、ロボット10の他、施設端末60に設けるようにしてもよいし、施設70内に存在するロボット10を統括して管理する施設管理部(図示せず)に設けるようにしてもよい。
非常事態スイッチ41が操作された場合、制御装置30は、駆動制御部34により走行部アクチュエータ24を駆動制御し、ロボット10を所定の待避場所に待避させるように制御する。
この場合に、非常事態スイッチ41が操作された場合、該当する施設70に存在するすべてのロボット10を待避場所に待避させるようにしてもよい。
待避場所としては、施設70にいる避難者の避難通路を確保するため、非常事態の際に避難することを邪魔しない場所とされている。
この場合に、ロボット10が存在するエリアや施設の地図情報を施設端末60などにあらかじめ登録しておく。この地図情報ップには、施設内の壁や通路その他オブジェクトの位置が詳細に登録されており、さらに、地図情報には、非常事態の際におけるロボット10の避難場所や避難経路が登録されている。施設の管理者は、地図情報に避難場所や避難通路を任意に設定することができる。
避難場所としては、例えば、ロボット10の現時点から最も近い施設の壁沿いや、通路の端、ホールの端などが考えられる。
ロボット10は、非常事態スイッチ41が操作された場合に、ロボット10は自律走行で現在位置から、あらかじめ登録された地図情報の避難経路に従って避難場所まで移動する。ロボット10は、所定の避難場所で待避状態を保持する。
このようにロボット10が避難場所まで移動する場合には、避難通路を移動する施設にいる避難者の流れに沿って移動することが好ましい。
この際に、複数のロボットが横1列になって避難通路を移動すると、避難者の避難を妨害してしまうおそれがあるため、近くにいる他のロボットと連携(協調)して、例えば、縦1列になって移動することが望ましい。
これにより、非常事態の発生時に、ロボット10を待避させることができ、人の避難を円滑に行うことが可能となる。
以上述べたように、本実施形態においては、ユーザU1のユーザ端末50による遠隔操作指示を受信する通信部31と、走行可能な胴部15と、胴部15に取付けられ向きを変更可能な頭部12と、カメラ13(撮影部)と、通信部31で受信された操作指示に基づいて胴部15、頭部12およびカメラ13を制御する制御部35と、を備え、ユーザU1のユーザ端末50による操作指示と、施設ユーザU2(他のユーザ)の施設端末60(他のユーザ端末)による操作指示とを切り替える操作切替入力部40を備え、操作切替入力部40は、操作指示を切り替える際に、ユーザU1にユーザ切替の可否を求め、ユーザU1によりユーザ端末50を介して操作指示の切り替えを承認した場合に、ユーザ端末50から施設端末60に操作指示を切り替える。
これにより、施設端末60による操作指示を切り替える際に、ユーザU1の承認を得るようにしているので、勝手にユーザU1から施設ユーザU2に操作指示が切り替えられることを防止することができる。また、施設70内において、施設ユーザU2により施設端末60を操作を行うことができるので、施設70を熟知した施設ユーザU2によりロボット10を操作させることができ、ユーザU1は、施設ユーザU2の操作するロボット10を介して施設70内の見学などを行うことができる。
また、本実施形態においては、制御部35は、施設端末60(他のユーザ端末)による操作指示に切り替えた場合でも、施設端末60による頭部12の動作指示を受け付ける。
これにより、施設ユーザU2によりロボット10の操作を行っている場合でも、ユーザU1により頭部12を操作することができるので、施設ユーザU2の操作にかかわらず、頭部12に設けたカメラ13により、ユーザU1が見たい箇所を選択することができる。
また、本実施形態においては、制御部35は、施設端末60(他のユーザ端末)に操作指示を切り替えた場合、カメラ13(撮影部)による撮影画像に基づいて施設ユーザU2(他のユーザ)を認識し、施設ユーザU2に追随走行させるように制御する。
これにより、施設ユーザU2は、施設70内を歩行するだけで、施設端末60の操作を行うことなく、ロボット10を追随走行させることができる。
また、本実施形態においては、制御部35は、カメラ13(撮影部)により施設ユーザU2(他のユーザ)を撮影した撮影画像に基づいて、施設ユーザU2をあらかじめ登録しておき、制御部35は、施設端末60(他のユーザ端末)に操作指示を切り替えた場合、カメラ13による撮影画像に基づく施設ユーザU2と、あらかじめ登録された施設ユーザU2とが一致した場合に、施設ユーザU2に追随走行させるように制御する。
これにより、カメラ13による施設ユーザU2の撮影画像により、あらかじめ登録された施設ユーザU2かを認識し、あらかじめ登録された施設ユーザU2に対してロボット10を追随走行させることができる。
また、本実施形態においては、制御部35は、施設ユーザU2(他のユーザ)が持つIDタグを読み取ることで、施設ユーザU2を認識し、当該施設ユーザU2に追随走行させるように制御する。
これにより、IDタグにより、あらかじめ登録された施設ユーザU2かを認識し、あらかじめ登録された施設ユーザU2に対してロボット10を追随走行させることができる。
また、本実施形態においては、制御部35は、操作切替入力部40に施設端末60(他のユーザ端末)の操作切替の解除を行った場合、施設端末60による操作を終了し、自動的に、ユーザU1のユーザ端末50による操作に切り替える。
これにより、施設端末60の操作切替の解除をした場合に、直ちにユーザ端末50による操作を行うことができる。
また、本実施形態においては、非常事態スイッチ41をさらに備え、非常事態スイッチ41が操作された場合、制御部35は、所定の待避場所に自律走行するように制御する。
これにより、非常事態スイッチ41を操作することで、ロボット10を所定の待避場所に待避させることができ、非常事態時にロボット10が人の避難を妨げてしまうことを防止することができる。
また、本実施形態においては、制御部35は、あらかじめ施設70の地図情報を取得しており、制御部35は、待避場所をあらかじめ登録してある。
これにより、施設70の地図情報に基づいて、ロボット10を待避させることができる。
また、本実施形態においては、制御部35は、待避場所を現在地からも最も近い壁沿いに設定する。
これにより、ロボット10を現在地から最も近い壁沿いに待避させるので、ロボット10の待避を短時間で行うことができ、壁沿いに待避させることで人の避難を邪魔することを防止することができる。
上述の実施形態は、あくまでも本発明の一実施の態様であり、本発明の趣旨を逸脱しない範囲で任意に変形、及び応用が可能である。
10 ロボット
11 ロボット本体
12 頭部
13 カメラ
14 走行部
15 胴部
16 首部
17 表示部
18 連結部材
20 マイク
21 スピーカ
22 頭部旋回用アクチュエータ
23 頭部上下用アクチュエータ
24 走行部アクチュエータ
30 制御装置
31 通信部
32 情報取得部
33 表示制御部
34 駆動制御部
35 制御部
36 記憶部
37 位置検知部
38 周囲認識部
40 操作切替入力部
41 非常事態スイッチ
50 ユーザ端末
60 施設端末
70 施設
100通信ネットワーク
U1 ユーザ
U2 施設ユーザ
そこで、本発明は前記した点に鑑みてなされたものであり、テレプレゼンスロボットを施設で使用する際、ユーザから施設ユーザに操作を切り替えることができ、使い勝手の向上を図ることができ、さらに、施設での非常事態時に適正に対応することのできるロボットを提供することを目的とする。
前記構成において、1台のロボットの前記非常事態スイッチが操作された場合、避難通路を確保するよう他のロボットが協調して動作し、避難通路を確保した状態で待避場所に自律走行して前記待避場所で待避状態を保持することを特徴とする。
本発明によれば、他のユーザ端末による操作指示に切り替える際に、ユーザの承認を得るようにしているので、勝手にユーザから他のユーザに操作指示が切り替えられることを防止することができる。また、施設内において、他のユーザにより他のユーザ端末を操作を行うことができるので、施設を熟知した他のユーザによりロボットを操作させることができ、ユーザは、他のユーザの操作するロボットを介して施設内の見学などを行うことができる。
また、非常事態スイッチを操作することで、ロボットを所定の待避場所に待避させることができ、非常事態時にロボットが人の避難を妨げてしまうことを防止することができる。
首部16には、この首部16から頭部12の後方を通って頭部12の上方に延出する連結部材18が連結されている。この連結部材18の先端にカメラ13が支持されることによって、カメラ13が頭部12の正面が向く側を撮影可能に配置される。
カメラ13が頭部12の上方に配置されるので、例えば、ロボット10の頭部12の高さを平均的な人の頭部位置よりも低くした場合に、カメラ13をロボット10の周辺の人物の顔に近い位置に配置でき、その人物の顔を撮影し易くなる。
スピーカ21は、ロボット10の周囲にユーザU1の音声等の各種の音声を発する。このスピーカ21は、例えば、頭部12の正面などに取り付けられ、頭部12の前方に向けて音声を発する。なお、スピーカ21を頭部12以外の位置に配置してもよい。
頭部旋回用アクチュエータ22は、頭部12を左右に旋回させるアクチュエータである。このアクチュエータは、例えば、首部16を左右に旋回させることによって頭部12とカメラ13とを一体的に左右に旋回させる。
また、駆動制御部34は、通信部31が受信したデータ、カメラ13の撮影データ、周囲認識部38の情報、位置検知部37の情報に基づいて、頭部旋回用アクチュエータ22、頭部上下用アクチュエータ23、及び、走行部アクチュエータ24を制御することによって、ロボット10の動作を制御する。これによって、ロボット10の頭部12を動かしたり、ロボット10を前後左右に移動させたりすることが可能になる。本構成では、ユーザ端末50に操作用画面を表示し、この操作用画面を利用してユーザU1がロボット10の操作を行う。
操作切替入力部40に、端末操作の切替要求があった場合は、制御部35は、通信部31を介してユーザ端末50に端末操作の切替要求がある旨を通知する。切替要求の通知があった場合には、ユーザ端末50に、切替要求があった旨を表示させる。
ユーザU1は、ユーザ端末50により、端末操作の切替要求の可否を決定する。
ユーザU1が端末操作の切替要求を認めた場合には、ユーザU1がユーザ端末50を操作することで、切替を承認する旨の指示をロボット10に送信する。
待避場所としては、施設70にいる避難者の避難通路を確保するため、非常事態の際に避難することを邪魔しない場所とされている。
この場合に、ロボット10が存在するエリアや施設の地図情報を施設端末60などにあらかじめ登録しておく。この地図情報には、施設内の壁や通路その他オブジェクトの位置が詳細に登録されており、さらに、地図情報には、非常事態の際におけるロボット10の避難場所や避難経路が登録されている。施設の管理者は、地図情報に避難場所や避難通路を任意に設定することができる。
避難場所としては、例えば、ロボット10の現地点から最も近い施設の壁沿いや、通路の端、ホールの端などが考えられる。
非常事態スイッチ41が操作された場合に、ロボット10は自律走行で現在位置から、あらかじめ登録された地図情報の避難経路に従って避難場所まで移動する。ロボット10は、所定の避難場所で待避状態を保持する。
このようにロボット10が避難場所まで移動する場合には、避難通路を移動する施設にいる避難者の流れに沿って移動することが好ましい。
この際に、複数のロボットが横1列になって避難通路を移動すると、避難者の避難を妨害してしまうおそれがあるため、近くにいる他のロボットと連携(協調)して、例えば、縦1列になって移動することが望ましい。
これにより、非常事態の発生時に、ロボット10を待避させることができ、人の避難を円滑に行うことが可能となる。
以上述べたように、本実施形態においては、ユーザU1のユーザ端末50による遠隔操作指示を受信する通信部31と、走行可能な胴部15と、胴部15に取付けられ向きを変更可能な頭部12と、カメラ13(撮影部)と、通信部31で受信された操作指示に基づいて胴部15、頭部12およびカメラ13を制御する制御部35と、を備え、ユーザU1のユーザ端末50による操作指示と、施設ユーザU2(他のユーザ)の施設端末60(他のユーザ端末)による操作指示とを切り替える操作切替入力部40を備え、操作切替入力部40は、操作指示を切り替える際に、ユーザU1にユーザ切替の可否を求め、ユーザU1によりユーザ端末50を介して操作指示の切り替えを承認した場合に、ユーザ端末50から施設端末60に操作指示を切り替える。
これにより、施設端末60による操作指示に切り替える際に、ユーザU1の承認を得るようにしているので、勝手にユーザU1から施設ユーザU2に操作指示が切り替えられることを防止することができる。また、施設70内において、施設ユーザU2により施設端末60操作を行うことができるので、施設70を熟知した施設ユーザU2によりロボット10を操作させることができ、ユーザU1は、施設ユーザU2の操作するロボット10を介して施設70内の見学などを行うことができる。

Claims (12)

  1. ユーザのユーザ端末による遠隔操作指示を受信する通信部と、
    走行可能な胴部と、
    胴部に取付けられ向きを変更可能な頭部と、
    撮影部と、
    前記通信部で受信された操作指示に基づいて前記胴部、前記頭部および前記撮影部を制御する制御部と、を備え、
    前記ユーザの前記ユーザ端末による操作指示と、他のユーザの他のユーザ端末による操作指示とを切り替える操作切替入力部を備え、
    前記操作切替入力部は、操作指示を切り替える際に、前記ユーザにユーザ切替の可否を求め、前記ユーザにより前記ユーザ端末を介して操作指示の切り替えを承認した場合に、前記ユーザ端末から前記他のユーザ端末に操作指示を切り替えることを特徴とするロボット。
  2. 前記他のユーザの前記他のユーザ端末に操作指示を切り替えた場合、
    前記他のユーザの前記他のユーザ端末から、複数のロボットに操作指示を送ることが可能であり、前記複数のロボットは、互いに協調した動作が可能であることを特徴とする請求項1に記載のロボット。
  3. 前記撮影部は、前記頭部に取付けられ、
    前記制御部は、前記他のユーザ端末による操作指示に切り替えた場合でも、前記ユーザ端末による前記頭部の動作指示を受け付けることを特徴とする請求項1または請求項2に記載のロボット。
  4. 前記制御部は、前記他のユーザ端末に操作指示を切り替えた場合、前記撮影部による撮影画像に基づいて前記他のユーザ、あるいは追随走行させる他のロボットを認識し、追随走行させるように制御することを特徴とする請求項1から請求項3のいずれか一項に記載のロボット。
  5. 前記制御部は、前記撮影部により前記他のユーザ、あるいは他のロボットを撮影した撮影画像に基づいて、前記他のユーザ、あるいは他のロボットをあらかじめ登録しておき、
    前記制御部は、前記他のユーザ端末に操作指示を切り替えた場合、前記撮影部による撮影画像に基づく他のユーザ、あるいは他のロボットと、あらかじめ登録された前記他のユーザ、あるいは他のロボットとが一致した場合に、前記他のユーザ、あるいは他のロボットに追随走行させるように制御することを特徴とする請求項4に記載のロボット。
  6. 前記制御部は、前記他のユーザ、あるいは他のロボットが持つIDを読み取ることで、前記他のユーザ、あるいは他のロボットを認識し、当該他のユーザ、あるいは他のロボットに追随走行させるように制御することを特徴とする請求項4に記載のロボット。
  7. 前記制御部は、前記操作切替入力部に前記他のユーザ端末の操作切替の解除を行った場合、前記他のユーザ端末による操作を終了し、自動的に、前記ユーザの前記ユーザ端末による操作に切り替えることを特徴とする請求項1から請求項6のいずれか一項に記載のロボット。
  8. 非常事態スイッチをさらに備え、前記非常事態スイッチが操作された場合、前記制御部は、前記ユーザに操作切替の承認を得ることなく、所定の待避場所に自律走行するように制御することを特徴とする請求項1に記載のロボット。
  9. 1台のロボットの前記非常事態スイッチが操作された場合、避難通路を確保するよう他のロボットが協調して動作し、避難通路を確保した状態で待避場所に自律走行してその位置で待避状態を保持することを特徴とする請求項8に記載のロボット。
  10. 前記制御部は、あらかじめ地図情報を取得しており、
    前記制御部は、前記待避場所をあらかじめ登録してあることを特徴とする請求項8または請求項9に記載のロボット。
  11. 前記制御部は、前記待避場所を現在地からも最も近い壁沿いに設定することを特徴とする請求項10に記載のロボット。
  12. 前記制御部は、人の避難通路を登録しておき、前記避難通路以外の壁沿いに待避場所を設定することを特徴とする請求項11に記載のロボット。
JP2020189627A 2020-11-13 2020-11-13 ロボット Pending JP2022078741A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020189627A JP2022078741A (ja) 2020-11-13 2020-11-13 ロボット
US17/453,724 US20220152836A1 (en) 2020-11-13 2021-11-05 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020189627A JP2022078741A (ja) 2020-11-13 2020-11-13 ロボット

Publications (1)

Publication Number Publication Date
JP2022078741A true JP2022078741A (ja) 2022-05-25

Family

ID=81588162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189627A Pending JP2022078741A (ja) 2020-11-13 2020-11-13 ロボット

Country Status (2)

Country Link
US (1) US20220152836A1 (ja)
JP (1) JP2022078741A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240063415A (ko) * 2022-11-03 2024-05-10 주식회사 트위니 태스크를 할당하는 서버 및 할당된 태스크에 따라 배송을 수행하는 로봇을 포함하는 피킹 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210237116A1 (en) * 2020-02-03 2021-08-05 Ross-Hime Designs, Inc. Robotic marking system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8706297B2 (en) * 2009-06-18 2014-04-22 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
KR102055677B1 (ko) * 2017-02-02 2019-12-13 엘지전자 주식회사 이동 로봇 및 그 제어방법
JP7013689B2 (ja) * 2017-06-21 2022-02-01 富士フイルムビジネスイノベーション株式会社 遠隔操作型移動ロボットおよびロボット制御システム
JP2019008585A (ja) * 2017-06-26 2019-01-17 富士ゼロックス株式会社 ロボット制御システム
JP7106984B2 (ja) * 2018-05-22 2022-07-27 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration
US11327503B2 (en) * 2019-08-18 2022-05-10 Cobalt Robotics Inc. Surveillance prevention by mobile robot
KR20210045022A (ko) * 2019-10-16 2021-04-26 네이버 주식회사 인식된 사람과 연관된 개인 영역에 기반하여 로봇을 제어하는 방법 및 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240063415A (ko) * 2022-11-03 2024-05-10 주식회사 트위니 태스크를 할당하는 서버 및 할당된 태스크에 따라 배송을 수행하는 로봇을 포함하는 피킹 시스템
WO2024096183A1 (en) * 2022-11-03 2024-05-10 Twinny Co., Ltd. Picking system including server for assigning task and robot for performing delivery according to assigned task
KR102669256B1 (ko) * 2022-11-03 2024-05-27 주식회사 트위니 태스크를 할당하는 서버 및 할당된 태스크에 따라 배송을 수행하는 로봇을 포함하는 피킹 시스템

Also Published As

Publication number Publication date
US20220152836A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
US10270972B2 (en) Portable video communication system
JP4770178B2 (ja) カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
JP4512830B2 (ja) コミュニケーションロボット
JP2015089119A (ja) 物体を追跡するためのシステム及び方法
US9374554B1 (en) Display selection for video conferencing
JP2019062308A (ja) カメラ付き移動体、カメラ付き移動体制御システム、及びプログラム
JP2022078741A (ja) ロボット
JP2009166184A (ja) ガイドロボット
JP2019156298A (ja) 車両遠隔操作装置及び車両遠隔操作方法
JPWO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7340063B2 (ja) 警備システム及び監視表示装置
JP7402145B2 (ja) 遠隔操作システム、移動ロボット、及び操作端末
WO2012008553A1 (ja) ロボットシステム
JP2007074081A (ja) 車載用通信装置
WO2022097211A1 (ja) ロボット
JP7402784B2 (ja) 遠隔表示システム、ロボット、及び表示端末
WO2022097210A1 (ja) ロボット
US20240087339A1 (en) Information processing device, information processing system, and information processing method
KR19990015925A (ko) 모니터의 음성인식 장치 및 그 인식방법
US20220305665A1 (en) Robot, communication system, communication method, and computer readable medium
KR20170098483A (ko) 안내용 로봇
JP2023136193A (ja) 会議システムの処理方法及び会議システム
JP2023014867A (ja) コミュニケーションシステムおよび情報処理装置
JP2024039763A (ja) 情報処理システム
JP2023153304A (ja) 通信端末、プログラム、表示方法、記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115