JP2023156710A - 遠隔操作システム、遠隔操作方法及びプログラム - Google Patents

遠隔操作システム、遠隔操作方法及びプログラム Download PDF

Info

Publication number
JP2023156710A
JP2023156710A JP2022066224A JP2022066224A JP2023156710A JP 2023156710 A JP2023156710 A JP 2023156710A JP 2022066224 A JP2022066224 A JP 2022066224A JP 2022066224 A JP2022066224 A JP 2022066224A JP 2023156710 A JP2023156710 A JP 2023156710A
Authority
JP
Japan
Prior art keywords
robot
instruction
information
terminal
monitoring terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022066224A
Other languages
English (en)
Inventor
優香 岩永
Yuka Iwanaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022066224A priority Critical patent/JP2023156710A/ja
Priority to US18/163,453 priority patent/US20230333550A1/en
Priority to CN202310177707.9A priority patent/CN116901108A/zh
Publication of JP2023156710A publication Critical patent/JP2023156710A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Figure 2023156710000001
【課題】ロボットがシステムの想定外又は認識外の事態を踏まえて動作することが可能な遠隔操作システム、遠隔操作方法及びプログラムを提供する。
【解決手段】遠隔操作システム1は、操作端末30を備える。操作端末30は、ロボット10を基準として所定範囲内に位置する監視端末20から、ロボット10の動作の指示を提案する指示提案情報を受信したことに応じて、指示提案情報及びロボット10の位置に少なくとも基づいて表示画像を生成し、表示画像を表示し、動作についてロボット10に指示するための指示情報の入力を操作者から受け付けたことに応じて、指示情報をロボット10に送信する。
【選択図】図1

Description

本開示は遠隔操作システム、遠隔操作方法及びプログラムに関し、特にロボットを遠隔操作するための遠隔操作システム、遠隔操作方法及びプログラムに関する。
近年、操作者が適切に作業用のロボットを遠隔操作するための方法が提案されている。例えば特許文献1では、ロボットの遠隔操作システムにおいて、ロボットが作業場を撮影した撮像画像に基づいてロボットが作業対象とする対象物に対して必要な作業を特定し、当該作業の情報を操作者に送信するロボット制御システムが開示されている。
特開2021-160072号公報
上述の特許文献1に記載のシステムでは、ロボットは、システムが想定若しくは認識できる範囲内の作業、例えばロボットの視野範囲内の作業や、操作者が遠隔地から画面越しに視認できる範囲の作業に限られる。したがってロボットは、システムの想定外・認識外の事態、特に操作者の想定外・認識外の事態を踏まえて動作することができない。
本開示の目的は、上述した課題に鑑み、ロボットが、システムの想定外又は認識外の事態を踏まえて動作することが可能な遠隔操作システム、遠隔操作方法及びプログラムを提供することにある。
本開示の一態様にかかる遠隔操作システムは、操作端末を備える。前記操作端末は、ロボットを基準として所定範囲内に位置する監視端末から、ロボットの動作の指示を提案する指示提案情報を受信したことに応じて、前記指示提案情報及び前記ロボットの位置に少なくとも基づいて表示画像を生成し、前記表示画像を表示し、動作についてロボットに指示するための指示情報の入力を操作者から受け付けたことに応じて、前記指示情報を前記ロボットに送信する。これによりシステムが想定できない又は認識できないような事態を、操作者が想定又は認識した上でロボットに対して動作を指示できる。
上記遠隔操作システムにおいて、前記操作端末は、前記表示画像に、前記指示提案情報が示す提案の採用可否に関する選択肢を重畳表示し、前記指示提案情報の採用可否の選択を受け付け、前記選択に応じた指示情報を前記ロボットに送信してよい。操作者は採用可否を選択すればよいため、迅速に指示を遂行できる。
また上記遠隔操作システムは、前記監視端末をさらに備えてよい。前記監視端末は、前記ロボットの周辺環境を示した画像に対して手書き入力画像の入力を監視者から受け付けたことに応じて、前記手書き入力画像に基づいて指示提案情報を生成し、前記指示提案情報を前記操作端末に送信してよい。これにより監視者が指示提案をリアルタイムで簡易に与えることができる。また提案する指示は、予め定められた内容に限定されないため、監視者は動的かつ柔軟な指示を提案できる。
また上記遠隔操作システムは、前記ロボットをさらに備えてよい。前記ロボットは、動作モードとして、前記操作端末から受信した指示情報に基づいて動作する通常モードと、前記ロボットが生成した動作計画又は前記監視端末から受信した指示情報に基づいて動作する介入モードとを有してよい。そして前記ロボットは、前記監視端末が前記指示提案情報を送信した後所定時間内に、前記操作端末から指示情報を受信しなかった場合、前記通常モードから前記介入モードに切り替えてよい。これにより、指示提案に操作者が気付いていない場合や操作者が決断に時間を要している場合にも、現場で柔軟に対応して危険を回避できる。
また上記遠隔操作システムにおいて、前記監視端末は、前記介入モードにおいて、監視者から指示情報の入力を受け付けたことに応じて、前記指示情報をロボットに送信してよい。これにより現場にいる監視者が柔軟に対応して危険を回避できる。
また上記遠隔操作システムにおいて、前記操作端末は、前記ロボットが前記介入モードに切り替わったことに応じて、前記表示画像にモード情報を重畳表示してよい。これにより、ロボットが介入モードに移行したことを操作者が即座に把握できる。
本開示の一態様にかかる遠隔操作方法は、ロボットを基準として所定範囲内に位置する監視端末から、ロボットの動作の指示を提案する指示提案情報を受信したことに応じて、前記指示提案情報及び前記ロボットの位置に少なくとも基づいて表示画像を生成し、表示画像を表示し、動作についてロボットに指示するための指示情報の入力を操作者から受け付けたことに応じて、前記指示情報を前記ロボットに送信する。これによりシステムが想定できない又は認識できないような事態を、操作者が想定又は認識した上でロボットに対して動作を指示できる。
本開示の一態様にかかるプログラムは、ロボットを基準として所定範囲内に位置する監視端末から、ロボットの動作の指示を提案する指示提案情報を受信したことに応じて、前記指示提案情報及び前記ロボットの位置に少なくとも基づいて表示画像を生成する生成機能と、表示画像を表示する表示機能と、動作についてロボットに指示するための指示情報の入力を操作者から受け付けたことに応じて、前記指示情報を前記ロボットに送信する送信機能とをコンピュータに実現させる。これによりシステムが想定できない又は認識できないような事態を、操作者が想定又は認識した上でロボットに対して動作を指示できる。
本開示により、ロボットがシステムの想定外又は認識外の事態を踏まえて動作することが可能な遠隔操作システム、遠隔操作方法及びプログラムを提供できる。
本実施形態にかかる遠隔操作システムの構成を示すブロック図である。 本実施形態にかかる遠隔操作システムの使用状況を示す図である。 本実施形態にかかるロボットの外観構成例を示す外観斜視図である。 本実施形態にかかるロボットの機能構成を示すブロック図である。 本実施形態にかかるロボットの動作の一例を示すフローチャートである。 本実施形態にかかるロボットの動作の一例を示すフローチャートである。 本実施形態にかかる監視端末の機能構成を示すブロック図である。 本実施形態にかかる監視端末の動作の一例を示すフローチャートである。 本実施形態にかかる手書き入力画像の一例を示す図である。 本実施形態にかかる操作端末の機能構成を示すブロック図である。 本実施形態にかかる操作端末の動作の一例を示すフローチャートである。 本実施形態にかかる表示部の表示の一例を示す図である。 本実施形態の第1変形例にかかるロボットの動作の一例を示すフローチャートである。 本実施形態の第2変形例にかかるロボットの動作の一例を示すフローチャートである。
以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<実施形態1>
まず本開示の実施形態1について説明する。図1は、本実施形態にかかる遠隔操作システム1の構成を示すブロック図である。遠隔操作システム1は、ロボットを遠隔で操作するためのコンピュータシステムである。
遠隔操作システム1は、ロボット10と、監視端末20と、操作端末30とを備え、これらがネットワークNを介して通信可能に構成される。
ネットワークNは、有線又は無線のネットワークである。ネットワークNは、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット及びその他の回線の少なくとも1つ、又はこれらの組み合わせであってよい。
ロボット10は、操作端末30が遠隔で操作する対象である移動体の一例である。ロボット10は、ネットワークNを介して自己の位置情報や、自己に搭載されたセンサのセンシングデータを定期的に操作端末30に送信している。そしてロボット10は、ネットワークNを介して操作端末30からの指示を受け、当該指示に従って動作する。またロボット10は、動作モードによっては自律的に動作できるように構成されている。
監視端末20は、ロボット10の周囲に位置する端末装置である。本実施形態では、監視端末20は、ロボット10の周囲に位置する監視者が携帯し、使用する端末装置である。尚、ロボット10の周囲に位置するとは、ロボット10を基準として所定範囲内に位置することであってよい。監視端末20は、例えばタッチパネルを有するスマートフォンやタブレット端末である。
監視端末20を使用する監視者は、ロボット10とは異なる視野でロボットの周囲の状況を把握している。つまり監視者は、動的な環境変化やロボット10がセンサ等では認識できない範囲の状況を把握できる。監視者は、ロボット10の周囲の状況に応じて、監視端末20を用いて、ロボット10に指示すべき動作を操作端末30に提案する。以下では、ロボット10の動作の指示の提案にかかる情報を指示提案情報と称する。
操作端末30は、操作者が使用し、ロボット10を遠隔で操作するための指示を発する端末装置である。操作端末30は、パーソナルコンピュータ、スマートフォン又はタブレット端末である。操作端末30は、ロボット10の位置情報やセンシングデータを受信し、位置情報やセンシングデータと地図情報とに基づいて、ロボット10が認識できる範囲内の環境を表示部(不図示)に表示する。そして表示を閲覧した操作者は、操作端末30を用いて、ロボット10に対してロボット10の動作に関して指示する。これにより操作者は、ロボット10が認識できる範囲内の情報に基づいて、ロボット10の動作を適切に指示できる。尚、以下では、動作についてロボットに指示するための情報を指示情報と称する。
また操作端末30は、監視端末20から指示提案情報を受信した場合は、その旨を表示部に視覚的に表示する。そして表示を閲覧した操作者は、操作端末30を用いて、ロボット10に対してロボット10の動作に関する指示情報を送信する。これにより操作者は、ロボット10が認識できない範囲の情報に基づいて、ロボット10の動作を動的かつ柔軟に指示できる。
図2は、本実施形態にかかる遠隔操作システム1の使用状況を示す図である。例えばロボット10は、商店街で通行人に店舗を紹介したり、通行人による荷物の運搬を支援したりするために用いられる。操作者はロボット10の表示画面越しに、通行人と会話できるようになっている。
ロボット10の周囲には監視者Gがおり、ロボット10の周囲の状況を俯瞰しながら監視している。例えば監視者Gは、ロボット10の視野範囲外である前方から複数の通行人が近付いていると認識した場合、監視端末20に、ロボット10が右に移動すべきであることを示す情報を手書きで入力する。手書きとは、タッチペン等で線を引くことであってもよいし、指示の内容を表すスタンプを監視者Gが指定した位置に配置させることであってもよい。
また例えば監視者Gは、ロボット10がアームを動かすとアームが近くを通行する小さな子供に当たってしまうと予想される場合、監視端末20に、ロボット10のアーム動作を禁止すべきであることを示す情報を手書きで入力する。
入力を受け付けた監視端末20は、入力された情報に応じた指示提案情報を操作端末30に送信する。
図3は、本実施形態にかかるロボット10の外観構成例を示す外観斜視図である。図3では、ロボット10の一例として、把持機能を有するエンドエフェクタを備えるロボット10の外観構成を示している。ロボット10は、大きく分けて、台車部110と本体部120とによって構成される。台車部110は、ロボット10の進行方向の移動に寄与する可動部である。台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
台車部110は、上面の周縁部にレーザスキャナ133を備える。レーザスキャナ133は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。さらに、レーザスキャナ133は、障害物が存在する場合には、その障害物までの距離を出力する。
本体部120は、ロボット10の進行方向の移動とは異なる作用を及ぼす可動部を備える。具体的には、本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、及びアーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、把持対象物を把持する。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。ハンド124の近傍には、ハンドカメラ135が配設されている。
頭部122は、主に、ステレオカメラ131及び表示部141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された撮像信号を出力する。
表示部141は、例えば液晶パネルであり、設定されたキャラクターの顔をアニメーションで表示したり、ロボット10に関する情報をテキストやアイコンで表示したりする。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りに回転することができる。そのため、ステレオカメラ131は、任意の方向を撮像することができ、また、表示部141は、任意の方向へ向けて表示内容を呈示することができる。
図4は、本実施形態にかかるロボット10の機能構成を示すブロック図である。ロボット10は、制御部150、台車駆動部145、上体駆動部146、表示部141、ステレオカメラ131、レーザスキャナ133、メモリ180、ハンドカメラ135及び通信部190を備える。尚、上体駆動部146、表示部141、ステレオカメラ131、レーザスキャナ133及びハンドカメラ135は省略されてもよい。
制御部150は、CPU等のプロセッサであり、例えば胴部121に備えられたコントロールユニットに格納されている。制御部150は、メモリ180から読み出した制御プログラムを実行することによりロボット10全体の制御と様々な演算処理とを実行する。
ここで制御部150は、動作モードに応じて異なる制御を実行する。本実施形態では、ロボット10は動作モードとして第1モード及び第2モードを有する。第1モードは、操作端末30が送信した指示情報に基づいて、制御部150が台車駆動部145や上体駆動部146を制御するモードである。第1モードは、通常モードとも称する。第2モードは、制御部150が、自己が生成した動作計画に基づいて台車駆動部145や上体駆動部146を制御するモードである。
例えば制御部150は、第1モードである場合は操作端末30からの指示情報に従って、又は第2モードである場合はメモリ180に格納された最新の動作計画Pに従って、台車駆動部145へ駆動信号を送ることにより、駆動輪の回転制御を実行する。また、制御部150は、台車駆動部145からエンコーダ等のフィードバック信号を受け取って、台車部110の移動方向や移動速度を把握する。
台車駆動部145は、駆動輪111と、駆動輪111を駆動するための駆動回路やモータと、を含む。
上体駆動部146は、アーム123及びハンド124と、胴部121及び頭部122と、これらを駆動するための駆動回路やモータと、を含む。制御部150は、上体駆動部146へ駆動信号を送ることにより、延伸動作、把持動作やジェスチャーを実現する。また、制御部150は、上体駆動部146からエンコーダ等のフィードバック信号を受け取って、アーム123及びハンド124の位置や移動速度、胴部121及び頭部122の向きや回転速度を把握する。
表示部141は、制御部150が生成した画像信号を受信して表示する。
ステレオカメラ131は、制御部150からの要求に従って、ロボット10が存在する周辺環境を撮像し、撮像信号を制御部150へ引き渡す。制御部150は、撮像信号を用いて画像処理を実行したり、予め定められたフォーマットに従って撮像信号を撮像画像に変換したりする。レーザスキャナ133は、制御部150からの要求に従って移動方向に障害物が存在するか否かを検出し、その検出結果である検出信号を制御部150へ引き渡す。
ハンドカメラ135は、例えば距離画像センサであり、把持対象物の距離、形状、方向等を認識するために用いられる。ハンドカメラ135は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含み、ピクセルごとに被写体までの距離を制御部150へ出力する。具体的には、ハンドカメラ135は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。なお、制御部150は、より広い周辺環境の様子をステレオカメラ131で把握し、把持対象物近傍の様子をハンドカメラ135で把握する。
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ180は、ロボット10を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、メモリ180は、環境地図Mと、動作計画Pとを記憶している。
通信部190は、ネットワークNとの通信インタフェースであり、例えば無線LANユニットである。通信部190は、操作端末30から送信される指示情報を受信して、制御部150に引き渡す。また通信部190は、制御部150の制御に従って、GPS受信機(不図示)から取得したロボット10の位置情報や各種検出結果を監視端末20及び操作端末30へ送信する。
図5~図6は、本実施形態にかかるロボット10の動作の一例を示すフローチャートである。図5は、ロボット10が第1モードに設定された場合の動作の一例を示す。
まず制御部150は、動作モードを第1モードに設定すると(S10)、操作端末30から指示情報を受信したか否かを判定する(S11)。操作端末30から指示情報を受信した場合(S11でYes)、制御部150は指示情報に基づいて台車駆動部145及び上体駆動部146を制御し、これによりロボット10の台車部110及び本体部120を動作させる(S12)。そして制御部150は、処理をS13に進める。
一方、操作端末30から指示情報を受信していない場合(S11でNo)、そのまま処理をS13に進める。
S13において制御部150は、動作を終了するか否かを判定する。動作を終了する場合としては、操作端末30から動作終了の指示情報を受信した場合や、ロボット10の電源が停止した場合が挙げられる。制御部150は、動作を終了すると判定するまで(S13でNo)、S11~S12に示す処理を繰り返す。
図6は、ロボット10が第2モードに設定された場合の動作の一例を示す。
まず制御部150は、動作モードを第2モードに設定すると(S14)、メモリ180に格納された環境地図Mと、自己の位置情報とに基づいて、動作計画Pを作成する(S15)。制御部150は、作成した動作計画Pをメモリ180に格納する。そして制御部150は、動作計画Pに基づいて台車駆動部145及び上体駆動部146を制御し、これによりロボット10の台車部110及び本体部120を動作させる(S16)。
次に制御部150は、動作を終了するか否かを判定する(S17)。制御部150は、動作を終了すると判定するまで(S17でNo)、S15~S16に示す処理を繰り返す。
図7は、本実施形態にかかる監視端末20の機能構成を示すブロック図である。監視端末20は、メモリ200と、通信部210と、入力部220と、表示部230と、監視制御部240とを備える。
メモリ200は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ200は、監視端末20を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特にメモリ200は、環境地図Mを記憶している。
通信部210は、ネットワークNとの通信インタフェースである。通信部210は、ロボット10からロボット10の位置情報や各種検出結果を受信して、表示のために監視制御部240に引き渡す。通信部210は、操作端末30からロボット10宛の指示情報を受信して、表示のために監視制御部240に引き渡してよい。また通信部210は、監視制御部240と協働して、操作端末30に指示提案情報を送信する。
入力部220は、表示部230に重畳して配置されたタッチパネルや、表示部230の周縁部に設けられた押しボタン等を含む。入力部220は、監視者がタッチパネルへのタッチによって、操作端末30へ提案する指示の内容を指定するために入力した手書き入力画像を受け付けて、監視制御部240へ引き渡す。
表示部230は、例えば液晶パネルであり、ロボット10の周辺環境を示した表示画像を表示する。ロボット10の周辺環境とは、ロボット10を基準として所定範囲内の環境であってよい。また表示部230は、入力された手書き入力画像を、当該表示画像に重畳表示する。
監視制御部240は、CPU等のプロセッサであり、メモリ200から読み出した制御プログラムを実行することにより監視端末20全体の制御と様々な演算処理とを実行する。監視制御部240の具体的な制御については、図8において説明する。
図8は、本実施形態にかかる監視端末20の動作の一例を示すフローチャートである。まず監視端末20の監視制御部240は、通信部210を介してロボット10からロボット10の位置情報を受信する(S20)。位置情報に加えて、監視制御部240は、通信部210を介してロボット10から各種検出結果を受信してよい。また監視制御部240は、通信部210を介して操作端末30からロボット10宛の指示情報を受信してよい。
次に監視制御部240は、メモリ200に格納されている環境地図Mとロボット10の位置情報とに少なくとも基づいて、ロボット10の周辺環境を示した表示画像を生成する(S21)。尚、監視制御部240は、ロボット10の各種検出結果を取得している場合は、表示画像の生成の基礎として各種検出結果をさらに用いてもよい。
次に監視制御部240は、表示部230に表示画像を表示させる(S22)。次に監視制御部240は、監視者から手書き入力画像の入力を受け付けたかを判定する(S23)。入力を受け付けた場合(S23でYes)、入力を受け付けたことに応じて、監視制御部240は手書き入力画像に基づいて指示提案情報を生成する(S24)。
指示提案情報は、ロボット10の台車、アーム123又はハンド124の移動方向、移動量若しくは軌跡、ロボット10の可動禁止部位、又はロボット10の移動先の位置情報を含む。本実施形態1では指示提案情報は、手書き入力画像と、環境地図M上の入力位置とを含む情報である。しかし監視制御部240が画像認識機能を有する場合は、指示提案情報は、手書き入力画像の認識結果と環境地図M上の入力位置とを含む情報であってもよい。あるいは表示部230に表示される表示画像が操作端末30の表示部330に表示される表示画像と同期している場合は、指示提案情報は、手書き入力画像が重畳された表示画像そのものであってもよい。
監視制御部240は、通信部210を介して、操作端末30に指示提案情報を送信する(S25)。
次に監視制御部240は、一連の処理を終了するか否かを判定する(S26)。一連の処理を終了する場合とは、ロボット10の動作が終了する場合や、ロボット10の動作モードが第2モードに切り替えられた場合が挙げられる。監視制御部240は、処理を終了すると判定するまで(S26でNo)、S20~S25に示す処理を繰り返す。
図9は、本実施形態にかかる手書き入力画像600の一例を示す図である。監視端末20の表示部230は、ロボット10の周辺環境を示した表示画像500を表示している。例えば表示画像500は、所定の視野から見たロボット10及びその周辺環境を示す画像領域を含んでよい。図9に示す表示画像500は立体的であるが、表示画像500は2次元の環境地図M上にロボット10の位置が図示された2次元画像であってもよい。さらに表示画像には、周辺環境を示す画像領域上にロボット10の移動経路501が含まれていてもよい。移動経路501は、指示情報に基づいて生成されてよい。また周辺環境を示す画像領域上には、ロボット10の検出結果に基づいて推定される障害物502が含まれていてよい。このような表示画像500は、監視制御部240がコンピュータグラフィックスにより生成してよい。
監視者は、表示された表示画像500上に手書き入力画像600を入力する。手書き入力画像の入力方法としては、タッチパネル上で、ユーザの指やタッチペン等を用いて、該当部分をタッチすることにより直接入力することが挙げられる。しかし手書き入力画像の入力方法はこれには限定されない。例えば手書き入力画像は、マウス等を用いて所定の図形を選択し、位置及び大きさを指定することで入力されてもよい。手書き入力画像は2次元の線又は図形で入力されてもよいし、3次元のオブジェクトとして入力されてもよい。
本図では、監視者は、ロボット10を左に移動させることを提案するために、移動方向を示す左矢印の図形を手書き入力画像600として入力している。尚、監視者は、移動経路501を上書きするように軌跡を描画してもよい。描画された軌跡は、監視者が提案する移動経路である。また監視者は、ロボット10の移動場所をマーカで指定してもよい。
また監視者がロボット10のアーム123やハンド124の動きを提案したい場合は、表示部230は可動領域や可動軸を3次元的に表示してよい。そして監視者は動かす方向及び移動量をマーカで指定してよい。また逆に、動かしてはいけない可動禁止領域を、監視者がマーカで指定できるようになっていてもよい。
このように監視者が直感的に手書き入力画像を入力できるようにすることで、指示提案をリアルタイムで簡易に与えることができる。また提案する指示は、予め定められた内容に限定されない。したがって監視者は動的かつ柔軟な指示を提案できる。
図10は、本実施形態にかかる操作端末30の機能構成を示すブロック図である。操作端末30は、メモリ300と、通信部310と、入力部320と、表示部330と、操作制御部340とを備える。
メモリ300は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ300は、操作端末30を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特にメモリ300は、環境地図Mを記憶している。
通信部310は、ネットワークNとの通信インタフェースである。通信部310は、ロボット10からロボット10の位置情報や各種検出結果を受信して、操作制御部340に引き渡す。また通信部310は、監視端末20から指示提案情報を受信して、操作制御部340に引き渡す。また通信部310は、操作制御部340と協働して、ロボット10に指示情報を送信する。
入力部320は、マウス、キーボード、ジョイスティック、表示部330に重畳して配置されたタッチパネルや、表示部330の周縁部に設けられた押しボタン等を含む。入力部320は、操作者がマウスのクリック、コマンド入力、タッチパネルへのタッチ、又はジョイスティックのレバーを傾けることによって、ロボット10への指示情報の入力を受け付け、操作制御部340へ引き渡す。
表示部330は、例えば液晶パネルであり、ロボット10の周辺環境を示した表示画像を表示する。また表示部330は、指示提案情報を受信した場合は、受信した指示提案情報をさらに含む表示画像を表示する。また表示部330は、操作者から入力された指示情報を、当該表示画像に重畳表示する。
操作制御部340は、CPU等のプロセッサであり、メモリ300から読み出した制御プログラムを実行することにより操作端末30全体の制御と様々な演算処理とを実行する。操作制御部340の具体的な制御については、図11において説明する。
図11は、本実施形態にかかる操作端末30の動作の一例を示すフローチャートである。操作端末30は、ロボット10が第1モードに設定されている場合に動作してよい。
まず操作端末30の操作制御部340は、通信部310を介して、ロボット10の位置情報をロボット10から受信する(S30)。次に操作制御部340は、通信部310を介して、監視端末20から指示提案情報を受信したかを判定する(S31)。
操作制御部340は、監視端末20から指示提案情報を受信していない場合(S31でNo)、メモリ300に格納された環境地図M及びロボット10の位置情報に基づいて、ロボット10の周辺環境を示す表示画像を生成する(S32)。上記表示画像の生成方法は、監視端末20の表示部230に表示される表示画像の生成方法と一部又は全部において同様であってよい。操作制御部340は、処理をS34に進める。
一方、操作制御部340は、監視端末20から指示提案情報を受信した場合(S31でYes)、受信したことに応じて、環境地図M、指示提案情報及びロボット10の位置情報に基づいて、表示画像を生成する(S33)。上記表示画像は、ロボット10の周辺環境に指示提案を視覚的に表示した画像である。操作制御部340は、処理をS34に進める。
S34において、操作制御部340はS32又はS33において生成した表示画像を表示部330に表示させる。
そして操作制御部340は、入力部320が、指示情報の入力を操作者から受け付けたかを判定する(S35)。入力を受け付けた場合(S35でYes)、入力を受け付けたことに応じて、通信部310を介して指示情報をロボット10に送信する(S36)。そして操作制御部340は、処理をS37に進める。一方、入力がなかった場合(S35でNo)、操作制御部340はそのまま処理をS37に進める。
次に操作制御部340は、一連の処理を終了するか否かを判定する(S37)。一連の処理を終了する場合とは、ロボット10の動作が終了する場合や、ロボット10の動作モードが第2モードに切り替えられた場合が挙げられる。操作制御部340は、処理を終了すると判定するまで(S37でNo)、S30~S36に示す処理を繰り返す。
図12は、本実施形態にかかる表示部330の表示の一例を示す図である。操作端末30の表示部330は、ロボット10の周辺環境を示した表示画像500を表示している。また表示部330は、ロボット10のステレオカメラ131が撮影した撮影画像510を表示している。表示画像500や撮影画像510により、操作者はロボット10の周辺環境を把握できる。
また表示部330は、ロボット10に動作の指示を与えるための操作部520,530を表示している。これにより操作者は、ロボット10の動作方向及び移動量等を具体的に指定できる。
ここで操作端末30が指示提案情報を受信した場合、表示部330は、指示提案情報として手書き入力画像600を、表示画像500に重畳表示する。尚、表示部330は、指示提案情報に台車部110やアーム123の軌道が含まれる場合は当該軌道を再生してよい。
そして表示部330は、指示提案情報が示す提案の採用可否に関する選択肢610を表示画像500に重畳表示する。当該表示は、ポップアップ方式にしてもよい。
表示を閲覧した操作者は、指示提案情報が示す周辺環境を確認したり、指示提案情報が示す方向にロボット10を少しずつ動作させるなどして、指示提案情報が示す方向への動作に関する安全性を確認する。
そして操作者は、「ACCEPT」又は「REJECT」の選択肢610を選択する。これにより入力部320は、指示提案情報の採用可否の選択を操作者から受け付ける。選択を受け付けたことに応じて、操作制御部340は、通信部310を介して、選択された選択肢に応じた指示情報をロボット10に送信する。
このように指示提案が分かりやすい形で表示されることで、操作者は容易に提案内容を把握できる。指示提案情報が視覚的に表示されるため、操作者がロボット10を介してロボット10に対面する人物と会話している場合も、会話を妨害しない。また操作者は、監視端末20が提案する動作をワンクリックで簡単に採用できる。したがって監視端末20が提案する動作をロボット10が迅速に遂行できる。
以上、実施形態について説明した。本実施形態によれば、ロボット10とは異なる視野を有する監視者が監視端末20を通じて、ロボットの視野からでは認識できない事態や、操作者が地図情報に基づいても認識できない事態、つまりシステムの想定外又は認識外の事態を把握した上で、指示を提案する。したがって操作者は、システムの想定外又は認識外の事態を踏まえてロボット10に対して動作を指示できる。これによりロボットがシステムの想定外又は認識外の事態を踏まえて動作できる。
尚、実施形態は以下の変形を加えることも可能である。
<本実施形態の第1変形例>
第1変形例では、監視端末20が指示提案したにも関わらず操作端末30が応答しなかった場合に、ロボット10は自律動作を実施する。具体的には、監視端末20が指示提案情報を送信した後所定時間内に、操作端末30が指示情報を送信しなかった場合、ロボット10は、動作モードを第1モードから第2モードに切り替える。この場合、監視端末20が指示提案情報を操作端末30に送信する際に、ロボット10にも送信してよい。尚、上述の場合に切り替えられた第2モードは、介入モードと称されてもよい。介入モードにおいては、操作端末30が指示情報をロボット10に送信しても、ロボット10は指示情報に関わらず自律動作してよい。
図13は、本実施形態の第1変形例にかかるロボット10の動作の一例を示すフローチャートである。図13に示すステップは、図5に示すステップに加えて、S40~S45を有する。
制御部150は、S11において操作端末30から指示情報を受信していないと判定した場合(S11でNo)、監視端末20が指示提案情報を送信してから所定時間経過したかを判定する(S40)。制御部150は、所定時間経過していない場合は(S40でNo)処理をS11に戻す。一方、制御部150は、所定時間経過した場合は(S40でYes)、動作モードを第2モードに切り替える(S41)。そして制御部150は、通信部190を介して操作端末30に対して、第2モードに切り替えたことを通知する(S42)。
第2モードに切り替わったことに応じて、制御部150は、図6のS15~S16と同様のS43~S44を実行し、自己が作成した動作計画に基づいて台車部110及び本体部120を動作させる。
そして制御部150は、第2モードへの切替から所定時間経過するまで(S45でNo)、S43~S44を繰り返し、所定時間経過した場合(S45でYes)、第2モードを解除して処理をS13に進める。
このように指示提案に操作者が気付いていない場合や操作者が決断に時間を要している場合にも、現場で柔軟に対応して危険を回避できる。
尚、操作端末30の表示部330は、ロボット10が第2モードに切り替わったことに応じて、つまり切替通知を受けたことに応じて、表示画像にモード情報を重畳表示してよい。これによりロボット10が第2モードに移行したことを操作者が即座に把握でき、操作者が適切な対応をとることができる。
<本実施形態の第2変形例>
第2変形例では、監視端末20が指示提案したにも関わらず操作端末30が応答しなかった場合に、ロボット10が監視端末20の指示に従って動作する第3モードに切り替える。具体的には、監視端末20が指示提案情報を送信した後所定時間内に、操作端末30が指示情報を送信しなかった場合、ロボット10は、動作モードを第1モードから第3モードに切り替える。監視端末20は、第3モードにおいて、監視者から、指示情報の入力を受け付けたことに応じて、指示情報をロボット10に送信する。尚、上述の場合に切り替えられた第3モードは、介入モードと称されてもよい。介入モードにおいては、操作端末30が指示情報をロボット10に送信しても、ロボット10は監視端末20からの指示情報に基づいて動作してよい。
図14は、本実施形態の第2変形例にかかるロボット10の動作の一例を示すフローチャートである。図14に示すステップは、図13に示すS43~S45に代えてS50~S52を有する。
制御部150は、第3モードへ切り替えたことを操作端末30に通知したことに応じて、監視端末20から指示情報を受信したかを判定する(S50)。監視端末20から指示情報を受信した場合(S50でYes)、制御部150は、指示情報に基づいて台車部110及び本体部120を動作させ(S51)、処理をS52に進める。一方、監視端末20から指示情報を受信していない場合(S50でNo)、処理をそのままS52に進める。
そして制御部150は、第3モードへの切替から所定時間経過するまで(S52でNo)、S50~S51を繰り返し、所定時間経過した場合(S52でYes)、第3モードを解除して処理をS13に進める。このように指示提案に操作者が気付いていない場合や操作者が決断に時間を要している場合には、現場にいる監視者の判断で柔軟に対応して危険を回避できる。
尚、操作端末30の表示部330は、ロボット10が第3モードに切り替わったことに応じて、つまり切替通知を受けたことに応じて、表示画像にモード情報を重畳表示してよい。これによりロボット10が第3モードに移行したことを操作者が即座に把握でき、操作者が適切な対応をとることができる。
尚、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば本実施形態では操作端末30が監視端末20からの指示提案情報の採用可否を決定し、これに基づいてロボット10に動作指示を与えていた。しかしロボット10が、操作端末30から指示情報を受信する前に監視端末20から指示提案情報を受信した場合に指示提案情報に基づいて動作し、操作端末30が後から当該指示提案情報による動作を追認してもよい。この場合、操作端末30は、指示情報に追認したことを示す情報を含ませてロボット10に送信する。
また本実施形態では、監視端末20は監視者が携帯するものであったが、監視端末20は監視者が携帯しておらず、ドローン等の移動体に設置されていてもよい。この場合、移動体の操縦者が監視者であってよい。また監視端末20は、ロボット10の移動圏内の複数の場所に設置されていてもよい。ロボット10の周囲にある監視端末20は、ロボット10とは異なる角度からロボット10の周辺環境を撮影し、画像認識により危険を予測した場合に指示提案情報を操作端末30に送信してよい。
また本実施形態では、監視者は手書き入力画像を入力するとしたが手書きでなくてもよい。
また上記第1又は第2変形例では、監視端末20が指示提案情報を送信した後所定時間内に、操作端末30が指示情報を送信しなかった場合に、ロボット10が第2モード又は第3モードに移行するとした。しかしロボット10は、動作モードの切替要求を操作端末30から受信した場合、第2モード又は第3モードに切り替えてよい。この場合は、操作端末30の表示部330にヘルプマークが表示されており、操作端末30は、操作者がヘルプマークを選択したことに応じて動作モードの切替要求をロボット10に送信してよい。
1 遠隔操作システム
10 ロボット
20 監視端末
30 操作端末
110 台車部
111 駆動輪
112 キャスター
120 本体部
121 胴部
122 頭部
123 アーム
124 ハンド
131 ステレオカメラ
133 レーザスキャナ
135 ハンドカメラ
141 表示部
145 台車駆動部
146 上体駆動部
150 制御部
180 メモリ
190 通信部
200 メモリ
210 通信部
220 入力部
230 表示部
240 監視制御部
300 メモリ
310 通信部
320 入力部
330 表示部
340 操作制御部
500 表示画像
501 移動経路
502 障害物
510 撮影画像
520 操作部
530 操作部
600 手書き入力画像
610 選択肢
G 監視者
M 環境地図
P 動作計画

Claims (8)

  1. ロボットを基準として所定範囲内に位置する監視端末から、ロボットの動作の指示を提案する指示提案情報を受信したことに応じて、前記指示提案情報及び前記ロボットの位置に少なくとも基づいて表示画像を生成し、
    前記表示画像を表示し、
    動作についてロボットに指示するための指示情報の入力を操作者から受け付けたことに応じて、前記指示情報を前記ロボットに送信する
    操作端末を備える遠隔操作システム。
  2. 前記操作端末は、
    前記表示画像に、前記指示提案情報が示す提案の採用可否に関する選択肢を重畳表示し、
    前記指示提案情報の採用可否の選択を受け付け、
    前記選択に応じた指示情報を前記ロボットに送信する
    請求項1に記載の遠隔操作システム。
  3. 前記監視端末をさらに備え、
    前記監視端末は、
    前記ロボットの周辺環境を示した画像に対して手書き入力画像の入力を監視者から受け付けたことに応じて、前記手書き入力画像に基づいて指示提案情報を生成し、
    前記指示提案情報を前記操作端末に送信する
    請求項1又は2に記載の遠隔操作システム。
  4. 前記ロボットをさらに備え、
    前記ロボットは、
    動作モードとして、前記操作端末から受信した指示情報に基づいて動作する通常モードと、前記ロボットが生成した動作計画又は前記監視端末から受信した指示情報に基づいて動作する介入モードとを有し、
    前記監視端末が前記指示提案情報を送信した後所定時間内に、前記操作端末から指示情報を受信しなかった場合、前記通常モードから前記介入モードに切り替える
    請求項1又は2に記載の遠隔操作システム。
  5. 前記監視端末をさらに備え、
    前記監視端末は、前記介入モードにおいて、監視者から指示情報の入力を受け付けたことに応じて、前記指示情報をロボットに送信する
    請求項4に記載の遠隔操作システム。
  6. 前記操作端末は、前記ロボットが前記介入モードに切り替わったことに応じて、前記表示画像にモード情報を重畳表示する
    請求項4に記載の遠隔操作システム。
  7. ロボットを基準として所定範囲内に位置する監視端末から、ロボットの動作の指示を提案する指示提案情報を受信したことに応じて、前記指示提案情報及び前記ロボットの位置に少なくとも基づいて表示画像を生成し、
    表示画像を表示し、
    動作についてロボットに指示するための指示情報の入力を操作者から受け付けたことに応じて、前記指示情報を前記ロボットに送信する
    遠隔操作方法。
  8. ロボットを基準として所定範囲内に位置する監視端末から、ロボットの動作の指示を提案する指示提案情報を受信したことに応じて、前記指示提案情報及び前記ロボットの位置に少なくとも基づいて表示画像を生成する生成機能と、
    表示画像を表示する表示機能と、
    動作についてロボットに指示するための指示情報の入力を操作者から受け付けたことに応じて、前記指示情報を前記ロボットに送信する送信機能と
    をコンピュータに実現させるプログラム。
JP2022066224A 2022-04-13 2022-04-13 遠隔操作システム、遠隔操作方法及びプログラム Pending JP2023156710A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022066224A JP2023156710A (ja) 2022-04-13 2022-04-13 遠隔操作システム、遠隔操作方法及びプログラム
US18/163,453 US20230333550A1 (en) 2022-04-13 2023-02-02 Remote operation system, remote operation method, and storage medium
CN202310177707.9A CN116901108A (zh) 2022-04-13 2023-02-17 远程操作系统、远程操作方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022066224A JP2023156710A (ja) 2022-04-13 2022-04-13 遠隔操作システム、遠隔操作方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023156710A true JP2023156710A (ja) 2023-10-25

Family

ID=88307697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022066224A Pending JP2023156710A (ja) 2022-04-13 2022-04-13 遠隔操作システム、遠隔操作方法及びプログラム

Country Status (3)

Country Link
US (1) US20230333550A1 (ja)
JP (1) JP2023156710A (ja)
CN (1) CN116901108A (ja)

Also Published As

Publication number Publication date
CN116901108A (zh) 2023-10-20
US20230333550A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
JP4100773B2 (ja) ロボットの遠隔制御方法及びシステム
US20190019429A1 (en) Crane, Construction Machine Or Industrial Truck Simulator
US7970492B2 (en) Mobile robot control system
JP5028568B2 (ja) ロボット制御システム
JP2012171024A (ja) ロボットシステム
JP2013184257A (ja) ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP5326794B2 (ja) 遠隔操作システム及び遠隔操作方法
WO2021111677A1 (ja) 遠隔操作支援サーバ、遠隔操作支援方法および遠隔操作支援システム
KR20210129086A (ko) 표시장치, 쇼벨, 정보처리장치
JP5515654B2 (ja) ロボットシステム
WO2019046559A1 (en) UTILIZING INCREASED REALITY TO CONTROL INTELLIGENT DEVICES
CN103200304A (zh) 一种移动终端智能光标控制系统及方法
JP7342676B2 (ja) 遠隔操作システム及び遠隔操作方法
WO2020194882A1 (ja) 遠隔操作システムおよび遠隔操作サーバ
JP2010082714A (ja) コミュニケーションロボット
JP2020082282A (ja) 把持ロボットおよび把持ロボットの制御プログラム
WO2017050673A1 (en) An arrangement for providing a user interface
JP2015093353A (ja) 多機能情報端末遠隔操作型ロボット
JP2023156710A (ja) 遠隔操作システム、遠隔操作方法及びプログラム
US20230294288A1 (en) Regulated region management system, mobile body management system, regulated region management method, and non-transitory storage medium
JP2020032320A (ja) 解体システム
JP2014154048A (ja) 移動指示装置、コンピュータプログラム、移動指示方法及び移動体システム
Evans III et al. Control solutions for robots using Android and iOS devices
JP2016175143A (ja) ロボット操作装置、及びロボット操作プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240125