JP2023059409A - 移動体制御システム、移動体制御方法、及び、プログラム - Google Patents

移動体制御システム、移動体制御方法、及び、プログラム Download PDF

Info

Publication number
JP2023059409A
JP2023059409A JP2021169400A JP2021169400A JP2023059409A JP 2023059409 A JP2023059409 A JP 2023059409A JP 2021169400 A JP2021169400 A JP 2021169400A JP 2021169400 A JP2021169400 A JP 2021169400A JP 2023059409 A JP2023059409 A JP 2023059409A
Authority
JP
Japan
Prior art keywords
terminal
unit
moving body
mobile
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021169400A
Other languages
English (en)
Inventor
裕介 木内
Yusuke Kiuchi
克将 北島
Katsumasa Kitajima
泰義 横小路
Yasuyoshi Yokokoji
勇一 田▲崎▼
Yuichi Tazaki
光 永野
Hikaru Nagano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe University NUC
Mitsubishi Heavy Industries Ltd
Original Assignee
Kobe University NUC
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe University NUC, Mitsubishi Heavy Industries Ltd filed Critical Kobe University NUC
Priority to JP2021169400A priority Critical patent/JP2023059409A/ja
Publication of JP2023059409A publication Critical patent/JP2023059409A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】端末を介した移動体の移動制御を、簡易な端末操作で実行する。【解決手段】移動体制御システムは、移動体に搭載され、移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知する。検知された少なくとも1つのオブジェクトのいずれかが選択され、当該オブジェクトに向けて、移動体を移動するように制御する。オブジェクトの選択は、移動体と通信可能な端末の画面に表示され少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより行う。【選択図】図1

Description

本開示は、移動体制御システム、移動体制御方法、及び、プログラムに関する。
移動体と通信可能な端末を操作することによって、フィールドにおける移動体を遠隔的に制御する移動体制御システムが知られている。例えば特許文献1には、フォークリフトのような産業車両をタッチパッド型の端末を用いて遠隔操作可能な遠隔操作システムが開示されている。このシステムでは、作業者が端末であるタッチパッドを操作することで、搬送対象となるパレットに向けた移動体の移動制御を遠隔的に行うことが可能とされている。また特許文献2では、物品を取り扱うロボットに対して、端末を用いて操作対象となる物品を指定することで、ロボットに対して自動的にタスクを実行させるシステムが開示されている。
特許第6834904号公報 特許第4473849号公報
しかしながら上記特許文献1では、遠隔操作される産業車両に対して、作業者がタッチパッド上で走行や作業に関する各種パラメータを細かく指定する必要があるため、操作負担が大きい。上記特許文献2では、ロボットに対して操作対象を指定することで自動的にタスクが実行されるため、特許文献1に比べて作業者の操作負担を軽減することができるが、操作対象物の位置、ロボットの操作履歴、電子タグ・カメラ等によるセンシング履歴などをデータベースとして用意しておく必要があり、使用できる状況が限られてしまう。
本開示の少なくとも1実施形態は、上述の事情に鑑みなされたものであり、端末を介した移動体の移動制御を、簡易な端末操作で実行可能な移動体制御システム、移動体制御方法、及び、プログラムを提供することを目的とする。
本開示の少なくとも一実施形態に係る移動体制御システムは、上記課題を解決するために、移動体に搭載され、前記移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知するためのオブジェクト検知部と、
前記オブジェクト検知部で検知された前記少なくとも1つのオブジェクトのいずれかを選択するためのオブジェクト選択部と、
前記オブジェクト選択部によって選択された前記オブジェクトに向けて、前記移動体を移動するように制御するための移動制御部と、
を備え、
前記オブジェクト選択部は、前記移動体と通信可能な端末の画面に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより選択する。
本開示の少なくとも1実施形態に係る移動体制御方法は、上記課題を解決するために、
移動体に搭載され、前記移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知するための工程と、
前記移動体と通信可能な端末の画面に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより、前記少なくとも1つのオブジェクトのいずれかを選択する工程と、
前記選択されたオブジェクトに向けて、前記移動体を移動するように制御する工程と、
を備える。
本開示の少なくとも1実施形態に係るプログラムは、上記課題を解決するために、
コンピュータを用いて、
移動体に搭載され、前記移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知するための工程と、
前記移動体と通信可能な端末の画面に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより、前記少なくとも1つのオブジェクトのいずれかを選択する工程と、
前記選択されたオブジェクトに向けて、前記移動体を移動するように制御する工程と、
を実行可能である。
本開示の少なくとも一実施形態によれば、端末を介した移動体の移動制御を、簡易な端末操作で実行可能な移動体制御システム、移動体制御方法、及び、プログラムを提供できる。
一実施形態に係る移動体制御システムの全体構成の概略図である。 図1の移動体制御システムの移動制御に関する構成を示すブロック図である。 一実施形態に係る移動体制御方法を示すフローチャートである。 ステップS3における端末の画面を示す模式図である。 ステップS4における端末の画面を示す模式図である。 ステップS5における端末の画面を示す模式図である。 ステップS6における端末の画面を示す模式図である。 ステップS10における端末の画面を示す模式図である。
以下、添付図面を参照して幾つかの実施形態について説明する。ただし、実施形態として記載されている又は図面に示されている構成部品の寸法、材質、形状、その相対的配置等は、発明の範囲をこれに限定する趣旨ではなく、単なる説明例にすぎない。
図1は一実施形態に係る移動体制御システム1の全体構成の概略図である。移動体制御システム1は、制御対象である移動体2と、移動体2と通信可能な端末4とを備える。移動体2は、フィールド6上を走行により移動可能な移動体であり、端末4から遠隔的に入力される指示に従ってフィールド6上を移動可能な無人機である。
フィールド6上には、移動体2が移動する際の目標物となり得る、少なくとも1つのオブジェクト8が配置されている。本実施形態では、移動体2はパレットを搬送可能なフォークリフト車両であり、搬送対象となるパレットがオブジェクト8としてフィールド上6に配置されている。フィールド上6には、オブジェクト8の配置領域Rが予め規定されている。配置領域Rにあるオブジェクト8の数や姿勢は任意でよいが、図1では、3つのオブジェクト8が一列に配置されている場合が例示されている。端末4では、このようにフィールド6上に配置された少なくとも1つのオブジェクト8のいずれかを選択することで、移動体2は当該選択されたオブジェクト8に向けて移動するように制御される。
このような移動体制御システム1を構成する移動体2及び端末4には、前述の移動制御を実現するための構成がそれぞれ搭載される。図2は図1の移動体制御システム1の移動制御に関する構成を示すブロック図であり、図3は一実施形態に係る移動体制御方法を示すフローチャートである。
移動体2は、点群データ取得部100、自己位置推定部102、オブジェクト検知部104、オブジェクトインデックス作成部106、相対位置認識部108、座標変換部110、オブジェクト位置姿勢精密推定部112、経路計画部114、及び、移動制御部116を備える。点群データ取得部100は、例えばLidarのような測距装置によって測定された点群データを取得するための構成である。自己位置推定部102は、世界座標系に対応するフィールド6上における移動体2の自己位置を推定するための構成である。オブジェクト検知部104は、点群データ取得部100で取得された点群データに基づいて、少なくとも1つのオブジェクト8を検知するための構成である。オブジェクトインデックス作成部106は、オブジェクト検知部104で検知された各オブジェクト8に対してインデックスを付与するための構成である。相対位置認識部108は、移動体2と端末4との相対位置関係を認識するための構成である。座標変換部110は、相対位置認識部108で認識された相対位置関係に基づいて、移動体2と端末4における位置情報を互いに座標変換するための構成である。オブジェクト位置姿勢精密推定部112は、オブジェクト検知部104による再検知の結果に基づいて、オブジェクト8の位置及び姿勢を精密に推定するための構成である。経路計画部114は、フィールド6上における移動体2の移動経路を計画するための構成である。移動制御部116は、経路計画部114によって計画された経路に従って移動体2が移動するように、移動体2が有する不図示のアクチュエータに指令を送信することで移動制御を実施するための構成である。
端末4は、画像表示部118、端末カメラ120、移動量算出部122、オブジェクト選択部124、フレーム修正部125、及び、移動操作部126を備える。画像表示部118は、端末4の画面50に移動体2の制御に関する各種表示を行うための構成である。端末カメラ120は、移動体2に搭載された撮像装置である。移動量算出部122は、端末4の初期位置からの移動量を算出するための構成であり、例えば、IMU情報やカメラ画像によるビジュアルオドメトリ等による測定結果に基づいて移動量を算出可能である。オブジェクト選択部124は、オブジェクト検知部104によって検知された少なくとも1つのオブジェクト8のいずれかを選択するための構成である。フレーム修正部125は、画面50に表示されるフレーム(後述の候補フレーム54及び選択フレーム56など)の座標及び姿勢を修正するための構成である。移動操作部126は、移動制御部116による移動体2の移動制御の実施の可否に関する許可信号を送信するための構成である。
また端末4の画像表示部118は、更に、候補フレーム可視化部128、選択フレーム可視化部130、及び、移動経路可視化部132を備える。候補フレーム可視化部128は、オブジェクト検知部104によって検知された少なくとも1つのオブジェクト8に対応する候補フレーム54を画面50に可視化するための構成である。選択フレーム可視化部130は、端末4によって選択されたオブジェクト8に対して選択フレーム56を可視化するための構成である。移動経路可視化部132は、移動体2の移動経路を画面50上に可視化するための構成である。
まず操作者は、端末4を起動する(ステップS1)。端末4が起動されると、端末4に予めインストールされたプログラムが実行されることで、以下の各ステップを実施するためのアプリケーションが立ち上がる。アプリケーションは、端末4が有する画面50上に、各ステップに対応する表示を行うことで操作者とのインターフェースを構築する。
端末4が起動されると、上述のようにアプリケーションが立ち上げられるとともに、制御対象となる移動体2が初期位置に呼び出される(ステップS2)。初期位置は、後述するステップS4において選択対象となる少なくとも1つのオブジェクト8が、オブジェクト検知部104によって検知が可能な位置として予め設定される。すなわち、移動体2が初期位置にない場合には、移動体2が初期位置に来るように移動制御がなされる。
続いて操作者は、端末4に搭載された端末カメラ120を用いて、移動体2に設けられたマーカ(ARマーカ)を撮影する(ステップS3)。マーカは、移動体2の外表面に設けられ、所定のパターンを有する。ここで図4はステップS3における端末4の画面50を示す模式図である。画面50には端末カメラ120によって撮像された画像とともに、マーカを認識するためのマーカ認識用フレーム52が表示される。マーカ認識用フレーム52は仮想的表示であり、画面50の略中央部に表示される。操作者は、端末カメラ120を移動体2のマーカに向けることで、画面50に表示されるマーカがマーカ認識用フレーム52の内側に位置することで、マーカの読み込みが行われる。
尚、移動体2に対するマーカの位置及び姿勢は既知である。
このように端末カメラ120で認識されたマーカに関するデータは、通信ネットワークを介して、移動体2の相対位置認識部108に送られる。移動体2は自己位置推定部102によって世界座標系における自己位置を推定することができるため、相対位置認識部108は、端末4から受信したマーカを含む画像データに基づいて、移動体2と端末4との相対的位置関係を認識することができる。座標変換部110は、このように認識された相対的位置関係に基づいて、端末4で得られた位置情報と移動体2で得られた位置情報とを互いに座標変換することが可能となり、端末4と移動体2とを協調した移動制御が可能となる。
このようにステップS3では、マーカを撮影することにより、マーカが設けられた移動体2に対する端末4の位置及び姿勢が求まる。以降の各ステップでは、この際の端末4の位置及び姿勢を初期位置として、移動量算出部122によって端末4の移動量を算出することで、端末4の位置及び姿勢をトラックすることができる。
続いて操作者は、端末4を用いて少なくとも1つのオブジェクト8のいずれかを選択する(ステップS4)。ここで図5はステップS4における端末4の画面50を示す模式図である。ステップS4では、操作者4は端末カメラ120を配置領域Rに向けることで、配置領域Rに配置されている少なくとも1つのオブジェクト8が画面50に表示されるように操作する。このとき移動体2のオブジェクト検知部104では、点群データ取得部100によってLidarのような測距装置で測定された点群データを取得し、当該点群データを解析することで配置領域Rにある少なくとも1つのオブジェクト8を検知する。オブジェクト検知部104の検知結果は、不図示の通信ネットワークを介して端末4に送られる。
端末4の画像表示部118は、端末カメラ120で撮像した画像を表示するとともに、当該画像上にオブジェクト検知部104で検知されたオブジェクト8に対応するフレームを可視化する。具体的には、候補フレーム可視化部128は、オブジェクト検知部104によって検知された少なくとも1つのオブジェクト8に対応する候補フレーム54を画面50に可視化する。図5では、2つのオブジェクト8a、8bが画面50に含まれており、それぞれに対応する候補フレーム54が可視化されている。これにより、端末4の操作者は、端末4を用いて選択可能なオブジェクト8がフィールド6上にどれだけあるかを簡易的に把握することができる。
尚、オブジェクト検知部104で検知された少なくとも1つのオブジェクト8は、それぞれの位置及び姿勢がリスト化されて作成されるオブジェクト位置リスト情報として画像表示部118に送信される。オブジェクトインデックス作成部106は、オブジェクト検知部104で検知された各オブジェクトに対してインデックスを付与したインデックス情報を作成し、画像表示部118に送信する。画像表示部118では、受信したオブジェクト位置リスト情報、及び、インデックス情報に基づいて、オブジェクト検知部104で検知された各オブジェクト8の位置及び姿勢を認識し、画面50に画像として表示する。
ステップS4では、オブジェクト選択部124によって、候補フレーム54が可視化された少なくとも1つのオブジェクト8のいずれかが選択される。オブジェクト選択部124による選択は、端末4の向きに対応する視線ベクトルによってオブジェクト8を指定することにより行われる。つまり操作者は、端末4を選択すべきオブジェクト8に向けるという簡易的な操作によって、オブジェクト8の選択が可能である。
尚、図5では視線ベクトルによって選択される座標及び姿勢(選択フレーム56の中心に対応する三次元座標、ピッチ角、ロール角、ヨー角)を正確に把握するために、数値的表示53がなされている。また視線ベクトルによるオブジェクト8の選択は、視線ベクトルをオブジェクト8に重ねることで行ってもよいが、視線ベクトルがオブジェクト8に重ならない場合であっても視線ベクトルに最も近いオブジェクト8を認識して選択するようにしてもよい。
図5に示す画面50では、選択フレーム可視化部130によって、このように視線ベクトルによって選択されたオブジェクト8に対して選択フレーム56が可視化されている。選択フレーム56は前述の候補フレーム54と異なる態様で可視化されることにより、端末4の操作者は、端末4の向きに対応する視線ベクトルによってどのオブジェクト8が選択されているのかを簡易的に把握することができる。このように画面50では、端末4の操作者が意図するオブジェクト8を移動体2側において正しく認識できていることを直感的にわかりやすく確認できる。特に、画面50に複数のオブジェクト8が映っている場合においても、画面50の略中央に位置することで操作者が選択対象として意図するオブジェクト8を、選択フレーム56によって強調表示することによって、それ以外のオブジェクト8と明瞭に識別できる。
また画面50には、特定のオブジェクト8が視線ベクトルによって選択されている状態で操作されることにより、当該オブジェクト8を選択対象として確定することを承認するための承認ボタン55が表示されている。
続いてフレーム修正部125は、ステップS4で選択されたオブジェクト8に対応する選択フレーム56を必要に応じて修正する(ステップS5)。ここで図6はステップS5における端末4の画面50を示す模式図である。画面50には、選択フレーム56の形状及び姿勢に関するパラメータ57(座標及び角度)が項目ごとに示されており、初期値としてオブジェクト検知部104の検知結果に対応する値が表示される。これらの各パラメータ57の各項目の値は、端末4を介して操作者が調整できる。これにより、オブジェクト検知部104による検知結果に誤りや現場にいる操作者の認識とのずれがある場合には、フレーム修正部125による修正操作によって整合させることができる。
尚、選択フレーム56に修正が必要でない場合には、ステップS5の実施は省略されてもよい。
続いて自己位置推定部102によって推定された移動体2の自己位置が、ステップS4で選択されたオブジェクト8に対応する選択フレーム56によって特定される目標位置(ステップS5で選択フレーム56が修正された場合には、修正後の選択フレーム56によって特定される目標位置に向かうように、移動体2が制御される(ステップS6)。目標位置は、ステップS4で選択されたオブジェクト8の近傍に設定される。経路計画部114は目標位置に向けた経路を計画し、移動制御部116は当該経路を実現するための移動体2の向きや速度を含む指令値を不図示のアクチュエータに送信する。これにより、移動体2は、目標位置に向けて自律的に移動するように制御される。
図7は図3のステップ6における端末4の画面50を示す模式図である。画面50には、ステップS4で選択されたオブジェクト8及び選択フレーム56に加えて、経路計画部114によって計画された第1経路58と、当該第1経路58に沿った移動体2の移動の可否を指示するための指示ボタン59とが表示されている。このように画面50に移動体2が従っている第1経路58を表示することで、端末4の操作者は、移動制御中にある移動体2の挙動を簡易的に把握することができる。また、移動制御中にある移動体2には、操作者が端末4で指示ボタン59を操作している間に移動操作部126から許可信号が送信されることで、第1経路58に従った移動体2の移動制御を、操作者が任意のタイミングで中断することができる。これにより、何らかの障害等が発生した際には、移動体2の自律的な移動制御を、操作者が意図する任意のタイミングで中断することができる。その結果、移動体2の動作は、端末4の操作者の確認・承認のもとで好適に実施される。
ステップS6における移動体2の移動制御は、移動体2が第1経路58に沿って目標位置に到達するまで継続される(ステップS7)。これにより、操作者が端末4を特定のオブジェクト8に向けることで視線ベクトルを合わせるという簡易的な操作によって、オブジェクト8の選択ができ、そして選択されたオブジェクト8の近傍の目標位置まで移動体2の誘導が可能となる。
移動体2が第1経路58に沿って目標位置に到達すると(ステップS7:YES)、ステップS4で選択されたオブジェクト8について再検知が行われる(ステップS8)。ステップS8の再検知では、前述したステップS4で選択対象となるオブジェクト8を検知する際と同様に、例えばLidarのような測距装置を用いた検知が行われる点で共通するが、選択されたオブジェクト8に検知対象を絞り、より詳細な検知が行われる。具体的には、ステップS8の再検知が行われる際には、選択されたオブジェクト8の周囲を移動体2が移動しながら(例えば、オブジェクト8の近傍を行き来しながら)再検知が行われる。このとき、選択されたオブジェクト8以外の他のオブジェクト8は検知対象とならず、移動体2が選択されたオブジェクト8の周囲を移動しながら様々な角度から検知を行うことで、点群データ取得部100は当該オブジェクト8に関する詳細な点群データを取得する。
補足して説明すると、ステップS4のオブジェクト8の選択時に行われる検知は、オブジェクト8が存在する大まかな領域、すなわち選択フレーム56で示されるROI(Region of Interest)を特定できる程度の比較的簡易的なものである。それに対してステップS8で行われる再検知では、選択されたオブジェクト8についてROIの中で位置や姿勢をより推定するための精密なセンシングである。本実施形態では、このように2段階にわたって精密度が異なるセンシングを行うことでオブジェクト8を検知することで、端末4の操作者が煩雑な教示操作を行うことなく、オブジェクト8への精密誘導を可能とする。
続いて経路計画部114は、ステップS8の再検知の結果に基づいて、選択されたオブジェクト8にアプローチするための第2経路60を計画する(ステップS9)。前述したようにステップS8では、選択されたオブジェクト8を対象に再検知が行われることで詳細な点群データが得られる。オブジェクト位置姿勢精密推定部112は、当該詳細な点群データに基づいて、選択したオブジェクト8の詳細な位置及び姿勢を推定する。経路計画部114は、このような推定結果に基づいて、当該オブジェクト8にアプローチするための第2経路60を精密に計画する。
続いて移動制御部116は、ステップS9で計画された第2経路60に従って移動体2が移動するように制御する(ステップS10)。ステップS10では、自己位置推定部102によって推定された移動体2の自己位置が、ステップS9で計画された第2経路60に従って移動するように、移動体2の向きや速度を含む指令値を作成し、不図示のアクチュエータに送信する。これにより、移動体2は、ステップS9で計画された第2経路60に従って、選択されたオブジェクト8に対して精密に誘導される。
図8は図3のステップ10における端末4の画面50を示す模式図である。画面50には、ステップS4で選択されたオブジェクト8及び選択フレーム56に加えて、ステップS9で計画された第2経路60と、当該第2経路60に沿った移動体2の移動の可否を指示するための指示ボタン59とが表示されている。このように画面50に移動体2が従っている第2経路60を表示することで、端末4の操作者は、移動制御中にある移動体2の挙動を簡易的に把握することができる。また、移動制御中にある移動体2には、操作者が端末4で指示ボタン59を操作している間に移動操作部126から許可信号が送信されることで、第2経路60に従った移動体2の移動制御を、操作者が任意のタイミングで中断することができる。これにより、何らかの障害等が発生した際には、移動体2の自律的な移動制御を、操作者が意図する任意のタイミングで中断することができる。その結果、移動体2の動作は、端末4の操作者の確認・承認のもとで好適に実施される。
尚、第2経路60は、移動体2が視線ベクトルで指定されたオブジェクト8の近傍まで誘導される第1経路58のあとに、オブジェクト8の再検知結果に基づいてアプローチするための経路であって、第1経路58に比べて精密に算出される経路である。
以上説明したように本実施形態によれば、移動体2で検知された少なくとも1つのオブジェクト8のいずれかが、端末4の向きに対応する視線ベクトルによって指定することで選択されることで、端末4と通信可能な移動体2は、視線ベクトルによって選択されたオブジェクト8に向けて移動するように制御される。このように端末4の向きを合わせるという簡易的な操作によって、移動体2に対して目標とするオブジェクト8のおおよその位置や姿勢程度の簡易的な教示に基づいて、移動体2のオブジェクト8への誘導を実現でき、良好なユーザビリティが得られる。
そして移動体2は、端末4の向きに対応する視線ベクトルで指定されることで選択されたオブジェクト8に向けて移動するように制御された後、当該オブジェクト8の再検知が行われる。これにより、移動体2は、選択されたオブジェクト8について詳細な検知ができ、その検知によって求められる第2経路60に従って移動する。その結果、前述のように簡易的な教示によって目的とするオブジェクト8のおおよその位置に誘導された移動体2は、当該オブジェクト8の再検知によって第2経路60に従って、端末4の操作者による詳細な指示を必要とすることなく、オブジェクト8に精密誘導される。
その他、本開示の趣旨を逸脱しない範囲で、上記した実施形態における構成要素を周知の構成要素に置き換えることは適宜可能であり、また、上記した実施形態を適宜組み合わせてもよい。
特に上記実施形態では、移動体2として無人フォークリフト車両、オブジェクト8として無人フォークリフト車両の搬送対象としてパレットを取り扱う場合を例示的に述べたが、端末4との通信によって何らかの操作を行わせるシステム一般に適用可能である。
上記各実施形態に記載の内容は、例えば以下のように把握される。
(1)一態様に係る移動体制御システム(1)は、
移動体(2)に搭載され、前記移動体が移動可能なフィールド(6)上にある少なくとも1つのオブジェクト(8)を検知するためのオブジェクト検知部(104)と、
前記オブジェクト検知部で検知された前記少なくとも1つのオブジェクトのいずれかを選択するためのオブジェクト選択部(124)と、
前記オブジェクト選択部によって選択された前記オブジェクトに向けて、前記移動体を移動するように制御するための移動制御部(116)と、
を備え、
前記オブジェクト選択部は、前記移動体と通信可能な端末の画面(50)に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより選択する。
上記(1)の態様によれば、移動体によって検知された少なくとも1つのオブジェクトのいずれかが、端末の向きに対応する視線ベクトルによって指定することで選択されることで、端末と通信可能な移動体は、視線ベクトルによって選択されたオブジェクトに向けて移動するように制御される。このように端末の向きを合わせるという簡易的な操作によって、移動体に対して端末の操作者が選択したオブジェクトを簡易的に教示できる。
(2)他の態様では、上記(1)の態様において、
前記オブジェクト選択部によって選択された前記オブジェクトに対応する選択フレーム(56)を前記画面に可視化するための選択フレーム可視化部を更に備える。
上記(2)の態様によれば、端末の画面上にはフィールド上にある少なくとも1つのオブジェクトとともに、選択フレームが可視化される。これにより、端末の操作者は、端末の向きに対応する視線ベクトルによってどのオブジェクトが選択されているのかを簡易的に把握することができる。
(3)他の態様では、上記(1)又は(2)の態様において、
前記オブジェクト検知部によって検知された前記少なくとも1つのオブジェクトに対応する候補フレーム(54)を前記画面に可視化するための候補フレーム可視化部を更に備える。
上記(3)の態様によれば、端末の画面上には、端末の操作者が選択可能な候補となるオブジェクトに対応する候補フレームが可視化される。これにより、端末の操作者は、端末を用いて選択可能なオブジェクトがフィールド上にどれだけあるかを簡易的に把握することができる。
(4)他の態様では、上記(1)から(3)のいずれか一態様において、
前記端末に搭載された端末カメラ(120)と、
前記端末カメラによって前記移動体に設けられたマーカを撮像することにより前記端末と前記移動体との相対位置関係を認識するための相対位置関係認識部(108)と、
前記相対位置関係に基づいて、前記端末の位置情報を前記移動体の座標系に変換するための座標変換部(110)と、
を更に備える。
上記(4)の態様によれば、端末に搭載された端末カメラによって、移動体に設けられたマーカを撮像することで、端末と移動体との相対的位置関係が特定される。座標変換部は、このような相対的位置関係に基づいて、端末で得られた位置情報と移動体で得られた位置情報とを互いに座標変換することが可能となり、端末と移動体とを協調した移動制御が可能となる。
(5)他の態様では、上記(1)から(4)のいずれか一態様において、
前記移動体が前記オブジェクト選択部によって選択された前記オブジェクトに向けて第1経路に沿って移動した後、前記オブジェクト検知部は前記オブジェクト選択部によって選択された前記オブジェクトの再検知を行い、
前記移動制御部は、再検知によって求められる第2経路(60)に基づいて、前記オブジェクトにアプローチするように前記移動体を制御する。
上記(5)の態様によれば、移動体は、上述のように端末の向きに対応する視線ベクトルで指定されることで選択されたオブジェクトに向けて第1経路に沿って移動するように制御された後、当該オブジェクトの再検知が行われる。これにより、移動体は、選択されたオブジェクトについて詳細な検知ができ、その検知によって求められる第2経路に従って移動する。その結果、端末の操作者は、端末をオブジェクトに向けるという簡単な操作によってオブジェクトの選択を行うだけで、移動体に対してアプローチ対象となるオブジェクトを簡易的に教示しつつ、精密な移動制御を実現できる。
尚、第2経路は、移動体が視線ベクトルで指定されたオブジェクトの近傍まで誘導される第1経路のあとに、オブジェクトの再検知結果に基づいてアプローチするための経路であって、第1経路に比べて精密に算出される経路である。
(6)他の態様では、上記(5)の態様において、
前記再検知は、前記オブジェクト選択部によって選択された前記オブジェクトの周囲を前記移動体が移動しながら行われる。
上記(6)の態様によれば、オブジェクトの再検知を行う際に、移動体がオブジェクトの周囲を移動するように移動経路が設定される。これにより、オブジェクトの再検知を詳細に行うことができ、当該再検知に基づいたオブジェクトに対する精密なアプローチが可能となる。
(7)他の態様では、上記(1)から(6)のいずれか一態様において、
前記移動制御部による前記移動体の制御の可否を指示するための移動操作部(126)を更に備える。
上記(7)の態様によれば、移動操作部によって前述のような移動体の各種移動制御の可否を指示することで、例えば不測の事態が生じた場合には任意のタイミングで移動制御を中断することができる。
(8)他の態様では、上記(1)から(7)のいずれか一態様において、
前記端末の操作によって前記オブジェクト検知部の検知結果を修正可能である。
上記(8)の態様によれば、オブジェクト検知部の検出結果が端末の操作によって修正可能である。これにより、オブジェクト検知部による検知結果に誤りがある場合など、作業者との認識にずれがある場合に検知結果を修正することができる。
(9)一態様に係る移動体制御方法は、
移動体(2)に搭載され、前記移動体が移動可能なフィールド上(6)にある少なくとも1つのオブジェクト(8)を検知するための工程と、
前記移動体と通信可能な端末(4)の画面(50)に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより、前記少なくとも1つのオブジェクトのいずれかを選択する工程と、
前記選択されたオブジェクトに向けて、前記移動体を移動するように制御する工程と、
を備える。
上記(9)の態様によれば、移動体によって検知された少なくとも1つのオブジェクトのいずれかが、端末の向きに対応する視線ベクトルによって指定することで選択されることで、端末と通信可能な移動体は、視線ベクトルによって選択されたオブジェクトに向けて移動するように制御される。このように端末の向きを合わせるという簡易的な操作によって、移動体に対して端末の操作者が選択したオブジェクトを簡易的に教示できる。
(10)一態様に係るプログラムは、
コンピュータを用いて、
移動体(2)に搭載され、前記移動体が移動可能なフィールド上(6)にある少なくとも1つのオブジェクト(8)を検知するための工程と、
前記移動体と通信可能な端末(4)の画面(50)に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより、前記少なくとも1つのオブジェクトのいずれかを選択する工程と、
前記選択されたオブジェクトに向けて、前記移動体を移動するように制御する工程と、
を実行可能である。
上記(10)の態様によれば、移動体によって検知された少なくとも1つのオブジェクトのいずれかが、端末の向きに対応する視線ベクトルによって指定することで選択されることで、端末と通信可能な移動体は、視線ベクトルによって選択されたオブジェクトに向けて移動するように制御される。このように端末の向きを合わせるという簡易的な操作によって、移動体に対して端末の操作者が選択したオブジェクトを簡易的に教示できる。
1 移動体制御システム
2 移動体
4 端末
6 フィールド
8 オブジェクト
50 画面
52 マーカ認識用フレーム
53 数値的表示
54 候補フレーム
55 承認ボタン
56 選択フレーム
57 パラメータ
58 第1経路
59 指示ボタン
60 第2経路
100 点群データ取得部
102 自己位置推定部
104 オブジェクト検知部
106 オブジェクトインデックス作成部
108 相対位置認識部
110 座標変換部
112 オブジェクト位置姿勢精密推定部
114 経路計画部
116 移動制御部
118 画像表示部
120 端末カメラ
122 移動量算出部
124 オブジェクト選択部
125 フレーム修正部
126 移動操作部
128 候補フレーム可視化部
130 選択フレーム可視化部
132 移動経路可視化部
R 配置領域

Claims (10)

  1. 移動体に搭載され、前記移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知するためのオブジェクト検知部と、
    前記オブジェクト検知部で検知された前記少なくとも1つのオブジェクトのいずれかを選択するためのオブジェクト選択部と、
    前記オブジェクト選択部によって選択された前記オブジェクトに向けて、前記移動体を移動するように制御するための移動制御部と、
    を備え、
    前記オブジェクト選択部は、前記移動体と通信可能な端末の画面に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより選択する、移動体制御システム。
  2. 前記オブジェクト選択部によって選択された前記オブジェクトに対応する選択フレームを前記画面に可視化するための選択フレーム可視化部を更に備える、請求項1に記載の移動体制御システム。
  3. 前記オブジェクト検知部によって検知された前記少なくとも1つのオブジェクトに対応する候補フレームを前記画面に可視化するための候補フレーム可視化部を更に備える、請求項1又は2に記載の移動体制御システム。
  4. 前記端末に搭載された端末カメラと、
    前記端末カメラによって前記移動体に設けられたマーカを撮像することにより前記端末と前記移動体との相対位置関係を認識するための相対位置関係認識部と、
    前記相対位置関係に基づいて、前記端末の位置情報を前記移動体の座標系に変換するための座標変換部と、
    を更に備える、請求項1から3のいずれか一項に記載の移動体制御システム。
  5. 前記移動体が前記オブジェクト選択部によって選択された前記オブジェクトに向けて第1経路に沿って移動した後、前記オブジェクト検知部は前記オブジェクト選択部によって選択された前記オブジェクトの再検知を行い、
    前記移動制御部は、再検知によって求められる第2経路に基づいて、前記オブジェクトにアプローチするように前記移動体を制御する、請求項1から4のいずれか一項に記載の移動体制御システム。
  6. 前記再検知は、前記オブジェクト選択部によって選択された前記オブジェクトの周囲を前記移動体が移動しながら行われる、請求項5に記載の移動体制御システム。
  7. 前記移動制御部による前記移動体の制御の可否を指示するための移動操作部を更に備える、請求項1から6のいずれか一項に記載の移動体制御システム。
  8. 前記端末の操作によって前記オブジェクト検知部の検知結果を修正可能である、請求項1から7のいずれか一項に記載の移動体制御システム。
  9. 移動体に搭載され、前記移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知するための工程と、
    前記移動体と通信可能な端末の画面に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより、前記少なくとも1つのオブジェクトのいずれかを選択する工程と、
    前記選択されたオブジェクトに向けて、前記移動体を移動するように制御する工程と、
    を備える、移動体制御方法。
  10. コンピュータを用いて、
    移動体に搭載され、前記移動体が移動可能なフィールド上にある少なくとも1つのオブジェクトを検知するための工程と、
    前記移動体と通信可能な端末の画面に表示された前記少なくとも1つのオブジェクトのいずれかを、前記端末の向きに対応する視線ベクトルによって指定することにより、前記少なくとも1つのオブジェクトのいずれかを選択する工程と、
    前記選択されたオブジェクトに向けて、前記移動体を移動するように制御する工程と、
    を実行可能な、プログラム。
JP2021169400A 2021-10-15 2021-10-15 移動体制御システム、移動体制御方法、及び、プログラム Pending JP2023059409A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021169400A JP2023059409A (ja) 2021-10-15 2021-10-15 移動体制御システム、移動体制御方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021169400A JP2023059409A (ja) 2021-10-15 2021-10-15 移動体制御システム、移動体制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2023059409A true JP2023059409A (ja) 2023-04-27

Family

ID=86096541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021169400A Pending JP2023059409A (ja) 2021-10-15 2021-10-15 移動体制御システム、移動体制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2023059409A (ja)

Similar Documents

Publication Publication Date Title
US11565427B2 (en) Robot system
JP6601554B2 (ja) 無人航空機、無人航空機制御システム、飛行制御方法およびコンピュータプログラム
US8392036B2 (en) Point and go navigation system and method
JP6083520B2 (ja) ロボット誘導方法と装置
JP6457469B2 (ja) 移動ロボットの干渉領域設定装置
JP5647905B2 (ja) 無人移動体の制御方法
US20200061825A1 (en) Interference avoidance device and robot system
US20170075348A1 (en) System and method for mobile robot teleoperation
JP7359633B2 (ja) ロボットシステム
CN112428248B (zh) 机器人系统及控制方法
JP2018092393A (ja) 自動搬送車コントロールシステム
JP7369626B2 (ja) ビークルの制御システム、ビークルの制御方法及びプログラム
JP7184243B2 (ja) 位置認識方法、位置認識装置、基準点設置用移動体、作業用移動体、及び位置認識システム
JP4953031B2 (ja) 移動ロボットの制御装置、移動ロボットおよび移動ロボットシステム
JP2023059409A (ja) 移動体制御システム、移動体制御方法、及び、プログラム
EP4177015B1 (en) Robot teaching system
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
KR102263836B1 (ko) 생산 라인에서의 작업자 위치 인식 방법 및 그 장치
JP7278637B2 (ja) 自走式移動装置
CN112327818B (zh) 校正导引图形的位姿偏差的方法及行走设备
WO2024062535A1 (ja) ロボット制御装置
US20230297121A1 (en) Moving body control system, control apparatus, and moving body control method
JPH04269185A (ja) ロボットの遠隔制御装置
CN114689060A (zh) 一种机器人、对机器人进行定位的方法
JP2022050115A (ja) 移動体の位置推定システム、オペレータ用端末装置及び位置推定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021