JP6949417B1 - 車両操縦システムと車両操縦方法 - Google Patents

車両操縦システムと車両操縦方法 Download PDF

Info

Publication number
JP6949417B1
JP6949417B1 JP2020086403A JP2020086403A JP6949417B1 JP 6949417 B1 JP6949417 B1 JP 6949417B1 JP 2020086403 A JP2020086403 A JP 2020086403A JP 2020086403 A JP2020086403 A JP 2020086403A JP 6949417 B1 JP6949417 B1 JP 6949417B1
Authority
JP
Japan
Prior art keywords
vehicle
information
dimensional
fusion
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020086403A
Other languages
English (en)
Other versions
JP2021182177A (ja
Inventor
山田 昌義
昌義 山田
嵩智 渡邉
嵩智 渡邉
裕之 矢代
裕之 矢代
忠弘 中島
忠弘 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Aerospace Co Ltd
Original Assignee
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Aerospace Co Ltd filed Critical IHI Aerospace Co Ltd
Priority to JP2020086403A priority Critical patent/JP6949417B1/ja
Application granted granted Critical
Publication of JP6949417B1 publication Critical patent/JP6949417B1/ja
Publication of JP2021182177A publication Critical patent/JP2021182177A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自車両と他車両の間隔が大きい場合でも、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる車両操縦システムと車両操縦方法を提供する。【解決手段】自車両10Aと、自車両と双方向に通信可能な他車両10Bと、を備える。自車両と他車両はそれぞれ、周囲の3次元情報1A,1Bを取得する環境計測装置12と、位置姿勢情報2A,2Bを取得する自己位置標定装置13と、演算装置14と、3次元情報及び位置姿勢情報を双方向に通信する車々間通信装置18と、を有する。自車両10Aの演算装置14はさらに、他車両から受信した3次元情報及び位置姿勢情報を用いて、自車両の3次元情報と他車両の3次元情報を融合して融合3次元情報4を生成する情報融合機能を有する。【選択図】図2

Description

本発明は、無人車両又は有人車両の車両操縦システムと車両操縦方法に関する。
火山の噴火や原子力発電所の事故等の被災地において、あるいは危険な場所において、物資輸送、土木作業、偵察作業等を行う車両として、無人車両を用いることがある。
また空港や航空基地等の広大な場所を警備のために監視を行う車両として、カメラ等の監視用センサを搭載した無人車両を用いることがある。
無人車両は、安全な場所にいる遠隔操縦者からの指令により、走行や各種作業を行う。また、無人車両は遠隔操縦者が操縦を行いやすいよう、周囲の画像や3次元情報等の周囲環境情報を遠隔操縦者に送信することが一般に行われている。
遠隔操縦者はこれらの情報を参考に遠隔操縦を行う。遠隔操縦には、アクセル、ブレーキ、ステアリング、シフト等(以下、「操縦機器」)や各種作業装置の駆動量等を操作する必要がある。遠隔操縦手段は、これらの操作量を直接送信して行う手段、車両が進むべき座標のみを示し車両側が障害物等に衝突しないように自律的に操縦機器の操作量を決定する手段、あるいはその中間的な手段、のいずれであってもよい。
この遠隔操縦の際、無人車両が走行や各種作業に際して障害物回避を行うために、車両周囲の環境認識情報(例えば環境認識地図)を取得し、どこにどのような障害物が存在するかを認識することが行なわれている。「障害物回避」とは、回避すべき障害物を認識し、その手前で安全に停止または迂回することを意味する。
上述した周囲環境情報及び環境認識情報を取得する手段として、例えば特許文献1が開示されている。
特許文献1は、移動体にレーザレーダやカメラを備え、移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元画像を生成する。
また、隣接した複数台が互いに干渉せずに遠隔操作で駆動することができる作業用車両が、特許文献2に開示されている。
特許文献2では、各作業用車両が、独立して移動可能であり、他車両の方向の障害物を検出しその障害物情報を出力する障害物認識センサと、他車両と通信可能な相互通信装置と、自車両と他車両との干渉を防止する干渉防止装置と、を備える。他車両と自車両とが干渉する可能性がある場合には駆動アームの駆動を停止または減速する旨の抑制指令を自車両へ出力し、他車両への警報もしくは抑制指令を相互通信装置へ出力する。
特許第4486737号公報 特開2016−45674号公報
建機等の無人車両の遠隔操縦による作業や走行において、無人車両の周囲環境の3次元情報を取得し、遠隔操縦者に提供することにより、円滑な遠隔操縦を実現することが要望されている。
この要望を満たすため、特許文献1の技術により、単独の車両において、レーザレーダやカメラを用いて、複数の位置により計測した結果を合成し、周囲環境情報を生成することが可能である。
しかし、特許文献1の手段では、移動しながら得たデータを用いて周囲環境情報を生成するため、周囲環境情報の生成に時間がかかる。また、遠隔操縦する無人車両(自車両)で得たデータのみに基づくため、自車両の死角部分の情報を把握することができない。
一方、特許文献2の手段では、他車両の方向の障害物を検出しその障害物情報を他車両と通信するので、自車両と他車両との干渉を防止することができる。
また特許文献2の手段では、自車両と他車両の障害物情報を重ね合わせた複合障害物情報が操縦装置へ送信されるため、自車両の死角部分の障害物情報を、自車両の遠隔操縦者が把握することができる。
しかし、特許文献2の手段では、自車両と他車両が近接していることが前提となるため、自車両と他車両の間隔が大きい場合に、精度の高い死角情報が得られない。
本発明は上述した問題点を解決するために創案されたものである。すなわち本発明の目的は、自車両と他車両の間隔が大きい場合でも、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる車両操縦システムと車両操縦方法を提供することにある。
本発明によれば、自車両と、前記自車両と双方向に通信可能な他車両と、を備え、
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、演算装置と、前記3次元点群情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成する情報融合機能を有し、
前記情報融合機能は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正する相対位置・姿勢補正機能と、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する融合情報生成機能と、を有する、車両操縦システムが提供される。
また本発明によれば、自車両と、前記自車両と双方向に通信可能な他車両と、を準備し、
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報と位置姿勢情報を取得し、かつ前記3次元点群情報及び前記位置姿勢情報を双方向に通信し、
さらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成し、
前記自車両は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正し、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する、車両操縦方法が提供される。
本発明によれば、演算装置が、他車両から受信した3次元点群情報及び位置姿勢情報と自車両の3次元点群情報及び位置姿勢情報を用いて、自車両の3次元点群情報と他車両の3次元点群情報を融合して融合3次元情報を生成する。
この融合3次元情報は、複数の3次元点群情報の共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両の間隔が大きい場合でも、自車両からみた他車両の相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる。
また、複数車両からの情報を高精度かつリアルタイムで融合できることで、車両の操縦者が死角情報を含む広範囲かつ高精度の周囲環境情報を把握でき、効率的な車両の操縦を行うことが可能となる。
本発明による車両操縦システムの全体構成図である。 車両操縦システムの機能ブロック図である。 情報融合による死角の低減の概念図である。 自車両と他車両による周囲の3次元情報を模式的に示す図である。 自車両と他車両の車々間通信による情報提供を模式的に示す図である。 スキャンマッチングによる補正を模式的に示す図である。 遠隔操縦装置の表示装置による表示内容を示す模式図である。 複数の他車両がある場合の図3と同様の概念図である。 自車両における情報融合処理の全体フロー図である。 自車両における周囲環境3D画像生成処理の全体フロー図である。 他車両における情報提供処理の全体フロー図である。 平坦・凹凸エリアの調整方法を示す模式図である。 共通計測エリア算出の説明図である。 フィルタリングの説明図である。
以下、本発明の好ましい実施形態を添付図面に基づいて詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明による車両操縦システム100の全体構成図である。
この図において、車両操縦システム100は、自車両10Aと、自車両10Aと双方向に通信可能な他車両10Bと、を備える。
自車両10Aは、有人車両であって、車両内の表示装置に本発明に基づく周囲環境3D画像6(後述する)を表示して運転手が操作するものであってもよい。
この例において、自車両10Aは、遠隔操縦可能な無人車両であり、車両操縦システム100は、さらに無人車両を遠隔操縦する遠隔操縦装置20を備える。
以下、自車両10Aを情報融合側とも呼ぶ。また、他車両10Bを情報提供側とも呼ぶ。
図1において、自車両10Aは、車体11、環境計測装置12、自己位置標定装置13、演算装置14、ドライブバイワイヤ装置15、遠隔通信装置16、及び車々間通信装置18を有する。
車体11は、車両として基本的な走行機能を有する。装輪タイプ又は装軌(無限軌道)タイプ、またはそのハイブリッドタイプなどがある。
図2は、車両操縦システム100の機能ブロック図である。
図1と図2において、自車両10Aの環境計測装置12は、車体11に取付けられたカメラ、レーザレンジファインダ(LRF)、レーダ等である。
自車両10Aの環境計測装置12は、自車両10Aの周囲の離散した点群の3次元情報である3次元点群情報(以下、3次元情報1Aを取得する。他車両10Bの環境計測装置12も、同様に他車両10Bの周囲の離散した点群の3次元情報である3次元点群情報(以下、3次元情報1Bを取得する。
以下、3次元情報1Aが点群情報である場合を説明する。
また、自車両10Aの自己位置標定装置13は、自車両10Aの絶対座標、速度、姿勢、及び加速度情報を取得するための全地球測位システム(GNSS)や慣性計測装置(IMU)、などのセンサを含み、自車両の位置と姿勢の情報(以下、「位置姿勢情報2A」)を決定する。
また他車両10Bの自己位置標定装置13も、同様に、他車両の位置と姿勢の情報(以下、「位置姿勢情報2B」)を決定する。
演算装置14は、コンピュータ等により構成される。
自車両10Aの演算装置14は、環境計測装置12にて計測された3次元情報1Aから、自車両10Aの周囲の障害物情報や、自車両10Aが通過できる場所や、自車両10Aが通過できる速度を求め、これらを環境認識地図として生成する。
以下、環境認識地図と環境認識情報は、自車両10Aの自律走行機能に必要な地図と情報を意味する。環境認識地図は、自車両自体が生成する。
また、後述する周囲環境情報、及び周囲環境3D画像6は、遠隔操縦者に提示する情報、地図、及び3D画像(3次元画像)を意味する。遠隔操縦者は、これらの情報(操縦支援情報)を用いて自車両10Aを遠隔操縦する。
また演算装置14は、遠隔操縦装置20からのアクセル、ブレーキへの指令(又は速度指令)、ステアリング指令(又は方向指令)、または走行すべき座標指令等に基づき、自ら生成した環境認識地図において障害物等に衝突しないような経路を計画する。
また演算装置14は、計画した経路に基づいて各アクチュエータの制御量を算出しドライブバイワイヤ装置15に対して制御指令として出力する。
また、自車両10Aの演算装置14は、他車両10Bから得た他車両10Bの3次元情報1Bを用いて、自らの3次元情報1Aとの融合を行う情報融合機能を有する。
なお、以下「融合」とは、複数の3次元情報1A,1Bの共通の点群情報を一致させ、かつこれに共通しないそれぞれの点群情報を含めて全体として1つの3次元情報(「融合3次元情報4」と呼ぶ)を作成することを意味する。このため後述するICP等のスキャンマッチング手法を用いる。
演算装置14による情報融合機能は、実質的にリアルタイムで実施することが好ましい。
なお、融合3次元情報4を生成する演算装置14と、環境認識地図を生成する演算装置14は別の装置であってもよい。
自車両10Aのドライブバイワイヤ装置15は、車体11を無人で走行させるため、アクセル、ブレーキ、ステアリング、シフト等(「操縦機器」)に取付けられたアクチュエータ等である。ドライブバイワイヤ装置15は、演算装置14から受けた制御指令に従い、操縦機器を所定量動作させ、又は所定の位置に設定する機能を有する。
なお車両によっては、操縦機器そのものが制御指令を入力して所定量動作が可能な場合がある。この場合はアクチュエータは不要である。
自車両10Aの遠隔通信装置16は、遠隔操縦装置20と通信を行うための通信機及びアンテナより構成される。
また遠隔通信装置16は、直接、遠隔操縦装置20と通信を行う場合だけでなく、遠隔操縦装置20との通信のための中継用通信機を搭載した、他の自車両10A、他車両10B、有人車両もしくは単なる中継器との間で通信を行うことにも用いられる。
自車両10Aと遠隔操縦装置20との通信距離は遠距離(例えば1km以上)であり、一般的に低通信容量となる。そのため、自車両10Aから遠隔操縦装置20への通信情報は、複数の車両からの3次元情報ではなく、単一の自車両10Aで融合した融合3次元情報4を2次元画像化した周囲環境3D画像6としており、通信負荷を低減することで低通信容量でも通信可能としている。
車々間通信装置18は、通信機及びアンテナにより構成される。車々間通信装置18は、複数の車両による3次元情報の融合を行うために、他車両10B(情報提供側)で取得した3次元情報1Bおよび位置姿勢情報2Bを、自車両10A(情報融合側)に提供するために用いる。他車両10Bは、1台に限定されず、2台以上でもよい。
自車両10Aと他車両10Bとの通信距離は短距離(例えば50〜100m)であり、通信容量の低下は実質的に発生しない。そのため、自車両10Aは、他車両10Bの3次元情報1Bと位置姿勢情報2Bを実質的にリアルタイムに受信でき、融合した融合3次元情報4の精度を高めることができる。
なお、遠隔通信装置16の通信容量と通信速度に余裕がある場合には、遠隔通信装置16が車々間通信装置18を兼ねてもよい。また、融合3次元情報4を画像化した周囲環境3D画像6ではなく、融合3次元情報4を遠隔操縦装置20に送信しても良い。
図2において、自車両10Aと他車両10Bは、それぞれ環境計測装置12と車々間通信装置18を有する。
自車両10Aはさらに、上述した演算装置14を有する。演算装置14は、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bを用いて自車両の3次元情報1Aと他車両の3次元情報1Bを融合して融合3次元情報4を生成する情報融合機能を有する。
融合3次元情報4には、死角情報を含む広範囲かつ高精度の周囲環境情報が含まれる。
情報融合機能は、相対位置・姿勢補正機能Aと融合情報生成機能Bとを有する。
相対位置・姿勢補正機能Aは、自車両10Aと他車両10Bの3次元情報1A,1Bと位置姿勢情報2A,2Bを用いてスキャンマッチングにより他車両10Bの相対位置と相対姿勢を補正する。
融合情報生成機能Bは、補正後の他車両10Bの相対位置と相対姿勢に基づき、他車両10Bの3次元情報1Bを自車両の3次元情報1Aと融合して融合3次元情報4を生成する。
図2において、自車両10Aの演算装置14はさらに、融合3次元情報4から任意の視点・注視点における周囲環境3D画像6を作成する周囲環境3D画像生成機能Cを有する。
遠隔通信装置16は、周囲環境3D画像6を遠隔操縦装置20に送信する。
他車両10Bは、自車両10Aと同一の構成であってもよい。この場合、他車両10Bの遠隔操縦は、他の遠隔操縦装置によって行われる。また他車両10Bは情報提供側であると同時に、自らの遠隔操縦のために情報融合側となってもよい。
他車両10Bは、上述した環境計測装置12と車々間通信装置18を有する限りで、無人車両に限定されず、有人車両であってもよい。
また、他車両10Bは1台に限定されず、2台以上でもよい。
図2において、遠隔操縦装置20は、自車両10Aと双方向に通信する遠隔通信装置22を有する。
遠隔操縦装置20は、自車両10Aと無線通信を行い、遠隔操縦装置20を操作する遠隔操縦者から、自車両10Aに対して走行指示や作業指示等の操縦指令を与え、また自車両10Aより得た情報を遠隔操縦者に対して提示または記録する装置である。
遠隔操縦装置20には、固定された場所から遠隔の自車両10Aを操縦するための据置型や、遠隔操縦者が自車両10Aと共に移動しながら、あるいは自車両10Aから離れた場所で移動しながら操縦するための装着・携帯型などの形態がある。
遠隔操縦装置20は、遠隔通信装置22、制御装置24、指令入力装置26、及び表示装置28を有する。
遠隔通信装置22は、アンテナ及び通信機により構成され、自車両10Aと双方向に通信する。制御装置24は、情報処理を行うコンピュータ等により構成される。指令入力装置26は、自車両10Aに対する操縦機器に指示や速度、その他の設定コマンドなどの操縦指令を入力する。表示装置28は、自車両10Aから送られる情報(周囲環境3D画像6など)を表示するディスプレイ等である。
遠隔操縦装置20と自車両10Aとの双方向の通信は、実質的にリアルタイムで実施することが好ましい。しかし、自車両10Aが自律走行中の場合には、必要時のみに通信してもよい。
据置型の遠隔操縦装置20では、指令入力装置26は、車体11と同様な操縦機器を有するものがある。またタッチパネル式ディスプレイのように、指令入力装置と表示装置を兼ねる装置もある。
図3は、本発明の情報融合による死角の低減の概念図である。この図において、(A)は従来例、(B)は本発明を示している。
本発明の車両操縦方法では、上述した自車両10A、遠隔操縦装置20、及び他車両10Bを準備し、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bと自車両の3次元情報1A及び位置姿勢情報2Aを用いて融合3次元情報4を生成する。
図3(A)に示すように、遠隔操縦する自車両10A(自車両)で得たデータのみに基づく場合、障害物の背後等に発生する自車両10Aから見た死角部分の情報を把握することができない。
本発明では、自車両10Aから見た死角情報を得るため、図3(B)に示すように、他車両10Bにて周囲環境の3次元情報1B及び位置姿勢情報2Bを取得し、これらの取得情報を用いて、自車両の3次元情報1Aと他車両10Bの3次元情報1Bを融合する。融合された情報は、遠隔操縦者にリアルタイムに提供される。これにより、死角の少ない良好な周囲環境情報(例えば周囲環境3D画像6)を提供することができる。
複数車両による情報融合を行うためには車両間の相対位置と相対姿勢を取得することが必要であるが、その方法としてGPS/INSのみを用いる方法では誤差が大きいことがある。そこで、本発明では、周囲環境の3次元の点群情報そのものを用いてICP(Iterative Closest Point)アルゴリズム等のスキャンマッチングによって補正を行うことにより、より精度の高い相対位置・姿勢を得る。
図4〜図6は、スキャンマッチングの説明図である。
図4は、自車両10Aと他車両10Bによる周囲の3次元情報1A,1Bを模式的に示す図である。
図4(A)において、自車両10Aで取得する3次元情報1Aを黒丸(●)で示す。建物、瓦礫等の構造物5により、自車両10Aで取得できる3次元情報1Aは、構造物5の前面及び側面に限られ、背面側は自車両10Aの死角部分となる。
図4(B)において、他車両10Bで取得する3次元情報1Bを白丸(○)で示す。建物、瓦礫等の構造物5により、他車両10Bで取得できる3次元情報1Bは、構造物5の背面及び側面に限られ、前面側は他車両10Bの死角部分となる。
図5は、自車両10Aと他車両10Bの車々間通信による情報提供を模式的に示す図である。
図5(A)において、車々間通信により、他車両10B(情報提供側)の周囲の3次元情報1Bと位置姿勢情報2Bが自車両10A(情報融合側)に提供される。
図5(B)において、自車両10Aと他車両10BのそれぞれのGPS/INSより得られる位置姿勢情報には誤差があるため、その差分から求めた自車両10Aに対する他車両10Bの相対位置と相対姿勢にも、誤差がある。
したがって誤差のある相対位置と相対姿勢に基づいて融合した自車両10Aの3次元情報1Aと他車両10Bの3次元情報1Bに、「ずれ」が生じる。これは図5(B)で、構造物5の側面の黒丸と白丸が食い違うことを意味する。
図6は、スキャンマッチングによる補正を模式的に示す図である。
この図において、自車両10Aの3次元情報1A(黒丸●)と他車両10Bの3次元情報1B(白丸○)とには、共通の点群情報が存在する。この共通の点群情報が一致するように、対応する点群情報に基づいてスキャンマッチングにより自車両に対する他車両10Bの相対位置と相対姿勢を補正する。
具体的にはICPアルゴリズムを用いた場合、両方の点群間の距離の二乗和が最小となるように繰り返し計算が行われ、最も一致した際の相対位置姿勢が得られる。
言い換えれば、自車両10Aによる情報(1A,2A)である黒丸と、他車両10Bによる情報(1B、2B)である白丸は、それぞれのGPS/INSに含まれる誤差により、図5(B)のように食い違う。そこで、図6のように、“共通するデータ”を一致する(スキャンマッチング)よう移動させることで黒丸と白丸のデータ全体を平行移動及び回転させる。その平行移動量及び回転量が、自車両10Aから見た他車両10Bの相対位置と相対姿勢の補正量に相当する。
上述したスキャンマッチングにより、自車両に対する他車両10Bの相対位置と相対姿勢を補正することができる。この補正された相対位置と相対姿勢に基づき2車両の3次元情報1A、1Bを融合することにより、自車両10Aにとって死角のない融合3次元情報4が作成される。
図7は、遠隔操縦装置20の表示装置28による表示内容を示す模式図である。
表示装置28は、自車両10Aから送られる周囲環境3D画像6を表示する。周囲環境3D画像6は融合3次元情報4内の指示された注視点に対し、指示された視点、指示された距離から眺めた様子を2次元画像として表現したものである。
図7(A)は、周囲環境3D画像6の一例の車両正面画像の例である。この図において、斜線部分は、起伏が激しい箇所(例えば草地やブッシュ)であり、中央の白い部分は、起伏が少なく、走行に適した箇所(例えば車路)である。車両正面画像は、仮想的に操縦者が自車両10Aに乗車し、指令入力装置26を介して自車両10Aの操縦機器を直接操作する場合に適している。
この表示を行う場合には、遠隔操縦者は注視点を自車両10Aの前方、視点及び距離を自車両10Aの内部となるように指示すればよい。
なお図7(A)の場合、レーザレンジファインダによる点群情報とカメラによる画像とを色合わせして、点群情報をカメラ画像のようにカラー表示することが好ましい。
図7(B)は、周囲環境3D画像6の別例である。この場合、自車両10A及び他車両10Bの車体11の一部又は全部を周囲環境3D画像6に表示することができる。
この表示を行う場合には、遠隔操縦者は視点を自車両10Aの前方、視点及び距離を注視点の上方となるように指示すればよい。
またこの表示例は、自律運転する自車両10Aに対し、車両が進むべき位置又は方向を示す場合や、走行エリアや作業エリア全体を俯瞰する場合に適している。
なお、周囲環境3D画像6はこの例に限定されず、遠隔操作の目的に応じて、斜めから見た2次元画像等に自由に変更することができる。
図8は、複数の他車両10Bがある場合の図3と同様の概念図である。
この場合、他車両10Bは、自車両10Aと同一の構成であることが好ましい。
自車両10Aは、自車両の車々間通信装置18により双方向に通信可能な他車両10Bを探索する。通信可能な範囲を破線の円で示す。自車両10Aは、探索された他車両10Bが複数の場合、その一部又は全部と通信して、上述した融合3次元情報4を生成する。
「一部又は全部」の選択は、予め自車両10Aに設定しても、遠隔操縦装置20から指令してもよい。
また、自車両10Aは、生成した融合3次元情報4を他車両10Bに送信する情報共有機能を有する。
この構成により、自車両10Aと同一の構成の他車両10Bを介して、共有する融合3次元情報4の範囲を、自車両が直接交信できない範囲まで広げることができる。
また、複数の他車両10Bがそれぞれ情報融合機能を有するので、広範囲の融合3次元情報4を作成する場合でも、個々の自車両10Aの計算負荷を小さくできる。
上述した本発明の実施形態によれば、演算装置14が、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bを用いて、自車両の3次元情報1Aと他車両の3次元情報1Bを融合して融合3次元情報4を生成する。
この融合3次元情報4は、複数の3次元情報1A,1Bの共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両10Bの間隔が大きい場合でも、自車両10Aからみた他車両10Bの相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報(周囲環境3D画像6)を得ることができる。
また、複数車両からの情報を高精度かつリアルタイムで融合できることで、車両の操縦者が死角情報を含む広範囲かつ高精度の周囲環境情報(周囲環境3D画像6)を把握でき、効率的な車両の操縦を行うことが可能となる。
図9は、自車両10Aにおける情報融合処理の全体フロー図である。
この図において、情報融合処理は、S1〜S5の各ステップ(工程)からなる。
なお情報融合する他車両の総数Nに対し、S1〜S5の各ステップはn=1からn=Nまでn=n+1で順に実施される。
ステップS1では、車々間通信装置18による他車両(n)の情報(1B,2B)を取得し、かつ環境計測装置12により自車両の3次元情報1Aを取得する。
ステップS2では、自己位置標定装置13により、自車両の位置姿勢情報2Aを算出する。
ステップS3では、スキャンマッチングに供する3次元情報を調整する。
ステップS4では、スキャンマッチングによる相対位置姿勢を算出する。
ステップS5では、相対位置姿勢に基づく他車両(n)の3次元情報の自車両座標系への変換(すなわち、融合3次元情報を生成する。)
図10は、自車両10Aにおける周囲環境3D画像生成処理の全体フロー図である。
この図において、周囲環境3D画像生成処理は、T1〜T3の各ステップ(工程)が繰り返し実施される。
ステップT1では、遠隔通信装置22を介して、遠隔操縦装置20により操縦者の表示指示(視点、注視点、距離)を取得する。例えば指令入力装置26がタッチパネル式ディスプレイであり表示装置28と兼ねる場合、周囲環境3D画像6の表示に対して、スマートフォンを操作するようなスワイプ操作やピンチ操作などのタッチ操作により、表示をシフト、回転したり拡大・縮小することで、視点、注視点、距離を指示する。
ステップT2では、融合3次元情報4より、操縦者の表示指示に基づき周囲環境3D画像6を生成する。
ステップT3では、遠隔通信装置22を介して、周囲環境3D画像6を遠隔操縦装置20に送信する。
図11は、他車両10Bにおける情報提供処理の全体フロー図である。
この図において、情報提供処理は、U1〜U3の各ステップ(工程)が繰り返し実施される。
ステップU1では、環境計測装置12により他車両の3次元情報1Bを取得する。
ステップU2では、自己位置標定装置13により、他車両の位置姿勢情報2Bを算出する。
ステップU3では、車々間通信装置18により他車両(n)の情報(1B,2B)を自車両10Aへ送信する。
図9において、S3では、S31,S32,S33の各ステップ(工程)が実施される。
ステップS31では、平坦・凹凸エリアを調整する。
ステップS32では、自・他車両の3次元情報1A,1Bの共通計測エリアを算出する。
ステップS33では、フィルタリングにより細かい凹凸を除去する。
以下、ステップS31,S32,S33を具体的に説明する。
(A)平坦・凹凸エリアの調整(ステップS31)
図12は、平坦・凹凸エリアの調整方法を示す模式図である。
点群同士のスキャンマッチングにおいては、そのマッチング対象の形状によってマッチングの精度が影響を受ける。
例えば、情報融合する地形が、平坦に近く凹凸が少ない場合、マッチング処理の過程において高さ方向のずれが水平方向のずれよりも全体誤差に大きく影響する。そのため、高さ方向のマッチング精度は相対的に高く、逆に水平方向のマッチング精度は相対的に低くなる。
一方、情報融合する地形が、凹凸が多く平坦部分が少ない場合、水平方向のマッチング精度は相対的に高く、逆に高さ方向のマッチング精度は相対的に低くなる。
そこで、高さ方向、水平方向共に同程度のマッチング精度とするために、3次元情報をスキャンマッチングに供する前に、平坦部分もしくは凹凸部分の情報を除去することが考えられる。
これを行うため、まず、自車両の3次元情報1Aに含まれる各計測点が、平坦エリア又は凹凸エリアのいずれに属するのか分類を行う。
図12(A)は、平坦候補の抽出ステップを示している。
各計測点は3次元空間における座標(x,y,z)を有するため、平坦候補の抽出ステップにおいて、ある計測点において隣接する計測点との高さの差が閾値Hf[cm]以下である場合その計測点を平坦候補とする。隣接する計測点とは、例えばLRFによる計測において、対象とする計測点と時間的にその直前または直後に計測された点である。また、閾値Hfは、例えば5〜20cm(好ましくは10cm)である。
全ての計測点にてこの判定を行った後、図12(C)に示すように、平坦候補が連続して存在する部分をクラスタリング等の手法により求め、それを平坦エリアとする。また、それ以外を凹凸エリアとする。
次に、図12(D)に示すように、最終的に得られた平坦エリアの合計面積と凹凸エリアの合計面積比がF:Rとなるように、いずれかの計測点をマッチング対象の3次元情報から除去する。
なお、F:Rはスキャンマッチングの結果、高さ方向と水平方向の融合精度が同程度となるために予め定めた数値である。F:Rは、例えば3:1〜8:1(好ましくは5:1)である。
ただし、3次元情報の除去過多によるスキャンマッチング精度の悪化を防止するため、除去する面積の上限値St[m]、または除去する面積の元の面積に対する上限比率Rt[%]を設けてもよい。上限値Stは、例えば250m、上限比率Rtは例えば10%である。
なお、本処理は自車両の3次元情報1Aについてのみ行うことが好ましい。他車両10BについてはステップS32の処理(自車両の3次元情報と他車両の3次元情報の共通計測エリアを算出)にて自車両との共通計測エリアがスキャンマッチングに供されるため、特に実施する必要は無い。
(B)自・他車両の3次元情報の共通計測エリア算出(ステップS32)
図13は、共通計測エリア算出の説明図である。
車両間の相対位置姿勢を求める際、一方の車両のみが計測し、もう一方の車両が計測していない箇所(図13(A)の死角)のデータを用いてスキャンマッチングを行うと、マッチング精度に悪影響が出る。
そのため、両車両が共通に計測している共通計測点同士をスキャンマッチングに供することが望ましい。
これを行うため、ある計測点に対して、その周囲(半径r[m]以内)に他車両の計測点が存在しない(あるいは一定数以上存在しない)場合は、その計測点を孤立点として、スキャンマッチングの対象から除去する。これを両車両の全計測点で行うことにより、概ね共通に計測している箇所のみを抽出することが可能と考えられる。
別の手法として、自車両が保有または構築している周囲環境情報を用いて行う方法が考えられる。
図13(B)において、計測点Aは、他車両との間に遮蔽物体がなく、他車両の計測範囲なので、共通計測点である。また、計測点Bは、干渉判定線が遮蔽物体によって遮られているため、非共通計測点である。さらに、計測点Cは、他車両との間に遮蔽物体がないが、他車両の計測範囲外のため、非共通計測点である。
すなわち、ある計測点A,B,Cに対して、周囲環境情報上でその計測点と他車両10Bの環境計測装置12のセンサを線で結ぶ(これを「干渉判定線」と呼ぶ)。計測点と他車両10Bの間に遮蔽物体が無く、かつ干渉判定線が相手側車両(すなわち他車両10B)の環境計測装置12の計測範囲に含まれる場合には、その計測点は両車両10A,10Bから共通に計測可能な共通計測点と考える。
これを全計測点で行うことにより、概ね共通に計測している箇所のみを抽出することができる。
上記干渉判定線について、上記周囲環境情報が点群により構成されている場合、実際には遮蔽物体が存在するのに、干渉判定線が周囲環境情報上の点間を通り抜け、相手側車両(すなわち他車両10B)から計測可能となってしまうことが考えられる。これについては、干渉判定線を、半径c[cm]の円筒状の物体であるとして遮蔽物体との干渉判定を行うことにより回避可能である。
以上の方法により、両車両の非共通計測領域を3次元情報から除去し、共通に計測している箇所のみをスキャンマッチングに供することにより、マッチング精度の悪化を防止することができる。
(C)フィルタリングによる細かい凹凸の除去(ステップS33)
図14は、フィルタリングの説明図である。
スキャンマッチングの既知の用途には、SLAM(Simultaneous Localization And Mapping)による地図生成がある。これは車両等の移動体が周囲をLRF(レーザレンジファインダ)等により移動しながら計測し、時々刻々得られた情報のスキャンマッチング等を行って自己位置・姿勢の算出と地図生成を同時に行うものである。
このように単独の移動体にて時々刻々にスキャンマッチングを行う場合、それぞれのスキャンマッチングを行う間に移動体が進む距離や向きの変化は一般に小さい。そのため、スキャンマッチング対象となる移動前後の2つの地形の移動体からの見え方は大きく変化しないため、精度良くマッチングできる。
しかし、不整地環境における複数車両による情報融合のためのスキャンマッチングの場合、地形を計測する位置や向きが単独移動体に比較して大きく、また不整地環境の凹凸により両車両が計測する地形の見え方が異なる。そのため、図14(A)に示すように、細かな形状が一致せず、マッチングの精度が悪くなるという問題がある。
そこで、各車両から計測される地形の見え方を極力同じにするために、細かい凹凸をフィルタリングにより除去することが考えられる。
フィルタリングの方法として、図14(B)に示すように、3次元空間を立体物(これをグリッドと呼ぶ)の集合とし、計測した3次元情報を配置する。なお立体物は、好ましくは一辺が所定長さg[cm]の立方体であるが、直方体でも、半径が所定長さの球形でもよい。
このとき、あるグリッドには複数の計測点が入り、別のグリッドには1点のみ計測点が入り、また別のグリッドには計測点が1点も無い場合があり得る。
この中であるグリッドに1つ以上の計測点が入る場合、これら1グリッド内の各計測点の3次元座標(x,y,z)を平均化した3次元座標(x,y,z)を求め、これをそのグリッドの3次元座標とする。図14(C)に示すように、これを両車両の3次元情報について実施し、スキャンマッチングに供する。
グリッドの所定長さgは、これが小さすぎるとフィルタリングの効果が小さく、細かい凹凸が除去されない。また大きすぎるとマッチングを行う際の地形の特徴までもが失われるため、適切なサイズを選定する必要がある。長さgは、例えば10〜50cmである。
また、フィルタリングを行う別の効果として、3次元情報のデータが存在する部分のデータの粗密が無くなり均一化される。粗密のあるデータを用いてICP等のスキャンマッチングを行う際、密な部分のデータが疎な部分のデータより大きく影響するため、それによりマッチングの誤差が大きくなる場合がある。したがって、フィルタリングによりデータの粗密を無くすことで、スキャンマッチングの誤差を抑える効果がある。
このようにグリッド化、すなわちフィルタリングした3次元情報を用いてスキャンマッチングを行うことにより、不整地環境における複数車両の情報融合においてもマッチング情報の悪化を抑えることができる。
図9において、S5では、S51のステップ(工程)が実施される。
ステップS51では、他車両融合情報の範囲選択を実施する。
(D)他車両融合情報の範囲選択(ステップS51)
スキャンマッチングによって求められた相対位置姿勢に基づき、他車両の3次元情報を自車両の座標系に座標変換することで、情報融合を行う。
この際、他車両側の3次元情報について、その情報を全て用いて融合することを行ってもよい。
しかし、求めた相対位置姿勢は幾分かの誤差を含んでいるため、この誤差により融合された3D情報は本来は一つの物体が二重に表示されることになる。従って、情報を融合するのは他車両側の全ての情報ではなく、自車両にとっての死角部分や自車両が情報を有していない部分のみとしたい場合がある。
なお、自車両の3次元情報は、ステップS31,S32,S33で除去したり、グリッド化した後の情報を用いる必要はなく、最も情報が豊富となるように計測した全ての情報を用いることで良い。
融合する他車両の情報の範囲選択を行うため、ステップS32の自・他車両の3次元情報の共通計測エリア算出の結果を利用する。
すなわちステップS32の処理においては、自車両と他車両の3次元情報の共通計測箇所を求めたが、この際に非共通計測領域として他車両の3次元情報から除去した部分は、自車両にとっての死角部分および自車両が情報を有していない部分に相当する。
したがって、ステップS32の処理において非共通計測領域として除去した部分を記録しておき、これをスキャンマッチングによって求められた相対位置姿勢に基づき、自車両の座標系に座標変換すれば良い。
なお本発明は上述した実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。
A 相対位置・姿勢補正機能、B 融合情報生成機能、
C 周囲環境3D画像生成機能、
1A,1B 3次元情報、2A,2B 位置姿勢情報、4 融合3次元情報、
5 構造物、6 周囲環境3D画像、10A 自車両、10B 他車両、
11 車体、12 環境計測装置、13 自己位置標定装置、14 演算装置、
15 ドライブバイワイヤ装置、16 遠隔通信装置、18 車々間通信装置、
20 遠隔操縦装置、22 遠隔通信装置、24 制御装置、
26 指令入力装置、28 表示装置、100 車両操縦システム

Claims (13)

  1. 自車両と、前記自車両と双方向に通信可能な他車両と、を備え、
    前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、演算装置と、前記3次元点群情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
    前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成する情報融合機能を有し、
    前記情報融合機能は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正する相対位置・姿勢補正機能と、
    補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する融合情報生成機能と、を有する、車両操縦システム。
  2. 前記情報融合機能は、前記融合3次元情報を生成する前に、前記自車両の前記3次元点群情報について、平坦エリアと凹凸エリアの合計面積比を調整する、請求項1に記載の車両操縦システム。
  3. 前記情報融合機能は、前記自車両の前記3次元点群情報について、前記自車両の計測点に対して、周囲環境情報上で前記計測点と前記他車両の前記3次元点群情報を取得する環境計測装置のセンサを干渉判定線で結び、その間に遮蔽物体が無い、かつ前記干渉判定線が前記他車両の環境計測装置の計測範囲に含まれる場合に、前記計測点を前記自車両と前記他車両に共通の共通計測点として、共通計測点同士をスキャンマッチングする、請求項1に記載の車両操縦システム。
  4. 前記情報融合機能は、前記融合3次元情報を生成する前に、3次元空間を立体物のグリッドの集合とし、計測した前記3次元情報を配置し、
    前記グリッドに1又は複数の計測点が入る場合、前記計測点の3次元座標を平均化してこれを該グリッドの3次元座標としてフィルタリングを実施する、請求項1に記載の車両操縦システム。
  5. 前記自車両は、前記融合3次元情報を前記他車両に送信する情報共有機能を有する、請求項1に記載の車両操縦システム。
  6. 前記自車両は、遠隔操縦可能な無人車両であり、
    さらに前記無人車両を遠隔操縦する遠隔操縦装置を備える、請求項1に記載の車両操縦システム。
  7. 自車両と、前記自車両と双方向に通信可能な他車両と、を準備し、
    前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報と位置姿勢情報を取得し、かつ前記3次元点群情報及び前記位置姿勢情報を双方向に通信し、
    さらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成し、
    前記自車両は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正し、
    補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する、車両操縦方法。
  8. 前記自車両は、双方向に通信可能な前記他車両を探索し、探索された前記他車両が複数の場合、その一部又は全部と通信して、前記融合3次元情報を生成する、請求項に記載の車両操縦方法。
  9. 前記融合3次元情報を生成する前に、前記自車両の前記3次元点群情報について、平坦エリアと凹凸エリアの合計面積比を調整する、請求項に記載の車両操縦方法。
  10. 前記自車両の前記3次元点群情報について、前記自車両の計測点に対して、周囲環境情報上で前記計測点と前記他車両の前記3次元点群情報を取得する環境計測装置のセンサを干渉判定線で結び、その間に遮蔽物体が無い、かつ前記干渉判定線が前記他車両の環境計測装置の計測範囲に含まれる場合に、前記計測点を前記自車両と前記他車両に共通の共通計測点として、共通計測点同士をスキャンマッチングする、請求項に記載の車両操縦方法。
  11. 前記干渉判定線を、円筒状の物体であるとして遮蔽物体との干渉判定を行う、請求項10に記載の車両操縦方法。
  12. 前記自車両の前記3次元点群情報について、前記自車両の前記計測点から前記共通計測点を除去した前記計測点を非共通計測点として、前記スキャンマッチングによって求められた相対位置姿勢に基づき、前記自車両の座標系に座標変換する、請求項10に記載の車両操縦方法。
  13. 前記融合3次元情報を生成する前に、3次元空間を立体物のグリッドの集合とし、計測した前記3次元点群情報を配置し、
    前記グリッドに1又は複数の計測点が入る場合、前記計測点の3次元座標を平均化してこれを該グリッドの3次元座標としてフィルタリングを実施する、請求項に記載の車両操縦方法。
JP2020086403A 2020-05-18 2020-05-18 車両操縦システムと車両操縦方法 Active JP6949417B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020086403A JP6949417B1 (ja) 2020-05-18 2020-05-18 車両操縦システムと車両操縦方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086403A JP6949417B1 (ja) 2020-05-18 2020-05-18 車両操縦システムと車両操縦方法

Publications (2)

Publication Number Publication Date
JP6949417B1 true JP6949417B1 (ja) 2021-10-13
JP2021182177A JP2021182177A (ja) 2021-11-25

Family

ID=78001446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086403A Active JP6949417B1 (ja) 2020-05-18 2020-05-18 車両操縦システムと車両操縦方法

Country Status (1)

Country Link
JP (1) JP6949417B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7366472B1 (ja) 2022-07-05 2023-10-23 吉谷土木株式会社 作付け支援方法と圃場作業支援システム等

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4486737B2 (ja) * 2000-07-14 2010-06-23 アジア航測株式会社 モービルマッピング用空間情報生成装置
JP5762320B2 (ja) * 2012-01-24 2015-08-12 三菱重工業株式会社 走行制御システム及び走行制御方法
JP2014048859A (ja) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd 遠隔操縦システム
JP6356534B2 (ja) * 2014-08-22 2018-07-11 株式会社Ihiエアロスペース 作業用車両
JP6474905B2 (ja) * 2015-09-08 2019-02-27 株式会社日立製作所 遠隔操作システムおよび操作支援システム
WO2018193574A1 (ja) * 2017-04-20 2018-10-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
JP6996820B2 (ja) * 2017-09-11 2022-01-17 株式会社Ihiエアロスペース 遠隔操縦用表示装置と遠隔操縦用表示方法
JP6962812B2 (ja) * 2017-12-26 2021-11-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7366472B1 (ja) 2022-07-05 2023-10-23 吉谷土木株式会社 作付け支援方法と圃場作業支援システム等
JP2024007317A (ja) * 2022-07-05 2024-01-18 吉谷土木株式会社 作付け支援方法と圃場作業支援システム等
JP7438516B2 (ja) 2022-07-05 2024-02-27 吉谷土木株式会社 作付け支援方法と圃場作業支援システム等

Also Published As

Publication number Publication date
JP2021182177A (ja) 2021-11-25

Similar Documents

Publication Publication Date Title
Jung et al. A direct visual servoing‐based framework for the 2016 IROS Autonomous Drone Racing Challenge
Hoy et al. Algorithms for collision-free navigation of mobile robots in complex cluttered environments: a survey
CN109388150B (zh) 多传感器环境地图构建
US8271132B2 (en) System and method for seamless task-directed autonomy for robots
US8073564B2 (en) Multi-robot control interface
US7801644B2 (en) Generic robot architecture
US7620477B2 (en) Robotic intelligence kernel
US20180267542A1 (en) Virtual line-following and retrofit method for autonomous vehicles
EP3799618B1 (en) Method of navigating a vehicle and system thereof
KR101132713B1 (ko) 이동로봇의 이동 제어장치, 이를 구비하는 이동로봇 시스템 및 이동로봇의 이동 제어방법
CN115932882A (zh) 通过自主机器人载具提供环境的3d探测的系统
Tuvshinjargal et al. Hybrid motion planning method for autonomous robots using kinect based sensor fusion and virtual plane approach in dynamic environments
JP6949417B1 (ja) 車両操縦システムと車両操縦方法
Smith et al. PiPS: Planning in perception space
US11525697B2 (en) Limited-sensor 3D localization system for mobile vehicle
US20230064401A1 (en) System for 3d surveying by a ugv and a uav with automatic provision of referencing of ugv lidar data and uav lidar data
Garzón Oviedo et al. Towards a ground navigation system based in visual feedback provided by a mini UAV
Piccinelli et al. Hybrid motion planner integrating global voronoi diagrams and local velocity obstacle method
KR101635585B1 (ko) 무인 이동체 원격 제어 장치
US20230107289A1 (en) Information processing method, information processor, and program
Bouzerzour et al. Robust uncooperative ground target surveillance using vision-based sliding mode control of quadrotor uav
JP2021114222A (ja) ロボットシステムおよびその位置推定方法
Cherubini et al. A redundancy-based approach for visual navigation with collision avoidance
EP4024155B1 (en) Method, system and computer program product of control of unmanned aerial vehicles
EP4276564A1 (en) Image and range sensor-based position controller and associated method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R150 Certificate of patent or registration of utility model

Ref document number: 6949417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150