JP6949417B1 - 車両操縦システムと車両操縦方法 - Google Patents
車両操縦システムと車両操縦方法 Download PDFInfo
- Publication number
- JP6949417B1 JP6949417B1 JP2020086403A JP2020086403A JP6949417B1 JP 6949417 B1 JP6949417 B1 JP 6949417B1 JP 2020086403 A JP2020086403 A JP 2020086403A JP 2020086403 A JP2020086403 A JP 2020086403A JP 6949417 B1 JP6949417 B1 JP 6949417B1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- dimensional
- fusion
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
また空港や航空基地等の広大な場所を警備のために監視を行う車両として、カメラ等の監視用センサを搭載した無人車両を用いることがある。
特許文献1は、移動体にレーザレーダやカメラを備え、移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元画像を生成する。
しかし、特許文献1の手段では、移動しながら得たデータを用いて周囲環境情報を生成するため、周囲環境情報の生成に時間がかかる。また、遠隔操縦する無人車両(自車両)で得たデータのみに基づくため、自車両の死角部分の情報を把握することができない。
また特許文献2の手段では、自車両と他車両の障害物情報を重ね合わせた複合障害物情報が操縦装置へ送信されるため、自車両の死角部分の障害物情報を、自車両の遠隔操縦者が把握することができる。
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、演算装置と、前記3次元点群情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成する情報融合機能を有し、
前記情報融合機能は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正する相対位置・姿勢補正機能と、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する融合情報生成機能と、を有する、車両操縦システムが提供される。
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報と位置姿勢情報を取得し、かつ前記3次元点群情報及び前記位置姿勢情報を双方向に通信し、
さらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成し、
前記自車両は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正し、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する、車両操縦方法が提供される。
この融合3次元情報は、複数の3次元点群情報の共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両の間隔が大きい場合でも、自車両からみた他車両の相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる。
この図において、車両操縦システム100は、自車両10Aと、自車両10Aと双方向に通信可能な他車両10Bと、を備える。
自車両10Aは、有人車両であって、車両内の表示装置に本発明に基づく周囲環境3D画像6(後述する)を表示して運転手が操作するものであってもよい。
この例において、自車両10Aは、遠隔操縦可能な無人車両であり、車両操縦システム100は、さらに無人車両を遠隔操縦する遠隔操縦装置20を備える。
以下、自車両10Aを情報融合側とも呼ぶ。また、他車両10Bを情報提供側とも呼ぶ。
自車両10Aの環境計測装置12は、自車両10Aの周囲の離散した点群の3次元情報である3次元点群情報(以下、3次元情報1A)を取得する。他車両10Bの環境計測装置12も、同様に他車両10Bの周囲の離散した点群の3次元情報である3次元点群情報(以下、3次元情報1B)を取得する。
以下、3次元情報1Aが点群情報である場合を説明する。
自車両10Aの演算装置14は、環境計測装置12にて計測された3次元情報1Aから、自車両10Aの周囲の障害物情報や、自車両10Aが通過できる場所や、自車両10Aが通過できる速度を求め、これらを環境認識地図として生成する。
また、後述する周囲環境情報、及び周囲環境3D画像6は、遠隔操縦者に提示する情報、地図、及び3D画像(3次元画像)を意味する。遠隔操縦者は、これらの情報(操縦支援情報)を用いて自車両10Aを遠隔操縦する。
演算装置14による情報融合機能は、実質的にリアルタイムで実施することが好ましい。
なお、融合3次元情報4を生成する演算装置14と、環境認識地図を生成する演算装置14は別の装置であってもよい。
なお車両によっては、操縦機器そのものが制御指令を入力して所定量動作が可能な場合がある。この場合はアクチュエータは不要である。
また遠隔通信装置16は、直接、遠隔操縦装置20と通信を行う場合だけでなく、遠隔操縦装置20との通信のための中継用通信機を搭載した、他の自車両10A、他車両10B、有人車両もしくは単なる中継器との間で通信を行うことにも用いられる。
融合3次元情報4には、死角情報を含む広範囲かつ高精度の周囲環境情報が含まれる。
相対位置・姿勢補正機能Aは、自車両10Aと他車両10Bの3次元情報1A,1Bと位置姿勢情報2A,2Bを用いてスキャンマッチングにより他車両10Bの相対位置と相対姿勢を補正する。
融合情報生成機能Bは、補正後の他車両10Bの相対位置と相対姿勢に基づき、他車両10Bの3次元情報1Bを自車両の3次元情報1Aと融合して融合3次元情報4を生成する。
遠隔通信装置16は、周囲環境3D画像6を遠隔操縦装置20に送信する。
他車両10Bは、上述した環境計測装置12と車々間通信装置18を有する限りで、無人車両に限定されず、有人車両であってもよい。
また、他車両10Bは1台に限定されず、2台以上でもよい。
遠隔通信装置22は、アンテナ及び通信機により構成され、自車両10Aと双方向に通信する。制御装置24は、情報処理を行うコンピュータ等により構成される。指令入力装置26は、自車両10Aに対する操縦機器に指示や速度、その他の設定コマンドなどの操縦指令を入力する。表示装置28は、自車両10Aから送られる情報(周囲環境3D画像6など)を表示するディスプレイ等である。
本発明の車両操縦方法では、上述した自車両10A、遠隔操縦装置20、及び他車両10Bを準備し、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bと自車両の3次元情報1A及び位置姿勢情報2Aを用いて融合3次元情報4を生成する。
本発明では、自車両10Aから見た死角情報を得るため、図3(B)に示すように、他車両10Bにて周囲環境の3次元情報1B及び位置姿勢情報2Bを取得し、これらの取得情報を用いて、自車両の3次元情報1Aと他車両10Bの3次元情報1Bを融合する。融合された情報は、遠隔操縦者にリアルタイムに提供される。これにより、死角の少ない良好な周囲環境情報(例えば周囲環境3D画像6)を提供することができる。
図4(A)において、自車両10Aで取得する3次元情報1Aを黒丸(●)で示す。建物、瓦礫等の構造物5により、自車両10Aで取得できる3次元情報1Aは、構造物5の前面及び側面に限られ、背面側は自車両10Aの死角部分となる。
図4(B)において、他車両10Bで取得する3次元情報1Bを白丸(○)で示す。建物、瓦礫等の構造物5により、他車両10Bで取得できる3次元情報1Bは、構造物5の背面及び側面に限られ、前面側は他車両10Bの死角部分となる。
図5(A)において、車々間通信により、他車両10B(情報提供側)の周囲の3次元情報1Bと位置姿勢情報2Bが自車両10A(情報融合側)に提供される。
図5(B)において、自車両10Aと他車両10BのそれぞれのGPS/INSより得られる位置姿勢情報には誤差があるため、その差分から求めた自車両10Aに対する他車両10Bの相対位置と相対姿勢にも、誤差がある。
したがって誤差のある相対位置と相対姿勢に基づいて融合した自車両10Aの3次元情報1Aと他車両10Bの3次元情報1Bに、「ずれ」が生じる。これは図5(B)で、構造物5の側面の黒丸と白丸が食い違うことを意味する。
この図において、自車両10Aの3次元情報1A(黒丸●)と他車両10Bの3次元情報1B(白丸○)とには、共通の点群情報が存在する。この共通の点群情報が一致するように、対応する点群情報に基づいてスキャンマッチングにより自車両に対する他車両10Bの相対位置と相対姿勢を補正する。
具体的にはICPアルゴリズムを用いた場合、両方の点群間の距離の二乗和が最小となるように繰り返し計算が行われ、最も一致した際の相対位置姿勢が得られる。
表示装置28は、自車両10Aから送られる周囲環境3D画像6を表示する。周囲環境3D画像6は融合3次元情報4内の指示された注視点に対し、指示された視点、指示された距離から眺めた様子を2次元画像として表現したものである。
この表示を行う場合には、遠隔操縦者は注視点を自車両10Aの前方、視点及び距離を自車両10Aの内部となるように指示すればよい。
なお図7(A)の場合、レーザレンジファインダによる点群情報とカメラによる画像とを色合わせして、点群情報をカメラ画像のようにカラー表示することが好ましい。
この表示を行う場合には、遠隔操縦者は視点を自車両10Aの前方、視点及び距離を注視点の上方となるように指示すればよい。
またこの表示例は、自律運転する自車両10Aに対し、車両が進むべき位置又は方向を示す場合や、走行エリアや作業エリア全体を俯瞰する場合に適している。
この場合、他車両10Bは、自車両10Aと同一の構成であることが好ましい。
「一部又は全部」の選択は、予め自車両10Aに設定しても、遠隔操縦装置20から指令してもよい。
また、自車両10Aは、生成した融合3次元情報4を他車両10Bに送信する情報共有機能を有する。
また、複数の他車両10Bがそれぞれ情報融合機能を有するので、広範囲の融合3次元情報4を作成する場合でも、個々の自車両10Aの計算負荷を小さくできる。
この融合3次元情報4は、複数の3次元情報1A,1Bの共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両10Bの間隔が大きい場合でも、自車両10Aからみた他車両10Bの相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報(周囲環境3D画像6)を得ることができる。
この図において、情報融合処理は、S1〜S5の各ステップ(工程)からなる。
なお情報融合する他車両の総数Nに対し、S1〜S5の各ステップはn=1からn=Nまでn=n+1で順に実施される。
ステップS2では、自己位置標定装置13により、自車両の位置姿勢情報2Aを算出する。
ステップS3では、スキャンマッチングに供する3次元情報を調整する。
ステップS4では、スキャンマッチングによる相対位置姿勢を算出する。
ステップS5では、相対位置姿勢に基づく他車両(n)の3次元情報の自車両座標系への変換(すなわち、融合3次元情報を生成する。)
この図において、周囲環境3D画像生成処理は、T1〜T3の各ステップ(工程)が繰り返し実施される。
ステップT2では、融合3次元情報4より、操縦者の表示指示に基づき周囲環境3D画像6を生成する。
ステップT3では、遠隔通信装置22を介して、周囲環境3D画像6を遠隔操縦装置20に送信する。
この図において、情報提供処理は、U1〜U3の各ステップ(工程)が繰り返し実施される。
ステップU2では、自己位置標定装置13により、他車両の位置姿勢情報2Bを算出する。
ステップU3では、車々間通信装置18により他車両(n)の情報(1B,2B)を自車両10Aへ送信する。
ステップS31では、平坦・凹凸エリアを調整する。
ステップS32では、自・他車両の3次元情報1A,1Bの共通計測エリアを算出する。
ステップS33では、フィルタリングにより細かい凹凸を除去する。
以下、ステップS31,S32,S33を具体的に説明する。
図12は、平坦・凹凸エリアの調整方法を示す模式図である。
例えば、情報融合する地形が、平坦に近く凹凸が少ない場合、マッチング処理の過程において高さ方向のずれが水平方向のずれよりも全体誤差に大きく影響する。そのため、高さ方向のマッチング精度は相対的に高く、逆に水平方向のマッチング精度は相対的に低くなる。
一方、情報融合する地形が、凹凸が多く平坦部分が少ない場合、水平方向のマッチング精度は相対的に高く、逆に高さ方向のマッチング精度は相対的に低くなる。
各計測点は3次元空間における座標(x,y,z)を有するため、平坦候補の抽出ステップにおいて、ある計測点において隣接する計測点との高さの差が閾値Hf[cm]以下である場合その計測点を平坦候補とする。隣接する計測点とは、例えばLRFによる計測において、対象とする計測点と時間的にその直前または直後に計測された点である。また、閾値Hfは、例えば5〜20cm(好ましくは10cm)である。
ただし、3次元情報の除去過多によるスキャンマッチング精度の悪化を防止するため、除去する面積の上限値St[m2]、または除去する面積の元の面積に対する上限比率Rt[%]を設けてもよい。上限値Stは、例えば250m2、上限比率Rtは例えば10%である。
図13は、共通計測エリア算出の説明図である。
そのため、両車両が共通に計測している共通計測点同士をスキャンマッチングに供することが望ましい。
図13(B)において、計測点Aは、他車両との間に遮蔽物体がなく、他車両の計測範囲なので、共通計測点である。また、計測点Bは、干渉判定線が遮蔽物体によって遮られているため、非共通計測点である。さらに、計測点Cは、他車両との間に遮蔽物体がないが、他車両の計測範囲外のため、非共通計測点である。
これを全計測点で行うことにより、概ね共通に計測している箇所のみを抽出することができる。
図14は、フィルタリングの説明図である。
このとき、あるグリッドには複数の計測点が入り、別のグリッドには1点のみ計測点が入り、また別のグリッドには計測点が1点も無い場合があり得る。
この中であるグリッドに1つ以上の計測点が入る場合、これら1グリッド内の各計測点の3次元座標(x,y,z)を平均化した3次元座標(x,y,z)を求め、これをそのグリッドの3次元座標とする。図14(C)に示すように、これを両車両の3次元情報について実施し、スキャンマッチングに供する。
ステップS51では、他車両融合情報の範囲選択を実施する。
スキャンマッチングによって求められた相対位置姿勢に基づき、他車両の3次元情報を自車両の座標系に座標変換することで、情報融合を行う。
この際、他車両側の3次元情報について、その情報を全て用いて融合することを行ってもよい。
なお、自車両の3次元情報は、ステップS31,S32,S33で除去したり、グリッド化した後の情報を用いる必要はなく、最も情報が豊富となるように計測した全ての情報を用いることで良い。
すなわちステップS32の処理においては、自車両と他車両の3次元情報の共通計測箇所を求めたが、この際に非共通計測領域として他車両の3次元情報から除去した部分は、自車両にとっての死角部分および自車両が情報を有していない部分に相当する。
したがって、ステップS32の処理において非共通計測領域として除去した部分を記録しておき、これをスキャンマッチングによって求められた相対位置姿勢に基づき、自車両の座標系に座標変換すれば良い。
C 周囲環境3D画像生成機能、
1A,1B 3次元情報、2A,2B 位置姿勢情報、4 融合3次元情報、
5 構造物、6 周囲環境3D画像、10A 自車両、10B 他車両、
11 車体、12 環境計測装置、13 自己位置標定装置、14 演算装置、
15 ドライブバイワイヤ装置、16 遠隔通信装置、18 車々間通信装置、
20 遠隔操縦装置、22 遠隔通信装置、24 制御装置、
26 指令入力装置、28 表示装置、100 車両操縦システム
Claims (13)
- 自車両と、前記自車両と双方向に通信可能な他車両と、を備え、
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、演算装置と、前記3次元点群情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成する情報融合機能を有し、
前記情報融合機能は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正する相対位置・姿勢補正機能と、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する融合情報生成機能と、を有する、車両操縦システム。 - 前記情報融合機能は、前記融合3次元情報を生成する前に、前記自車両の前記3次元点群情報について、平坦エリアと凹凸エリアの合計面積比を調整する、請求項1に記載の車両操縦システム。
- 前記情報融合機能は、前記自車両の前記3次元点群情報について、前記自車両の計測点に対して、周囲環境情報上で前記計測点と前記他車両の前記3次元点群情報を取得する環境計測装置のセンサを干渉判定線で結び、その間に遮蔽物体が無い、かつ前記干渉判定線が前記他車両の環境計測装置の計測範囲に含まれる場合に、前記計測点を前記自車両と前記他車両に共通の共通計測点として、共通計測点同士をスキャンマッチングする、請求項1に記載の車両操縦システム。
- 前記情報融合機能は、前記融合3次元情報を生成する前に、3次元空間を立体物のグリッドの集合とし、計測した前記3次元情報を配置し、
前記グリッドに1又は複数の計測点が入る場合、前記計測点の3次元座標を平均化してこれを該グリッドの3次元座標としてフィルタリングを実施する、請求項1に記載の車両操縦システム。 - 前記自車両は、前記融合3次元情報を前記他車両に送信する情報共有機能を有する、請求項1に記載の車両操縦システム。
- 前記自車両は、遠隔操縦可能な無人車両であり、
さらに前記無人車両を遠隔操縦する遠隔操縦装置を備える、請求項1に記載の車両操縦システム。 - 自車両と、前記自車両と双方向に通信可能な他車両と、を準備し、
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報と位置姿勢情報を取得し、かつ前記3次元点群情報及び前記位置姿勢情報を双方向に通信し、
さらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成し、
前記自車両は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正し、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する、車両操縦方法。 - 前記自車両は、双方向に通信可能な前記他車両を探索し、探索された前記他車両が複数の場合、その一部又は全部と通信して、前記融合3次元情報を生成する、請求項7に記載の車両操縦方法。
- 前記融合3次元情報を生成する前に、前記自車両の前記3次元点群情報について、平坦エリアと凹凸エリアの合計面積比を調整する、請求項7に記載の車両操縦方法。
- 前記自車両の前記3次元点群情報について、前記自車両の計測点に対して、周囲環境情報上で前記計測点と前記他車両の前記3次元点群情報を取得する環境計測装置のセンサを干渉判定線で結び、その間に遮蔽物体が無い、かつ前記干渉判定線が前記他車両の環境計測装置の計測範囲に含まれる場合に、前記計測点を前記自車両と前記他車両に共通の共通計測点として、共通計測点同士をスキャンマッチングする、請求項7に記載の車両操縦方法。
- 前記干渉判定線を、円筒状の物体であるとして遮蔽物体との干渉判定を行う、請求項10に記載の車両操縦方法。
- 前記自車両の前記3次元点群情報について、前記自車両の前記計測点から前記共通計測点を除去した前記計測点を非共通計測点として、前記スキャンマッチングによって求められた相対位置姿勢に基づき、前記自車両の座標系に座標変換する、請求項10に記載の車両操縦方法。
- 前記融合3次元情報を生成する前に、3次元空間を立体物のグリッドの集合とし、計測した前記3次元点群情報を配置し、
前記グリッドに1又は複数の計測点が入る場合、前記計測点の3次元座標を平均化してこれを該グリッドの3次元座標としてフィルタリングを実施する、請求項7に記載の車両操縦方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086403A JP6949417B1 (ja) | 2020-05-18 | 2020-05-18 | 車両操縦システムと車両操縦方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086403A JP6949417B1 (ja) | 2020-05-18 | 2020-05-18 | 車両操縦システムと車両操縦方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6949417B1 true JP6949417B1 (ja) | 2021-10-13 |
JP2021182177A JP2021182177A (ja) | 2021-11-25 |
Family
ID=78001446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020086403A Active JP6949417B1 (ja) | 2020-05-18 | 2020-05-18 | 車両操縦システムと車両操縦方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6949417B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7366472B1 (ja) | 2022-07-05 | 2023-10-23 | 吉谷土木株式会社 | 作付け支援方法と圃場作業支援システム等 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4486737B2 (ja) * | 2000-07-14 | 2010-06-23 | アジア航測株式会社 | モービルマッピング用空間情報生成装置 |
JP5762320B2 (ja) * | 2012-01-24 | 2015-08-12 | 三菱重工業株式会社 | 走行制御システム及び走行制御方法 |
JP2014048859A (ja) * | 2012-08-31 | 2014-03-17 | Ihi Aerospace Co Ltd | 遠隔操縦システム |
JP6356534B2 (ja) * | 2014-08-22 | 2018-07-11 | 株式会社Ihiエアロスペース | 作業用車両 |
JP6474905B2 (ja) * | 2015-09-08 | 2019-02-27 | 株式会社日立製作所 | 遠隔操作システムおよび操作支援システム |
WO2018193574A1 (ja) * | 2017-04-20 | 2018-10-25 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体 |
JP6996820B2 (ja) * | 2017-09-11 | 2022-01-17 | 株式会社Ihiエアロスペース | 遠隔操縦用表示装置と遠隔操縦用表示方法 |
JP6962812B2 (ja) * | 2017-12-26 | 2021-11-05 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd | 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体 |
-
2020
- 2020-05-18 JP JP2020086403A patent/JP6949417B1/ja active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7366472B1 (ja) | 2022-07-05 | 2023-10-23 | 吉谷土木株式会社 | 作付け支援方法と圃場作業支援システム等 |
JP2024007317A (ja) * | 2022-07-05 | 2024-01-18 | 吉谷土木株式会社 | 作付け支援方法と圃場作業支援システム等 |
JP7438516B2 (ja) | 2022-07-05 | 2024-02-27 | 吉谷土木株式会社 | 作付け支援方法と圃場作業支援システム等 |
Also Published As
Publication number | Publication date |
---|---|
JP2021182177A (ja) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jung et al. | A direct visual servoing‐based framework for the 2016 IROS Autonomous Drone Racing Challenge | |
Hoy et al. | Algorithms for collision-free navigation of mobile robots in complex cluttered environments: a survey | |
CN109388150B (zh) | 多传感器环境地图构建 | |
US8271132B2 (en) | System and method for seamless task-directed autonomy for robots | |
US8073564B2 (en) | Multi-robot control interface | |
US7801644B2 (en) | Generic robot architecture | |
US7620477B2 (en) | Robotic intelligence kernel | |
US20180267542A1 (en) | Virtual line-following and retrofit method for autonomous vehicles | |
EP3799618B1 (en) | Method of navigating a vehicle and system thereof | |
KR101132713B1 (ko) | 이동로봇의 이동 제어장치, 이를 구비하는 이동로봇 시스템 및 이동로봇의 이동 제어방법 | |
CN115932882A (zh) | 通过自主机器人载具提供环境的3d探测的系统 | |
Tuvshinjargal et al. | Hybrid motion planning method for autonomous robots using kinect based sensor fusion and virtual plane approach in dynamic environments | |
JP6949417B1 (ja) | 車両操縦システムと車両操縦方法 | |
Smith et al. | PiPS: Planning in perception space | |
US11525697B2 (en) | Limited-sensor 3D localization system for mobile vehicle | |
US20230064401A1 (en) | System for 3d surveying by a ugv and a uav with automatic provision of referencing of ugv lidar data and uav lidar data | |
Garzón Oviedo et al. | Towards a ground navigation system based in visual feedback provided by a mini UAV | |
Piccinelli et al. | Hybrid motion planner integrating global voronoi diagrams and local velocity obstacle method | |
KR101635585B1 (ko) | 무인 이동체 원격 제어 장치 | |
US20230107289A1 (en) | Information processing method, information processor, and program | |
Bouzerzour et al. | Robust uncooperative ground target surveillance using vision-based sliding mode control of quadrotor uav | |
JP2021114222A (ja) | ロボットシステムおよびその位置推定方法 | |
Cherubini et al. | A redundancy-based approach for visual navigation with collision avoidance | |
EP4024155B1 (en) | Method, system and computer program product of control of unmanned aerial vehicles | |
EP4276564A1 (en) | Image and range sensor-based position controller and associated method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200520 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210702 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6949417 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |