JP2023078020A - 遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラム - Google Patents
遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラム Download PDFInfo
- Publication number
- JP2023078020A JP2023078020A JP2021191593A JP2021191593A JP2023078020A JP 2023078020 A JP2023078020 A JP 2023078020A JP 2021191593 A JP2021191593 A JP 2021191593A JP 2021191593 A JP2021191593 A JP 2021191593A JP 2023078020 A JP2023078020 A JP 2023078020A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- captured image
- remote control
- predicted
- delay time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 230000005540 biological transmission Effects 0.000 claims abstract description 6
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】適切に遠隔操縦することが可能となる。
【解決手段】遠隔操縦装置は、車両に搭載されたカメラにより撮影された撮影画像を受信する受信部と、オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信する送信部と、前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出する算出部と、前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成する生成部と、生成された前記予測撮影画像が表示部に表示されるように制御する制御部と、を備える。
【選択図】図1
【解決手段】遠隔操縦装置は、車両に搭載されたカメラにより撮影された撮影画像を受信する受信部と、オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信する送信部と、前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出する算出部と、前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成する生成部と、生成された前記予測撮影画像が表示部に表示されるように制御する制御部と、を備える。
【選択図】図1
Description
本開示は、遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラムに関する。
従来から車両を遠隔操縦する技術が提案されている。例えば特許文献1には、移動領域の画像を取得する撮像部を搭載した移動体と、その撮像部によって取得した画像を表示する表示部、及びその表示部に表示された画像に基づいて移動体を遠隔操縦するための操縦部を備えた遠隔操縦装置とを含む遠隔操縦システムにおいて、上記移動体と遠隔操作装置との間における通信遅延時間を推定する遅延時間推定手段と、移動領域の画像を取得した時刻から所要時間経過後までの移動体の移動予定経路、移動速度及び推定遅延時間に基づいて、移動体が遠隔操縦装置によって操縦制御される時刻における移動体位置を推定する移動体位置推定手段と、推定した移動体位置に対応する旋回操作基準点を、表示部に表示されている画像に重畳表示する重畳表示手段とを設けたことを特徴とする遠隔操縦システムが開示されている。
また、非特許文献1には、RTK-GNSSから得られる現在の実車の座標とカメラ画像の遅延時間前の実車の座標とに基づいて視点移動先を決定し、透視投影変換によって視点移動画像を生成することにより実車に近い視点のカメラ映像を生成する技術が開示されている。
「2020 年度森泰吉郎記念研究振興基金 成果報告書 映像の視点移動を用いた遠隔操縦支援システムの構築」、松原航大、慶應義塾大学大学院 政策・メディア研究科、<URL:http://www.kri.sfc.keio.ac.jp/report/mori/2020/c-22.pdf>
しかしながら、上記特許文献1記載の技術では、遠隔操縦の操作性が低下し、適切に遠隔操縦することが困難である、という問題があった。
また、非特許文献1記載の技術では、遠隔操縦を指示する信号が車両に到達するまでの遅延時間については考慮されておらず、適切に遠隔操縦することが困難である、という問題があった。
本開示は、適切に遠隔操縦することが可能となる遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラムを提供することを目的とする。
本開示の第1態様に係る遠隔操縦装置は、車両に搭載されたカメラにより撮影された撮影画像を受信する受信部と、オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信する送信部と、前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出する算出部と、前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成する生成部と、生成された前記予測撮影画像が表示部に表示されるように制御する制御部と、を備える。
本開示の第2態様に係る遠隔操縦方法は、コンピュータが、車両に搭載されたカメラにより撮影された撮影画像を受信し、オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信し、前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出し、前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成し、生成された前記予測撮影画像が表示部に表示されるように制御することを含む処理を実行する。
本開示の第3態様に係る遠隔操縦プログラムは、コンピュータに、車両に搭載されたカメラにより撮影された撮影画像を受信し、オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信し、前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出し、前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成し、生成された前記予測撮影画像が表示部に表示されるように制御することを含む処理を実行させる。
本開示によれば、適切に遠隔操縦することが可能となる、という効果を有する。
以下、図面を参照して、本発明を実施するための形態を詳細に説明する。
図1に示すように、本実施形態の遠隔操縦システム10は、遠隔操縦装置20と車両30とが無線のネットワーク40を介して接続された構成である。
車両30は、遠隔操縦装置20からの指示に応じて走行可能な車両である。
遠隔操縦装置20は、車両操作装置50と接続されている。車両操作装置50は、車両30の操舵角を指示するためのステアリング51、車両30の加速度を指示するアクセル52、及び車両30の減速度、すなわち負の加速度を指示するブレーキ53を備える。
オペレータがステアリング51、アクセル52、及びブレーキ53の少なくとも1つを操作することにより、操舵角信号、加速度信号、及び減速度信号の少なくとも1つを含む操縦信号が遠隔操縦装置20に出力される。遠隔操縦装置20は、オペレータの操作によって車両操作装置50から出力された操縦信号を、ネットワーク40を介して車両30に送信する。
車両30は、操縦制御部31、カメラ32、及び現在位置取得部33を含む。操縦制御部31は、遠隔操縦装置20から送信された操縦信号を受信すると、受信した操縦信号に従って車両30の操縦を制御する。すなわち、操縦信号に操舵角信号が含まれる場合には、操舵角信号が示す操舵角で車両30が操舵されるように車両30を制御する。また、操縦信号に加速度信号が含まれる場合には、加速度信号が示す加速度で車両30が加速されるように車両30を制御する。また、操縦信号に減速度信号が含まれる場合には、減速度信号が示す減速度で車両30が減速されるように車両30を制御する。
カメラ32は、車両30の前方を撮影可能な位置に取り付けられる。カメラ32で撮影された撮影画像は、ネットワーク40を介して遠隔操縦装置20に逐次送信される。
現在位置取得部33は、車両30の現在位置、例えば緯度及び経度で表される現在位置情報を取得し、ネットワーク40を介して遠隔操縦装置20に逐次送信する。現在位置取得部33は、例えばGPS(Global Positioning System)受信機又はGNSS(Global Navigation Satellite System)受信機等を含んで構成される。
図2は、遠隔操縦装置20のハードウェアの構成図である。図2に示すように、遠隔操縦装置20は、コントローラ21を備える。コントローラ21は、一般的なコンピュータを含む装置で構成される。
図2に示すように、コントローラ21は、CPU(Central Processing Unit)21A、ROM(Read Only Memory)21B、RAM(Random Access Memory)21C、及び入出力インターフェース(I/O)21Dを備える。そして、CPU21A、ROM21B、RAM21C、及びI/O21Dがバス21Eを介して各々接続されている。バス21Eは、コントロールバス、アドレスバス、及びデータバスを含む。
また、I/O21Dには、操作部22、表示部23、通信部24、及び記憶部25が接続されている。
操作部22は、例えばマウス及びキーボードを含んで構成される。
表示部23は、例えば液晶ディスプレイ等で構成される。表示部23には、車両30のカメラ32で撮影された撮影画像が表示される。オペレータは、表示部23に表示された撮影画像に基づいて車両操作装置50を操作することにより、車両30を遠隔操縦する。なお、本実施形態では車両30を操作するための車両操作装置50を別個に設けているが、遠隔操縦装置20の操作部22をオペレータが操作することにより操縦信号が車両30に送信されるように構成してもよい。
通信部24は、車両30等の外部装置とデータ通信を行うためのインターフェースである。
記憶部25は、ハードディスク等の不揮発性の外部記憶装置で構成される。図2に示すように、記憶部25は、遠隔操縦プログラム25A等を記憶する。
CPU21Aは、コンピュータの一例である。ここでいうコンピュータとは、広義的なプロセッサを指し、汎用的なプロセッサ(例えば、CPU)、又は、専用のプロセッサ(例えば、GPU:Graphics Processing Unit、ASIC:Application Specific Integrated Circuit、FPGA:Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。
なお、遠隔操縦プログラム25Aは、不揮発性の非遷移的(non-transitory)記録媒体に記憶して、又はネットワークを介して配布して、遠隔操縦装置20に適宜インストールすることで実現してもよい。
不揮発性の非遷移的記録媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD(ハードディスクドライブ)、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
図3は、遠隔操縦装置20のCPU21Aの機能構成を示すブロック図である。図3に示すように、CPU21Aは、機能的には、受信部60、送信部61、算出部62、生成部63、及び制御部64の各機能部を備える。CPU21Aは、記憶部25に記憶された遠隔操縦プログラム25Aを読み込んで実行することにより各機能部として機能する。
受信部60は、車両30に搭載されたカメラ32により撮影された撮影画像を受信する。
送信部61は、オペレータの遠隔操作による車両30の操縦信号を車両30へ送信する。
算出部62は、操縦信号を車両30へ送信してから車両30が操縦信号を受信するまでの第1の遅延時間t1と、撮影画像を車両30が送信してから撮影画像を受信するまでの第2の遅延時間t2と、を合計した合計遅延時間t3に基づいて、車両30の予測位置を算出する。
第1の遅延時間t1は、遠隔操縦装置20が操縦信号を送信した時点から車両30が操縦信号を受信する時点までの時間である。また、第2の遅延時間t2は、車両30が撮影画像を送信した時点から遠隔操縦装置20が撮影画像を受信するまでの時間である。すなわち、遠隔操縦装置20が操縦信号を送信した時点から第1の遅延時間t1経過後に車両30が操縦信号に基づいて動作し、その時点の撮影画像が車両30から送信された時点から第2の遅延時間t2経過後に遠隔操縦装置20で受信される。
従って、遠隔操縦装置20が操縦信号を送信した時点から、その操縦信号によって動作した車両30によって撮影された撮影画像が遠隔操縦装置20で受信されるまでの時間は、合計遅延時間t3となる。例えば図4に示すように、遠隔操縦装置20の表示部23に撮影画像G1が表示されている場合、撮影画像G1は、合計遅延時間t3分遅延した画像である。このため、オペレータが撮影画像G1に基づいて車両30を遠隔操作しようとすると、適切な遠隔操作をすることが困難となる。
そこで、生成部63は、撮影画像G1に基づいて、車両30の予測位置における予測撮影画像を生成する。例えば、図4に示すように、合計遅延時間t3経過後の車両30の予測位置が予測位置P1であったとする。また、合計遅延時間t3経過後の車両30の予測角度(回転角度)が示す方向が矢印D1方向であったとすると、合計遅延時間t3経過後の車両30から視認可能な視野範囲は、図4の破線の枠で示す視野範囲S1となる。この場合、図5に示すように、撮影画像G1から視野範囲S1の画像G2を切り出し、切り出した画像G2を、あたかも予測位置P1から矢印D1方向を向いたときに視認される画像となるように透視投影変換処理を行い、変換後の画像を予測撮影画像とする。
制御部64は、生成部63によって生成された予測撮影画像が表示部23に表示されるように制御する。
なお、算出部62は、例えば操縦信号を入力とし、車両30の予測位置及び予測角度等の車両30の予測状態を出力とする車両運動モデルを用いて予測位置及び予測角度等の予測状態を算出する。具体的には、例えば車両運動モデルは、スミス法に基づくスミス予測器を用いたモデルを用いることができる。
図6にスミス法のフィードバック制御系の基本構成を示す。図6に示す基本構成は、コントローラC(s)は入力信号R(s)に基づいて制御対象G(s)を制御する。制御対象G(s)から出力された出力信号Y(s)はコントローラC(s)の入力側にフィードバックされる。また、コントローラC(s)から出力された制御信号は、スミス予測器P(s)を介してコントローラC(s)の入力側にフィードバックされる。
スミス予測器P(s)を用いた車両運動モデルの線形状態方程式は次式で示される。なお、下記(1)、(2)式で表される線形状態方程式を第1の線形状態方程式と称する。
X[t]=AX[t-1]+b(u[t-1]-u[(t-1)-(t1+t2)])
・・・(1)
Y[t]=cX[t] ・・・(2)
・・・(1)
Y[t]=cX[t] ・・・(2)
ここで、上記(1)式のX[t]は、t時点の車両30の状態を示す。車両30の状態とは、車両30の速度、角速度(ヨーレート)、位置、角度、加速度、及び角加速度である。また、X[t-1]は、t時点の直前のt-1時点における車両30の状態を示す。また、u[t-1]は、t-1時点における操縦信号、すなわち、操舵角、加速度、及び減速度を示す。また、上記(2)式のY[t]は、t-1時点において予測されたt時点における車両の予測状態を示す。予測状態とは、車両30の予測速度、予測角速度(ヨーレート)、予測位置、及び予測角度である。また、A、b、cは、パラメータを含む行列又はベクトルであり、予め定められる。また、第1の遅延時間t1及び第2の遅延時間t2も予め定められるが、遅延時間の変動を考慮して可変としてもよい。
上記(1)式のb(u[t-1]-u[(t-1)-(t1+t2)])がスミス予測器P(s)に相当する。
u[t-1]は、t-1時点の操縦信号に対する車両30の動きに相当する。また、u[(t-1)-(t1+t2)]は、t-1時点の操縦信号によって車両30が動き、その時点で撮影された撮影画像、すなわち予測撮影画像の生成元となる撮影画像に相当する。従って、仮に合計遅延時間t3(=t1+t2)が0、すなわち遅延が全く無かったとすると、スミス予測器に相当するb(u[t-1]-u[(t-1)-(t1+t2)])は0となるため、撮影画像と予測撮影画像とは同一となる。
上記(1)式にt-1時点における車両30の操縦信号であるu[t-1]を入力することにより、t時点における車両30の予測状態であるY[t]を算出することができる。
また、生成部63は、撮影画像を予め定めた時間以上取得できない場合、最新の撮影画像に基づいて予測撮影画像を生成する。
また、受信部60は、撮影画像と共に車両の現在位置を示す現在位置情報を受信し、算出部62は、現在位置情報に基づいて予測位置を補正してもよい。この場合、算出部62は、カルマンフィルタを用いて予測位置を補正してもよい。
また、生成部63は、撮影画像に先行車が含まれる場合は、先行車を移動させた予測撮影画像を生成してもよい。
次に、図7を参照して遠隔操縦装置20のCPU21Aで実行される遠隔操縦処理について説明する。図7に示した遠隔操縦処理は、遠隔操縦装置20が稼働している間、遠隔操縦装置20において所定の周期で繰り返し実行される処理である。なお、車両30の現在位置取得部33で取得された現在位置情報は、逐次遠隔操縦装置20に送信され、遠隔操縦装置20で逐次受信しているものとする。
ステップS100では、CPU21Aが、車両30から撮影画像を受信したか否かを判定する。ステップS100の判定が肯定された場合はステップS102へ移行し、否定された場合はステップS112へ移行する。
ステップS102では、CPU21Aが、第1の線形状態方程式により現在の車両30の予測位置及び予測角度を算出する。具体的には、直前のt-1時点の操縦信号であるu[t-1]を上記(1)式に代入すると共に、車両30から送信された車両30の現在位置に基づいてt-1時点の車両30の状態を表すX[t-1]を算出する。なお、X[t-1]のうち、車両30の速度、角速度、角度、加速度、及び角加速度は、過去の車両30の位置を用いることにより算出することができる。
そして、X[t-1]を上記(1)式に代入して、t時点の車両30の状態X[t]を算出し、X[t]を上記(2)式に代入して現在の車両30の予測状態Y[t]を算出する。これにより、t時点、すなわち現時点における車両30の予測位置及び予測角度が得られる。
ステップS104では、CPU21Aが、ステップS100で受信した撮影画像に基づいて、ステップS102で算出した車両30の予測位置をカメラ32のカメラ座標系の座標に変換した予測位置における予測撮影画像を生成する。前述したように、ステップS100で取得した撮影画像が図4に示すような撮影画像G1であり、ステップS102で算出した車両30の予測位置をカメラ座標系の座標に変換した予測位置が図5に示すような予測位置P1であり、ステップS102で算出した車両30の予測角度が示す方向が矢印D1方向であった場合、図5に示すように、撮影画像G1から視野範囲S1の画像G2を切り出す。そして、切り出した画像G2を、あたかも予測位置P1から矢印D1方向を向いたときに視認される画像となるように透視投影変換処理を行った画像を予測撮影画像として生成する。
ステップS106では、CPU21Aが、ステップS104で生成した現在の車両30の予測撮影画像を表示部23に表示させる。オペレータは、表示部23に表示された予測撮影画像を確認し、車両操作装置50を操作して車両30を遠隔操作する。
ステップS108では、CPU21Aが、オペレータが車両操作装置50を操作したことにより車両操作装置50から出力された操縦信号が入力されたか否かを判定する。そして、ステップS108の判定が肯定された場合はステップS110へ移行し、否定された場合は本ルーチンを終了する。
ステップS110では、CPU21Aが、ステップS108で入力された操縦信号を車両30へ送信する。これにより、車両30は遠隔操縦装置20から送信された操縦信号に基づいて操縦される。
一方、ステップS112では、CPU21Aが、ステップS100で撮影画像を前回受信した時点から一定時間経過したか否かを判定する。そして、ステップS112の判定が肯定された場合、すなわち撮影画像が一定時間以上更新されていない場合はステップS114へ移行し、ステップS112の判定が否定された場合はステップS100へ移行する。
ステップS114では、CPU21Aが、ステップS102と同様に、第1の線形状態方程式、すなわち上記(1)、(2)式により車両30の予測位置及び予測角度を算出する。
ステップS116では、CPU21Aが、下記(3)式及び上記(2)式で表される第2の線形状態方程式により車両30の予測位置及び予測角度を算出する。
X[t]=AX[t-1]+bu[t-1] ・・・(3)
上記(3)式は、上記(1)式からu[(t-1)-(t1+t2)]を除いた式である。すなわち、撮影画像を受信できていないので、予測撮影画像の生成元となる撮影画像に相当するu[(t-1)-(t1+t2)]を除いた上記(3)式を用いて車両30の予測位置及び予測角度を算出する。これにより、撮影画像が一定時間以上受信できず、撮影画像が更新されていなくても、最新の撮影画像に基づいて第1の線形状態方程式及び第2の線形状態方程式による車両30の予測位置及び予測角度の算出が継続される。
ステップS118では、CPU21Aが、ステップS104と同様に予測撮影画像を生成するが、ステップS104と異なり、第2の線形状態方程式を用いて算出された予測位置及び予測角度に基づいて予測撮影画像を生成する。
このように、撮影画像の受信が途切れた場合でも第2の線形状態方程式によって車両30の予測位置及び予測角度を算出し、予測撮影画像を生成する。また、撮影画像の受信が途切れた場合でも、第1の線形状態方程式による予測位置及び予測角度の算出は継続しているため、撮影画像の受信が再開し、予測撮影画像の生成に用いる予測位置及び予測角度が第1の線形状態方程式により算出された予測位置及び予測角度に切り替わった場合に、予測撮影画像に違和感が生じるのを抑制することができる。
ところで、例えば図8に示すように、撮影画像G3において、車両30の前を走行する先行車70が存在する場合において、車両30の予測位置及び予測角度に基づいて視野範囲S2の画像を切り出して図9に示すような予測撮影画像G4として生成してしまうと、実際は、先行車70は前方に進んでいるにもかかわらず、停車したままのような画像となり、車両30と衝突寸前であるかのような画像となってしまう。このため、オペレータの遠隔操作に支障が生じる。
そこで、撮影画像に先行車が含まれている場合、先行車も移動させた予測撮影画像を生成することが好ましい。そこで、ステップS104、S118の予測撮影画像の生成において、先行車が移動した状態の予測撮影画像を生成し、表示するようにしてもよい。この場合、先行車との距離を測定可能な例えばLidar(Light detection and ranging)装置等の測距装置を車両30が備えている必要がある。
例えば、ステップS100で受信した撮影画像が、図10に示すように先行車70を含む撮影画像G3の場合について説明する。車両30は、Lidar装置によって先行車70との距離を測定し、測距データとして遠隔操縦装置20に逐次送信する。
まず、車両30から送信された測距データに基づいて、車両30に対する先行車70の左端及び右端を検出する。例えば図10に示すように、測距データに基づいて先行車70のバウンディングボックスB1を算出し、算出したバウンディングボックスB1の左下隅を左端L1とし、バウンディングボックスB1の右下隅を右端R1として検出する。バウンディングボックスB1の算出は、例えば公知のディープニューラルネットワーク(Deep Neural Network:DNN)等を用いて算出することができる。
なお、先行車70の左後輪及び右後輪の位置を検出して、それぞれを先行車70の左端L1及び右端R1としてもよいし、先行車70の左右のバックライトを検出して、それぞれを先行車70の左端L1及び右端R1としてもよい。
そして、車両30から受信した時系列の測距データに基づいて、先行車70の速度を算出する。
次に、車両30から送信された測距データのうち、撮影画像G3を透視投影変換した画像における先行車70の左端L1及び右端R1の座標と最も近い座標の測距データとを対応付けて記憶する。なお、先行車70の左端L1及び右端R1は路面に接地していることが前提となるが、先行車70の左右のバックライトを左端L1及び右端R1としている場合は、バックライトの位置を鉛直方向に路面まで下ろした位置の座標を先行車70の左端L1及び右端R1とする。
そして、測距データに基づいて算出した先行車70の速度に基づいて、遠隔操縦装置20から操縦信号が送信された時点から合計遅延時間t3経過後の先行車70の左端及び右端の予測位置を等速直線運動モデルに基づいて算出する。
次に、先行車70の左端L1及び右端R1の予測位置を逆透視投影変換によってカメラ座標系の座標に変換し、例えば図11に示すように、撮影画像G3における先行車70の左端及び右端の予測位置である左端L2及び右端R2を算出する。そして、算出した左端L2と右端R2との距離、すなわち横方向の長さに基づいてバウンディングボックスB1のサイズを拡大又は縮小することにより、図11に示すようなバウンディングボックスB2を生成する。
例えば図12に示すように、バウンディングボックスB1の横方向の長さをx1、縦方向の長さをy1とし、バウンディングボックスB2の横方向の長さをx2、縦方向の長さをy2とすると、算出したバウンディングボックスB2の横方向の長さx2と、バウンディングボックスB1の横方向の長さx1及び縦方向の長さy1と、に基づいて、バウンディングボックスB2の縦方向の長さy2は次式で算出することができる。
y2=(x2/x1)×y1
そして、図11に示すように、サイズを調整したバウンディングボックスB2の画像を撮影画像G3の予測位置に合成した画像から視野範囲S2の画像を切り出し、切り出した画像を透視投影変換処理して予測撮影画像とする。
これにより、先行車70も速度に応じて移動した状態の予測撮影画像が表示されるため、オペレータは適切に遠隔操作を行うことが可能となる。
なお、図10の例では先行車が1台であるが、複数の先行車が検出された場合は、検出された複数の先行車の各々について上記の処理を行う。
また、第1の線形状態方程式を用いて算出した車両30の予測位置は、実際の車両30の位置と比べて誤差が生じる。そこで、所謂カルマンフィルタ(下記参考文献参照)を用い予測位置を補正してもよい。
(参考文献) 「カルマンフィルタの基礎」、足立修一、計測と制御、第56巻第9号p.632~p.637、2017年9月
カルマンフィルタは、過去の状態推定値と観測値とから現在の状態推定値を得るためのフィルタである。従って、第1の線形状態方程式を用いて算出した車両30の予測位置を過去の状態推定値、車両30から受信した現在位置情報における実際の車両30の位置を観測値とし、これらの差を予測誤差として、予測誤差にカルマンゲインを乗じてカルマンフィルタにフィードバックする。なお、図1に示すように、車両30から送信される現在位置情報は第4の遅延時間t4が生じるため、これを考慮してカルマンフィルタを構成する。これにより、車両30の予測位置が補正され、カルマンフィルタを用いない場合と比較して精度良く予測位置を算出することができる。
以上で説明した本実施形態の遠隔操縦装置20によれば、操縦信号を車両30へ送信してから車両30が前記操縦信号を受信するまでの第1の遅延時間t1と、撮影画像を車両30が送信してから撮影画像を受信するまでの第2の遅延時間t2と、を合計した合計遅延時間t3に基づいて、車両30の予測位置を算出し、算出した予測位置の予測撮影画像を生成して表示部23に表示する。これにより、適切に遠隔操縦することが可能となる。
なお、本開示は、上述した各実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
その他、上記実施の形態で説明した遠隔操縦装置20の構成(図2参照)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりしてもよいことは言うまでもない。
また、上記実施の形態で説明した遠隔操縦プログラム25Aの処理の流れ(図7参照)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
10 遠隔操縦システム、20 遠隔操縦装置、25A 遠隔操縦プログラム、30 車両、31 操縦制御部、32 カメラ、33 現在位置取得部、50 車両操作装置、51 ステアリング、52 アクセル、53 ブレーキ、60 受信部、61 送信部、62 算出部、63 生成部、64 制御部、70 先行車
Claims (9)
- 車両(30)に搭載されたカメラ(32)により撮影された撮影画像を受信する受信部(60)と、
オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信する送信部(61)と、
前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出する算出部(62)と、
前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成する生成部(63)と、
生成された前記予測撮影画像が表示部(23)に表示されるように制御する制御部(64)と、
を備えた遠隔操縦装置(20)。 - 前記算出部は、前記操縦信号を入力とし、前記車両の予測位置を出力とする車両運動モデルを用いて前記予測位置を算出する
請求項1記載の遠隔操縦装置。 - 前記車両運動モデルは、スミス法に基づくスミス予測器を用いたモデルである
請求項2記載の遠隔操縦装置。 - 前記生成部は、前記撮影画像を予め定めた時間以上取得できない場合、最新の前記撮影画像に基づいて前記予測撮影画像を生成する
請求項1~3の何れか1項に記載の遠隔操縦装置。 - 前記受信部は、前記撮影画像と共に前記車両の現在位置を示す現在位置情報を受信し、
前記算出部は、前記現在位置情報に基づいて前記予測位置を補正する
請求項1~4の何れか1項に記載の遠隔操縦装置。 - 前記算出部は、カルマンフィルタを用いて前記予測位置を補正する
請求項5記載の遠隔操縦装置。 - 前記生成部は、前記撮影画像に先行車が含まれる場合は、前記先行車を移動させた予測撮影画像を生成する
請求項1~6の何れか1項に記載の遠隔操縦装置。 - コンピュータ(21A)が、
車両に搭載されたカメラにより撮影された撮影画像を受信し、
オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信し、
前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出し、
前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成し、
生成された前記予測撮影画像が表示部に表示されるように制御する
ことを含む処理を実行する遠隔操縦方法。 - コンピュータに、
車両に搭載されたカメラにより撮影された撮影画像を受信し、
オペレータの遠隔操作による前記車両の操縦信号を前記車両へ送信し、
前記操縦信号を前記車両へ送信してから前記車両が前記操縦信号を受信するまでの第1の遅延時間と、前記撮影画像を前記車両が送信してから前記撮影画像を受信するまでの第2の遅延時間と、を合計した合計遅延時間に基づいて、前記車両の予測位置を算出し、
前記撮影画像に基づいて、前記車両の予測位置における予測撮影画像を生成し、
生成された前記予測撮影画像が表示部に表示されるように制御する
ことを含む処理を実行させるための遠隔操縦プログラム(25A)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021191593A JP2023078020A (ja) | 2021-11-25 | 2021-11-25 | 遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021191593A JP2023078020A (ja) | 2021-11-25 | 2021-11-25 | 遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023078020A true JP2023078020A (ja) | 2023-06-06 |
Family
ID=86622602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021191593A Pending JP2023078020A (ja) | 2021-11-25 | 2021-11-25 | 遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023078020A (ja) |
-
2021
- 2021-11-25 JP JP2021191593A patent/JP2023078020A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3633408B1 (en) | Planning driven perception system for autonomous driving vehicles | |
JP6034615B2 (ja) | 衛星測位データおよび車両センサデータに基づく車両ナビゲーション | |
US10407076B2 (en) | Method and system for determining road frictions of autonomous driving vehicles using learning-based model predictive control | |
EP3344479B1 (en) | A vehicle position point forwarding method for autonomous vehicles | |
US11377119B2 (en) | Drifting correction between planning stage and controlling stage of operating autonomous driving vehicles | |
US11260880B2 (en) | Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway | |
EP3637143A1 (en) | Automatic lidar calibration based on pre-collected static reflection map for autonomous driving | |
EP3637142A1 (en) | Automatic lidar calibration based on cross validation for autonomous driving | |
WO2020062034A1 (en) | A tunnel-based planning system for autonomous driving vehicles | |
US11048252B2 (en) | Optimal path generation for static obstacle avoidance | |
US11273837B2 (en) | Variable boundary estimation for path planning for autonomous driving vehicles | |
US11073834B2 (en) | Path generation for static obstacle avoidance | |
JP6236954B2 (ja) | 運転支援システム、方法およびプログラム | |
JP2016162424A (ja) | 推定装置、推定方法及びプログラム | |
US11214251B2 (en) | Speed control command auto-calibration system for autonomous vehicles | |
CN114572192A (zh) | 驻车支援装置以及驻车支援方法 | |
JP2023078020A (ja) | 遠隔操縦装置、遠隔操縦方法、及び遠隔操縦プログラム | |
JP2021025902A (ja) | 位置姿勢推定装置、位置姿勢推定方法及びプログラム | |
JP6996820B2 (ja) | 遠隔操縦用表示装置と遠隔操縦用表示方法 | |
JP2022190173A (ja) | 位置推定装置 | |
JP2013205224A (ja) | 車載機、車載システム、情報処理方法、及び、プログラム | |
JP6399745B2 (ja) | 映像処理装置及びプログラム | |
JP7453850B2 (ja) | 駐車支援装置、及び駐車支援方法 | |
US20240071101A1 (en) | Method and system for topology detection | |
US20230037900A1 (en) | Device and Method for Determining Objects Around a Vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240109 |