JP2010128935A - 遠隔操作システムおよび遠隔操作装置 - Google Patents

遠隔操作システムおよび遠隔操作装置 Download PDF

Info

Publication number
JP2010128935A
JP2010128935A JP2008304706A JP2008304706A JP2010128935A JP 2010128935 A JP2010128935 A JP 2010128935A JP 2008304706 A JP2008304706 A JP 2008304706A JP 2008304706 A JP2008304706 A JP 2008304706A JP 2010128935 A JP2010128935 A JP 2010128935A
Authority
JP
Japan
Prior art keywords
moving body
image
model
virtual viewpoint
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008304706A
Other languages
English (en)
Other versions
JP5174636B2 (ja
Inventor
Toru Kido
徹 木戸
Tsuyoshi Kamiya
剛志 神谷
Tomotaka Ito
誠崇 伊藤
Maki Sugimoto
麻樹 杉本
Fumitoshi Matsuno
文俊 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2008304706A priority Critical patent/JP5174636B2/ja
Publication of JP2010128935A publication Critical patent/JP2010128935A/ja
Application granted granted Critical
Publication of JP5174636B2 publication Critical patent/JP5174636B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Selective Calling Equipment (AREA)
  • Image Analysis (AREA)

Abstract

【課題】不慣れな操作者でも移動体を容易に遠隔操作できる遠隔操作システムおよび遠隔操作装置を提供する。
【解決手段】遠隔操作システム10に含まれる遠隔操作装置14のCPU44は、移動体12からの過去情報および最新の移動体情報に基づいて過去情報を選択し仮想視点Vを決定する。CPU44は、グローバル座標系GCに、選択された過去情報に基づいて3次元環境画像Kと仮想視点Vとを生成し、最新の移動体情報と移動体モデルMに関するデータとに基づいて移動体モデルMを生成し、最新の移動体情報と操舵ユニット52からの入力量とに基づいて第1補助モデルM1と第2補助モデルM2とを生成する。そして、CPU44は、3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを仮想視点Vから切り出し中心点Q方向に透視投影して合成画像を生成し、当該合成画像をモニタ36に表示する。
【選択図】図3

Description

この発明は遠隔操作システムおよび遠隔操作装置に関し、より特定的には、移動体を遠隔操作するための遠隔操作システムおよび遠隔操作装置に関する。
一般に、自動車等の移動体を当該移動体から離れた位置の遠隔操作装置によって遠隔操作する遠隔操作システムが知られている。従来、このような遠隔操作システムにおいて移動体の遠隔操作を容易にするための技術が種々提案されている。その一例として特許文献1には、移動体に設けられるカメラが過去に撮影した環境画像に移動体画像を合成して遠隔操作装置のモニタに表示する技術が開示されている。操作者は、モニタに表示される画像を確認しながら遠隔操作装置の入力機器を用いて移動体を遠隔操作する。
特開2005−208857号公報
しかし、特許文献1のように遠隔操作する場合、モニタには実際の移動体の挙動が遅れて表示されるために入力機器への適切な入力量をモニタの画像から把握するためには慣れが必要であり、不慣れな操作者では移動体を思い通りに遠隔操作することが困難であった。特に移動体を右左折させる場合は、操作者が不慣れであれば向きの修正のために入力機器への急な入力(急操作)を繰り返し、移動体を蛇行させるおそれがあった。
それゆえに、この発明の主たる目的は、不慣れな操作者でも移動体を容易に遠隔操作することができる、遠隔操作システムおよび遠隔操作装置を提供することである。
上述の目的を達成するために、請求項1に記載の遠隔操作システムは、移動体と前記移動体を遠隔操作する遠隔操作装置とを備える遠隔操作システムであって、前記移動体は、前記移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備え、前記遠隔操作装置は、操作者が前記移動体を操舵するための入力手段と、前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、前記合成画像を表示する表示手段とを備える。
請求項2に記載の遠隔操作システムは、請求項1に記載の遠隔操作システムにおいて、前記補助モデルは、前記移動体モデルの進行方向に直交しかつ前記移動体モデルに対して横方向に延びる第1補助モデルを含むことを特徴とする。
請求項3に記載の遠隔操作システムは、請求項1に記載の遠隔操作システムにおいて、前記補助モデルは、前記移動体モデルの移動経路を表す第2補助モデルを含むことを特徴とする。
請求項4に記載の遠隔操作装置は、移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備える前記移動体、を遠隔操作する遠隔操作装置であって、操作者が前記移動体を操舵するための入力手段と、前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、前記合成画像を表示する表示手段とを備える。
請求項1に記載の遠隔操作システムでは、情報検出手段の検出結果に基づいて仮想視点が決定され、撮像手段によって仮想視点から撮像された環境画像と当該環境画像の撮像時における情報検出手段の検出結果とに基づいて、3次元環境画像と仮想視点とが仮想空間に生成される。また、仮想視点からの環境画像の撮像後における情報検出手段の検出結果と移動体モデルに関するデータとに基づいて、移動体モデルが仮想空間に生成される。さらに、仮想視点からの環境画像の撮像後における情報検出手段の検出結果と入力手段からの入力量とに基づいて、入力手段からの入力量の指標となる補助モデルが仮想空間に生成される。そして、仮想視点から見た3次元環境画像と移動体モデルと補助モデルとを透視投影して合成画像が生成され、合成画像が表示手段に表示される。合成画像に表れる補助モデルは、入力手段からの入力量に応じて遠隔操作装置で生成されるので、現在の入力手段からの入力量に略対応するものになる。合成画像においてこのような補助モデルと道の路肩等との位置関係を確認することによって、操作者は移動体モデルひいては移動体を適切な向きで移動させるために必要な入力手段への入力量を容易に把握できる。したがって、不慣れな操作者でも、移動体を容易に遠隔操作することができ、移動体を迅速に目的地に移動させることができる。請求項4に記載の遠隔操作装置においても同様である。
請求項2に記載の遠隔操作システムでは、移動体モデルの進行方向に直交しかつ移動体モデルに対して横方向に延びる第1補助モデルが、補助モデルに含まれる。操作者は、合成画像において道の路肩等と第1補助モデルとの交わり方を確認することによって入力手段への適切な入力量を容易に把握できる。第1補助モデルは、道が急激に曲がっている場合に特に有効である。この場合は道の路肩等に対して第1補助モデルが略直交するように入力手段への入力量を調節することによって、不慣れな操作者でも移動体を容易に安定して遠隔操作することができる。
請求項3に記載の遠隔操作システムでは、移動体モデルの移動経路に沿って延びる第2補助モデルが、補助モデルに含まれる。操作者は、合成画像において道の路肩等と第2補助モデルとの隙間を確認することによって入力手段への適切な入力量を容易に把握できる。第2補助モデルは、道が緩やかに曲がっている場合に特に有効である。この場合は道の路肩等と第2補助モデルとの間隔が一定になるように入力手段への入力量を調節することによって、不慣れな操作者でも移動体を容易に安定して遠隔操作することができる。
この発明によれば、不慣れな操作者でも移動体を容易に遠隔操作することができる、遠隔操作システムおよび遠隔操作装置が得られる。
以下、図面を参照してこの発明の実施の形態について説明する。
図1はこの発明の一実施形態の遠隔操作システム10を示すブロック図である。図2は移動体12を示す左側面図である。
図1を参照して、遠隔操作システム10は、移動体12と移動体12を遠隔操作するための遠隔操作装置14とを含む。
図2をも参照して、移動体12は、たとえば荒地走行用の4輪バギー車であり農作業や測量等に用いられ、マイクロコンピュータ(以下、マイコンという)16、速度検出器18、カメラ20、測位ユニット22、姿勢センサ24、方位センサ26、ハードディスクドライブ(ハードディスクを含む:以下、HDDという)28、駆動部30および通信機器32を含む。
速度検出器18は、左側の前輪30aの回転軸近傍に記載に取り付けられ、当該回転軸の回転数に基づいて移動体12の速度を検出する。
カメラ20は、移動体12の前面中央部やや上寄りに設けられ、移動体12の前方の環境画像を撮像する。カメラ20はレンズ20aを有するデジタルCCDカメラである。レンズ20aは広角であることが望ましく、この実施形態では画角が180°の全周魚眼レンズが用いられる。これによってカメラ20は広角な画像を撮像できる。ここで、レンズ20aの中心点をカメラ20の視点Aとし、視点Aの位置をカメラ20の位置とする。
測位ユニット22は移動体12の位置を検出するために移動体12の位置を示す基準点Bに設けられる。この実施形態では、基準点Bは、視点Aから水平方向真後ろに引いた直線と2つの後輪30bの中間点を通る垂線との交点に設定される。測位ユニット22は、GPS(Global Positioning System)衛星からの信号を受信することによって基準点Bの位置を検出する。
姿勢センサ24は、たとえば3Dジャイロセンサまたは傾斜センサであり、移動体12の左右の傾き(ロール角)および移動体12の前後の傾き(ピッチ角)を検出する。
方位センサ26は移動体12の前方の向き(方位角)を検出する。
記憶手段であるHDD28は、マイコン16の指示に従って、プログラム、制御用データ、テキストデータおよび画像データ等を、ハードディスクに対して書き込みまた読み出すためのデバイスであり、各種センサによる検出結果、カメラ20によって撮像された環境画像のデータおよび各種プログラム等を記憶(格納)する。
駆動部30は、2つの前輪30aおよび2つの後輪30bのほか、移動体12のステアリング機構を動かすためのステアリングモータ、スロットルを動かすためのスロットルモータ、ブレーキレバーを動かすためのブレーキモータ等を含む。
通信機器32は、移動体12と遠隔操作装置14とを通信回線Tを介して通信するために用いられる。通信回線Tは無線および有線のいずれであってもよく、たとえば無線LANや携帯電話回線によるデータ通信が行われる。通信回線Tの通信速度は、たとえば250kbps程度である。
マイコン16は、CPU、RAM、ROMおよびクロック等を含み、移動体12の動作を制御する。マイコン16は、たとえば0.02秒毎に測位ユニット22、姿勢センサ24および方位センサ26の検出結果を取得する。これと同時に、マイコン16は、速度検出器18の検出結果に基づいてマイコン16が起動してからの移動体12の累積移動距離を算出する。移動体12の位置、姿勢、向きおよび累積移動距離は、これらを取得したときのデータ取得時刻と合わせて「移動体情報」としてHDD28に記憶されかつ通信機器32から遠隔操作装置14に送信される。また、マイコン16は、たとえば3秒毎に、カメラ20から環境画像の画像データを取得するとともに、当該環境画像の撮像時におけるカメラ情報(カメラ20の位置、姿勢および向きからなる)を取得する。これらの画像データおよびカメラ情報は、当該環境画像の撮像時における移動体12の累積移動距離および撮像時刻とともに、「過去情報」としてHDD28に記憶されかつ通信機器32から遠隔操作装置14に送信される。
この実施形態では、カメラ20は移動体12に固定されており、カメラ20の位置を示す視点Aと移動体12の位置を示す基準点Bとの距離は一定である。したがって、移動体12の位置からカメラ20の位置までの前後、左右および上下方向(ここでは前後方向のみ)の距離分だけ、移動体12の位置からシフトさせた座標位置を、カメラ20の位置として取得することができる。また、カメラ20と移動体12とは姿勢および向きが同じであるので、移動体12の姿勢および向きをそのままカメラ20の姿勢および向きとすることができる。したがって、環境画像の撮像時におけるカメラ情報は、その時刻における移動体情報に基づいて得ることができる。
マイコン16によって駆動部30も制御される。
図1に戻って、遠隔操作装置14について説明する。
遠隔操作装置14は、たとえばパーソナルコンピュータからなるコントロールユニット34、操作者による移動体12の操作を支援するための画像等を表示するためのたとえば液晶モニタからなるモニタ36、操作者が移動体12を操作するための入力機器38、および通信回線Tを介して移動体12の通信機器32と通信するための通信機器40を含む。
コントロールユニット34は、バス42で相互に接続されたCPU44ならびに記憶手段であるROM46、RAM48およびHDD50を含む。
CPU44は、記憶手段であるROM46やHDD50等に記憶された各種のプログラムを実行し、各構成要素に指示を与え、遠隔操作装置14の動作を制御する。
HDD50は、CPU44の指示に従って、プログラム、制御用データ、テキストデータ、画像データ等を、ハードディスクに対して書き込みまた読み出すためのデバイスである。HDD50は、図3に示す動作を実行するための画像処理プログラム、移動体モデルMに関するデータ、操作部52a(後述)のハンドルの舵角と2つの前輪30aの舵角との対応関係を示すテーブルデータ、および移動体12から送信されてきた過去情報等を記憶(格納)する。
ROM46は、起動用プログラム等を記憶している。起動用プログラムは、コントロールユニット34の電源投入時にCPU44によって実行される。これによって、HDD50に記録されているオペレーティングシステム(OS)等のプログラムがRAM48にロードされ、各種の処理や制御が実行可能となる。
RAM48には、図3に示す動作を実行するための画像処理プログラム等が展開され、このプログラムによる処理結果、処理のための一時データおよび表示用データ(画像データやテキストデータ等)等を保持する。RAM48はCPU44の作業領域として使用される。RAM48上に展開された表示用データは、モニタ36に伝達される。モニタ36は、RAM48からの表示用データに対応する表示内容(画像やテキスト等)を表示する。
入力機器38は、移動体12の左右2つの前輪30aを操舵するための操舵ユニット52を含む。操舵ユニット52は、操作者によって操作されるハンドル(ステアリングホイール)を有する操作部52a、および操作部52aにおけるハンドルの舵角(切り角)を検出する舵角センサ52bを含む。移動体12には、舵角センサ52bの検出結果すなわち操舵ユニット52からの入力量に基づいて2つの前輪30aの操舵に関する指令が送信される。これによって、移動体12のステアリング機構が駆動され、2つの前輪30aの舵角が変更される。移動体12のステアリング機構としては、2つの前輪30aにおいて外輪の舵角よりも内輪の舵角が大きくなるアッカーマン機構が用いられる。
また、入力機器38は、スロットル操作およびブレーキ操作等のためのユニットを含み、これらへの操作入力に基づく指令が遠隔操作装置14から移動体12に送信される。
この実施形態では、カメラ20が撮像手段に相当する。情報検出手段は、速度検出器18、測位ユニット22、姿勢センサ24および方位センサ26を含む。操舵ユニット52が入力手段に相当する。遠隔操作装置14のCPU44は、決定手段および第1〜第4生成手段としても機能する。モニタ36が表示手段に相当する。
ついで、図3を参照して、遠隔操作システム10の遠隔操作装置14における画像処理動作の一例について説明する。遠隔操作装置14では、走行している移動体12を後方から見た様子をモニタ36に表示するための画像処理が行われる。
まず、遠隔操作装置14のCPU44によって、移動体12からの過去情報が受信されたか否かが判断され(ステップS1)、過去情報が受信されれば当該過去情報がHDD50に記憶され(ステップS3)、ステップS5に進む。一方、ステップS1において過去情報が受信されなければ直接ステップS5に進む。ステップS5では、CPU44によって、現時点での最新の移動体情報が受信されたか否かが判断される。移動体12からの当該移動体情報が受信されていなければステップS1に戻り、一方、当該移動体情報が受信されれば、CPU44によって、当該移動体情報に基づいてHDD50に記憶された過去情報の中から過去情報が選択され仮想視点Vが決定される(ステップS7)。仮想視点Vとは、現在の移動体12の位置の背後に設定される視点をいい、この実施形態では、現時点までの環境画像撮像時の撮像手段の位置(カメラ20の視点Aの位置)の中から選択される。
ここで、過去情報(主に環境画像および仮想視点)の選択方法について図4を参照して説明する。
図4は過去情報の選択方法を説明するための図解図である。図4において、横軸は移動体12の累積移動距離である。白抜き丸で示されたF1,F2およびF3は、過去情報に含まれる累積移動距離を示し、矢印方向に移るほど累積移動距離が大きくなる。累積移動距離がF1,F2およびF3であるときに撮像された環境画像およびカメラ20の視点Aの位置はそれぞれ、過去情報に含まれHDD50に記憶されている。Nは現在の移動体12の位置での累積移動距離であり、図4(b)には図4(a)よりも時間的に後の状態が示されている。
この実施形態では、移動体12の現在位置から所定距離Gだけ(たとえば6m)手前の地点に最も近い位置で得られた過去情報が選択され、この過去情報に含まれる環境画像の撮影ポイントが仮想視点Vとされる。すなわち、ステップS7では、CPU44によって、ステップS5で取得した移動体情報に含まれる累積移動距離Nから所定距離Gを差し引いた距離が求められ、その距離に最も近い累積移動距離を含む過去情報が選択される。
具体的には次のようにして選択される。
図4に示す距離D1およびD2は、数1によって求められる。
図4(a)の時点では、D1<D2であるので、累積移動距離F1を含む過去情報が選択される。すなわち、累積移動距離がF1であるときに撮像された環境画像が選択され、累積移動距離がF1であるときのカメラ20の視点Aの位置が仮想視点Vとして決定される。図4(a)よりも現在の累積移動距離Nが大きくなった図4(b)の時点では、D1>D2であるので、累積移動距離F2を含む過去情報が選択される。すなわち、累積移動距離がF2であるときに撮像された環境画像が選択され、累積移動距離がF2であるときのカメラ20の視点Aの位置が仮想視点Vとして決定される。
図3に戻って、その後、CPU44によって、ステップS7において選択された過去情報に基づいて、環境画像Iに基づく3次元環境画像Kと仮想視点Vとが、仮想空間としてのグローバル座標系GCに生成される(ステップS9)。
この処理について図5から図7を参照して説明する。
図5はカメラ20によって撮像される環境画像Iが表されるy軸とz軸とからなる2次元直交座標系C1を示す図解図である。環境画像Iは、レンズ20a前方の全風景を含む2次元の魚眼画像(円形画像)である。環境画像Iの中心点はカメラ20の視点A(図2参照)に対応している。カメラ撮影中心方向(図6に示す座標系C2におけるx軸方向)は、図5の紙面に直交する方向である。
図6は、2次元の環境画像Iを3次元変換した3次元環境画像Kが表示される3次元直交座標系C2を示す図解図である。座標系C2では、原点Oはカメラ20の視点Aであり、x軸方向はカメラ撮影中心方向、y軸方向はx軸方向が水平方向の1方向であるときにx軸方向に直交する水平方向の他の方向、z軸方向はx軸方向が水平方向の1方向であるときの鉛直方向である。
図7は、仮想空間としてのグローバル座標系GCを示す図解図である。グローバル座標系GCは、X軸、Y軸およびZ軸からなる3次元直交座標系である。グローバル座標系GCの原点Oは、移動体12のマイコン16が起動したときのカメラ20の視点Aの位置である。X軸方向が南北方向、Y軸方向が東西方向、Z軸方向が鉛直方向である。
図5に示す平面形状の環境画像Iは、図6に示す立体形状(ここでは半球状)の3次元環境画像Kに変換されて図7に示すグローバル座標系GCに生成される。座標系C2における3次元環境画像Kの座標P(x,y,z)は、座標系C1における環境画像Iの座標P(py,pz)に基づいて数2によって求められる。P(x,y,z)は、図6に示す半球面(3次元環境画像K)上の点である。
ここで、φは原点Oからy軸プラス方向の線分と線分OPとのなす角度であり、その範囲は0≦φ<2πである。φは(py,pz)とtanの逆関数(arctan)とを用いて求めることができる。また、θは、図6に示すように、原点Oと点Pとを結ぶ線分POとx軸とのなす角度である。3次元環境画像Kの形状は、レンズ20aの特性によって決定される。このことからθは、環境画像Iの座標P(py,pz)に基づいて所定の数式を用いて算出することやHDD50に記憶されているテーブルデータから取得することによって得られる。θは0≦θ≦π/2である。さらに、Jは、図6に示すように、原点Oから点Pまでの距離(3次元環境画像Kの半径)であり、任意の値に設定される。この実施形態では、Jがたとえば10mに設定される。
具体的には、次のようにして座標系C2における3次元環境画像Kの座標P(x,y,z)が求められる。
まず、環境画像Iが座標系C1に配置される。環境画像Iは、その中心点が座標系C1の原点Oに一致するように配置される。そして、環境画像Iを複数(たとえば縦16×横16=256:図5では図面の簡略化のため縦6×横6=36とする)の正方形状の画像片IPに分割し、座標系C1における各画像片IPの頂点の座標P(py,pz)が取得される。つづいて、取得した座標P(py,pz)に基づいて座標系C2における座標P(x,y,z)が数2によって求められる。
このようにして画像片IPの4頂点についてそれぞれ座標系C2における座標P(x,y,z)を求める。そして、座標系C2における画像片IPの4頂点の座標P(x,y,z)がそれぞれ、仮想視点Vからの撮影時の過去情報に含まれるカメラ20の姿勢(ロール角r、ピッチ角p)および向き(方位角y)とカメラ20の位置(xc,yc,zc)とを用いて、グローバル座標系GCにおける座標(xG,yG,zG)に変換される。このような座標変換は、一般に軸周りの回転と平行移動とによって行うことができ、数3によって行われる。
ここで、ロール角r、ピッチ角pおよび方位角yはそれぞれ、オイラー角と呼ばれ、グローバル座標系GCにおける座標系C2のx軸周りの回転角、y軸周りの回転角およびz軸周りの回転角であり、各軸右ねじが進む方向が正である。ロールおよびピッチの原点はグローバル座標系GCの鉛直上方向であり、方位の原点はグローバル座標系GCの真北方向である。
このようにしてグローバル座標系GCにおける画像片IPの4頂点の座標がそれぞれ求められる。すなわちグローバル座標系GCにおける画像片IPの位置が特定される。そして、当該特定された位置に画像片IPが生成(配置)される。この処理を全ての画像片IPについて行うことによって、図7に示すように、グローバル座標系GCの3次元空間に環境画像Iを3次元で表す3次元環境画像Kが生成される。また、3次元環境画像Kの生成とともに、座標系C2の原点Oに位置する仮想視点Vがグローバル座標系GCにおけるカメラ20の位置(xc,yc,zc)に生成される。
このようなステップS9の処理には、一般的に使用できるグラフィックライブラリを用いることができる。この実施形態では、グラフィックライブラリとしてシリコングラフィック社が提供しているOpenGL(登録商標)が用いられる。ステップS9の処理は、OpenGL(登録商標)によって提供される関数{glTexcoord2D(px,py)およびglVertex3D(x,y,z):px,pyは図5に示す座標系C1での座標値であり、x,y,zは図7に示す座標系GCでの座標値である}を用いて一連の動作として行われる。
なお、実際の3次元環境画像Kは、平面形状の画像片IPを繋ぎ合わせることによって、多面体(ここでは256面体)のドーム形状になる。図6および図7には、図面の簡略化のために半球状の3次元環境画像Kが示されている。
図3に戻って、ステップS9の後、CPU44によって、移動体モデルM、第1補助モデルM1、第2補助モデルM2、基準点B、および切り出し中心点Qがグローバル座標系GCに生成される(ステップS11)。CPU44は、ステップS5において受信された最新の移動体情報およびHDD50に記憶された移動体モデルMに関するデータに基づいて、移動体12を表す移動体モデルM、移動体12の位置を示す基準点B、および投影画像を切り出すときの中心となる切り出し中心点Qをグローバル座標系GCに生成する。また、CPU44は、ステップS5において受信された最新の移動体情報および舵角センサ52bの検出結果(操舵ユニット52からの入力量)に基づいて、操舵ユニット52からの入力量の指標となる第1補助モデルM1および第2補助モデルM2をグローバル座標系GCに生成する。
これらの処理について図8から図10を参照して説明する。
まず、図8を参照して移動体モデルMの生成方法について説明する。図8は、移動体モデルの生成方法を説明するための図解図である。説明を簡単にするために、図8に示す移動体モデルを立方体形状とする。
図8に示すように、移動体モデルは点群とそれらのうちの対応する2点間を結ぶ直線とによって移動体の形状のイメージを表現できる。移動体モデルは、その中心が原点Oに位置し、その前方がx軸方向を向きかつその上方がz軸方向を向くように3次元直交座標系C3に配置される。移動体モデルの各頂点には座標値が付与され、たとえば移動体モデルを示す立方体の各辺の長さを2とすると、頂点S1は(1,1,1)、頂点S2は(1,−1,1)として表すことができる。
そして、立方体の各頂点が、数4によってグローバル座標系GCに座標変換される。
ここで、(xm,ym,zm)は移動体情報から得られるグローバル座標系GCでの移動体12の現在の位置である。(xb,yb,zb)は座標系C3における移動体モデルを構成する点の座標値(座標変換対象となる座標値)である。(xa,ya,za)は(xb,yb,zb)をグローバル座標系GCに座標変換した後の座標値である。r,pおよびyはそれぞれ、移動体情報から得られるグローバル座標系GCでの移動体12の現在のロール角、ピッチ角および方位角であり、この実施形態では、カメラ20のロール角r、ピッチ角pおよび方位角yと同値である。
そして、グローバル座標系GCに座標変換された各頂点を直線で結ぶことによって、立方体の移動体モデルがグローバル座標系GCに生成される。すなわち移動体モデル全体がグローバル座標系の画像に変換される。
実際の移動体モデルMは、点群とそれらのうちの対応する2点間を結ぶ直線とによって移動体12のモデルを形成する。また、実際の移動体モデルMは、その基準点Bが原点Oに位置し、その前方がx軸方向を向きかつその上方がz軸方向を向くように座標系C3に配置される。移動体モデルMに関するデータとしては、少なくとも点群の各点について座標系C3における座標値を付与しておく。ステップS9と同様に数4を用いて点群の各点を座標変換しかつ対応する2点を直線で結ぶことによって、グローバル座標系GCに移動体モデルMを生成できる(図7参照)。
このようにして移動体モデルMが仮想空間としてのグローバル座標系GCに生成される。また、移動体12の位置を示す基準点Bと投影画像を切り出すときの中心となる切り出し中心点Qとについても同様にグローバル座標系GCに生成される。この実施形態では、切り出し中心点Qが移動体モデルMの前方正面に所定距離だけ離れた位置に設定される。具体的には、たとえば基準点Bから6m前方の位置に切り出し中心点Qが設定される。
なお、移動体モデルが直線を含まず点群だけで表現される場合には、点群の全ての点の座標値を数4によってグローバル座標系GCに座標変換すればよい。
また、移動体モデルMの前輪および後輪を表す点群の座標値は入力機器38からの入力量に応じて変更される。これによって、移動体モデルMの前輪が左または右に傾いている様子等を表現できる。
ついで、図9を参照して、第1補助モデルM1の生成方法について説明する。
図9は、第1補助モデルM1の生成方法を説明するための図解図である。図9には、座標系C3をz軸のプラス側(図8参照)から見た状態が示されている。また、図9には、操作部52aのハンドルが左に切られた状態(左折時の状態)が示されている。説明を簡単にするために、まず座標系C3におけるx軸座標値およびy軸座標値について考える。
図9に示すように、第1補助モデルM1は、移動体モデルMの左側の点ELと移動体モデルMの右側の点ERとを結ぶことによって直線状のイメージとして表現される。この実施形態では、左折時に点ELが移動体モデルMの旋回中心点Rに設定される。一般に、移動体12のような4輪車両では、左右の後輪および操舵輪である左右の前輪の回転軸の延長線が交わる点が旋回中心点となる。移動体モデルMの後輪の回転軸の延長線はy軸に一致し、y軸上で左右の前輪の回転軸の延長線が交わる点が旋回中心点Rとなる。このことから、旋回中心点Rは(0,r)で表される。旋回中心点Rのy軸座標値rは数5によって求められる。
ここで、Lは、左側の前輪の中心点FLと右側の前輪の中心点FRとの中間点FMと、基準点Bとの距離である。すなわちLは移動体12のホイルベース(前後の車軸間距離)である。また、Wは中心点FLと中心点FRとの距離である。すなわちWは左右の前輪の中心点間の距離である。中心点FL,FRおよび中間点FMの座標値、ならびにLおよびWの値は、予めHDD50に記憶されている。αLは左側の前輪の舵角である。図9から中心点FLと旋回中心点Rとを結ぶ直線とy軸とがなす角度もαLとなることがわかる。CPU44は、操舵ユニット52からの入力量に基づいてHDD50のテーブルデータから舵角αLを取得する。このように数5によって旋回中心点Rひいては点EL(第1補助モデルM1の一方の端点)のy軸座標値rが求められる。
また、点ER(第1補助モデルM1の他方の端点)は、点ELと中間点FMとを結ぶ直線の延長線上かつ点ELから中間点FMまでの距離分だけ中間点FMから離れた位置に設定される。したがって、点ERは(2L,−r)で表すことができる。
右左折時(ここでは左折時)において予測される移動体モデルMの進行方向は、旋回中心点Rと中間点FMとを結ぶ直線に直交する方向である。したがって、点ELと点ERとを結ぶ直線によって表現される第1補助モデルM1は、移動体モデルMの進行方向に直交しかつ移動体モデルMに対して横方向に延びる。
なお、舵角αLに代えて右側の前輪の舵角αRを用いて旋回中心点R(点EL)のy軸座標値rを求めてもよい。この場合は、数5において、αLに代えてαRを用いるとともにW/2を加算することに代えてW/2を減算すればよい。
また、右折時には点ERを旋回中心点Rに設定して点ERのy軸座標値rを求め、点ELの座標値を(2L,r)とすればよい。
一方、操作部52aのハンドルの舵角が0°の場合すなわち移動体モデルMが直進する場合、点ELは(L,r)で表され、点ELは(L,−r)で表される。この場合のy軸座標値rには予めHDD50に記憶されている固定値が用いられる。図9には、この場合の点ELおよび点ERが白抜きの丸で示され、これらを結ぶ直線が一点鎖線で示されている。この場合も、第1補助モデルM1は、移動体モデルMの進行方向に直交しかつ移動体モデルMに対して横方向に延びるイメージになる。
ここで、座標系C3における点ELおよび点ERのz軸座標値は、予めHDD50に記憶されている固定値を用いればよい。この実施形態では、基準点Bの高さと前輪30aの下端の高さとの差Hz(図2参照)に対応するように点ELおよび点ERのz軸座標値がそれぞれ設定される。したがって、この実施形態では、第1補助モデルM1が移動体モデルMの下方を通る直線として表現される。
このようにして得られる点ELと点ERとを上述と同様に数4を用いて座標変換しかつこれらを直線で結ぶことによって、グローバル座標系GCに第1補助モデルM1が生成される。
ついで、図10および図11を参照して、第2補助モデルM2の生成方法について説明する。
図10および図11は、第2補助モデルM2の生成方法を説明するための図解図である。図10および図11には、座標系C3をz軸のプラス側(図8参照)から見た状態が示されている。また、図10には左折時の状態が示され、図11には直進時の状態が示されている。上述の第1補助モデルM1と同様に、まず座標系C3におけるx軸座標値およびy軸座標値について考える。
図10に示すように、第2補助モデルM2は移動体モデルMの移動経路を表す点群GLおよび点群GRを含む。点群GLは点PL1〜PL8によって構成され、点群GRは点PR1〜PR8によって構成される。
右左折時(ここでは左折時)において中心点FLは、旋回中心点Rを中心とする半径r1の円周上を移動することになる。点群GLを構成する点PL1〜PL8は、中心点FLの移動経路を表すように、当該円周上に所定間隔INを有して中心点FL側から順に配列される。このような点PL1〜PL8の座標値は数6によって求められる。
ここで、nは中心点FLから見て何番目の点PLであるのかを示す整数(ここでは1〜8)である。また、中心点FLの旋回半径であるr1は、上述の数5によって求められるrを用いて、L2+(r−W/2)2の平方根で求められる。θLは、中心点FLと旋回中心点Rとを結ぶ直線と、点PL1と旋回中心点Rとを結ぶ直線とがなす角度であり、IN/r1[rad]で求められる。所定間隔INは、予めHDD50に記憶されている固定値であり、たとえば0.5mである。なお、右左折時の所定間隔INは、点PLnと点PLn+1とを結ぶ円弧の長さである。
また、右左折時(ここでは左折時)において中心点FRは、旋回中心点Rを中心とする半径r2の円周上を移動することになる。点群GRを構成する点PR1〜PR8は、中心点FRの移動経路を表すように、当該円周上に所定間隔INを有して中心点FR側から順に配列される。このような点PR1〜PR8の座標値は数7によって求められる。
ここで、nは中心点FRから見て何番目の点PRであるのかを示す整数(ここでは1〜8)である。また、中心点FRの旋回半径であるr2は、上述の数5によって求められるrを用いて、L2+(r+W/2)2の平方根で求められる。また、θRは、中心点FRと旋回中心点Rとを結ぶ直線と、点PR1と旋回中心点Rとを結ぶ直線とがなす角度であり、IN/r2[rad]で求められる。
一方、図11に示すように、操作部52aのハンドルの切り角が0°の場合すなわち移動体モデルMが直進する場合、中心点FLおよび中心点FRは、x軸と平行な直線上を移動することになる。この場合の点PL1〜PL8の座標値は数8によって求められる。
なお、直進時の所定間隔INは、点PLnと点PLn+1とを結ぶ直線の長さである。
同様に、この場合の点PR1〜PR8の座標値は数9によって求められる。
このように、移動体モデルMが右左折する場合は数6および数7によって点PL1〜PL8および点PR1〜PR8の座標値が求められる。移動体モデルMが直進する場合は数8および数9によって点PL1〜PL8および点PR1〜PR8の座標値が求められる。
なお、上述の第1補助モデルM1と同様に、座標系C3における点PL1〜PL8および点PR1〜点PR8のz軸座標値は、予めHDD50に記憶されている。この実施形態では、点PL1〜PL8および点PR1〜PR8のz軸座標値が上述の点EL(ER)のz軸座標値と同値に設定される。したがって、この実施形態では、第2補助モデルM2が移動体モデルMの下方から前方に配列される点群として表現される。
このようにして得られる点PL1〜PL8と点PR1〜PR8とを上述と同様に数4を用いて座標変換することによって、グローバル座標系GCに第2補助モデルM2が生成される。
図3に戻って、ステップS11の後、操作者へ提供する表示画像の中で移動体モデルMの大きさが略一定となるように、CPU44によって仮想視点Vからの画角が算出される(ステップS13)。ここでは、モニタ36の画面(たとえば、縦768ピクセル×横1024ピクセルの画面)に、所定サイズ(たとえば縦480ピクセル×横800ピクセル)の表示画像が表示されるものとする。表示画像のサイズ(たとえば縦480ピクセル×横800ピクセル)に関する情報、および表示画像の縦横比(たとえば縦:横=3:5)に関する情報は、予めHDD50に記憶されている。
図12は、グローバル座標系GCに生成された移動体モデルMを横方向から見た状態を示す図解図である。
図12において、dは仮想視点Vから移動体12の基準点B(現在の移動体12の位置)までの距離、βは仮想視点Vからの縦画角、hは移動体モデルMの高さ、Hは仮想視点Vから縦画角βで切り出したときの距離dの位置(基準点Bを通る縦面)での切り出し幅である。距離dは仮想視点Vの位置と基準点Bの位置とから得ることができる。
図12を参照して、縦画角βの算出方法について説明する。
モニタ36に移動体モデルMが表示されるとき、移動体モデルMの縦サイズを表示画像の縦サイズの一定値k(0<k<1)倍の大きさにするには、k=h/Hの関係が成立すればよい。たとえばk=h/H=0.33である。
また、図12より、d*tan(β/2)=H/2が成立する。
これらの2つの数式より、縦画角βは数10によって求められる。
図12(b)には、図12(a)の状態から移動体12が移動し、仮想視点Vから移動体12の基準点Bまでの距離dが長くなった状態が示されている。H,hおよびkは固定値であるが、dが大きくなるので、数5より、図12(b)の縦画角βは図12(a)のそれより小さくなる。
このように縦画角βを設定することによって、表示画像中での移動体モデルMの縦サイズを略一定に保つことができ、縦画角βを固定する場合とは異なり、移動体モデルMが表示画像中ひいてはモニタ36の画面内で小さくなっていくことを防止できる。
図12(b)に示す仮想視点Vと基準点Bとを結ぶ線が、3次元直交座標系C2のx−y平面上にある場合、仮想視点Vからの横画角γは図13に示すようになる。
図13は、グローバル座標系GCに生成された3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを3次元直交座標系C2のz軸方向のプラス側(図7参照)から見た状態を示す図解図である。図13では、3次元環境画像Kは、仮想視点Vにて撮影された画角180°の半球状の広角画像である。
縦画角βと同様に、横画角γは、表示画像の横サイズに対する移動体モデルMの横サイズの倍率を設定しておくことによって算出できる。また、横画角γは、算出した縦画角βと表示画像の予め設定された縦横比(たとえば縦:横=3:5)とに基づいて算出することもできる。
なお、投影画像の切り出し範囲は、縦画角βに基づく切り出し縦幅および横画角γに基づく切り出し横幅のいずれか一方と、表示画像の縦横比(たとえば縦:横=3:5)とに基づいて決定できる。この実施形態では、縦画角βと表示画像の縦横比とに基づいて投影画像の切り出し範囲が決定される。このことから、ステップS13では横画角γを求める処理を行っていない。
図3に戻って、その後、CPU44によって合成画像が生成される(ステップS15)。
合成画像の生成には、一般的に使用できる3次元グラフィックライブラリを用いることができる。この実施形態では、OpenGL(登録商標)とそれをマイクロソフト社のWindows(登録商標)で使用するためにフリーで提供されているgluLookAt関数およびgluPerspective関数を使用した。gluLookAt関数への引数として、グローバル座標系GCでの仮想視点Vの位置と切り出し中心点Qの位置とを与え、gluPerspective関数への引数として縦画角βと表示画像の縦横比(たとえば縦:横=3:5)とを与える。これによって、グローバル座標系GCに生成された3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを含んで透視投影した合成画像を描画できる。
このようにして得られた合成画像は、3次元環境画像Kと移動体モデルMと第1補助モデルM1と第2補助モデルM2とを仮想視点Vから切り出し中心点Qに向かって透視投影して得られる投影画像を、得られた縦画角βと表示画像の縦横比とに基づく切り出し範囲に応じて切り出したものになる。
その後、合成画像をモニタ36に所定サイズ(たとえば縦480ピクセル×横800ピクセル)で表示できるように、CPU44によって合成画像の大きさが変換され表示画像が得られる(ステップS17)。そして、得られた表示画像(大きさが変換された合成画像)がモニタ36に表示され、操作者に提示される(ステップS19)。
図13に示すように移動体モデルMが仮想視点Vを背にして前進する場合には、仮想視点Vと切り出し中心点Qとを結ぶ線上に基準点Bが位置する。したがって、この場合には、基準点Bを中心位置とした表示画像が提示されることになる。
しかし、移動体モデルMが曲がるときには、切り出し中心点Qと移動体モデルMとの位置関係から、移動体モデルMの進行方向側の画像がより広く操作者に提示される。たとえば移動体モデルMが左に曲がるときには、図14に示すように仮想視点Vと切り出し中心点Qとを結ぶ線を中心線として切り出し範囲が決定される。
したがって、仮想視点Vに対する移動体モデルMの向きが変化していくと、それに伴って移動体モデルMの進行方向側の画像が徐々に広く提示されていき、操作者に違和感のない画像を提示でき、操作者は移動体12の進行方向の環境を認識しやすくなり移動体12をより容易に遠隔操作することができる。
このようなステップS1からS19の処理が0.1秒程度のインターバルで繰り返される。
遠隔操作装置14ひいては遠隔操作システム10によれば、現在の操作部52aのハンドルの切り角(操舵ユニット52からの入力量)に応じて第1補助モデルM1および第2補助モデルM2を生成できる。そして、操作者は、表示画像(大きさが変換された合成画像)においてこのような第1補助モデルM1と第2補助モデルM2と道の路肩等との位置関係を確認することによって、移動体モデルMひいては移動体12を適切な向きで移動させるために必要なハンドルの切り角を容易に把握できる。したがって、不慣れな操作者でも、移動体12を容易に遠隔操作することができ、移動体12を迅速に目的地に移動させることができる。
操作者は、表示画像において道の路肩等と第1補助モデルM1との交わり方を確認することによってハンドルの適切な切り角を容易に把握できる。第1補助モデルM1は、図15に示すように道が急激に曲がっている場合(道の曲率が大きい場合)に特に有効である。すなわち移動体12の進行方向が右または左に90°以上変更されるような場合に特に有効である。この場合は道の路肩に対して第1補助モデルM1が略直交するようにハンドルの切り角を調節することによって、不慣れな操作者でも移動体12を容易に安定して遠隔操作することができる。
また、操作者は、表示画像において道の路肩等と第2補助モデルM2との隙間を確認することによってハンドルの適切な切り角を容易に把握できる。第2補助モデルM2は、図16に示すように道が緩やかに曲がっている場合(道の曲率が小さい場合)に特に有効である。この場合は道の路肩(図16では路面上のサイドライン)と第2補助モデルM2との間隔が一定になるようにハンドルの切り角を調節することによって、不慣れな操作者でも移動体12を容易に安定して遠隔操作することができる。
なお、上述の実施形態では過去情報は距離に基づいて選択されたが、これに限定されない。過去情報は時刻に基づいて上記距離の場合と同様の方法で選択されてもよい。すなわち、過去情報に含まれる撮像時刻と現在時刻から5秒前の時刻とを比較し、当該5秒前の時刻に最も近い撮像時刻に撮影された過去情報を採用するようにしてもよい。また、通信機器32から遠隔操作装置14に送信されてきた過去情報の中から操作者が任意に選択するようにしてもよい。
移動体12に関する情報とカメラ20に関する情報とは別々の検出手段によって検出されてもよい。移動体12および/またはカメラ20の位置、姿勢および方位は、既存の3次元自己位置推定手法によって求められてもよい。
上述の実施形態では、左折時における点ELを旋回中心点Rに設定しかつ右折時における点ERを旋回中心点Rに設定する場合について説明したが、これに限定されない。点ELおよび点ERの座標値は、点ELと点ERとを結ぶ直線が旋回中心点Rと中間点FMとを結ぶ直線に重なる限り任意に設定できる。すなわち第1補助モデルM1の長さは任意に設定できる。
上述の実施形態では、第2補助モデルM2の点群GLと点群GRとをそれぞれ8個の点で構成する場合について説明したが、点群GLと点群GRとを構成する点の数は任意に設定できる。
座標系C3における点EL、点ER、点PL1〜PL8および点PR1〜PR8のz軸座標値は上述の実施形態に限定されず、任意に設定できる。たとえば、これらのz軸座標値を中心点FLおよび中心点FRのz軸座標値と同値に設定してもよい。つまり、第1補助モデルM1および第2補助モデルM2の高さを移動体モデルMの前輪の中心と同じ高さに設定してもよい。
上述の実施形態では、第1補助モデルM1および第2補助モデルM2をグローバル座標系CGに生成する場合について説明したが、これらのうちいずれか一方のみを生成するようにしてもよい。操舵ユニット52からの入力量に基づいて、直進時には第1補助モデルM1を生成し、右左折時には第2補助モデルM2を生成するといったように、生成する補助モデルを切り替えてもよい。
上述の実施形態では、撮像手段として画角180°のカメラを用いる場合について説明したが、撮像手段はこれに限定されない。撮像手段の画角は大きいほど好ましく、撮像手段としてたとえば画角270°程度のカメラを用いれば、右左折時に表示画像中に環境画像の画像端が表れることを防止できる。
この発明における移動体は、上述の4輪バギー車に限定されない。移動体の他の例としては、ショベルカー等の建設機械、および船舶等が挙げられる。
この発明の一実施形態の遠隔操作システムを示すブロック図である。 移動体の一例を示す左側面図である。 図1の遠隔操作システムの遠隔操作装置における画像処理動作の一例を示すフロー図である。 過去情報の選択方法を説明するための図解図である。 環境画像が表される2次元直交座標系を示す図解図である。 3次元環境画像が表示される3次元直交座標系を示す図解図である。 仮想空間としてのグローバル座標系を示す図解図である。 移動体モデルの生成方法を説明するための図解図である。 第1補助モデルの生成方法を説明するための図解図である。 左折時における第2補助モデルの生成方法を説明するための図解図である。 直進時における第2補助モデルの生成方法を説明するための図解図である。 この発明の実施形態における縦画角を示す図解図である。 グローバル座標系に生成された3次元環境画像と移動体モデルと第1補助モデルと第2補助モデルとを上から見た状態を示す図解図である。 この発明の実施形態において移動体モデルが左折する場合を示す図解図である。 この発明の実施形態において表示される合成画像の一例を示す図解図である。 この発明の実施形態において表示される合成画像の他の例示す図解図である。
符号の説明
10 遠隔操作システム
12 移動体
14 遠隔操作装置
16 マイクロコンピュータ
18 速度検出器
20 カメラ
20a レンズ
22 測位ユニット
24 姿勢センサ
26 方位センサ
28,50 ハードディスクドライブ
32,40 通信機器
34 コントロールユニット
36 モニタ
38 入力機器
44 CPU
46 ROM
48 RAM
52 操舵ユニット
52a 操作部
52b 舵角センサ
C1 2次元直交座標系
C2,C3 3次元直交座標系
GC グローバル座標系
I 環境画像
K 3次元環境画像
M 移動体モデル
M1 第1補助モデル
M2 第2補助モデル
V 仮想視点

Claims (4)

  1. 移動体と前記移動体を遠隔操作する遠隔操作装置とを備える遠隔操作システムであって、
    前記移動体は、
    前記移動体の周囲の環境画像を撮像する撮像手段と、
    前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備え、
    前記遠隔操作装置は、
    操作者が前記移動体を操舵するための入力手段と、
    前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、
    前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、
    前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、
    前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、
    前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、
    前記合成画像を表示する表示手段とを備える、遠隔操作システム。
  2. 前記補助モデルは、前記移動体モデルの進行方向に直交しかつ前記移動体モデルに対して横方向に延びる第1補助モデルを含む、請求項1に記載の遠隔操作システム。
  3. 前記補助モデルは、前記移動体モデルの移動経路を表す第2補助モデルを含む、請求項1に記載の遠隔操作システム。
  4. 移動体の周囲の環境画像を撮像する撮像手段と、前記移動体および前記撮像手段に関する情報を検出する情報検出手段とを備える前記移動体、を遠隔操作する遠隔操作装置であって、
    操作者が前記移動体を操舵するための入力手段と、
    前記情報検出手段の検出結果に基づいて仮想視点を決定する決定手段と、
    前記撮像手段によって前記仮想視点から撮像された前記環境画像と当該環境画像の撮像時における前記情報検出手段の検出結果とに基づいて、前記環境画像を3次元で表す3次元環境画像と前記仮想視点とを仮想空間に生成する第1生成手段と、
    前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記移動体を表す移動体モデルに関するデータとに基づいて、前記移動体モデルを前記仮想空間に生成する第2生成手段と、
    前記仮想視点からの前記環境画像の撮像後における前記情報検出手段の検出結果と前記入力手段からの入力量とに基づいて、前記入力手段からの入力量の指標となる補助モデルを前記仮想空間に生成する第3生成手段と、
    前記仮想視点から見た前記3次元環境画像と前記移動体モデルと前記補助モデルとを透視投影して合成画像を生成する第4生成手段と、
    前記合成画像を表示する表示手段とを備える、遠隔操作装置。
JP2008304706A 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置 Active JP5174636B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008304706A JP5174636B2 (ja) 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008304706A JP5174636B2 (ja) 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置

Publications (2)

Publication Number Publication Date
JP2010128935A true JP2010128935A (ja) 2010-06-10
JP5174636B2 JP5174636B2 (ja) 2013-04-03

Family

ID=42329266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008304706A Active JP5174636B2 (ja) 2008-11-28 2008-11-28 遠隔操作システムおよび遠隔操作装置

Country Status (1)

Country Link
JP (1) JP5174636B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114321A (ja) * 2011-11-25 2013-06-10 Chiba Inst Of Technology 無人走行体の遠隔操縦システム
KR20180051571A (ko) * 2016-09-27 2018-05-16 바이두 유에스에이 엘엘씨 자율 주행 차량을 위한 차량 위치점 전달 방법
WO2022138724A1 (ja) * 2020-12-24 2022-06-30 川崎重工業株式会社 ロボットシステム及びロボット作業方法
JP7386757B2 (ja) 2020-06-02 2023-11-27 ヤンマーホールディングス株式会社 作業車両の自律走行システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2005208857A (ja) * 2004-01-21 2005-08-04 Campus Create Co Ltd 画像生成方法
JP2008132882A (ja) * 2006-11-28 2008-06-12 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2005208857A (ja) * 2004-01-21 2005-08-04 Campus Create Co Ltd 画像生成方法
JP2008132882A (ja) * 2006-11-28 2008-06-12 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114321A (ja) * 2011-11-25 2013-06-10 Chiba Inst Of Technology 無人走行体の遠隔操縦システム
KR20180051571A (ko) * 2016-09-27 2018-05-16 바이두 유에스에이 엘엘씨 자율 주행 차량을 위한 차량 위치점 전달 방법
KR102139426B1 (ko) * 2016-09-27 2020-07-29 바이두 유에스에이 엘엘씨 자율 주행 차량을 위한 차량 위치점 전달 방법
JP7386757B2 (ja) 2020-06-02 2023-11-27 ヤンマーホールディングス株式会社 作業車両の自律走行システム
WO2022138724A1 (ja) * 2020-12-24 2022-06-30 川崎重工業株式会社 ロボットシステム及びロボット作業方法

Also Published As

Publication number Publication date
JP5174636B2 (ja) 2013-04-03

Similar Documents

Publication Publication Date Title
US11181637B2 (en) Three dimensional target selection systems and methods
US7423553B2 (en) Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
JP7225324B2 (ja) 映像生成装置、および、映像生成方法
JP6840842B2 (ja) 映像生成装置
WO2014020663A1 (ja) 地図表示装置
JP5235127B2 (ja) 遠隔操作システムおよび遠隔操作装置
JP2007080060A (ja) 対象物特定装置
US20110288763A1 (en) Method and apparatus for displaying three-dimensional route guidance
WO2020136929A1 (ja) 画像処理装置及び画像処理方法
JP5174636B2 (ja) 遠隔操作システムおよび遠隔操作装置
JP4947376B2 (ja) 3次元データ処理装置、3次元画像生成装置、ナビゲーション装置及び3次元データ処理プログラム
JP4902236B2 (ja) 三次元地図表示装置、三次元地図表示プログラム及び三次元地図表示プログラムを記録した記録媒体
JP6236954B2 (ja) 運転支援システム、方法およびプログラム
JP6875196B2 (ja) モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体
US8988425B2 (en) Image display control system, image display control method, and image display control program
JP5669438B2 (ja) 対象管理画像生成装置及び対象管理画像生成プログラム
JPWO2019130940A1 (ja) 映像生成装置及び映像生成方法
JP5262232B2 (ja) 画像上方位表示方法及び装置並びに写真
JP4922436B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
WO2019168061A1 (ja) 情報処理装置、記録媒体、ヘッドマウントディスプレイ、及び、情報処理システム
JP6029459B2 (ja) 画像合成装置、および画像合成方法
JP2020095519A (ja) 形状推定装置、形状推定方法、プログラム、及び記録媒体
JP2009019970A (ja) ナビゲーション装置
JP7349909B2 (ja) 位置同定装置、移動体位置同定システム、及び位置同定方法
WO2020235539A1 (ja) オブジェクトの位置及び姿勢を特定する方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121228

R150 Certificate of patent or registration of utility model

Ref document number: 5174636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250