JP4348468B2 - 画像生成方法 - Google Patents

画像生成方法 Download PDF

Info

Publication number
JP4348468B2
JP4348468B2 JP2004013689A JP2004013689A JP4348468B2 JP 4348468 B2 JP4348468 B2 JP 4348468B2 JP 2004013689 A JP2004013689 A JP 2004013689A JP 2004013689 A JP2004013689 A JP 2004013689A JP 4348468 B2 JP4348468 B2 JP 4348468B2
Authority
JP
Japan
Prior art keywords
image
moving body
information
environment
generation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004013689A
Other languages
English (en)
Other versions
JP2005208857A (ja
Inventor
文俊 松野
昌彦 稲見
直司 城間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Campus Create Co Ltd
Original Assignee
Campus Create Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Campus Create Co Ltd filed Critical Campus Create Co Ltd
Priority to JP2004013689A priority Critical patent/JP4348468B2/ja
Priority to PCT/JP2005/000582 priority patent/WO2005071619A1/ja
Priority to US10/587,016 priority patent/US20070165033A1/en
Priority to GB0614065A priority patent/GB2427520A/en
Publication of JP2005208857A publication Critical patent/JP2005208857A/ja
Application granted granted Critical
Publication of JP4348468B2 publication Critical patent/JP4348468B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、画像生成方法に関するものである。
従来から、移動体にカメラを取り付け、そのカメラで取得された画像を見ながら移動体を操作することが行われている。移動体は、例えば、遠隔地にある自走ロボットである。移動体が遠隔地にある場合は、画像は、通信ネットワークを介して操作者に送られる。
ところで、移動体のカメラで取得された画像は、移動体周辺の環境情報をあまり多くは含んでいないことが多い。これは、解像度を維持しながら画角を広くすると、画像の情報量が増え、通信路や情報処理装置への負担が増えるためである。狭い画角の画像を見ながら移動体を適切に操作することは、多くの場合、かなりの困難を伴う。
一方、移動体の外部に、移動体カメラとは別の外部カメラを設置し、この外部カメラの画像によって環境画像を取得する方法も考えることができる。しかしながら、移動体カメラの画像と外部カメラの画像の両方を用いることは、やはり、画像の情報量を増大させてしまう。画像の情報量が増えると、一般には、画像の解像度やフレームレートを低く設定して、通信や情報処理における時間遅れを防ぐ必要が発生する。すると、画像品質が劣化することになってしまう。逆に画像品質を維持しようとすると、画像が提示されるまでの時間遅れのために、リアルタイムでの移動体操作が難しくなってしまう。もちろん、通信路や情報処理装置の高速化や情報量の圧縮によりこれらの問題が軽減されることはありうるが、いずれにせよ、取得する画像の情報量が増大することは、通信路を含めたシステムの負担を増加させる。
本発明は、前記の事情に鑑みてなされたものである。本発明の目的は、移動体の操作を容易としうる画像の生成方法を提供することである。
本発明に係る画像生成方法は、次のステップを含む:
(1)移動体に取り付けられた一つまたは複数の空間計測センサによって取得された環境情報を受け取るステップ;
(2)前記環境情報を取得した時の時刻と前記空間計測センサ自身のパラメータとを受け取るステップ;
(3)前記環境情報と前記時刻と前記パラメータとを示す過去情報を保存するステップ;
(4)仮想視点の指定を受け取るステップ;
(5)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づいて生成するステップ。
この画像生成方法は、さらに以下のステップを含んでも良い:
(6)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータに基づいて生成するステップ;
(7)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体自身の画像と前記仮想環境画像とを含む複合画像を生成するステップ。
前記環境情報とは、例えば複数の静止画であるが、動画であってもよい。
前記ステップ(6)における前記移動体自身のパラメータとは、「前記仮想視点を指定した時点またはその近傍から、生成された前記複合画像が提示される時点までの間におけるいずれかの時点」におけるものであってもよい。
前記移動体は自走可能であってもよい。
前記仮想視点は、前記移動体の周辺の環境および/または操作者が見たい地点の周辺の環境を見る位置に存在していてもよい。
前記仮想視点は、前記移動体を背後から見る位置に存在していてもよい。
前記ステップ(2)における「空間計測センサ自身のパラメータ」とは、例えば、「空間計測センサ自身の位置および姿勢」および/または、「空間計測センサ自身により得られたデータ空間と実空間との関係を表すデータ、行列もしくはテーブル」を含むものである。
前記ステップ(5)における「過去情報に基づいて生成する」とは、例えば、「前記環境情報に含まれるいずれかの画像を、前記環境情報を取得した時の前記空間計測センサ自身の位置と前記仮想視点との近さに基づいて選択する」ことである。
前記ステップ(5)における「過去情報に基づいて生成する」とは、例えば、「過去情報を用いて新たに生成する」ことである。
前記仮想環境画像は、例えば静止画である。
前記ステップ(7)における前記複合画像に含まれる前記移動体自身の画像は、透明、半透明、またはワイヤフレームの画像であってもよい。
前記移動体自身のパラメータには、前記移動体の位置を含んでいてもよい。
前記移動体自身のパラメータには、前記移動体の姿勢をさらに含んでいてもよい。
本発明に係る提示方法は、前記したいずれかの生成方法により生成された複合画像を提示するものである。
本発明に係る画像生成システムは、移動体と制御部と情報取得部とを備えている。前記移動体は、環境情報を取得する空間計測センサを備えている。前記制御部は、次の機能を実行するものである:
(a)前記環境情報と、前記環境情報を取得した時の時刻と、前記環境情報を取得した時の前記空間計測センサ自身のパラメータとを示す過去情報を保存する機能;
(b)指定された仮想視点の情報を受け取る機能;
(c)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づいて生成する機能。
前記画像生成システムは、さらに情報取得部を備えてもよい。前記情報取得部は、前記移動体自身のパラメータを取得するものである。この場合、前記制御部は、さらに次の機能を実行する:
(d)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータに基づいて生成する機能;
(e)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体の画像と前記仮想環境画像とを含んだ複合画像を生成する機能。
本発明に係るコンピュータプログラムは、前記したいずれかの方法におけるステップをコンピュータに実行させるものである。
本発明に係るコンピュータプログラムは、前記システムにおける制御部の機能をコンピュータに実行させるものであってもよい。
本発明に係るデータは、前記したいずれかの生成方法によって生成された前記仮想環境画像または前記複合画像を表す情報を含むものである。
本発明に係る記録媒体は、このデータが記録されたものである。
本発明によれば、移動体の操作を容易としうる画像生成方法を提供することができる。
本発明の一実施形態に係る画像生成方法を、添付の図面を参照しながら説明する。まず、本実施形態の方法に用いる画像生成システムの構成を図1に基づいて説明する。
(システムの説明)
このシステムは、移動体1と、制御部2と、情報取得部3と、画像提示部4とを主要な要素として備えている。
移動体1は、例えば、自走式の遠隔制御ロボットである。移動体1は、カメラ11(本発明における空間計測センサに対応)と、本体12と、インタフェース部13と、カメラ駆動部14と、姿勢センサ15と、本体駆動部16とを備えている。
カメラ11は、本体12に取り付けられており、移動体1から見た環境画像(外部画像であり、本発明における環境情報に相当)を取得するようになっている。カメラ11により取得された環境画像は、インタフェース部13を介して制御部2に送られるようになっている。カメラ11は、この実施形態では、静止画を取得するものとなっているが、動画を取得するものであってもよい。さらに、この実施形態では、カメラ11は、各画像を取得した時の時間情報(タイムスタンプ)を生成する。この時間情報も、インタフェース部13を介して制御部2へ送られる。この時間情報の生成は、カメラ11以外の部分で行ってもよい。
カメラ11としては、通常の可視光カメラの他、赤外線カメラ、紫外線カメラ、超音波カメラなどの各種のカメラを用いることができる。カメラ以外の空間計測センサとしては、例えば、レーダレンジファインダや光学式レンジファインダである。空間計測センサとしては、要するに、対象(外部環境)の2次元または3次元(さらに時間などの次元を取得できても良い)の情報(つまり環境情報)を取得できるものであればよい。レーダレンジファインダや光学式レンジファインダによれば、環境中の対象の3次元位置情報を容易に取得可能である。これらの場合においても、通常は、タイムスタンプを空間計測センサ側で生成して制御部2に送る。
インタフェース部13は、インターネットなどの通信ネットワーク回線(図示せず)に接続されている。インタフェース部13は、移動体1で取得した情報を外部に供給し、あるいは、外部からの情報(例えば制御信号)を移動体1で受け取る機能を有する部分である。通信ネットワーク回線としては、インターネットの他、LAN、電話回線など、適宜のものが利用可能である。つまり、ネットワーク回線において用いられるプロトコルや回線やノードには、特に制約はない。ネットワーク回線における通信方式としては、回線交換方式でもパケット方式でもよい。
カメラ駆動部14は、カメラ11の位置(空間中または平面上の位置)および姿勢(カメラにおける視線の方向ないし光軸の方向)を変化させるものである。カメラ駆動部14は、制御部2からの指示によりカメラ11の位置および姿勢を変化させるようになっている。このようなカメラ駆動部14は、例えば、制御用モータなどを用いて容易に製作できるので、これ以上の説明を省略する。
姿勢センサ15は、カメラ11の姿勢を検出するものである。この姿勢の情報(例えば光軸角度や視野角や姿勢情報取得時刻など)は、インタフェース部13を介して制御部2へ送られる。このような姿勢センサ15自体は容易に構成できるので、これ以上の説明は省略する。
本体駆動部16は、制御部2からの指示によって移動体1を自走させるものである。本体駆動部16は、例えば、本体12の下部に取り付けられた車輪(無限軌道を含む)と、これを駆動する駆動用モータ(図示せず)とを備えている。
制御部2は、インタフェース部21と処理部22と記憶部23と入力部24とを備えている。インタフェース部21は、インタフェース部13と同様に、通信ネットワーク回線(図示せず)に接続されている。インタフェース部21は、通信ネットワーク回線を介して、制御部2から外部に情報を供給し、あるいは、外部の情報を制御部2で受け取る機能を有する部分である。例えばインタフェース部21は、移動体1のインタフェース部13から制御部2へ送られた各種の情報を取得し、あるいは、インタフェース部13へ制御信号を送る。
処理部22は、記憶部23に格納されたプログラムに従って、下記(a)〜(e)の機能を実行するものである。処理部22は、例えばCPUである。なお、下記(a)〜(e)の機能は、後述の画像生成方法の説明において詳しく説明する。
(a)環境画像と、この環境画像を取得した時の時刻と、環境画像を取得した時のカメラの位置および姿勢(パラメータに対応)とを示す過去情報を保存する機能;
(b)指定された仮想視点の情報を受け取る機能;
(c)仮想視点から見た仮想環境画像を、保存された過去情報に基づいて生成する機能;
(d)仮想視点から見た移動体自身の画像を、移動体自身の位置または姿勢に基づいて生成する機能;
(e)仮想環境画像と前記移動体自身の画像とを用いて、移動体の画像と仮想環境画像とを含んだ複合画像を生成する機能。
記憶部23は、制御部2その他の機能要素を動作させるためのコンピュータプログラムや、移動体1の3次元モデル情報や、過去情報(例えば、移動体1またはカメラ11の位置および姿勢情報、あるいはそれらの情報取得時刻など)を格納しておく部分である。記憶部23は、例えば、半導体メモリやハードディスクなどの任意の記録媒体である。
入力部24は、操作者から制御部2への入力(例えば仮想視点情報の入力)を受け付ける部分である。
情報取得部3は、移動体1自身の位置および姿勢(向き)を取得するものである。本実施形態における移動体1の位置および姿勢は、本発明における「移動体自身のパラメータ」に対応する。なお、「移動体自身のパラメータ」としては、移動体1の位置および姿勢以外にも、移動体の速度、加速度、角速度、角加速度なのパラメータを用いることができる。これらのパラメータによっても、移動体の位置変化を検出できるからである。
移動体1の位置および姿勢を得るには、例えばジャイロ、加速度計、車輪回転角速度計、GPS、超音波センサなどの機器を用いた、既存の三次元自己位置推定手法を用いることができる。このような手法自体は既存のものを利用できるので、それについての詳しい説明は省略する。
さらに、情報取得部3は、移動体1の位置および姿勢を取得した時の時刻を取得する。ただし、時間情報を取得しない実装も可能である。
なお、カメラ11の位置は、カメラ11が移動体1に固定されていれば、移動体1の位置として取得することができる。この実施形態では、情報取得部3により、本体1の位置を取得し、本体1の位置から、これに固定されたカメラ11の位置を算出している。逆に、カメラ11の位置を取得して、移動体1の位置を算出することも可能である。
情報取得部3は、制御部2および移動体1と別個のものでも、制御部2または移動体1と一体のものでも良い。また、情報取得部3と姿勢センサ15とは、一体化された一つの機構または装置として存在していても良い。
画像提示部4は、制御部2の動作により生成された画像(複合画像)を受け取って提示するものである。画像提示部4としては、例えばディスプレイやプリンタである。
なお、本発明における空間計測センサ自身のパラメータとは、例えば、このセンサがカメラであれば、その位置および姿勢であることが一般である。ただし、このパラメータは、位置および姿勢に加えて、またはこれらに代えて、データ空間と実空間との関係を表すデータ、行列あるいはテーブルであってもよい。この「データ、行列あるいはテーブル」は、「カメラの焦点距離、画像中心の座標、画像面における縦および横方向のスケール・ファクタ、せん断係数またはレンズ収差」などの要素により算出される。また、空間計測センサがレンジファインダであれば、それ自身のパラメータとは、例えば、その位置、姿勢、奥行き、解像度および画角(データ取得範囲)である。
(画像生成方法の説明)
つぎに、本実施形態のシステムを用いた画像生成方法を説明する。まず、前提として、移動体1の位置および姿勢を、情報取得部3により常時追跡しておくものとする。もちろん、情報取得部3は、これらの情報を、時間的又は空間的な意味で、離散的に取得しても、連続的に取得しても良い。取得された情報は、制御部2の記憶部23に格納される。この情報は、この実施形態では、絶対座標系(移動体に依存しない座標系であり、ワールド座標ともいう)上のデータとして、その情報の取得時刻と共に格納されるものとする。
(ステップ2−1)
まず、移動体1に取り付けられたカメラ11によって環境画像(図3a参照)を取得する。さらに、環境画像を取得した時刻(タイムスタンプ)も、カメラ11で取得する。環境画像を取得する時期は、移動体1の移動速度、カメラ11の画角、通信路の通信容量などの条件に対応して設定すればよい。例えば、3秒毎に静止画を環境画像として取得する、というような設定ができる。取得された画像および時間情報は、制御部2に送られる。制御部2は、これらの情報を記憶部23に格納する。以降、制御部2に送られた各情報は、記憶部23に一旦格納される。環境画像としては、通常は静止画であるが、動画であっても良い。
(ステップ2−2)
さらに、情報取得部3は、環境画像を取得した時点での、移動体1の位置および姿勢に関する情報を取得して制御部2に送る。一方、移動体1の姿勢センサ15は、カメラ11の姿勢に関する情報を取得して制御部2に送る。より詳しくは、情報取得部3は、カメラ11の姿勢データを、その時点で取得した各環境画像に対応させて、制御部2に送る。
この実施形態では、環境画像を取得した時点でのカメラ11の位置データは、情報取得部3で取得された移動体1の位置情報(画像取得時点での位置)から算出される。画像取得時点での移動体1の位置は、タイムスタンプを用いて検索してもよいし、あるタイムスロット間で得られたデータどうしを対応させる方法で検索してもよい。
(ステップ2−3)
ついで、制御部2は、環境画像および時間情報と、それを取得した時点でのカメラ11の位置および姿勢を示す情報(本実施形態では、これらをまとめて過去情報と称する)を、記憶部23に格納する。これらの情報は、同時に格納されても、異なる時期に格納されても良い。具体的には、環境画像のデータと、カメラ11の位置および姿勢データとを、時間的に対応させてテーブルに格納する。つまり、これらのデータを、時間情報または位置情報を検索キーとして検索できるようにしておく。また、ここで、位置および姿勢を示す情報とは、位置データや姿勢データそのものでなくても良い。例えば、計算によりこれらのデータを算出できるデータ(またはデータ群)であってもよい。
(ステップ2−4)
ついで、仮想視点を指定する。この指定は、通常は、操作者がその必要に応じて、制御部2の入力部24により行う。また、仮想視点の位置は、絶対座標上で特定されることが好ましいが、現仮想視点からの相対位置で指定することも可能である。仮想視点の位置は、例えば、移動体1の背後から、移動体1を含む画像を見るものとする。または、仮想視点の位置は、移動体1を含まない、操作者が見たい地点の周辺の環境を見るものであってもよい。
(ステップ2−5)
ついで、仮想視点から見た仮想環境画像(図3b参照)を、既に保存されている過去情報に基づいて生成する。仮想環境画像は、通常は静止画であるが、動画とすることも可能である。仮想環境画像の生成手法の例を以下説明する。
(空間的に密に画像が得られる場合)
この場合は、過去情報に含まれる画像(環境情報)のうちで、仮想視点の近くから撮像された画像を選択する。どの程度の距離をもって近いと判断するかは適宜設定すればよい。例えば、この判断は、当該画像が撮影された時の位置および姿勢(角度)あるいは焦点距離などの情報を用いて行うことができる。要するに、操作者が見やすく判りやすい画像を選択できるように設定することが好ましい。前記の通り、過去の画像を撮像した時のカメラ11の位置および姿勢は記録されている。
(空間的に疎に画像が得られる場合)
この場合も、実際にカメラで撮像した画像を用いることは可能である。しかしながら、画像品質を向上させるためには、仮想視点からの画像を、実際に得られている画像を基に新たに生成することが好ましい。このような画像生成手法には、既存のコンピュータビジョン技術を用いることができる。この実施形態では、実時間性を考慮して、環境モデルを構築せずに、画像ベースでの任意視点画像を生成する手法を説明する。この場合のアルゴリズムの一例は以下のようになる。
(a)仮想視点の近傍における複数の画像を過去情報から選択する。この「近傍」の判断は、「空間的に密に画像が得られる場合」と同様にして行うことができる。
(b)その内の二つの画像間における対応点を求める。
(c)画像間での密な対応点が得られるように、対応点の伝搬を画像間で行う。
(d)対応点を基に、画像間のトライフォーカルテンソル(trifocal tensor)を求める。
(e)トライフォーカルテンソルを使って、二つの原画像で対応のとれた全てのピクセルを、任意視点から見た仮想環境画像へマッピングする。これにより、仮想環境画像を生成することができる。
(f)さらに好ましくは、前記操作を、仮想視点の近傍における他の画像に対しても行う。そのようにすれば、それらの画像も利用することで、より正確な、そして視野の広い仮想環境画像を生成することができる。
もちろん、環境画像から3次元環境モデルを一旦生成し、そのモデルに基づいて、任意視点から見える仮想環境画像を生成する手法も可能である。しかし、この場合は、モデル構築のために、多数の環境画像を取得したり、長い計算時間を費やさなければならないという問題がある。
(ステップ2−6)
ついで、仮想視点から見た移動体1の画像を、移動体1の位置および姿勢の情報に基づいて生成する。移動体1の位置および姿勢の情報は、情報取得部3により常に追跡されて取得されている(図3c参照)ので、この情報から把握することができる。この位置および姿勢の情報は、単なる座標データなので、通信路に対する負担は、画像データに比較してはるかに小さい。この位置および姿勢情報を基に、絶対座標系において仮想視点から見た移動体1の画像を生成する。
ここで生成される移動体1の画像は、通常は、現在時点にある移動体1の画像であるが、予測により生成した、将来の位置にある移動体1の画像であってもよく、また、過去のある時点の位置における移動体1の画像であってもよい。
(ステップ2−7)
このようにして生成した仮想環境画像と移動体1の画像とを用いて、移動体1の画像と仮想環境画像とを含む複合画像を生成することができる(図3d参照)。この画像は、操作者の必要に応じて、画像提示部4において提示される。また、複合画像データを適宜な記録媒体(例えばFD、CD、MO、HDなど)に記録することができる。
移動体1の位置または姿勢が変化すると、情報取得部3により変化後の移動体1の位置および姿勢データが取得され、取得時刻と共に制御部2の記憶部23に送られて、データの更新がされる。また、移動後の位置における環境画像を、時間情報(タイムスタンプ)とともに、カメラ11により取得する。その後、ステップ2−2以降の動作が繰り返される。

本実施形態の方法では、このように、移動体1を含む仮想環境画像を生成および提示することができる。すると、移動体1を見ながら移動体の操作をすることができるので、操作の容易性を向上させることができるという利点がある。
また、この実施形態では、過去に取得した環境画像に基づいて、仮想視点から見た仮想環境画像を生成しているので、外部に環境画像取得用のカメラを設ける必要がなく、装置の小型化や低コスト化を図ることができるという利点がある。
また、外部に環境画像取得用のカメラを設けたり、カメラの画角を広げた場合には、データ量が増大するために、通信路への負担が大きくなり、しばしば、フレームレートの低下などの問題を生じる。すると、実時間での操作が難しくなる。この実施形態によれば、過去の画像を用いて仮想環境画像を生成しているので、画像情報の取得に時間遅れがあったとしても、実時間操作に対する支障にならないという利点がある。さらに、過去の画像から3次元環境モデルを生成せずに仮想環境画像を生成するアルゴリズムを用いれば、仮想環境画像の生成時間が短くなるので、操作の実時間性はさらに向上する。
さらに、この実施形態では、過去の画像の取得における時間遅れを許容できるので、画像解像度を高くすることができる。このため、得られる仮想環境画像の解像度を高めることができるという利点がある。
なお、仮想環境画像を用いると却って操作がしづらい場合は、移動体1のカメラ11からの画像に適宜切り替えて操作者に提示すればよい。
前記した生成方法についての実施例を図4〜図6に基づいて説明する。移動体1から連続的に取得される環境画像は、例えば図4(a)〜(d)のようになる。これらから生成される仮想環境画像の例を図5(a)〜(c)に示す。実時間において図4(b)の画像をカメラ11で見ている移動体1を、それ自体を含む画像として提示しているものが図5(a)である。図5(a)では、図4(b)よりも過去の画像である図4(a)の画像を仮想環境画像として選んでいる。そして、この仮想環境画像に、移動体1の画像を複合させている。これにより、現在位置にある移動体1を背後(仮想視点)から見ている画像を生成し、提示することができる。これによって、移動体1自身を見ながら、移動体1を操作することができる。
移動体1の移動に伴って仮想視点も前進させると、図5(b)や(c)に示される画像を得ることができる。これらの画像の生成手法は、前記と基本的に同様である。これらの画像では、仮想視点の変化に伴い、仮想環境画像を図4(b)、図4(c)と切り替えている。図4(d)の画像は、図5(c)の画像に含まれている移動体1のカメラ11からの画像である。
もし、通信路の状況が悪く、フレームレートが低くて、図5(b)や(c)のような環境画像を生成するための過去画像すら得られないときは、移動体1自体を移動させた画像とすればよい(図6a〜d参照)。つまり、これは、仮想視点を固定させて、移動体1の画像を変化させていることになる。この実施形態の方法では、移動体1の位置および姿勢を把握しているため、位置および姿勢に対応した移動体1の画像を生成して、仮想環境画像に複合させることができる。したがって、この実施形態の方法は、回線速度が非常に低い場合(例えば月探査ロボットから地球への無線信号など)でも、実時間での移動体1の操作が容易となるという利点がある。
なお、仮想環境画像に複合させる移動体1の画像を半透明とすることもできる。このようにすれば、仮想視点からの画像において、移動体1の背後が死角になることを防止でき、移動体1の操作をより一層容易とすることができる。また、移動体1の画像を透明とし、非透明の画像と交互に表示することによっても、同様の利点を得ることができる。半透明に代えて、移動体1をワイヤフレーム画像としても、これらと同様の利点を得ることができる。さらに、複合画像内に移動体1の影を付加することにより、よりリアリティを増すこともできる。
さらに、通常、移動体1に搭載されたカメラ11からの映像を直接用いる遠隔操作では、移動体1自身の揺れが画像の揺れに直接つながる。このように揺れている画像を用いて移動体1の操作を行う操作者は、自分自身が振動を直接受けていないのにもかかわらず揺れ画像を用いて移動体1の操作を行っているため、酔ってしまうことがある。前記した本実施形態の方法では、移動体1が振動を受けて、カメラ11での取得画像自体が揺れていたとしても、操作者には、固定された環境(仮想環境画像)のなかで移動体1のみが揺れている複合画像を提示することができる。したがって、この方法によれば、操作者のカメラ酔いを防止することができる。
前記した各実施形態の実行は、当業者にはコンピュータを用いて容易に実行可能である。そのためのプログラムは、コンピュータで読み取り可能な記録媒体、例えばHD、FD、CD、MOなど、任意のものに格納できる。
なお、前記各実施形態の記載は単なる一例に過ぎず、本発明に必須の構成を示したものではない。各部の構成は、本発明の趣旨を達成できるものであれば、上記に限らない。
例えば、前記実施形態では、移動体として自走式ロボットとしたが、これに限らず、遠隔操作されたあるいは操作者が搭乗する移動体(自動車やヘリコプターなど)でもよい。さらには、移動体は、自走式に限らず、外部からの力で移動させられるものでもよい。そのようなものの例としては、内視鏡手術における内視鏡の先端部分や、根元が固定されたマニピュレータの先端部が挙げられる。
さらに、移動体としては、人間や動物であってもよい。例えば、人間や動物自身にカメラを搭載して、自身の背後からの映像を取得するためには、相当に大がかりな装置を必要とする。これに対して、本実施形態の方法では、人間等にカメラを搭載して複合画像を生成することにより、自身の背後からの映像を簡単に得ることができる。このため、この方法を、例えばスポーツのトレーニングに活用することもできる。さらには、自身の背後からの画像を撮影すること自体が困難なであるような活動(例えばスキーやサーフィン)においても、環境内での自身の状態を実時間に(またはデータを蓄積した上でオンデマンドで)確認することが可能となる。
また、空間計測センサとして超音波カメラを使った場合には、これを水中移動体や内視鏡へ搭載することにより、水中や体内等での環境情報を取得し、これに基づく仮想環境画像を生成することが可能となる。
さらに、前記実施形態では、移動体画像を有する複合画像を提示するものとしたが、移動体画像を複合させずに、仮想環境画像を提示する方法ないしシステムとしてもよい。この場合も、過去情報を用いて広視野の画像を提示できるので、移動体1の操作の容易性を向上させることができる。
また、移動体に対する空間計測センサ(例えばカメラ)の配置位置は、移動体の先端に限らず、後部、周縁部など、どこであってもよい。
さらに、前記実施形態では、移動体を一つとしたが、移動体は複数であってもよい。この場合、複数の移動体は、前記した移動体の構成を備えているものとする。このようにすれば、環境情報、および、空間計測センサのパラメータを統一的なフォーマットで保存しておく限り、複数の移動体間、あるいは、同種または異種の空間計測センサ間の情報を共有できる。
これにより、当該移動体自身では行ったことがない環境情報を利用することができ、例えば、他の移動体が取得した画像を用いて、障害物の裏側を透視した仮想環境画像を提示できるなどの利点がある。
なお、現時点では空間計測センサの死角に入ってしまっている障害物に関しては、単一の移動体自身が過去に取得した環境画像を利用して、このような障害物を含んだ仮想環境画像を提示することが可能である。
さらに、提示される仮想環境画像または移動体画像は、予測により生成されたものであってもよい。予測は、例えば、移動体1の速度や加速度に基づいて行うことができる。このようにすると、将来の状況を操作者に提示できるので、移動体の操作性を一層向上させることが可能となる。
また、前記実施形態のステップ2−6では、仮想視点から見た移動体1の画像を、移動体1の位置および姿勢の情報に基づいて生成している。しかしながら、移動体の姿勢が重要でない場合は、移動体1の位置に基づいて移動体1の画像を生成する場合もありうる。
また、前記実施形態を実現するための各部(機能ブロックを含む)の具体的手段は、ハードウエア(例えばコンピュータやセンサ)、コンピュータソフトウエア、ネットワーク、これらの組み合わせ、その他の任意の手段を用いることができる。
さらに、機能ブロックどうしが複合して一つの機能ブロックまたは装置に集約されても良い。また、一つの機能ブロックの機能が複数の機能ブロックまたは装置の協働により実現されても良い。
本発明の一実施形態に係る画像生成システムの概略を示すブロック図である。 本発明の一実施形態に係る画像生成方法を説明するためのフローチャートである。 本発明の一実施形態に係る画像生成方法において用いられる画像の例を示す説明図である。 本発明の実施例に係る画像生成方法において用いられる画像の例を示す説明図である。 本発明の実施例に係る画像生成方法において用いられる画像の例を示す説明図である。 本発明の実施例に係る画像生成方法において用いられる画像の例を示す説明図である。
符号の説明
1 移動体
11 カメラ(空間計測センサ)
12 移動体の本体
13 インタフェース部
14 カメラ駆動部
15 姿勢センサ
16 本体駆動部
2 制御部
21 インタフェース部
22 処理部
23 記憶部
24 入力部
3 情報取得部
4 画像提示部

Claims (22)

  1. 遠隔地にあり、かつ、未知の環境中を進む移動体の周辺環境を表す仮想環境画像を生成して、前記移動体の操作者に提示するための画像生成方法であって、さらに、次のステップを含むことを特徴とする画像生成方法:
    (1)前記移動体に取り付けられた一つまたは複数の空間計測センサによって取得された環境情報を受け取るステップ;
    (2)前記環境情報を取得した時の時刻と前記空間計測センサ自身のパラメータとを受け取るステップ;
    (3)前記環境情報と前記時刻と前記パラメータとを示す過去情報を保存するステップ;
    (4)前記遠隔地にある前記移動体を見る位置における仮想視点の指定を受け取るステップ、ここで、前記遠隔地にある前記移動体に取り付けられた前記空間計測センサは、新たな前記環境情報の取得を継続しており
    (5)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づいて生成するステップ。
  2. さらに以下のステップを含むことを特徴とする請求項1記載の画像生成方法:
    (6)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータに基づいて生成するステップ;
    (7)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体自身の画像と前記仮想環境画像とを含む複合画像を生成するステップ
    (8)前記仮想環境画像の更新が困難な場合には、前記仮想環境画像における前記移動体の大きさを変更することで、前記移動体の現在位置を表すステップ
  3. 前記環境情報は複数の静止画であることを特徴とする請求項1または2に記載の生成方法。
  4. 前記環境情報は動画であることを特徴とする請求項1〜3のいずれか1項に記載の生成方法。
  5. 前記ステップ(6)における前記移動体自身のパラメータは、「前記仮想視点を指定した時点またはその近傍から、生成された前記複合画像が提示される時点までの間におけるいずれかの時点」におけるものであることを特徴とする請求項2〜4のいずれか1項に記載の生成方法。
  6. 前記移動体は自走可能であることを特徴とする請求項1〜5のいずれか1項に記載の生成方法。
  7. 前記仮想視点は、前記移動体の周辺の環境および/または操作者が見たい地点の周辺の環境を見る位置に存在していることを特徴とする請求項1〜6のいずれか1項に記載の生成方法。
  8. 前記仮想視点は、前記移動体を背後から見る位置に存在していることを特徴とする請求項1〜7のいずれか1項に記載の生成方法。
  9. 前記ステップ(2)における「空間計測センサ自身のパラメータ」とは、「空間計測センサ自身の位置および姿勢」および/または、「空間計測センサ自身により得られたデータ空間と実空間との関係を表すデータ、行列もしくはテーブル」を含むものであることを特徴とする請求項1〜8のいずれか1項記載の生成方法。
  10. 前記ステップ(5)における「過去情報に基づいて生成する」とは、「前記環境情報に含まれるいずれかの画像を、前記環境情報を取得した時の前記空間計測センサ自身の位置と前記仮想視点との近さに基づいて選択する」ことである請求項1〜9のいずれか1項に記載の生成方法。
  11. 前記ステップ(5)における「過去情報に基づいて生成する」とは、「過去情報を用いて新たに生成する」ことである請求項1〜9のいずれか1項に記載の生成方法。
  12. 前記仮想環境画像は静止画であることを特徴とする請求項1〜11のいずれか1項に記載の生成方法。
  13. 前記ステップ(7)における前記複合画像に含まれる前記移動体自身の画像は透明、半透明、またはワイヤフレームの画像であることを特徴とする請求項2〜12のいずれか1項に記載の生成方法。
  14. 前記移動体自身のパラメータには、前記移動体の位置を含むことを特徴とする請求項2〜13のいずれか1項に記載の生成方法。
  15. 前記移動体自身のパラメータには、前記移動体の姿勢をさらに含むことを特徴とする請求項14に記載の生成方法。
  16. 請求項2〜15のいずれか1項の方法により生成された複合画像を提示する提示方法。
  17. 遠隔地にあり、かつ、未知の環境中を進む移動体の周辺環境を表す仮想環境画像を生成して、前記移動体の操作者に提示するための画像生成システムであって、さらに、制御部と情報取得部とを備えており、
    前記移動体は、環境情報を取得する空間計測センサを備えており、
    前記制御部は、次の機能を実行するものであることを特徴とする画像生成システム:
    (a)前記環境情報と、前記環境情報を取得した時の時刻と、前記環境情報を取得した時の前記空間計測センサ自身のパラメータとを示す過去情報を保存する機能;
    (b)前記遠隔地にある前記移動体を見る位置における、指定された仮想視点の情報を受け取る機能、ここで、前記遠隔地にある前記移動体に備えられた前記空間計測センサは、新たな前記環境情報の取得を継続しており
    (c)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づいて生成する機能。
  18. さらに情報取得部を備え、前記情報取得部は、前記移動体自身のパラメータを取得するものであり、前記制御部は、さらに次の機能を実行するものであることを特徴とする請求項17記載の画像生成システム:
    (d)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータに基づいて生成する機能;
    (e)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体の画像と前記仮想環境画像とを含んだ複合画像を生成する機能。
  19. 前記遠隔地にある前記移動体で取得された環境情報と、前記環境情報を取得した時の時刻と、前記空間計測センサ自身のパラメータとを、通信ネットワーク回線を介して受け取る構成となっている
    請求項1に記載の画像生成方法。
  20. さらに以下のステップを含むことを特徴とする請求項1記載の画像生成方法:
    (6)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータに基づいて生成するステップ;
    (7)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体自身の画像と前記仮想環境画像とを含む複合画像を生成するステップ;
    (8)前記移動体自身が揺れている場合には、前記仮想環境画像を揺らさず、前記移動体を前記仮想環境画像の中で揺らすことで、前記移動体の揺れを表すステップ。
  21. 請求項1〜16、請求項19および請求項20のいずれか1項記載の方法におけるステップをコンピュータに実行させるコンピュータプログラム。
  22. 請求項17または18における前記制御部の機能をコンピュータに実行させるコンピュータプログラム。
JP2004013689A 2004-01-21 2004-01-21 画像生成方法 Expired - Fee Related JP4348468B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004013689A JP4348468B2 (ja) 2004-01-21 2004-01-21 画像生成方法
PCT/JP2005/000582 WO2005071619A1 (ja) 2004-01-21 2005-01-19 画像生成方法
US10/587,016 US20070165033A1 (en) 2004-01-21 2005-01-19 Image generating method
GB0614065A GB2427520A (en) 2004-01-21 2005-01-19 Image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004013689A JP4348468B2 (ja) 2004-01-21 2004-01-21 画像生成方法

Publications (2)

Publication Number Publication Date
JP2005208857A JP2005208857A (ja) 2005-08-04
JP4348468B2 true JP4348468B2 (ja) 2009-10-21

Family

ID=34805392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004013689A Expired - Fee Related JP4348468B2 (ja) 2004-01-21 2004-01-21 画像生成方法

Country Status (4)

Country Link
US (1) US20070165033A1 (ja)
JP (1) JP4348468B2 (ja)
GB (1) GB2427520A (ja)
WO (1) WO2005071619A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2908322B1 (fr) * 2006-11-09 2009-03-06 Parrot Sa Procede de definition de zone de jeux pour un systeme de jeux video
FR2908324B1 (fr) * 2006-11-09 2009-01-16 Parrot Sa Procede d'ajustement d'affichage pour un systeme de jeux video
JP5174636B2 (ja) * 2008-11-28 2013-04-03 ヤマハ発動機株式会社 遠隔操作システムおよび遠隔操作装置
JP5235127B2 (ja) 2008-11-28 2013-07-10 ヤマハ発動機株式会社 遠隔操作システムおよび遠隔操作装置
US9534902B2 (en) * 2011-05-11 2017-01-03 The Boeing Company Time phased imagery for an artificial point of view
JP6054513B2 (ja) * 2013-03-15 2016-12-27 株式会社日立製作所 遠隔操作システム
JP2014212479A (ja) 2013-04-19 2014-11-13 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
FR3031192B1 (fr) * 2014-12-30 2017-02-10 Thales Sa Procede de suivi optique assiste par radar et systeme de mission pour la mise en oeuvre de procede
JP6041936B2 (ja) * 2015-06-29 2016-12-14 三菱重工業株式会社 表示装置及び表示システム
CN106023692A (zh) * 2016-05-13 2016-10-12 广东博士早教科技有限公司 一种基于娱乐交互的ar趣味学习系统及方法
CN108886573A (zh) * 2016-05-20 2018-11-23 深圳市大疆灵眸科技有限公司 用于数字视频增稳的系统和方法
JP6586109B2 (ja) * 2017-01-05 2019-10-02 Kddi株式会社 操縦装置、情報処理方法、プログラム、及び飛行システム
JP6950192B2 (ja) * 2017-02-10 2021-10-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP6898816B2 (ja) 2017-09-15 2021-07-07 株式会社小松製作所 表示システム、表示方法、及び表示装置
US11228737B2 (en) * 2019-07-31 2022-01-18 Ricoh Company, Ltd. Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP6883628B2 (ja) * 2019-09-06 2021-06-09 Kddi株式会社 操縦装置、情報処理方法、及びプログラム
WO2022138724A1 (ja) * 2020-12-24 2022-06-30 川崎重工業株式会社 ロボットシステム及びロボット作業方法
CN113992845B (zh) * 2021-10-18 2023-11-10 咪咕视讯科技有限公司 图像拍摄控制方法、装置及计算设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61267182A (ja) * 1985-05-22 1986-11-26 Hitachi Ltd 映像合成方式
JP3538228B2 (ja) * 1994-07-19 2004-06-14 株式会社ナムコ 画像合成装置
JPH0962861A (ja) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
JPH11168754A (ja) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
JP3384978B2 (ja) * 1999-02-16 2003-03-10 株式会社タイトー 課題解決型乗り物ゲーム装置
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
JP3432212B2 (ja) * 2001-03-07 2003-08-04 キヤノン株式会社 画像処理装置及び方法
US6831643B2 (en) * 2001-04-16 2004-12-14 Lucent Technologies Inc. Method and system for reconstructing 3D interactive walkthroughs of real-world environments
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム

Also Published As

Publication number Publication date
JP2005208857A (ja) 2005-08-04
US20070165033A1 (en) 2007-07-19
GB0614065D0 (en) 2006-08-30
WO2005071619A1 (ja) 2005-08-04
GB2427520A (en) 2006-12-27

Similar Documents

Publication Publication Date Title
JP4348468B2 (ja) 画像生成方法
US10916063B1 (en) Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment
JP6898430B2 (ja) 仮想現実および拡張現実ディスプレイシステムのための連続時間ワーピングおよび両眼時間ワーピングおよび方法
US10357715B2 (en) Racing simulation
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP6813501B2 (ja) 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ
CN107636534A (zh) 一般球面捕获方法
US20170353658A1 (en) Immersive capture and review
JP5672109B2 (ja) 撮像装置及び撮像方法、並びにプログラム
JP6126820B2 (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2004274701A (ja) 画像処理装置及び画像処理方法
JP2014134912A (ja) 再生装置、再生システム、再生方法及びプログラム
JP2009192448A (ja) 情報表示装置及び情報提供システム
KR102190743B1 (ko) 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법
JP6345381B2 (ja) 拡張現実システム
JPWO2018074045A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022004422A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
JP5762320B2 (ja) 走行制御システム及び走行制御方法
JP6530453B2 (ja) ゲームプログラム及びゲームシステム
KR20200134401A (ko) 모바일 디바이스와 연동하는 스마트 안경 작동 방법
JP2012151800A (ja) 撮影装置およびネットワークシステム
JP4371863B2 (ja) 再生装置及び方法
JP5196426B2 (ja) ナビゲーション装置
CN114073074A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090703

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees