JP2007221179A - 画像表示装置および画像表示方法 - Google Patents
画像表示装置および画像表示方法 Download PDFInfo
- Publication number
- JP2007221179A JP2007221179A JP2006035882A JP2006035882A JP2007221179A JP 2007221179 A JP2007221179 A JP 2007221179A JP 2006035882 A JP2006035882 A JP 2006035882A JP 2006035882 A JP2006035882 A JP 2006035882A JP 2007221179 A JP2007221179 A JP 2007221179A
- Authority
- JP
- Japan
- Prior art keywords
- cameras
- image
- image display
- video
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】三次元の全方向の範囲で、任意の方向の映像出力を得ると共に常に任意方向にあるターゲットの映像を固定して操縦者に提示することができ、また、複数台のカメラ間の距離に起因するデッドゾーンの影響を小さくすることのできる画像表示装置および画像表示方法を提供する。
【解決手段】移動体上に搭載された複数台のカメラから入力された映像を表示する画像表示装置において、
前記複数台のカメラの撮影タイミングを制御するタイミング制御部と、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有することを特徴とする。
【選択図】図1
【解決手段】移動体上に搭載された複数台のカメラから入力された映像を表示する画像表示装置において、
前記複数台のカメラの撮影タイミングを制御するタイミング制御部と、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有することを特徴とする。
【選択図】図1
Description
本発明は、航空機や車両などの移動体に搭載され、これら移動体を基準とした全方向画像を表示する画像表示装置および画像表示方法に関し、詳しくは、3次元の全方向の範囲で任意の方向の外界映像を出力する画像表示装置および画像表示方法に関するものである。
従来、適切な航行措置をとるために、航空機や車両などの移動体にカメラを搭載して機体周囲の映像情報を取得し操縦者に提示するものがある。
また、無人ヘリコプターの遠隔操作において、無人ヘリコプターに全方位カメラを搭載して撮像された映像を受信し、操縦者側の操縦システムで任意方向の映像を切り出し操縦者に提示するものがある(例えば、特許文献1参照。)。
また、無人ヘリコプターの遠隔操作において、無人ヘリコプターに全方位カメラを搭載して撮像された映像を受信し、操縦者側の操縦システムで任意方向の映像を切り出し操縦者に提示するものがある(例えば、特許文献1参照。)。
図11は、従来の画像表示装置における航空機上のカメラの概略配置例を示した図である。図11(a)は、機首に可動型カメラを配置した状態を示している。図11(a)において、可動型カメラ112の可動範囲で機体111周辺を撮影する。図11(b)は、機体111に複数のカメラを配置したもので、図11(b)においてカメラ113は機首に配置され機体前方を撮影し、カメラ114は機体後部に配置され機体後方を撮影する。
図12は、特許文献1に記載の従来の画像表示装置の一例を示す構成図である。
図12において、無人ヘリコプター120に搭載された全方位カメラ121は、360°全方位の映像を取得し、映像送信器122は、この映像信号を操縦システム123内の映像受信器124へ送信する。映像受信器124は、映像信号を映像切り出し部125に送り、映像切り出し部125は、操縦者の視線方向を検出する角度センサ126からの信号に基づき変換テーブルを用いて映像信号の内で任意方向の映像部分を切り出す。ヘッドマウントディスプレイなどの表示部127は、切り出された映像を操縦者に提示する。
図12において、無人ヘリコプター120に搭載された全方位カメラ121は、360°全方位の映像を取得し、映像送信器122は、この映像信号を操縦システム123内の映像受信器124へ送信する。映像受信器124は、映像信号を映像切り出し部125に送り、映像切り出し部125は、操縦者の視線方向を検出する角度センサ126からの信号に基づき変換テーブルを用いて映像信号の内で任意方向の映像部分を切り出す。ヘッドマウントディスプレイなどの表示部127は、切り出された映像を操縦者に提示する。
しかし、上述の可動型カメラを使用した場合には、応答速度は遅い、メカニカルの機構が必要になる、可動範囲が制限される、などの問題がある。また、複数の固定カメラを使用した場合は、映像が別々の系統になるので、切替えが必要になり、使いにくいという欠点がある。さらに、全方位カメラを使用し、任意の角度の映像を切り出して表示系統に送るものでは、地上や風景などの限られた視野の範囲を見るには有効であるが、三次元で全方向の映像を見ることはできないという問題があった。
また、複数台のカメラを実装してそれぞれの画像を合成する場合には、すべてのカメラの光学中心が共通の一点に存在すれば画像の合成に何ら問題は生じないが、現実には全てのカメラを同じ位置に取り付けることはできないため、各カメラ間には距離が生じる。そのため、カメラ間の光学中心は同一とはならず、画像の合成の際に以下に説明するような不都合が生じる。
図13は複数台のカメラを実装した場合の光学中心の位置を示す図である。図13において、130および131はカメラ、A130はカメラ130の光学中心、A131はカメラ131の光学中心である。カメラ130はθ1,カメラ131はθ2の範囲の画像を撮影することができるものとする(θ1=θ2=90°)。
dは光学中心A130およびA131の間の距離である。カメラ130および131の光学中心が距離dだけ離れているために、撮影範囲θ1およびθ2のどちらにも含まれない領域Dのように、どちらのカメラからも撮影されない領域(以下この領域をデッドゾーンと呼ぶ。)が生じてしまう。
図14はカメラの位置とデッドゾーンを見込む角度の関係を示す図である。図中、光学中心A130およびA131の中間点を点Oとする。θ1,θ2が正確に90°である場合には、デッドゾーンの幅dは無限遠まで不変である。したがって、撮影する対象物が遠方にあればあるほど、点Oからデッドゾーンを見込む角度は小さくなる。
すなわち、点Oから距離L1におけるデッドゾーンを見込む角度をφ1、距離L2におけるデッドゾーンを見込む角度をφ2とすると、
φ1=2tan−1(d/2L1)
φ2=2tan−1(d/2L2)
となり、距離Lが大きくなればなるほど、φは小さくなり、L→∞(無限大)ではφ→0(ゼロ)となる。
φ1=2tan−1(d/2L1)
φ2=2tan−1(d/2L2)
となり、距離Lが大きくなればなるほど、φは小さくなり、L→∞(無限大)ではφ→0(ゼロ)となる。
よって、複数台のカメラを実装してそれぞれの画像を合成する場合には、カメラ間の距離dに比べて遠方の画像を見る場合には問題を生じないが、近距離の対象物を見る場合には距離dの幅に含まれる領域の情報が欠落してしまうという問題がある。
本発明は、このような従来の画像表示装置および画像表示方法が有していた問題を解決しようとするものであり、三次元の全方向の範囲で、任意の方向の映像出力を得ると共に常に任意方向にあるターゲットの映像を固定して操縦者に提示することができ、また、複数台のカメラ間の距離に起因するデッドゾーンの影響を小さくすることのできる画像表示装置および画像表示方法を提供することを目的とする。
上記のような目的を達成するために、本発明の請求項1では、移動体上に搭載された複数台のカメラから入力された映像を表示する画像表示装置において、
前記複数台のカメラの撮影タイミングを制御するタイミング制御部と、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有することを特徴とする。
前記複数台のカメラの撮影タイミングを制御するタイミング制御部と、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有することを特徴とする。
請求項2では、請求項1に記載の画像表示装置において、前記タイミング制御部は、前記複数台のカメラそれぞれの撮影時の光学中心がすべて共通の一点となるように、前記移動体の移動速度および移動方向や前記カメラの配置に応じて撮影タイミングを制御することを特徴とする。
請求項3では、移動体上に搭載された複数台のカメラから入力された映像を表示する画像表示装置において、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有し、
前記映像処理部は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記カメラが撮影した映像から、前記カメラそれぞれの撮影時の光学中心がすべて共通の一点となるような映像を選択し、その映像を用いて写像することを特徴とする。
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有し、
前記映像処理部は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記カメラが撮影した映像から、前記カメラそれぞれの撮影時の光学中心がすべて共通の一点となるような映像を選択し、その映像を用いて写像することを特徴とする。
請求項4では、請求項1乃至3のいずれかに記載の画像表示装置において、前記仮想面は球面体であることを特徴とする。
請求項5では、請求項1乃至3のいずれかに記載の画像表示装置において、前記仮想面は正多面体であることを特徴とする。
請求項6では、請求項1乃至5のいずれかに記載の画像表示装置において、前記複数台のカメラは、3次元の全方位の映像を出力するように配置されることを特徴とする。
請求項7では、請求項1乃至6のいずれかに記載の画像表示装置において、前記移動体は航空機であることを特徴とする。
請求項8では、請求項7に記載の画像表示装置において、前記表示処理部は、航空機に搭載された機体の方向を検知するセンサの出力信号に基づいて表示用の映像を生成することを特徴とする。
請求項9では、請求項7に記載の画像表示装置において、前記表示処理部は、予め設定された目標物を表示する映像であって、機体の方向を検知するセンサの出力信号に基づき常に前記目標物を表示する映像を生成することを特徴とする。
請求項10では、移動体上に搭載され、3次元の全方向を撮影するように配置された複数台のカメラから入力された映像を表示する画像表示方法において、
個々の前記カメラごとに定められた固有のタイミングで撮影を行う工程と、
前記複数台のカメラの映像を仮想面上に写像する工程と、
写像した結果をメモリにストアする工程と、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する工程と、
前記表示用の映像を表示する工程と、
を有することを特徴とする。
個々の前記カメラごとに定められた固有のタイミングで撮影を行う工程と、
前記複数台のカメラの映像を仮想面上に写像する工程と、
写像した結果をメモリにストアする工程と、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する工程と、
前記表示用の映像を表示する工程と、
を有することを特徴とする。
請求項11では、請求項10に記載の画像表示方法において、前記カメラごとに定められた固有のタイミングで撮影を行う工程は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記複数台のカメラそれぞれの撮影時の光学中心がすべて共通の一点となるようなタイミングで撮影を行うことを特徴とする。
請求項12では、移動体上に搭載され、3次元の全方向を撮影するように配置された複数台のカメラから入力された映像を表示する画像表示方法において、
個々の前記カメラごとに定められた固有のタイミングで撮影を行う工程と、
前記複数台のカメラの映像を仮想面上に写像する工程と、
写像した結果をメモリにストアする工程と、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する工程と、
前記表示用の映像を表示する工程と、
を有し、
前記複数台のカメラの映像を仮想面上に写像する工程は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記カメラが撮影した映像から、前記カメラそれぞれの撮影時の光学中心がすべて共通の一点となるような映像を選択し、その映像を用いて写像することを特徴とする画像表示方法。
個々の前記カメラごとに定められた固有のタイミングで撮影を行う工程と、
前記複数台のカメラの映像を仮想面上に写像する工程と、
写像した結果をメモリにストアする工程と、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する工程と、
前記表示用の映像を表示する工程と、
を有し、
前記複数台のカメラの映像を仮想面上に写像する工程は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記カメラが撮影した映像から、前記カメラそれぞれの撮影時の光学中心がすべて共通の一点となるような映像を選択し、その映像を用いて写像することを特徴とする画像表示方法。
請求項13では、請求項10乃至12のいずれかに記載の画像表示方法において、前記複数台のカメラの映像を仮想面上に写像する工程は、前記複数台のカメラの映像を球面体上に写像することを特徴とする。
請求項14では、請求項10乃至12のいずれかに記載の画像表示方法において、前記複数台のカメラの映像を仮想面上に写像する工程は、前記複数台のカメラの映像を正多面体上に写像することを特徴とする。
本発明によれば、応答速度が速く、メカニカルの機構やカメラの切り替えが不要で、3次元の全方向の範囲で任意の方向の映像出力を得ることができる画像表示装置および画像表示方法が実現できる。
適切な航行措置をとるために、航空機や車両などの移動体の周囲の映像情報を取得し、操縦者に任意の方向の映像を提示することができる。さらに、機体の方向を検知するセンサの出力信号を使用して表示映像を生成することにより、機体の向きに応じたカメラ映像を得ることができ、また、機体の向きに係わらず常に地上あるいは空間上の一方向を向いたままロックした画像を出力することができる。
複数台のカメラで取得した画像を合成するときに、各カメラの光学中心を合わせることができ、近距離の対象物を見る場合でも情報の欠落を防止することができる。
このように、カメラで撮影した映像を仮想面上に正規化して表示映像の生成を行うことにより、三次元の全方向の範囲で、任意の方向の映像出力を得ると共に常に任意方向にあるターゲットの映像を固定して操縦者に提示することができ、また、複数台のカメラ間の距離に起因するデッドゾーンの影響を小さくすることのできる画像表示装置および画像表示方法を提供することができる。
以下、図面を用いて本発明の画像表示装置および画像表示方法を説明する。
図1は、本発明の画像表示装置および画像表示方法の一実施例を示す構成図である。図1において、カメラ1aから1fは、図2(a)に示すように、それぞれ航空機の6軸方向に取り付けられた広角カメラであって、6軸方向の映像信号を出力する。図2(a)は、機体に取り付けられたカメラの配置例を示した図である。
図2(b)および(c)は、(a)に示したカメラの配置を単純化し、模式的に示した図であり、a〜fはカメラ1a〜1fの取り付け位置を示している。図2(b)は航空機の胴体部分を側面から見た図であり、図2(c)は航空機を前面から見た図である。
図2(b)および(c)は、(a)に示したカメラの配置を単純化し、模式的に示した図であり、a〜fはカメラ1a〜1fの取り付け位置を示している。図2(b)は航空機の胴体部分を側面から見た図であり、図2(c)は航空機を前面から見た図である。
図1に戻り、A/D変換器2aから2fは、各カメラから出力された映像信号をデジタルデータに変換して出力する。メモリ3aから3fは、各A/D変換器から出力されたデジタルデータを格納する。機体I/F部4は、機体の姿勢等の機体情報を入力するインターフェースであって、機体の向き、高度、速度などのデータを出力する慣性航法システム(図示せず)に接続されている。
タイミング制御部11は、CPU(演算装置)5の制御により、カメラ1a〜1fに対し、映像の取得するタイミングを制御するトリガ信号を出力する。CPU5は、機体I/F部4を介して機体システムから得られる速度情報を元にトリガ信号を出力するタイミングを計算する。
CPU5は、バス9を介してメモリ3aから3fのデータを取得し、後述する三次元への写像演算を行うと共に任意の部分を切り出した映像データを生成する。その際には、機体I/F部4を介して出力された機体情報を用いて計算を行う。
写像用メモリ6には、CPU5が演算した写像データが格納され、表示用メモリ10には、CPU5が生成した表示用の映像データが格納される。同期信号生成回路7およびD/A変換器8は出力ビデオの輝度信号を生成するビデオインタフェースである。同期信号生成回路7は、出力ビデオ信号の同期信号を生成し、D/A変換器8は、表示用メモリ10に格納された映像データからビデオ信号を生成して、表示器により操縦者に提示する。
図2(b),(c)において、各カメラ間の距離を、図に示すようにDa−b,Db−c,Da−f,Da−e,Db−e,De−dのように定義する。距離Dの添え字はどのカメラ間の距離であるかを示すものであり、たとえば、Da−bはカメラ1aとカメラ1b間の距離を示すものとする。
通常、航空機は前後に長い流線型の形状をしているため、カメラ間の距離のうち、上下方向のカメラ間距離(Db−e,De−d)や左右方向のカメラ間距離(Da−f,Da−e)よりも、前後方向のカメラ間距離(Da−b,Db−c)が非常に大きくなる。前述のデッドゾーンはカメラ間の距離に起因して発生するものであるため、デッドゾーンの幅も機体の前後方向において非常に大きくなる。
図3は各カメラの画角と撮影の範囲を示した図である。a〜fはカメラ1a〜1fの取り付け位置である。位置aに配置されたカメラ1aは、機体の前方(進行方向)の映像を撮影し、等価的にAで示す平面の範囲の画像を取得する。同様に、位置bに配置されたカメラ1bは、機体の上方の映像を撮影し、平面Bの範囲の画像を取得する。さらに、カメラ1c…1fが画像を取得する範囲をそれぞれ平面C…平面Fとする。
理想的には、平面A〜平面Fによりこれらを6面とする立方体を構成し、3次元の全空間をカバーする映像が得られるが、現実には各カメラ間には距離Da−b,Db−c,Da−f,Da−e,Db−e,De−dが存在するため、この距離を幅とするデッドゾーンを生じる。
本実施例では、これらのデッドゾーンのうち、特に影響の大きい前後方向のデッドゾーン、すなわち、Da−b,Db−cの幅を持つデッドゾーンの影響を低減することを目的とする。
図4は、カメラ1a〜1fが取得する映像と機体の位置の関係を示す図である。図4(a)は前方に向かって航行中の航空機のある時刻t=t0における機体の位置を示したものである。また、図4(b)は時刻t=t1における機体の位置、図4(c)は時刻t=t2における機体の位置を示している。
a0〜f0は時刻t=t0におけるカメラ1a〜1fの取り付け位置を示す。同様に、a1〜f1は時刻t=t1におけるカメラ1a〜1fの取り付け位置を示し、a2〜f2は時刻t=t2におけるカメラ1a〜1fの取り付け位置を示す。本実施例では、カメラ1b、1d、1e、1fは、機体を前後に分断する同一平面上に取り付けられているものとする。
時刻t1は、機体が時刻t0の位置から前進し、b1、d1、e1、f1の水平方向の座標が時刻t0におけるa0の座標と一致した時刻とする。また、時刻t2は、機体が時刻t1の位置からさらに前進し、c2の水平方向の座標がa0の座標と一致した時刻とする。
図4(a)t=t0の時にカメラ1a…1fで取得される画像をそれぞれ平面A0…F0とする。同じく、図4(b)t=t1の時にカメラ1a…1fで取得される画像をそれぞれ平面A1…F1とし、図4(c)t=t2の時にカメラ1a…1fで取得される画像をそれぞれ平面A2…F2とする。
t=t0における平面A0およびt=t1における平面B1、D1、E1、F1、さらにt=t2における平面C2を合成すると図4(d)のようになる。このように合成すると、機体の前後方向の画像である平面A0と平面C2の光学中心を合わせることができ、影響の大きかった前後方向のデッドゾーンを見かけ上なくすことができる。
t1およびt2は以下の式で計算することができる。
Δt10=t1−t0=Da−b/Va
Δt21=t2−t1=Db−c/Va
ここで、Vaは機体の前後方向の速度である。
Δt10=t1−t0=Da−b/Va
Δt21=t2−t1=Db−c/Va
ここで、Vaは機体の前後方向の速度である。
図5は1a〜1fで画像を取得するタイミングを示す図である。Si(i=0,1,2…)は撮影期間、Ti(i=0,1,2…)は撮影した画像を出力(伝送)する期間を示す。CPU5で上記計算式からカメラ1a〜1fで画像を取得するタイミングを計算し、タイミング制御部11にトリガ信号を出力する。この信号を受けて、タイミング制御部11はカメラ1a〜1fに画像を取得するトリガ信号を出力する。
まず、t=t0で、タイミング制御部11はカメラ1aにトリガ信号を出力し、カメラ1aはこの信号を受けてS0の期間撮影を行い、T0の期間出力動作を行う。次に、Δt10後にカメラ1b、1d、1e、1fに対しトリガ信号を出力し、S1の期間撮影を行い、T1の期間に出力動作を行う。さらに、Δt21後にカメラ1cに対してトリガ信号を出力し、S2の期間撮影を行い、T2の期間出力動作を行う。
このようにして、カメラ1aが画像を取得するタイミングを基準として、カメラ1b、1d、1e、1fのグループおよびカメラ1cに対して、Δt10およびΔt21の時間差のある画像を取得でき、これらの画像を合成することにより、図4(d)に示したような、前後方向のデッドゾーンをなくした画像を得ることができる。この一連の動作を連続して繰り返すことにより、カメラ間の距離に起因するデッドゾーンの影響の小さい、自機を中心とした3次元の全方向の範囲の映像を生成することができる。
図6は映像の正規化に係る説明図である。CPU5は、カメラの位置(機体と等価とみなす)を中心点として、取得した6面の画像を中心点の周囲の仮想面上に写像する。図6は画像を写像する仮想面のモデルを示しており、(a)は外界を球面と考えたモデル、(b)は外界を正多面体である正20面体と考えたモデルである。カメラから周囲を見た映像を(a)あるいは(b)の仮想面上に投影し、映像の正規化を行う。
なお、写像する正多面体の仮想面としては正6面体なども考えられるが、正20面体の方が、ある方向を表示するために同時に必要とする面積を少なくすることができる。そのため写像メモリからデータ伝送を行う際のデータ伝送量が抑えられ、処理の負荷を軽減することができるという利点がある。また、正20面体は各面が3角形で構成されるが、3角形をベースとしたポリゴンに分解して映像情報をテクスチャとして貼り付ける汎用の3Dグラフィック技術を用いることができ、表示処理装置を容易に低価格で製作することができる利点もある。
自機を中心とした全方向の映像がすべて既知ならば、仮想的にカメラの方向を決めれば、任意の方向に投影した映像を決定することができる。CPU5は、写像用メモリ6内の写像データから表示するべき方向の写像データを抽出し、抽出した写像データから表示に適した平面へ写像を行い、表示用の映像データを生成する。
したがって、仮想面上の全方向の映像が既知である場合には、仮想的なカメラがどの方向を向いても、その映像を切り出して映像を再現することが可能である。その結果、任意の方向のカメラ映像が得られる。つまり、見たい部分の映像をあたかもカメラが存在するかのように操縦者に提示することができる。
写像データの演算および表示データ生成の際は、図1の機体I/F部4を介して得られた機体情報を用いて計算を行う。具体的には、機体I/F部4を通じて、機体に装備されている慣性航法システム等のセンサから姿勢情報を入力し、CPU5の演算に使用する。
また、航空機が外界(地球)に対して姿勢を変えても、カメラの方向を決定する時に自機の姿勢情報を加えて演算することにより、常に地上あるいは空間上の一方向を向いたままロックした画像を出力することも可能である。
前記実施例1では、カメラ1a〜1fで画像を取得するタイミングを制御することによってカメラの光学中心を共通させ、機体の前後方向のデッドゾーンの影響を低減した。しかし、カメラの撮影タイミングを制御する代わりに、各カメラには常に映像を取得させ、仮想面上への写像演算の際に各カメラの映像の中から光学中心が共通するように時間差をもって画像を選択することにより、デッドゾーンを極小とするような3次元の全方向の映像を生成することも可能である。
このような制御とすれば、デッドゾーンを極小とする画像の選択はCPU5での写像演算の処理に一体化することができ、図1の構成からタイミング制御部11を省略することが可能である。
実施例2では、全体の構成は図1からタイミング制御部11を省略したものとなり、カメラ1a〜1fの取り付け位置や、取得した画像を仮想面上に写像し、正規化を行う処理以後は実施例1と同じとなる。
カメラ1a〜1fは常時外部の映像を撮影する。CPU5は、各カメラで撮影された映像をメモリ3a〜3fから読み出して仮想面上への写像の演算を行う。その際、メモリ3aからはある時刻t0での映像を読み出し、メモリ3b、3d、3e、3fからはt0からΔt10後に撮影された映像を読み出し、メモリ3cからはさらにΔt21後に撮影された映像を読み出す。このように時間差のある映像を読み出して写像することにより、実施例1と同様に機体の前後方向のデッドゾーンの影響を低減することができる。
前記実施例1および2では、機体に取り付けるカメラは6台で構成し、図2に示すように取り付けたが、カメラの台数や取り付け位置はこの限りでなく、それぞれのカメラの位置に応じた計算を行えば、本発明を実施することが可能である。
図7は、本発明による画像表示装置の他の実施例を示す構成図である。図7(a)は航空機の機体の側面図、(b)はこの航空機の胴体部分を側面から見た模式図、(c)は前面から見た模式図、(d)は背面から見た模式図であり、j〜oはカメラの取り付け位置を示す。現実の航空機では、たとえば先端にはレーダーが、後部にはエンジンが実装される等の条件のため、これらの位置にカメラを実装することが困難な場合がある。図7は、そのような場合に対応してカメラを配置した例である。
図8は機体に取り付けられたカメラの光軸(撮影の方向)を示す図である。図中J〜Oはそれぞれ位置j〜oに取り付けられたカメラの光軸である。また、図9は各カメラの映像が形成する立方体の方向を示す図であり、(a)は機体を上から見た図、(b)は背面から見た図、(c)は側面から見た図である。
図7や図8に示すように位置j〜oにカメラが取り付けられると、位置j、k、lに取り付けられたカメラは機体前方に、位置m、n、oに取り付けられたカメラは機体後方に位置するため、図7(b)に示すように、前後方向のカメラ間の距離Dj−mに起因するデッドゾーンの影響が大きくなる。そこで、距離Dj−mによるデッドゾーンをキャンセルするため、カメラごとにタイミングをずらして画像を取得する。
図10は、位置j〜oに取り付けられたカメラが取得する映像と機体の位置の関係を示す図であり、(a)は前方に向かって航行中の航空機のある時刻t=t0における機体の位置、(b)は時刻t=t1における機体の位置である。j0〜о0は時刻t=t0におけるカメラの取り付け位置、j1〜о1は時刻t=t1におけるカメラの取り付け位置を示す。
時刻t1は、機体が時刻t0の位置から前進し、m1、n1、o1の水平方向の座標が時刻t0におけるj0、k0、l0座標と最も近くなる時刻とする。
図10(a)t=t0の時に各カメラで取得される映像をそれぞれ平面J0…O0とし、図10(b)t=t1の時に取得される映像をそれぞれ平面J1…O1とする。
図10(c)は、t=t0における平面J0、K0、L0およびt=t1における平面M1、N1、O1を合成した様子を示したものである。このように合成すると、機体の前後方向の画像の光学中心を非常に近づけることができるため、影響の大きかった前後方向のデッドゾーンを見かけ上なくすことができる。
本実施例におけるt1は以下の式で計算することができる。
Δt10=t1−t0=Dj−m/Va
ここで、Vaは機体の前後方向の速度である。
Δt10=t1−t0=Dj−m/Va
ここで、Vaは機体の前後方向の速度である。
取得した画像を仮想面上に写像し、正規化を行う処理以後は、実施例1と同様である。このように、カメラは機体の形状や条件に合わせて配置することが可能であり、新たな配置に応じて正規化の計算式やその他の処理を行うことにより、さまざまな形状の機体に対して応用可能である。
1a〜1f カメラ
2a〜2f A/D変換器
3a〜3f メモリ
4 機体I/F部
5 CPU
6 写像用メモリ
7 同期信号発生回路
8 D/A変換器
9 バス
10 表示用メモリ
a〜f カメラ1a〜1fの取り付け位置
A〜F カメラ1a〜1fが取得する画像の範囲
2a〜2f A/D変換器
3a〜3f メモリ
4 機体I/F部
5 CPU
6 写像用メモリ
7 同期信号発生回路
8 D/A変換器
9 バス
10 表示用メモリ
a〜f カメラ1a〜1fの取り付け位置
A〜F カメラ1a〜1fが取得する画像の範囲
Claims (14)
- 移動体上に搭載された複数台のカメラから入力された映像を表示する画像表示装置において、
前記複数台のカメラの撮影タイミングを制御するタイミング制御部と、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有することを特徴とする画像表示装置。 - 前記タイミング制御部は、前記複数台のカメラそれぞれの撮影時の光学中心がすべて共通の一点となるように、前記移動体の移動速度および移動方向や前記カメラの配置に応じて撮影タイミングを制御することを特徴とする請求項1に記載の画像表示装置。
- 移動体上に搭載された複数台のカメラから入力された映像を表示する画像表示装置において、
前記映像を仮想面上に写像する演算を行う映像処理部と、
写像した結果をストアするメモリと、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する表示処理部と、
前記表示用の映像を表示する表示部と、
を有し、
前記映像処理部は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記カメラが撮影した映像から、前記カメラそれぞれの撮影時の光学中心がすべて共通の一点となるような映像を選択し、その映像を用いて写像することを特徴とする画像表示装置。 - 前記仮想面は球面体であることを特徴とする請求項1乃至3のいずれかに記載の画像表示装置。
- 前記仮想面は正多面体であることを特徴とする請求項1乃至3のいずれかに記載の画像表示装置。
- 前記複数台のカメラは、3次元の全方位の映像を出力するように配置されることを特徴とする請求項1乃至5のいずれかに記載の画像表示装置。
- 前記移動体は航空機であることを特徴とする請求項1乃至6のいずれかに記載の画像表示装置。
- 前記表示処理部は、航空機に搭載された機体の方向を検知するセンサの出力信号に基づいて表示用の映像を生成することを特徴とする請求項7に記載の画像表示装置。
- 前記表示処理部は、予め設定された目標物を表示する映像であって、機体の方向を検知するセンサの出力信号に基づき常に前記目標物を表示する映像を生成することを特徴とする請求項7に記載の画像表示装置。
- 移動体上に搭載され、3次元の全方向を撮影するように配置された複数台のカメラから入力された映像を表示する画像表示方法において、
個々の前記カメラごとに定められた固有のタイミングで撮影を行う工程と、
前記複数台のカメラの映像を仮想面上に写像する工程と、
写像した結果をメモリにストアする工程と、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する工程と、
前記表示用の映像を表示する工程と、
を有することを特徴とする画像表示方法。 - 前記カメラごとに定められた固有のタイミングで撮影を行う工程は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記複数台のカメラそれぞれの撮影時の光学中心がすべて共通の一点となるようなタイミングで撮影を行うことを特徴とする請求項10に記載の画像表示方法。
- 移動体上に搭載され、3次元の全方向を撮影するように配置された複数台のカメラから入力された映像を表示する画像表示方法において、
個々の前記カメラごとに定められた固有のタイミングで撮影を行う工程と、
前記複数台のカメラの映像を仮想面上に写像する工程と、
写像した結果をメモリにストアする工程と、
前記メモリから任意の方向の写像を読み出して表示用の映像を生成する工程と、
前記表示用の映像を表示する工程と、
を有し、
前記複数台のカメラの映像を仮想面上に写像する工程は、前記移動体の移動速度および移動方向や前記カメラの配置に応じて、前記カメラが撮影した映像から、前記カメラそれぞれの撮影時の光学中心がすべて共通の一点となるような映像を選択し、その映像を用いて写像することを特徴とする画像表示方法。 - 前記複数台のカメラの映像を仮想面上に写像する工程は、前記複数台のカメラの映像を球面体上に写像することを特徴とする請求項10乃至12のいずれかに記載の画像表示方法。
- 前記複数台のカメラの映像を仮想面上に写像する工程は、前記複数台のカメラの映像を正多面体上に写像することを特徴とする請求項10乃至12のいずれかに記載の画像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006035882A JP2007221179A (ja) | 2006-02-14 | 2006-02-14 | 画像表示装置および画像表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006035882A JP2007221179A (ja) | 2006-02-14 | 2006-02-14 | 画像表示装置および画像表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007221179A true JP2007221179A (ja) | 2007-08-30 |
Family
ID=38498035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006035882A Pending JP2007221179A (ja) | 2006-02-14 | 2006-02-14 | 画像表示装置および画像表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007221179A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010120631A (ja) * | 2008-11-17 | 2010-06-03 | Honeywell Internatl Inc | 航空機衝突防止システム |
JP2017207514A (ja) * | 2017-08-04 | 2017-11-24 | 株式会社トプコン | 航空写真システム |
JP2019532860A (ja) * | 2016-09-14 | 2019-11-14 | アマゾン テクノロジーズ インコーポレイテッド | 航空機用光センサ構成 |
-
2006
- 2006-02-14 JP JP2006035882A patent/JP2007221179A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010120631A (ja) * | 2008-11-17 | 2010-06-03 | Honeywell Internatl Inc | 航空機衝突防止システム |
JP2019532860A (ja) * | 2016-09-14 | 2019-11-14 | アマゾン テクノロジーズ インコーポレイテッド | 航空機用光センサ構成 |
US10778960B2 (en) | 2016-09-14 | 2020-09-15 | Amazon Technologies, Inc. | Aerial vehicle sensor positioning |
US11284056B2 (en) | 2016-09-14 | 2022-03-22 | Amazon Technologies, Inc. | Aerial vehicle sensor positioning |
JP2017207514A (ja) * | 2017-08-04 | 2017-11-24 | 株式会社トプコン | 航空写真システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6329343B2 (ja) | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 | |
JP6807781B2 (ja) | 表示システム、表示方法、及び遠隔操作システム | |
US10852723B2 (en) | Unmanned aerial vehicle swarm photography | |
WO2018216537A1 (ja) | 映像生成装置 | |
JP2016057108A (ja) | 演算装置、演算システム、演算方法およびプログラム | |
WO2018216536A1 (ja) | 映像生成装置及び映像生成方法 | |
US11611700B2 (en) | Unmanned aerial vehicle with virtual un-zoomed imaging | |
JP2010092436A (ja) | 画像処理装置、画像処理方法 | |
JP2002209208A (ja) | 画像処理装置及びその方法並びに記憶媒体 | |
JPWO2010137265A1 (ja) | 車両周囲監視装置 | |
WO2018193574A1 (ja) | 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体 | |
JP2004062758A (ja) | 情報処理装置および方法 | |
JP6293049B2 (ja) | 点群データ取得システム及びその方法 | |
JPWO2018216535A1 (ja) | 映像生成装置 | |
US20190361435A1 (en) | Location processing device, flight vehicle, location processing system, flight system, location processing method, flight control method, program and recording medium | |
JP2017201757A (ja) | 画像取得システム、画像取得方法、画像処理方法 | |
JP6859447B2 (ja) | 情報処理システムおよび対象物情報取得方法 | |
JP2006197068A (ja) | 画像表示装置および画像表示方法 | |
JPWO2018216539A1 (ja) | 映像生成装置 | |
JP2007221179A (ja) | 画像表示装置および画像表示方法 | |
JP7435599B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN112529965A (zh) | 一种激光雷达与单目相机的标定方法及装置 | |
TWI436270B (zh) | 虛擬望遠方法及其裝置 | |
KR101620983B1 (ko) | 실시간 3차원 전술정보 표시 시스템 및 그 방법 | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 |