JP2019215702A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2019215702A JP2019215702A JP2018112548A JP2018112548A JP2019215702A JP 2019215702 A JP2019215702 A JP 2019215702A JP 2018112548 A JP2018112548 A JP 2018112548A JP 2018112548 A JP2018112548 A JP 2018112548A JP 2019215702 A JP2019215702 A JP 2019215702A
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- image
- time
- reference image
- relative value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 85
- 238000003384 imaging method Methods 0.000 claims abstract description 292
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 abstract description 30
- 238000009795 derivation Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 18
- 238000013519 translation Methods 0.000 description 12
- 239000002131 composite material Substances 0.000 description 8
- 230000002194 synthesizing effect Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の撮像装置で撮像された画像を処理する画像処理装置に関する。 The present invention relates to an image processing device that processes images captured by a plurality of imaging devices.
特許文献1には、撮像方向が異なる複数の撮像装置によって撮像された各画像を単に合成する技術が開示されている。
ところで、航空機の翼は、乱気流などのような翼にかかる力を分散させたり翼が受ける衝撃を減らすために、しなやかな構造体で構成されている。このような構造体に撮像装置が固定されると、構造体が撓んだり変形することによって、撮像装置の視軸(光軸)がずれる。撮像装置の視軸がずれると、撮像された画像に基づいて撮像装置(例えば、自機)に対する対象物(例えば、他機など)の相対方位を測定する際の測定精度(測角精度)が低下する。 By the way, the wing of an aircraft is formed of a flexible structure in order to disperse the force applied to the wing such as turbulence or reduce the impact applied to the wing. When the imaging device is fixed to such a structure, the visual axis (optical axis) of the imaging device is shifted by bending or deforming the structure. When the visual axis of the imaging device is shifted, the measurement accuracy (angle measurement accuracy) when measuring the relative orientation of the target (for example, another device) with respect to the imaging device (for example, own device) based on the captured image is increased. descend.
そこで、本発明は、撮像装置に対する対象物の相対方位の測定精度が低下することを抑制することが可能な画像処理装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing apparatus capable of suppressing a decrease in measurement accuracy of a relative orientation of an object with respect to an imaging device.
上記課題を解決するために、本発明の画像処理装置は、慣性航法装置と一体的に構造体に固定されて構造体の周囲の一部を撮像する基準撮像装置と、構造体に固定され、撮像された画像の一部が基準撮像装置で撮像された画像に含まれるように構造体の周囲の一部を撮像する参照撮像装置と、基準撮像装置の画像および参照撮像装置の画像の特徴点をそれぞれ抽出する特徴点抽出部と、基準撮像装置の画像の特徴点の位置に対する参照撮像装置の画像の特徴点の位置の相対値を導出する相対値導出部と、を備える。 In order to solve the above problem, an image processing apparatus of the present invention is fixed to a structure integrally with an inertial navigation device, and a reference imaging device that captures a part of the periphery of the structure, and is fixed to the structure, A reference imaging device for imaging a part around the structure such that a part of the captured image is included in the image captured by the reference imaging device, and feature points of the image of the reference imaging device and the image of the reference imaging device And a relative value deriving unit that derives a relative value of the position of the feature point of the image of the reference imaging device with respect to the position of the feature point of the image of the reference imaging device.
また、撮像時刻が異なる参照撮像装置の複数の画像について導出された複数の相対値に基づいて、基準撮像装置の画像と同時刻における相対値を導出する相対値補間部を備えてもよい。 Also, a relative value interpolating unit that derives a relative value at the same time as the image of the reference imaging device based on a plurality of relative values derived for a plurality of images of the reference imaging device having different imaging times may be provided.
また、導出された相対値に基づいて、参照撮像装置の画像と基準撮像装置の画像とを各特徴点が重なるように合成する画像合成部を備えてもよい。 Further, an image synthesizing unit may be provided for synthesizing an image of the reference imaging device and an image of the reference imaging device such that each feature point overlaps based on the derived relative value.
本発明によれば、撮像装置に対する対象物の相対方位の測定精度が低下することを抑制することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to suppress that the measurement precision of the relative orientation of a target object with respect to an imaging device falls.
以下に添付図面を参照しながら、本発明の実施形態の一態様について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易にするための例示に過ぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.
図1は、航空機1の構成を示す斜視図である。本実施形態による画像処理装置10は、例えば、航空機1に適用される。図2は、本実施形態による画像処理装置10の構成を説明する説明図である。図2では、信号の流れを破線の矢印で示す。
FIG. 1 is a perspective view illustrating a configuration of the
図2に示すように、画像処理装置10は、基準撮像装置20、慣性航法装置30、参照撮像装置40、アイソレータ50、処理部60を含んで構成される。以後、基準撮像装置20と参照撮像装置40とを総称して、撮像装置と呼ぶことがある。
As shown in FIG. 2, the
基準撮像装置20は、慣性航法装置30と一体的に航空機1の胴体2に固定される。胴体2は、航空機1を構成する構造体である。基準撮像装置20は、撮像方向を示す視軸(光軸)が航空機1の前方に延びるように固定される。基準撮像装置20は、航空機1の前方を所定の画角(視野角)で撮像する。
The
慣性航法装置30は、例えば、INU(Inertial Navigation Unit)である。慣性航法装置30は、基準撮像装置20の姿勢および移動態様を検出する。基準撮像装置20の姿勢は、具体的には、基準撮像装置20における互いに直交する3軸の各軸周りの角度(ロール、ピッチ、ヨー)である。基準撮像装置20の移動態様は、例えば、基準撮像装置20における互いに直交する3軸の各軸方向の加速度、速度および距離などである。例えば、慣性航法装置30は、基準撮像装置20の各軸方向の加速度を検出する加速度計と、基準撮像装置20の各軸周りの角速度を検出する角速度計とを含んで構成される。
The
画像処理装置10は、基準撮像装置20が慣性航法装置30と一体的に固定されているため、慣性航法装置30によって検出される基準撮像装置20の姿勢および移動態様に基づいて、基準撮像装置20の視軸の絶対方位を導出することが可能である。
Since the
図1に示すように、航空機1には、2個の参照撮像装置40が設けられている。参照撮像装置40は、航空機1の翼4に設けられる。翼4は、航空機1を構成する構造体である。具体的には、一方の参照撮像装置40は、右翼に設けられており、他方の参照撮像装置40は、左翼に設けられている。図2では、一方の参照撮像装置40(右翼に設けられている参照撮像装置40)を例示している。図2では、基準撮像装置20および参照撮像装置40の撮像方向が、紙面の奥に向かう方向となっている。なお、参照撮像装置40の数は、2個に限らず、1個でもよいし、3個以上であってもよい。
As shown in FIG. 1, the
参照撮像装置40は、慣性航法装置30と一体的に固定されていない撮像装置である。参照撮像装置40は、アイソレータ50を介して航空機1の翼4に固定される。アイソレータ50は、例えば、ゴムやバネなどの弾性体によって構成される。アイソレータ50は、翼4の微振動を減衰して参照撮像装置40に伝わることを抑制する。
The
参照撮像装置40は、視軸が基準撮像装置20の視軸と異なるように航空機1に固定される。例えば、右翼に設けられる参照撮像装置40の視軸は、基準撮像装置20の視軸に対して進行方向右側に延びる。つまり、右翼に設けられる参照撮像装置40は、右斜め前方を所定の画角で撮像する。なお、基準撮像装置20および参照撮像装置40は、航空機1に対して遠方を撮像するため、実際には、基準撮像装置20の視軸と右翼の参照撮像装置40の視軸との間の角度は、非常に小さい。
The
また、左翼に設けられる参照撮像装置40の視軸は、基準撮像装置20の視軸に対して進行方向左側に延びる。つまり、左翼に設けられる参照撮像装置40は、左斜め前方を所定の画角で撮像する。なお、右翼の参照撮像装置40と同様に、実際には、基準撮像装置20の視軸と左翼の参照撮像装置40の視軸との間の角度は、非常に小さい。
The visual axis of the
なお、参照撮像装置40が、円筒形の容器であるポッドの内部に収容され、そのポッドが翼4に固定されてもよい。この場合、参照撮像装置40は、アイソレータ50を介してポッドに固定されてもよい。また、ポッドは、後付けで航空機1に設置されてもよい。
The
処理部60は、例えば、航空機1の胴体2に設けられる。処理部60は、中央処理装置、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成される。処理部60は、プログラムを実行することで、時刻合わせ部62、特徴点抽出部64、相対値導出部66、相対値補間部68、測角部70、画像合成部72として機能する。時刻合わせ部62、特徴点抽出部64、相対値導出部66、相対値補間部68、測角部70、画像合成部72については、後に詳述する。
The
図3は、基準撮像装置20で撮像された画像と、参照撮像装置40で撮像された画像との関係を説明する説明図である。図3では、参照撮像装置40で撮像された画像として、右翼の参照撮像装置40で撮像された画像が示されている。なお、左翼の参照撮像装置40で撮像された画像については、表示を省略している。また、図3では、基準撮像装置20の画角および参照撮像装置40の画角を破線で示す。以後、基準撮像装置20で撮像された画像を基準画像GSと呼び、参照撮像装置40で撮像された画像を参照画像GRと呼ぶことがある。
FIG. 3 is an explanatory diagram illustrating a relationship between an image captured by the
参照撮像装置40は、撮像された画像(参照画像GR)の一部が、基準撮像装置20で撮像された画像(基準画像GS)に含まれるように撮像する。例えば、右翼の参照撮像装置40は、参照画像GRにおける所定の左側領域の画像が、基準画像GSにおける所定の右側領域に含まれるように撮像する。換言すると、基準撮像装置20および参照撮像装置40は、基準画像GSと参照画像GRとが一部においてオーバーラップするように撮像する。図3では、基準画像GSと参照画像GRとがオーバーラップするオーバーラップ領域GOをハッチングで示している。
The
なお、図3では省略したが、左翼の参照撮像装置40は、参照画像GRにおける所定の右側領域の画像が、基準画像GSにおける所定の左側領域に含まれるように撮像する。
Although not shown in FIG. 3, the left wing
各撮像装置で撮像された各画像には、例えば、他機などの対象物が映ることがある。そこで、処理部60の測角部70は、各撮像装置で撮像された各画像上の対象物の撮像装置に対する相対方位を測定する(測角する)。
In each image captured by each imaging device, for example, an object such as another device may appear. Therefore, the
また、処理部60の画像合成部72は、各撮像装置で撮像された各画像を繋げて1個の広画角の画像を生成する。図3の例では、基準画像GSの左端から参照画像GRの右端までの1個の画像が生成される。
Further, the
ここで、航空機1の翼4は、撓むことや変形が可能なように、しなやかに構成されている。したがって、翼4は、飛行中などにおいて振動する。ここで、上述のように、アイソレータ50は、翼4の微振動を減衰する。しかし、翼4は、乱気流などによって大きく振動することがある。アイソレータ50は、翼4の振動の振幅が大きいと、その振動を十分に減衰することができなくなる。
Here, the
このため、アイソレータ50で減衰させることが困難な振幅の大きな振動が翼4に生じると、アイソレータ50を介して翼4に固定されている参照撮像装置40が振動する。これにより、参照撮像装置40の視軸は、初期設定された視軸に対してずれる。また、参照撮像装置40は、慣性航法装置30と一体的に固定されていないため、振動による視軸のずれを直接的に導出することができない。
For this reason, when a large-amplitude vibration that is difficult to attenuate in the
図4は、参照撮像装置40の視軸がずれたときの画像を説明する説明図である。図4(a)は、基準画像GSを示し、図4(b)は、参照画像GRを示す。なお、図4(a)および図4(b)では、オーバーラップ領域GOをハッチングで示している。
FIG. 4 is an explanatory diagram illustrating an image when the visual axis of the
基準画像GSは、視軸がずれていない。一方、参照画像GRは、視軸がずれている。視軸がずれた場合、参照画像GRは、例えば、視軸が初期設定された位置にあるときに撮像される参照画像GRを回転したような画像となる。 In the reference image GS, the visual axis is not shifted. On the other hand, the visual axis of the reference image GR is shifted. When the visual axis is shifted, the reference image GR is, for example, an image obtained by rotating the reference image GR captured when the visual axis is at the initially set position.
このとき、参照画像GR上の他機などの対象物の位置もずれることとなる。参照画像GR上の対象物の位置がずれると、撮像装置に対する対象物の相対方位の測定精度(測角精度)が低下する。 At this time, the position of the target such as another device on the reference image GR also shifts. When the position of the target on the reference image GR is displaced, the measurement accuracy (angle measurement accuracy) of the relative orientation of the target with respect to the imaging device is reduced.
そこで、本実施形態の画像処理装置10の処理部60は、基準画像GSの特徴点および参照画像GRの特徴点をそれぞれ抽出し、基準画像GSの特徴点の位置に対応する参照画像GRの特徴点の位置の相対値を導出する。そして、本実施形態の画像処理装置10は、導出された相対値に基づいて撮像装置に対する対象物の相対方位を導出することで、撮像装置に対する対象物の相対方位の測定精度が低下することを抑制する。
Therefore, the
図5は、特徴点抽出部64について説明する説明図である。図5(a)は、基準画像GSを示し、図5(b)は、参照画像GRを示す。特徴点抽出部64は、基準画像GSおよび参照画像GRの特徴点をそれぞれ抽出する。図5(a)および図5(b)では、特徴点を黒丸で示している。なお、図5(a)および図5(b)では、説明の便宜上、特徴点を3個示しているが、実際には、多数の特徴点が抽出される。また、図5(a)および図5(b)では、特徴点が画像上の建物の角において抽出されている。しかし、特徴点は、このような角に限らず、例えば、画像における輝度の差が大きいエッジにおいて抽出されてもよい。
FIG. 5 is an explanatory diagram illustrating the feature
特徴点抽出部64は、例えば、SIFT(Scale-Invariant Feature Transform)等によって特徴点を抽出する。SIFTは、画像の回転およびスケール変化に不変な特徴点であり、かつ、画像における照明変化に頑健な特徴点を検出し、特徴点の特徴量を記述する手法である。
The feature
また、特徴点抽出部64は、基準画像GSの特徴点に対応する参照画像GRの特徴点の同定を行う。特徴点抽出部64は、オーバーラップ領域GOを対象として特徴点の同定を行う。特徴点抽出部64は、例えば、基準画像GSのオーバーラップ領域GOと参照画像GRのオーバーラップ領域GOとを重ねた際に、基準画像GSの特徴点からの距離が最も短い参照画像GRの特徴点を、その基準画像GSの特徴点に対応する参照画像GRの特徴点とする。図5の例において、特徴点抽出部64は、参照画像GRの特徴点PR1を基準画像GSの特徴点PS1に対応付け、参照画像GRの特徴点PR2を基準画像GSの特徴点PS2に対応付け、参照画像GRの特徴点PR3を基準画像GSの特徴点PS3に対応付ける。
Further, the feature
図6は、相対値導出部66について説明する説明図である。図6は、基準画像GSのオーバーラップ領域GOと、参照画像GRのオーバーラップ領域GOとを重ねて表示している。なお、図6において、横方向をX軸方向とし、縦方向をY軸方向とする。
FIG. 6 is an explanatory diagram illustrating the relative
相対値導出部66は、対応する特徴点について、基準画像GSの特徴点の位置に対する参照画像GRの特徴点の位置の相対値を導出する。相対値導出部66は、オーバーラップ領域GOにおいて対応付けられたすべての特徴点について相対値を導出する。
The relative
例えば、相対値導出部66は、基準画像GSの特徴点PS1に対する参照画像GRの特徴点PR1の回転移動成分と平行移動成分とを分離して、回転移動量(回転角度)および平行移動量を導出する。この回転移動量(回転角度)および平行移動量が、相対値に相当する。同様にして、相対値導出部66は、特徴点PS2に対する特徴点PR2の回転移動量(回転角度)および平行移動量を導出し、特徴点PS3に対する特徴点PR3の回転移動量(回転角度)および平行移動量を導出する。
For example, the relative
また、相対値導出部66は、導出された複数の相対値の統計処理を行い、相対値の代表値を導出する。例えば、相対値導出部66は、特徴点PR1の回転移動量(回転角度)、特徴点PR2の回転移動量(回転角度)および特徴点PR3の回転移動量(回転角度)について統計処理を行い、相対値の回転移動成分の代表値を導出する。また、相対値導出部66は、特徴点PR1の平行移動量、特徴点PR2の平行移動量および特徴点PR3の平行移動量について統計処理を行い、相対値の平行移動成分の代表値を導出する。相対値の回転移動成分の代表値および相対値の平行移動成分の代表値は、相対値の代表値を構成する。このようにして導出された相対値の代表値は、参照撮像装置40の視軸のずれを表すものである。
Further, the relative
なお、相対値導出部66は、相対値の統計処理を行って相対値の代表値を決定する態様に限らず、例えば、任意の相対値を相対値の代表値としてもよい。
In addition, the relative
測角部70は、導出された相対値の代表値を用いて参照画像GR上の対象物の位置を補正する。例えば、測角部70は、相対値の回転移動成分の代表値分だけ対象物の位置を回転移動し、相対値の平行移動成分の代表値分だけ対象物の位置を平行移動する。そして、測角部70は、回転移動および平行移動した位置における対象物の相対方位を導出する。
The
なお、測角部70は、対象物の位置の回転移動および平行移動の双方を行う態様に限らず、対象物の位置の回転移動および平行移動のいずれか一方を行ってもよい。また、測角部70は、基準画像GSの各特徴点PS1、PS2、PS3間の距離と、参照画像GRの各特徴点PR1、PR2、PR3間の距離との差分などを参照し、基準画像GSの倍率と参照画像GRの倍率が一致するように参照画像GR上の対象物の倍率を変化させてから対象物の相対方位を導出してもよい。また、測角部70は、参照画像GR上の対象物の回転移動、平行移動、倍率などを適宜組み合わせて対象物の位置を補正してから、対象物の相対方位を導出してもよい。
Note that the
図7は、画像合成部72について説明する説明図である。画像合成部72は、相対値の代表値に基づいて、基準画像GSと参照画像GRとを合成して1個の広画角の合成画像を生成する。例えば、画像合成部72は、相対値の代表値に基づいて参照画像GRの回転移動量(回転角度)を導出する。そして、画像合成部72は、基準画像GSの各特徴点PS1、PS2、PS3と参照画像GRの各特徴点PR1、PR2、PR3とが重なるように、導出された回転移動量だけ参照画像GRを回転移動し、基準画像GSと参照画像GRとを合成する。図7では、参照画像GRの回転方向を実線の矢印で示している。
FIG. 7 is an explanatory diagram illustrating the
なお、画像合成部72は、参照画像GRを回転移動して合成画像を生成する態様に限らない。例えば、画像合成部72は、相対値の代表値に基づいて参照画像GRの平行移動量を導出し、導出された平行移動量だけ参照画像GRを平行移動してもよい。また、画像合成部72は、基準画像GSの各特徴点PS1、PS2、PS3間の距離と、参照画像GRの各特徴点PR1、PR2、PR3間の距離との差分などを参照し、基準画像GSの倍率と参照画像GRの倍率とが一致するように参照画像GRの倍率を変化させて合成画像を生成してもよい。また、画像合成部72は、参照画像GRの回転移動、平行移動および倍率などを適宜組み合わせて合成画像を生成してもよい。
Note that the
図8は、基準画像GSの撮像時刻および参照画像GRの撮像時刻を説明する説明図である。基準撮像装置20は、基準撮像装置20に内蔵されているタイマにしたがって所定時間間隔(例えば、30Hz)で基準画像GSを撮像する。例えば、基準撮像装置20は、基準撮像装置20のタイマが撮像時刻T1のとき、基準画像GS1を撮像する。また、基準撮像装置20は、基準撮像装置20のタイマにおいて撮像時刻T1から所定時間が経過した撮像時刻T2のとき、基準画像GS2を撮像する。
FIG. 8 is an explanatory diagram illustrating the imaging time of the reference image GS and the imaging time of the reference image GR. The
一方、参照撮像装置40は、参照撮像装置40に内蔵されているタイマにしたがって所定時間間隔(例えば、30Hz)で参照画像GRを撮像する。例えば、参照撮像装置40は、参照撮像装置40のタイマが撮像時刻t1のとき、参照画像GR1を撮像する。また、参照撮像装置40は、参照撮像装置40のタイマにおいて撮像時刻t1から所定時間が経過した撮像時刻t2のとき、参照画像GR2を撮像する。
On the other hand, the
ここで、参照撮像装置40のタイマは、基準撮像装置20のタイマと同期しているとは限らない。このため、基準撮像装置20と参照撮像装置40とで撮像の時間間隔が同じであるとしても、参照撮像装置40における撮像時刻(撮像タイミング)は、基準撮像装置20における撮像時刻(撮像タイミング)と異なる。例えば、参照画像GR1の撮像時刻t1は、基準画像GS1の撮像時刻T1からずれており、参照画像GR2の撮像時刻t2は、基準画像GS2の撮像時刻T2からずれている。
Here, the timer of the
参照撮像装置40と基準撮像装置20とで撮像時刻が異なると、処理部60は、参照撮像装置40と基準撮像装置20とで異なる時刻における特徴点を取得することとなる。そして、相対値導出部66では、異なる時刻における特徴点に基づいて特徴点の位置の相対値が導出されることとなる。このような相対値に基づいて撮像装置に対する対象物の相対方位を測定すると、その測定精度(測角精度)が低下するおそれがある。
If the imaging time is different between the
そこで、時刻合わせ部62は、基準画像GSの撮像時刻および参照画像GRの撮像時刻を、処理部60のタイマにしたがった同一の時間軸上に関連付ける。そして、相対値補間部68は、撮像時刻が異なる複数の参照画像GRについて相対値の代表値をそれぞれ導出し、導出された複数の相対値の代表値に基づいて、基準画像GSと同時刻における相対値の代表値を導出する。
Therefore, the
図9は、時刻合わせ部62について説明する説明図である。時刻合わせ部62は、処理部60のタイマにしたがって所定時間間隔(例えば、30Hz)で時刻合わせ信号を基準撮像装置20および参照撮像装置40に送信する。例えば、時刻合わせ部62は、処理部60のタイマが時刻τ1のとき、時刻τ1を示す時刻合わせ信号を送信する。また、時刻合わせ部62は、処理部60のタイマにおいて時刻τ1から所定時間が経過した時刻τ2のとき、時刻τ2を示す時刻合わせ信号を送信する。
FIG. 9 is an explanatory diagram illustrating the
基準撮像装置20は、時刻合わせ信号を受信すると、時刻合わせ信号の受信時刻から次の撮像時刻までの時間を、基準撮像装置20のタイマにしたがって計時する。計時された時間は、撮像時刻と時刻合わせ信号の受信時刻との差分を示す差分時間に相当する。基準撮像装置20は、差分時間と撮像した基準画像GSとを処理部60に送信する。
When receiving the time adjustment signal, the
例えば、基準撮像装置20は、時刻τ1を示す時刻合わせ信号を受信し、その後、撮像時刻T1において撮像した場合、時刻τ1から撮像時刻T1までの差分時間(T1−τ1)と、撮像時刻T1の基準画像GS1とを処理部60に送信する。同様に、基準撮像装置20は、時刻τ2を示す時刻合わせ信号を受信し、その後、撮像時刻T2において撮像した場合、時刻τ2から撮像時刻T2までの差分時間(T2−τ2)と、撮像時刻T2の基準画像GS2とを処理部60に送信する。
For example, when the
参照撮像装置40は、時刻合わせ信号を受信すると、時刻合わせ信号の受信時刻から次の撮像時刻までの時間を、参照撮像装置40のタイマにしたがって計時する。計時された時間は、撮像時刻と時刻合わせ信号の受信時刻との差分を示す差分時間に相当する。参照撮像装置40は、差分時間と撮像した参照画像GRとを処理部60に送信する。
Upon receiving the time adjustment signal, the
例えば、参照撮像装置40は、時刻τ1を示す時刻合わせ信号を受信し、その後、撮像時刻t1において撮像した場合、時刻τ1から撮像時刻t1までの差分時間(t1−τ1)と、撮像時刻t1の参照画像GR1とを処理部60に送信する。同様に、参照撮像装置40は、時刻τ2を示す時刻合わせ信号を受信し、その後、撮像時刻t2において撮像した場合、時刻τ2から撮像時刻t2までの差分時間(t2−τ2)と、撮像時刻t2の参照画像GR2とを処理部60に送信する。
For example, when the
時刻合わせ部62は、基準画像GSおよび差分時間を基準撮像装置20から受信し、参照画像GRおよび差分時間を参照撮像装置40から受信する。時刻合わせ部62は、基準撮像装置20における差分時間に時刻合わせ信号の送信時刻を加算して、処理部60のタイマを基準とした基準撮像装置20の撮像時刻を導出する。また、時刻合わせ部62は、参照撮像装置40における差分時間に時刻合わせ信号の送信時刻を加算して、処理部60のタイマを基準とした参照撮像装置40の撮像時刻を導出する。これにより、基準画像GSの撮像時刻と参照画像GRの撮像時刻とが、処理部60のタイマにしたがった同一の時間軸上に関連付けられる。
The
図8に戻って、基準画像GS1の撮像時刻T1、基準画像GS2の撮像時刻T2、参照画像GR1の撮像時刻t1および参照画像GR2の撮像時刻t2が導出されたとする。ここで、基準画像GS2を処理対象の画像として着目すると、参照画像GR1は、基準画像GS2の直前の参照画像GRであり、参照画像GR2は、基準画像GS2の直後の参照画像GRである。 Returning to FIG. 8, it is assumed that the imaging time T1 of the reference image GS1, the imaging time T2 of the reference image GS2, the imaging time t1 of the reference image GR1, and the imaging time t2 of the reference image GR2 are derived. Here, focusing on the reference image GS2 as an image to be processed, the reference image GR1 is a reference image GR immediately before the reference image GS2, and the reference image GR2 is a reference image GR immediately after the reference image GS2.
特徴点抽出部64は、基準画像GS2の特徴点の位置に対する参照画像GR1の特徴点の位置の相対値および相対値の代表値を導出する。また、特徴点抽出部64は、基準画像GS2の特徴点の位置に対する参照画像GR2の特徴点の位置の相対値および相対値の代表値を導出する。つまり、特徴点抽出部64は、撮像時刻が異なる複数の参照画像GR1、GR2のそれぞれについて相対値および相対値の代表値を導出する。
The feature
図10は、相対値補間部68について説明する説明図である。図10において、横軸は処理部60のタイマにしたがった時間軸上の時間を示し、縦軸は相対値の代表値を示す。また、図10において、相対値の代表値St1は、撮像時刻t1の参照画像GR1についての基準画像GS2に対する相対値の代表値であり、相対値の代表値St2は、撮像時刻t2の参照画像GR2についての基準画像GS2に対する相対値の代表値である。
FIG. 10 is an explanatory diagram illustrating the relative
相対値補間部68は、撮像時刻が異なる複数の参照画像GR1、GR2について導出された複数の相対値の代表値St1、St2に基づいて、基準画像GS2と同時刻における相対値の代表値ST2を導出する。例えば、相対値補間部68は、撮像時刻t2と撮像時刻t1との差分と、撮像時刻T2と撮像時刻t1との差分との時間比を導出する。相対値補間部68は、導出された時間比を用いて、相対値の代表値St1と相対値の代表値St2との間の相対値の代表値ST2を線形補間(内挿補間)する。
The relative
このように、相対値補間部68は、相対値の代表値の時間補間を行う。導出された相対値の代表値ST2は、基準画像GS2の撮像時刻T2と同時刻における参照撮像装置40の視軸のずれを表すものである。
As described above, the relative
測角部70は、対象物の位置を補正する際に、相対値補間部68で導出された相対値の代表値ST2を用いて対象物の位置を補正する。そして、測角部70は、位置が補正された対象物の相対方位を測定する。これにより、画像処理装置10は、対象物の相対方位の測定精度(測角精度)の低下をより抑制することができる。
When correcting the position of the object, the
なお、基準画像GSと同時刻における相対値の代表値を導出するための相対値の代表値の数は、2個に限らない。例えば、相対値補間部68は、撮像時刻が異なる3個以上の相対値の代表値に基づいて、基準画像GSと同時刻における相対値の代表値を導出してもよい。この場合、相対値補間部68は、相対値の代表値を非線形補間することができる。このため、相対値補間部68は、撮像時刻が異なる相対値の数が多いほど、基準画像GSと同時刻における相対値の代表値を、より精度よく導出することができる。
Note that the number of relative value representative values for deriving the relative value representative value at the same time as the reference image GS is not limited to two. For example, the relative
図11は、処理部60の動作を説明するフローチャートである。まず、処理部60の時刻合わせ部62は、所定時刻になると、時刻合わせ信号を基準撮像装置20および参照撮像装置40に送信する(S100)。
FIG. 11 is a flowchart illustrating the operation of the
時刻合わせ信号を受信した基準撮像装置20は、時刻合わせ信号を受信した時刻から、次の撮像時刻までの時間(差分時間)を計時する。基準撮像装置20は、撮像時刻になると撮像して基準画像GSを取得する。基準撮像装置20は、差分時間と取得した基準画像GSとを処理部60に送信する。また、基準撮像装置20は、撮像時刻における基準撮像装置20の姿勢および移動態様を示す情報を慣性航法装置30から取得し、併せて処理部60に送信する。
The
また、時刻合わせ信号を受信した参照撮像装置40は、時刻合わせ信号を受信した時刻から、次の撮像時刻までの時間(差分時間)を計時する。参照撮像装置40は、撮像時刻になると撮像して参照画像GRを取得する。参照撮像装置40は、差分時間と取得した参照画像GRとを処理部60に送信する。
In addition, the
時刻合わせ部62は、時刻合わせ信号の送信後、差分時間および画像(基準画像GSおよび参照画像GR)を基準撮像装置20および参照撮像装置40のそれぞれから受信したか否かを判断する(S110)。
After transmitting the time adjustment signal, the
時刻合わせ部62は、差分時間および画像を基準撮像装置20および参照撮像装置40のそれぞれから受信するまで待機する(S110におけるNO)。
The
時刻合わせ部62は、差分時間および画像を受信すると(S110におけるYES)、処理部60のタイマを基準とした基準画像GSの撮像時刻および参照画像GRの撮像時刻を導出する(S120)。具体的には、時刻合わせ部62は、基準撮像装置20から取得した差分時間と時刻合わせ信号の送信時刻とから、処理部60のタイマを基準とした基準画像GSの撮像時刻を導出し、参照撮像装置40から取得した差分時間と時刻合わせ信号の送信時刻とから、処理部60のタイマを基準とした参照画像GRの撮像時刻を導出する。
When receiving the difference time and the image (YES in S110),
次に、特徴点抽出部64は、基準画像GSの特徴点および参照画像GRの特徴点をそれぞれ抽出する(S130)。
Next, the feature
次に、特徴点抽出部64は、基準画像GSの各特徴点と参照画像GRの各特徴点との同定を行う(S140)。この際、特徴点抽出部64は、処理対象の基準画像GSの各特徴点と、その基準画像GSの撮像時刻の直前の参照画像GRの各特徴点との同定を行う。また、特徴点抽出部64は、処理対象の基準画像GSの各特徴点と、その基準画像GSの直後の参照画像GRの各特徴点との同定を行う。
Next, the feature
次に、相対値導出部66は、対応付けられた特徴点について、基準画像GSの特徴点の位置に対する参照画像GRの特徴点の位置の相対値を導出する(S150)。相対値導出部66は、対応付けられた特徴点の組の数だけ相対値を導出する。また、相対値導出部66は、処理対象の基準画像GSの直前の参照画像GRと、処理対象の基準画像GSの直後の参照画像GRとの双方において相対値を導出する。
Next, the relative
次に、相対値導出部66は、導出された複数の相対値の統計処理を行い、相対値の代表値を導出する(S160)。相対値導出部66は、処理対象の基準画像GSの直前の参照画像GRと、処理対象の基準画像GSの直後の参照画像GRとの双方においてそれぞれ相対値の代表値を導出する。
Next, the relative
次に、相対値補間部68は、相対値の代表値の時間補間を行う(S170)。具体的には、相対値補間部68は、処理対象の基準画像GSの直前の参照画像GRにおける相対値の代表値と、処理対象の基準画像GSの直後の参照画像GRにおける相対値の代表値とに基づいて、処理対象の基準画像GSの撮像時刻と同一時刻の相対値の代表値を導出する。
Next, the relative
次に、測角部70は、時間補間された相対値の代表値に基づいて参照画像GR上の対象物の位置を補正する(S180)。なお、測角部70は、対象物が参照画像GR上にある場合にのみステップS180を行い、対象物が基準画像GS上にある場合にはステップS180を行わずにステップS190へ進んでもよい。
Next, the
次に、測角部70は、画像上の対象物の撮像装置に対する相対方位を測定する(S190)。この際、測角部70は、取得された基準撮像装置20の姿勢および移動態様に基づいて、基準撮像装置20の視軸の絶対方位を導出する。
Next, the
測角部70は、対象物が基準画像GS上にある場合、導出された基準撮像装置20の視軸および対象物の位置に基づいて撮像装置に対する対象物の相対方位を導出する。一方、測角部70は、対象物が参照画像GR上にある場合、基準撮像装置20の視軸および補正された対象物の位置に基づいて撮像装置に対する対象物の相対方位を導出する。このように、撮像装置に対する対象物の相対方位の測定の際、参照画像GR上の対象物の位置は、基準画像GSに関連付けられることとなる。
When the target is on the reference image GS, the
次に、画像合成部72は、時間補間された相対値の代表値に基づいて、基準画像GSの各特徴点と参照画像GRの各特徴点とが重なるように参照画像GRの回転移動等を行い、合成画像を生成する(S200)。回転移動等を行う参照画像GRとしては、例えば、処理対象の基準画像GSの撮像時刻に最も近い撮像時刻の参照画像GRであってもよい。
Next, the
以上のように、本実施形態の画像処理装置10は、基準画像GSおよび参照画像GRの特徴点をそれぞれ抽出し、基準画像GSの特徴点の位置に対する参照画像GRの特徴点の位置の相対値(相対値の代表値)を導出する。そして、本実施形態の画像処理装置10は、導出された相対値(相対値の代表値)に基づいて、参照画像GR上の対象物の撮像装置に対する相対方位を測定する。
As described above, the
したがって、本実施形態の画像処理装置10によれば、撮像装置に対する対象物の相対方位の測定精度が低下することを抑制することができる。
Therefore, according to the
また、本実施形態の画像処理装置10は、撮像時刻が異なる複数の参照画像GRについて導出された複数の相対値(相対値の代表値)に基づいて、基準画像GSと同時刻における相対値(相対値の代表値)を導出する。このため、本実施形態の画像処理装置10は、基準撮像装置20の撮像時刻と参照撮像装置40の撮像時刻とが同期していなくとも、撮像装置に対する対象物の相対方位の測定精度が低下することを抑制することができる。
In addition, the
また、本実施形態の画像処理装置10は、相対値の代表値の時間補間を行っていた。しかし、本実施形態の画像処理装置10において、基準撮像装置20と参照撮像装置40とで撮像時刻を同期させる場合、相対値の代表値の時間補間を省略してもよい。この態様では、相対値の代表値の時間補間を行わない分だけ、処理部60における処理負荷を軽減することができる。
Further, the
また、本実施形態の画像処理装置10は、導出された相対値(相対値の代表値)に基づいて、参照画像GRと基準画像GSとを各特徴点が重なるように合成する。このため、本実施形態の画像処理装置10は、合成画像によって、対象物を精度よく視認させることができる。
Further, the
また、本実施形態の画像処理装置10は、合成画像を生成していた。しかし、本実施形態の画像処理装置10は、撮像装置に対する対象物の相対方位の測定ができればよく、合成画像が必要ではない場合には、合成画像の生成を省略することができる。この態様では、合成画像の生成を行わない分だけ、処理部60における処理負荷を軽減することができる。
Further, the
また、本実施形態の画像処理装置10は、航空機1の製造完成後、さらに事後的に参照撮像装置40の数を増減することができる。このため、本実施形態の画像処理装置10は、既存の航空機1に適用することもでき、汎用性が高い。
In addition, the
以上、添付図面を参照しながら本発明の実施形態の一態様について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although one aspect of the embodiment of the present invention has been described with reference to the accompanying drawings, it is needless to say that the present invention is not limited to such an embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.
例えば、上記実施形態の画像処理装置10では、基準撮像装置20が航空機1の胴体2に設けられ、参照撮像装置40が航空機1の翼4に設けられていた。しかし、基準撮像装置20が設けられる位置は、航空機1の胴体2に限らない。例えば、基準撮像装置20は、航空機1の翼4に設けられてもよい。
For example, in the
また、上記実施形態の画像処理装置10では、基準撮像装置20は、航空機1の前方を撮像し、右翼の参照撮像装置40は、航空機1の右斜め前方を撮像し、左翼の参照撮像装置40は、航空機1の左斜め前方を撮像していた。しかし、基準撮像装置20の撮像方向および参照撮像装置40の撮像方向は、この例に限らない。基準撮像装置20は、航空機1を構成する構造体の周囲の一部を撮像すればよい。また、参照撮像装置40は、参照画像GRの一部が基準画像GSに含まれるように構造体の周囲の一部を撮像すればよい。
In the
上記実施形態の画像処理装置10は、対象物の相対方位の測定を行っていた。しかし、画像処理装置10は、例えば、時間補間された相対値の代表値を画像処理装置10外に出力し、対象物の相対方位の測定については、画像処理装置10外で行われてもよい。また、合成画像の生成についても、画像処理装置10外で行われてもよい。
The
上記実施形態の画像処理装置10は、航空機1に適用されていた。しかし、画像処理装置10の適用範囲は、航空機1に限らない。例えば、画像処理装置10は、車両に適用されてもよい。
The
本発明は、複数の撮像装置で撮像された画像を処理する画像処理装置に利用できる。 INDUSTRIAL APPLICABILITY The present invention is applicable to an image processing apparatus that processes images captured by a plurality of imaging apparatuses.
1 航空機
2 胴体
4 翼
10 画像処理装置
20 基準撮像装置
30 慣性航法装置
40 参照撮像装置
64 特徴点抽出部
66 相対値導出部
68 相対値補間部
72 画像合成部
Claims (3)
前記構造体に固定され、撮像された画像の一部が前記基準撮像装置で撮像された画像に含まれるように前記構造体の周囲の一部を撮像する参照撮像装置と、
前記基準撮像装置の画像および前記参照撮像装置の画像の特徴点をそれぞれ抽出する特徴点抽出部と、
前記基準撮像装置の画像の特徴点の位置に対する前記参照撮像装置の画像の特徴点の位置の相対値を導出する相対値導出部と、
を備える画像処理装置。 A reference imaging device that is fixed to the structure integrally with the inertial navigation device and images a part of the periphery of the structure,
A reference imaging device fixed to the structure, and imaging a part around the structure so that a part of the imaged image is included in the image captured by the reference imaging device,
A feature point extraction unit for extracting feature points of the image of the reference imaging device and the image of the reference imaging device,
A relative value deriving unit that derives a relative value of a position of a feature point of the image of the reference imaging device with respect to a position of a feature point of the image of the reference imaging device,
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112548A JP2019215702A (en) | 2018-06-13 | 2018-06-13 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112548A JP2019215702A (en) | 2018-06-13 | 2018-06-13 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019215702A true JP2019215702A (en) | 2019-12-19 |
Family
ID=68918722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112548A Pending JP2019215702A (en) | 2018-06-13 | 2018-06-13 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019215702A (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06125490A (en) * | 1992-10-14 | 1994-05-06 | Nippon Hoso Kyokai <Nhk> | Vibration proof device for camera |
JP2004265412A (en) * | 2003-03-01 | 2004-09-24 | Boeing Co:The | System and method for providing vision imaging |
JP2006177926A (en) * | 2004-12-21 | 2006-07-06 | Korea Electronics Telecommun | Method and device for correcting position and attitude information of camera |
JP2006197068A (en) * | 2005-01-12 | 2006-07-27 | Yokogawa Electric Corp | Image display and display method |
JP2006226965A (en) * | 2005-02-21 | 2006-08-31 | Sumitomo Electric Ind Ltd | Image processing system, computer program and image processing method |
JP2013254373A (en) * | 2012-06-07 | 2013-12-19 | Nec Corp | Image processing device, control method of image processing device and program |
JP2014207605A (en) * | 2013-04-15 | 2014-10-30 | 株式会社デンソー | Image processing unit for vehicle |
US20150262492A1 (en) * | 2014-03-17 | 2015-09-17 | DM3 Aviation LLC | Airplane collision avoidance |
JP2015193347A (en) * | 2014-03-31 | 2015-11-05 | 三菱プレシジョン株式会社 | Inertia navigation system of missile |
US20180010815A1 (en) * | 2017-05-05 | 2018-01-11 | Tsan-Chieh Wang | System for monitoring fan filter units in clean rooms |
-
2018
- 2018-06-13 JP JP2018112548A patent/JP2019215702A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06125490A (en) * | 1992-10-14 | 1994-05-06 | Nippon Hoso Kyokai <Nhk> | Vibration proof device for camera |
JP2004265412A (en) * | 2003-03-01 | 2004-09-24 | Boeing Co:The | System and method for providing vision imaging |
JP2006177926A (en) * | 2004-12-21 | 2006-07-06 | Korea Electronics Telecommun | Method and device for correcting position and attitude information of camera |
JP2006197068A (en) * | 2005-01-12 | 2006-07-27 | Yokogawa Electric Corp | Image display and display method |
JP2006226965A (en) * | 2005-02-21 | 2006-08-31 | Sumitomo Electric Ind Ltd | Image processing system, computer program and image processing method |
JP2013254373A (en) * | 2012-06-07 | 2013-12-19 | Nec Corp | Image processing device, control method of image processing device and program |
JP2014207605A (en) * | 2013-04-15 | 2014-10-30 | 株式会社デンソー | Image processing unit for vehicle |
US20150262492A1 (en) * | 2014-03-17 | 2015-09-17 | DM3 Aviation LLC | Airplane collision avoidance |
JP2015193347A (en) * | 2014-03-31 | 2015-11-05 | 三菱プレシジョン株式会社 | Inertia navigation system of missile |
US20180010815A1 (en) * | 2017-05-05 | 2018-01-11 | Tsan-Chieh Wang | System for monitoring fan filter units in clean rooms |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190317532A1 (en) | Gimbal control method, control system, gimbal, and unmanned aircraft | |
JP6245149B2 (en) | Gimbal device and control method of gimbal device | |
JP6430073B2 (en) | Attitude estimation apparatus, attitude estimation method, and observation system | |
EP2747418B1 (en) | Image processor for processing images received from a plurality of image sensors | |
WO2017197630A1 (en) | Autofocus initialization based on target detection | |
JP2010145389A (en) | Method of correcting three-dimensional erroneous array of attitude angle sensor by using single image | |
KR101769602B1 (en) | Apparatus and method of position revision for hovering using optical flow and imu and ultrasonic sensor | |
JP2007240506A (en) | Three-dimensional shape and 3-dimensional topography measuring method | |
JP7027064B2 (en) | Image processing equipment and image processing methods, imaging equipment, programs | |
JP2017009555A (en) | Camera calibration device, camera calibration method, and program for camera calibration | |
JP6335237B2 (en) | Stereo distance measuring device, stereo distance measuring method, and stereo distance measuring program | |
JP2008244893A (en) | Imaging space stabilizing device and object tracking device | |
JP2019215702A (en) | Image processing device | |
JP6249864B2 (en) | Inertial navigation system for flying objects | |
KR101769603B1 (en) | Apparatus and method of position revision for hovering | |
CN108700420B (en) | Apparatus and method for maintaining attitude of vehicle using gyroscope | |
US8155802B1 (en) | Optical flow navigation system | |
CN108513058B (en) | Image device capable of compensating image change | |
JP2021111902A (en) | Information processing device, information processing method, and program | |
JP2020046243A (en) | Altitude measuring device, flying vehicle, altitude measuring method, and program | |
JP2018521416A (en) | Image processing method and system for vision system | |
KR102598070B1 (en) | Optical image stabilization in a scanning folded camera | |
JP7482757B2 (en) | Aircraft position control system, aircraft, and aircraft position control method | |
US20230199326A1 (en) | Systems and methods for capturing stabilized images | |
JP2009063319A (en) | Apparatus and method for distance measurement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221012 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230110 |