JP2021026622A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2021026622A JP2021026622A JP2019145687A JP2019145687A JP2021026622A JP 2021026622 A JP2021026622 A JP 2021026622A JP 2019145687 A JP2019145687 A JP 2019145687A JP 2019145687 A JP2019145687 A JP 2019145687A JP 2021026622 A JP2021026622 A JP 2021026622A
- Authority
- JP
- Japan
- Prior art keywords
- rider
- image
- time
- camera
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本開示は、画像処理装置に関する。 The present disclosure relates to an image processing apparatus.
特許文献1は、センサフュージョンによって複数種類のセンサの情報を組み合わせる装置を開示する。この装置は、センサとしてライダ(LIDAR:Laser Imaging Detection and Ranging)及びカメラを用いる。 Patent Document 1 discloses a device that combines information of a plurality of types of sensors by sensor fusion. This device uses a lidar (LIDAR: Laser Imaging Detection and Ranging) and a camera as sensors.
センサフュージョンの一例として、カメラにより撮像されたカメラ画像とライダにより生成された点群とを用いて、フュージョン画像を生成することが考えられる。しかしながらカメラの計測周期(フレームレート)とライダの計測周期とは相違する。さらに、カメラは二次元計測であるのに対してライダは三次元計測である。このため、両者は、測定タイミングだけでなく測定範囲も相違する。よって、両者を組み合わせた適切なフュージョン画像を生成することは困難である。 As an example of sensor fusion, it is conceivable to generate a fusion image by using a camera image captured by a camera and a point cloud generated by a rider. However, the measurement cycle (frame rate) of the camera and the measurement cycle of the rider are different. Furthermore, the camera is a two-dimensional measurement, while the rider is a three-dimensional measurement. Therefore, not only the measurement timing but also the measurement range is different between the two. Therefore, it is difficult to generate an appropriate fusion image by combining both.
本開示は、カメラ画像と点群との対応付けの確度を向上させた画像処理装置を提供する。 The present disclosure provides an image processing device with improved accuracy of association between a camera image and a point cloud.
本開示の一形態は、シャッターを常時開放可能なカメラにより撮影されたカメラ画像と、ライダにより取得された点群とを用いてフュージョン画像を生成する画像処理装置であって、カメラにより取得された情報とライダの計測時刻とに基づいて、ライダの計測時刻におけるカメラ画像を推定する推定部と、ライダの分解能に対応する点群とライダの計測時刻におけるカメラ画像とに基づいて、複数の中間フュージョン画像を生成する中間生成部と、複数の中間フュージョン画像を合成してフュージョン画像を生成する合成部とを備える。 One form of the present disclosure is an image processing device that generates a fusion image by using a camera image taken by a camera capable of constantly opening the shutter and a point group acquired by a rider, and is acquired by the camera. Multiple intermediate fusions based on an estimater that estimates the camera image at the rider's measurement time based on the information and the rider's measurement time, and a group of points corresponding to the rider's resolution and the camera image at the rider's measurement time. It includes an intermediate generation unit that generates an image and a composition unit that synthesizes a plurality of intermediate fusion images to generate a fusion image.
本開示によれば、カメラ画像と点群との対応付けの確度を向上させることができる。 According to the present disclosure, it is possible to improve the accuracy of associating a camera image with a point cloud.
以下、種々の例示的実施形態について説明する。以下の説明において、同一又は相当要素には同一符号を付し、重複する説明は繰り返さない。 Hereinafter, various exemplary embodiments will be described. In the following description, the same or equivalent elements are designated by the same reference numerals, and duplicate description will not be repeated.
(画像処理装置の構成)
図1は、実施形態に係る画像処理装置の構成概要を説明するブロック図である。図1に示されるように、画像処理装置1は、車両2に搭載され、カメラにより撮影された画像であるカメラ画像と、ライダにより取得された点群とを統合したフュージョン画像を生成する装置である。
(Configuration of image processing device)
FIG. 1 is a block diagram illustrating an outline of a configuration of an image processing apparatus according to an embodiment. As shown in FIG. 1, the image processing device 1 is a device mounted on a
画像処理装置1は、ECU(Electronic Control Unit)10、時間相関イメージセンサ11、ライダ12、及び時計13を備える。ECUは、CPU(Central Processing Unit)、ROM(Read OnlyMemory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路などを有する電子制御ユニットである。ECU10は、時間相関イメージセンサ11及びライダ12に接続される。時間相関イメージセンサ11及びライダ12は、時計13から時刻tを受信してそれぞれの内部時刻を同期させる。
The image processing device 1 includes an ECU (Electronic Control Unit) 10, a time
時間相関イメージセンサ11は、シャッターを常時開放可能なカメラの一例である。シャッターを常時開放するとは、露光時間に時間的な空きがなく、常に光強度を計測できることを意味する。時間相関イメージセンサ11のイメージャの1つの画素は、1つの光ダイオードと、光ダイオードから生じた電荷を外部からの参照信号に従って3つのキャパシタに振り分ける構成を有する。参照信号は、概して三相交流である。画像を生み出す画素ごとの光電流は、以下の数式1に従う。
f(x,y,t)は時刻tにおける画素(x,y)の明度であり、vは画素(x,y)の速度である。
The time
f (x, y, t) is the brightness of the pixel (x, y) at time t, and v is the velocity of the pixel (x, y).
1フレームの画像を取得する撮像時間(シャッター開放時間)をTとし、画像g(x,y)を以下の数式(2)のように表す。
数式(2)に示されるように、画像は、明度f(x,y,t)に複素数の参照信号e-inΔ ω tを乗じて1フレーム時間の積分を演算した値となる。撮像された画像g(x,y)は以下の数式(3)を満たすとする。
数式(3)の第二項は積分境界値である。数式(3)は連立方程式をなしているため、例えば2つの画像g0(x,y)、g1(x,y)を用いて連立方程式を解くことで、積分境界値を消去することができる。時間相関イメージセンサは、実部のみからなる強度画像g0(x,y)と、複素数の相関画像gn(x,y)の実部と虚部を出力することができる。このため、センサ検出結果を数式(3)の連立方程式に代入して解くことで各画素における速度v、つまりオプティカルフローを得ることができる。時間相関イメージセンサ11は、上述した強度画像、相関画像、及びフレーム端点時刻を出力する。以下では、時間相関イメージセンサ11により出力される画像又は画素をカメラ画像という。
The imaging time (shutter opening time) for acquiring an image of one frame is T, and the image g (x, y) is expressed by the following mathematical formula (2).
As shown in the formula (2), the image is a value obtained by multiplying the brightness f (x, y, t) by the complex reference signal e -in Δ ω t and calculating the integral for one frame time. It is assumed that the captured image g (x, y) satisfies the following mathematical formula (3).
The second term of equation (3) is the integration boundary value. Since the equation (3) is a simultaneous equation, it is possible to eliminate the integration boundary value by solving the simultaneous equations using , for example, two images g 0 (x, y) and g 1 (x, y). it can. The time correlation image sensor can output the real part and the imaginary part of the intensity image g 0 (x, y) consisting only of the real part and the complex number correlation image g n (x, y). Therefore, the velocity v at each pixel, that is, the optical flow can be obtained by substituting the sensor detection result into the simultaneous equations of the equation (3) and solving the equation. The time
ライダ12は、光を利用して車両2の周辺の物体を検出する検出機器である。ライダ12は、光を車両2の周辺に送信し、物体で反射された光を受信することで物体を検出する。ライダ12は、ライダ計測信号を出力する。ライダ計測信号には、距離、方位、計測時刻tLが含まれる。
The
図2は、センサ設置位置と、カメラの計測範囲とライダの計測範囲とを説明する図である。図2の(A)に示されるように、車両2には、時間相関イメージセンサ11とライダ12とが異なる位置に設けられており、測定原点位置が相違する。また、時間相関イメージセンサ11は、車両2の前方の定まった範囲である計測範囲R1を計測する。これに対して、ライダ12は、非常に狭い範囲である計測範囲R2を回転させながら計測を行う(図中矢印)。このため、図2の(B)に示されるように、フュージョン画像の生成は、ライダ12の計測範囲R2が時間相関イメージセンサ11の計測範囲R1と重なるときだけ可能となる。
FIG. 2 is a diagram illustrating a sensor installation position, a camera measurement range, and a rider measurement range. As shown in FIG. 2A, the
図3は、カメラの計測時間とライダの計測時間とを説明する図である。図3に示されるように、時間相関イメージセンサ11は、フレーム周期T1間隔(1/30sec)で画像に関する情報を取得することができ、露光時間に時間的な空きがない。このため、ライダ12の計測時間T2は、時間相関イメージセンサ11の計測時間と常に重なることになる。
FIG. 3 is a diagram for explaining the measurement time of the camera and the measurement time of the rider. As shown in FIG. 3, the time
図1に戻り、ECU10は、時刻算出部14、キャリブレーション情報記憶部15、推定部16、中間生成部17、及び合成部18を備える。
Returning to FIG. 1, the
時刻算出部14は、ライダ12のライダ計測信号と、キャリブレーション情報記憶部15に記憶されたキャリブレーション情報に基づいて対応画素を算出する。キャリブレーション情報記憶部15は、キャリブレーション情報を予め記憶する記憶媒体である。キャリブレーション情報は、時間相関イメージセンサ11とライダ12との空間的な差異を補正する情報であり、予め取得される。図2の(A)に示されるように、車両2には、時間相関イメージセンサ11とライダ12とが異なる位置に設けられており、キャリブレーション情報は、時間相関イメージセンサ11とライダ12との測定原点位置の違いを補正する情報である。
The
図4は、静止物を対象としたカメラとライダとの計測結果の統合を説明する図である。図4に示されるように、時間相関イメージセンサ11の計測結果D1とライダ12の計測結果D2に空間的なズレが生じている。時刻算出部14は、キャリブレーション情報を用いて計測結果D1と計測結果D2との位置合わせ(座標変換など)を行い、ライダ計測信号で測定された距離および方位に対応する画素の位置(時間相関イメージセンサ11の画像上の位置)を算出する。これにより、時間相関イメージセンサ11の計測結果D1とライダ12の計測結果D2とが対応付けられる。
FIG. 4 is a diagram illustrating integration of measurement results between a camera and a rider for a stationary object. As shown in FIG. 4, there is a spatial deviation between the measurement result D1 of the time
推定部16は、時間相関イメージセンサ11により取得された情報とライダ12の計測時刻tLとに基づいて、ライダ12の計測時刻tLにおけるカメラ画像を推定する。具体的には、推定部16は、時刻算出部14により算出された対応画素及び計測時刻tLに基づいて、対応画素の計測時刻tLにおける輝度値を再現する。時間相関イメージング技術として、1フレーム時間内の任意の画像を再現する手法が知られている。数式(3)は、任意のn>=0に関して成り立つものの、観測で得られるものはg0(x,y)とg1(x,y)のみである。この2枚の画像から、速度ベクトルvと、数式(3)の第二項である積分境界値(積分境界値画像F0(x,y))とが求められる。そこで、n>=2に関する数式(3)を、既知の係数ベクトルvと既知の駆動項F0(x,y)をもつ偏微分方程式とみなし、これを数学的に解いて、高次のフーリエ係数画像gn(x,y)を推定する。これにより、対応画素の計測時刻tLにおける輝度値を再現することができる。
The
上記の説明は、測定対象が静止物である場合である。計測対象が移動する移動体である場合には、時間相関イメージセンサ11の計測結果D1及びライダ12の計測結果D2は変化する。図5は、移動体を対象としたカメラとライダとの計測結果を説明する図である。図5に示されるように、時間相関イメージセンサ11の計測結果D1は、移動体を対象とした場合には時間的なズレが生じるため、ボケ(いわゆるゴースト)が発生する。さらに、ライダ12の計測結果は、スキャン方向に移動分のズレが生じるため、点群の配列に歪みが発生する。
The above description is for the case where the measurement target is a stationary object. When the measurement target is a moving body, the measurement result D1 of the time
このような移動体に起因するズレを解消するために、時間相関イメージセンサ11の計測結果D1及びライダ12の計測結果D2との対応付けを工夫する。具体的には、ライダ12の分解能単位で対応付けを行うことにより、移動体に起因するズレを緩和する。
In order to eliminate the deviation caused by such a moving body, the correspondence between the measurement result D1 of the time
中間生成部17は、ライダ12の分解能に対応する点群とライダ12の計測時刻におけるカメラ画像とに基づいて、複数の中間フュージョン画像を生成する。図6は、カメラとライダとの計測結果から中間フュージョン画像を生成してフュージョン画像を生成する流れを説明する図である。図6の(A)に示されるように、ライダ12の計測結果D2は、縦に並ぶ点群であり、この縦1列の点群がライダの分解能である。ライダの分解能に応じた点群ごとに、当該点群の計測時刻tLにおけるカメラ画像が推定され、対応付けられる。続いて、図6の(B)に示されるように、計測時刻tLごとに、中間生成部17は、ライダの分解能分の点群に対応する画像GD2を時間相関イメージセンサ11の計測結果D1から切り出す。これにより、ライダの分解能分の画像GD2、つまり中間フュージョン画像GD2を時系列で得ることができる。
The
合成部18は、複数の中間フュージョン画像GD2を合成してフュージョン画像Fを生成する。図6の(C)に示されるように、合成部18は、複数の中間フュージョン画像GD2を位置合わせし、統合する。合成部18は、例えば、時間相関イメージセンサ11の画角とライダ12の画角のうち狭い方に合わせてフュージョン画像Fを生成する。
The synthesizing
(画像処理装置の動作)
図7は、任意時刻の画像生成動作を示すフローチャートである。図7に示されるフローチャートは、ユーザによるフュージョン画像の生成指示操作を受け付けたタイミングで実行される。
(Operation of image processing device)
FIG. 7 is a flowchart showing an image generation operation at an arbitrary time. The flowchart shown in FIG. 7 is executed at the timing when the user receives the operation of instructing the generation of the fusion image.
最初に、時間相関イメージセンサ11は、強度画像g0(x,y,t)及び相関画像g1(x,y,t)を生成する(ステップS10)。次に、推定部16は、n=0の数式(3)とn=1の数式(3)とを連立させてオプティカルフロー場v(x,y)を算出する(ステップS12)。続いて、推定部16は、強度画像g0(x,y,t)、相関画像g1(x,y,t)及びオプティカルフロー場v(x,y)を数式(3)に代入して数式(3)の第二項である積分境界値(積分境界値画像F0(x,y))を再現する(ステップS14)。そして、推定部16は、n>=2に関する数式(3)を、既知の係数ベクトルvと既知の駆動項F0(x,y)をもつ偏微分方程式とみなし、これを数学的に解いて、高次のフーリエ係数画像gn(x,y)を推定する(ステップS16)。ステップS16が終了すると、図7に示されるフローチャートは終了する。
First, the time
フローチャートが終了した後、画像処理装置1は、ユーザによる終了操作を受け付けたか否かを判定し、ユーザによる終了操作を受け付けていない場合には、図7に示されるフローチャートを最初から実行する。図7に示されるフローチャートを実行することにより、画素(x,y)の時刻tの輝度関数Y(x,y,t)を得ることができる。 After the flowchart is completed, the image processing device 1 determines whether or not the user has accepted the end operation, and if the user has not accepted the end operation, the image processing device 1 executes the flowchart shown in FIG. 7 from the beginning. By executing the flowchart shown in FIG. 7, the luminance function Y (x, y, t) at the time t of the pixel (x, y) can be obtained.
図8は、フュージョン画像の生成動作を示すフローチャートである。図8に示されるフローチャートは、ユーザによるフュージョン画像の生成指示操作を受け付けたタイミングで実行される。 FIG. 8 is a flowchart showing a fusion image generation operation. The flowchart shown in FIG. 8 is executed at the timing when the user receives the operation of instructing the generation of the fusion image.
図8に示されるように、時刻算出部14は、ライダ12のライダ計測信号と、キャリブレーション情報記憶部15に記憶されたキャリブレーション情報に基づいて対応画素を算出する(ステップS20)。時刻算出部14は、ライダ12の計測方向に対応する時間相関イメージセンサ11の画素(x,y)を算出する。
As shown in FIG. 8, the
続いて、推定部16は、ステップS20で得られたライダ12の計測時刻tLにおける輝度値を算出するために、計測時刻tLを時間相関イメージセンサ11のフレーム内時刻に換算する(ステップS22)。フレーム内時刻は、フレーム開始時を0とする時刻である。推定部16は、時間相関イメージセンサ11により出力されたフレーム端点時刻に基づいて、計測時刻tLをフレーム内時刻C(x,y)に換算する。
Subsequently, the
続いて、推定部16は、図7のフローチャートにより取得された輝度関数Y(x,y,t)を用いて、フレーム内時刻C(x,y)における輝度値Y(x,y,C(x,y))を算出する(ステップS24)。これにより、計測時刻tLにおける輝度値が得られる。
Subsequently, the
続いて、中間生成部17は、ライダ12の分解能に対応する点群とライダ12の計測時刻tLにおける輝度値Y(x,y,C(x,y))とに基づいて、複数の中間フュージョン画像を生成する(ステップS26)。図6の(B)に示されるように、カメラ画像から点群に対応する中間フュージョン画像GD2が切り出される。
Subsequently, the
続いて、合成部18は、複数の中間フュージョン画像GD2を合成してフュージョン画像Fを生成する(ステップS28)。図6の(C)に示されるように、合成部18は、複数の中間フュージョン画像GD2を位置合わせして統合することにより、1枚のフュージョン画像Fを得る。ステップS28が終了すると、図8に示されるフローチャートは終了する。
Subsequently, the
フローチャートが終了した後、画像処理装置1は、ユーザによる終了操作を受け付けたか否かを判定し、ユーザによる終了操作を受け付けていない場合には、図8に示されるフローチャートを最初から実行する。図8に示されるフローチャートを実行することにより、1枚のフュージョン画像Fを得ることができる。 After the flowchart is completed, the image processing device 1 determines whether or not the user has accepted the end operation, and if the user has not accepted the end operation, the image processing device 1 executes the flowchart shown in FIG. 8 from the beginning. By executing the flowchart shown in FIG. 8, one fusion image F can be obtained.
(実施形態のまとめ)
画像処理装置1によれば、時間相関イメージセンサ11により取得された情報とライダ12の計測時刻tLとに基づいてライダ12の計測時刻tLにおける時間相関イメージセンサ11のカメラ画像が推定される。そして、ライダ12の分解能に対応する点群(測定結果D2)とライダ12の計測時刻tLにおけるカメラ画像とに基づいて、複数の中間フュージョン画像が生成される。そして、複数の中間フュージョン画像GD2を合成してフュージョン画像Fが生成される。このように、時間相関イメージセンサ11を用いてライダ12の計測時刻tLに合わせた画像を推定し、ライダ12の分解能に合わせて画像を逐次切り出して中間フュージョン画像を生成し、複数の中間フュージョン画像を統合して最終的なフュージョン画像を生成することにより、センサ間の時間的及び空間的なズレを緩和することができる。このため、画像処理装置1によれば、カメラ画像と点群との対応付けの確度を向上させることができる。
(Summary of Embodiment)
According to the image processing device 1, the camera image of the time
本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention is not limited to the above embodiment. The present invention can be modified in various ways without departing from the gist thereof.
カメラとして時間相関イメージセンサ11を採用する例を説明したが、本開示は時間相関イメージセンサ11に限定されず、シャッターを常時開放可能なCMOSカメラであってもよい。CMOSカメラを採用する場合には、フレーム開始時刻の輝度(例えば現時点から1つ前のフレームの画像の輝度)とフレーム終了時刻の輝度(現時点のフレームの画像の輝度)とを線形補間することにより、ライダ12の計測時刻tLに合わせたフレーム内の画像を再現することができる。
Although an example of adopting the time
1…画像処理装置、12…ライダ、16…推定部、17…中間生成部、18…合成部、GD2…中間フュージョン画像、F…フュージョン画像、tL…計測時刻。 1 ... image processing device, 12 ... rider, 16 ... estimation unit, 17 ... intermediate generation unit, 18 ... synthesis unit, GD2 ... intermediate fusion image, F ... fusion image, tL ... measurement time.
Claims (1)
前記カメラにより取得された情報と前記ライダの計測時刻とに基づいて、前記ライダの計測時刻における前記カメラ画像を推定する推定部と、
前記ライダの分解能に対応する点群と前記ライダの計測時刻における前記カメラ画像とに基づいて、複数の中間フュージョン画像を生成する中間生成部と、
前記複数の中間フュージョン画像を合成して前記フュージョン画像を生成する合成部と、
を備える画像処理装置。 An image processing device that generates a fusion image using a camera image taken by a camera that can always open the shutter and a group of points acquired by the rider.
An estimation unit that estimates the camera image at the measurement time of the rider based on the information acquired by the camera and the measurement time of the rider.
An intermediate generation unit that generates a plurality of intermediate fusion images based on the point cloud corresponding to the resolution of the rider and the camera image at the measurement time of the rider.
A compositing unit that synthesizes the plurality of intermediate fusion images to generate the fusion image, and
An image processing device comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145687A JP2021026622A (en) | 2019-08-07 | 2019-08-07 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145687A JP2021026622A (en) | 2019-08-07 | 2019-08-07 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021026622A true JP2021026622A (en) | 2021-02-22 |
Family
ID=74662353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019145687A Pending JP2021026622A (en) | 2019-08-07 | 2019-08-07 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021026622A (en) |
-
2019
- 2019-08-07 JP JP2019145687A patent/JP2021026622A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3707674B1 (en) | Method and apparatus for performing depth estimation of object | |
JP6764863B2 (en) | Distance measuring device | |
JP6296401B2 (en) | Distance measuring device and solid-state imaging device | |
US9188663B2 (en) | Time-of-flight imager | |
TWI393980B (en) | The method of calculating the depth of field and its method and the method of calculating the blurred state of the image | |
US8400505B2 (en) | Calibration method, calibration device, and calibration system including the device | |
JP2004061446A (en) | Pattern matching processing method and image processor | |
JP6413595B2 (en) | Image processing apparatus, system, image processing method, and program | |
JP2008520988A (en) | Error compensation method for 3D camera | |
JP4831760B2 (en) | 3D information detection method and apparatus | |
KR20190098242A (en) | System for characterizing the environment around the vehicle | |
JP4843544B2 (en) | 3D image correction method and apparatus | |
US10209360B2 (en) | Reduced phase sampling for high speed depth sensing | |
CN114170192A (en) | Fine detection method for focus plane tremor of satellite-borne optical camera | |
JP5162412B2 (en) | Tunnel wall surface photographing device | |
WO2023244252A1 (en) | 3d vision system with automatically calibrated stereo vision sensors and lidar sensor | |
US9538161B2 (en) | System and method for stereoscopic photography | |
JP2021026622A (en) | Image processing apparatus | |
JP7147729B2 (en) | Movement amount estimation device, movement amount estimation method, movement amount estimation program, and movement amount estimation system | |
US20220038646A1 (en) | Synchronized camera system having two different cameras | |
JP6039381B2 (en) | FOCUS DETECTION DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND FOCUS DETECTION METHOD | |
JP2012049947A (en) | Image processing apparatus | |
JP2012049947A5 (en) | ||
US20230003894A1 (en) | Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method | |
KR101649181B1 (en) | Flight information estimator and estimation method of the flying objects |