JP2021026622A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2021026622A
JP2021026622A JP2019145687A JP2019145687A JP2021026622A JP 2021026622 A JP2021026622 A JP 2021026622A JP 2019145687 A JP2019145687 A JP 2019145687A JP 2019145687 A JP2019145687 A JP 2019145687A JP 2021026622 A JP2021026622 A JP 2021026622A
Authority
JP
Japan
Prior art keywords
rider
image
time
camera
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019145687A
Other languages
Japanese (ja)
Inventor
金道 敏樹
Toshiki Kanemichi
敏樹 金道
秀堅 本谷
Hidekata Hontani
秀堅 本谷
友樹 山東
Yuki Santo
友樹 山東
達也 横田
Tatsuya Yokota
達也 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019145687A priority Critical patent/JP2021026622A/en
Publication of JP2021026622A publication Critical patent/JP2021026622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide an image processing apparatus with improved accuracy of correlating a camera image and a dot group.SOLUTION: An image processing apparatus generating a fusion image by using a camera image picked up with a camera capable of keeping a shutter open at all times and a dot group acquired by a rider, includes: an estimation part for estimating, on the basis of information obtained by the camera and a clock time of the rider measuring, a camera image at the clock time of the rider measuring; an intermediate generation part for generating plural intermediate fusion images on the basis of a dot group corresponding to a resolution of the rider and the camera image at the clock time of the rider measuring; and a synthesis part for generating a fusion image by synthesizing the plural intermediate fusion images.SELECTED DRAWING: Figure 1

Description

本開示は、画像処理装置に関する。 The present disclosure relates to an image processing apparatus.

特許文献1は、センサフュージョンによって複数種類のセンサの情報を組み合わせる装置を開示する。この装置は、センサとしてライダ(LIDAR:Laser Imaging Detection and Ranging)及びカメラを用いる。 Patent Document 1 discloses a device that combines information of a plurality of types of sensors by sensor fusion. This device uses a lidar (LIDAR: Laser Imaging Detection and Ranging) and a camera as sensors.

特開2018−048949号公報JP-A-2018-048949

センサフュージョンの一例として、カメラにより撮像されたカメラ画像とライダにより生成された点群とを用いて、フュージョン画像を生成することが考えられる。しかしながらカメラの計測周期(フレームレート)とライダの計測周期とは相違する。さらに、カメラは二次元計測であるのに対してライダは三次元計測である。このため、両者は、測定タイミングだけでなく測定範囲も相違する。よって、両者を組み合わせた適切なフュージョン画像を生成することは困難である。 As an example of sensor fusion, it is conceivable to generate a fusion image by using a camera image captured by a camera and a point cloud generated by a rider. However, the measurement cycle (frame rate) of the camera and the measurement cycle of the rider are different. Furthermore, the camera is a two-dimensional measurement, while the rider is a three-dimensional measurement. Therefore, not only the measurement timing but also the measurement range is different between the two. Therefore, it is difficult to generate an appropriate fusion image by combining both.

本開示は、カメラ画像と点群との対応付けの確度を向上させた画像処理装置を提供する。 The present disclosure provides an image processing device with improved accuracy of association between a camera image and a point cloud.

本開示の一形態は、シャッターを常時開放可能なカメラにより撮影されたカメラ画像と、ライダにより取得された点群とを用いてフュージョン画像を生成する画像処理装置であって、カメラにより取得された情報とライダの計測時刻とに基づいて、ライダの計測時刻におけるカメラ画像を推定する推定部と、ライダの分解能に対応する点群とライダの計測時刻におけるカメラ画像とに基づいて、複数の中間フュージョン画像を生成する中間生成部と、複数の中間フュージョン画像を合成してフュージョン画像を生成する合成部とを備える。 One form of the present disclosure is an image processing device that generates a fusion image by using a camera image taken by a camera capable of constantly opening the shutter and a point group acquired by a rider, and is acquired by the camera. Multiple intermediate fusions based on an estimater that estimates the camera image at the rider's measurement time based on the information and the rider's measurement time, and a group of points corresponding to the rider's resolution and the camera image at the rider's measurement time. It includes an intermediate generation unit that generates an image and a composition unit that synthesizes a plurality of intermediate fusion images to generate a fusion image.

本開示によれば、カメラ画像と点群との対応付けの確度を向上させることができる。 According to the present disclosure, it is possible to improve the accuracy of associating a camera image with a point cloud.

実施形態に係る画像処理装置の構成概要を説明するブロック図である。It is a block diagram explaining the configuration outline of the image processing apparatus which concerns on embodiment. センサ設置位置と、カメラの計測範囲とライダの計測範囲とを説明する図である。It is a figure explaining the sensor installation position, the measurement range of a camera, and the measurement range of a rider. カメラの計測時間とライダの計測時間とを説明する図である。It is a figure explaining the measurement time of a camera and the measurement time of a rider. 静止物を対象としたカメラとライダとの計測結果の統合を説明する図である。It is a figure explaining the integration of the measurement result of a camera and a rider for a stationary object. 移動体を対象としたカメラとライダとの計測結果を説明する図である。It is a figure explaining the measurement result of a camera and a rider for a moving body. カメラとライダとの計測結果から中間フュージョン画像を生成してフュージョン画像を生成する流れを説明する図である。It is a figure explaining the flow of generating an intermediate fusion image from the measurement result of a camera and a rider, and generating a fusion image. 任意時刻の画像生成動作を示すフローチャートである。It is a flowchart which shows the image generation operation of arbitrary time. フュージョン画像の生成動作を示すフローチャートである。It is a flowchart which shows the generation operation of a fusion image.

以下、種々の例示的実施形態について説明する。以下の説明において、同一又は相当要素には同一符号を付し、重複する説明は繰り返さない。 Hereinafter, various exemplary embodiments will be described. In the following description, the same or equivalent elements are designated by the same reference numerals, and duplicate description will not be repeated.

(画像処理装置の構成)
図1は、実施形態に係る画像処理装置の構成概要を説明するブロック図である。図1に示されるように、画像処理装置1は、車両2に搭載され、カメラにより撮影された画像であるカメラ画像と、ライダにより取得された点群とを統合したフュージョン画像を生成する装置である。
(Configuration of image processing device)
FIG. 1 is a block diagram illustrating an outline of a configuration of an image processing apparatus according to an embodiment. As shown in FIG. 1, the image processing device 1 is a device mounted on a vehicle 2 and generates a fusion image in which a camera image which is an image taken by a camera and a point cloud acquired by a rider are integrated. is there.

画像処理装置1は、ECU(Electronic Control Unit)10、時間相関イメージセンサ11、ライダ12、及び時計13を備える。ECUは、CPU(Central Processing Unit)、ROM(Read OnlyMemory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路などを有する電子制御ユニットである。ECU10は、時間相関イメージセンサ11及びライダ12に接続される。時間相関イメージセンサ11及びライダ12は、時計13から時刻tを受信してそれぞれの内部時刻を同期させる。 The image processing device 1 includes an ECU (Electronic Control Unit) 10, a time correlation image sensor 11, a rider 12, and a clock 13. The ECU is an electronic control unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a CAN (Controller Area Network) communication circuit, and the like. The ECU 10 is connected to the time correlation image sensor 11 and the rider 12. The time correlation image sensor 11 and the rider 12 receive the time t from the clock 13 and synchronize their internal times.

時間相関イメージセンサ11は、シャッターを常時開放可能なカメラの一例である。シャッターを常時開放するとは、露光時間に時間的な空きがなく、常に光強度を計測できることを意味する。時間相関イメージセンサ11のイメージャの1つの画素は、1つの光ダイオードと、光ダイオードから生じた電荷を外部からの参照信号に従って3つのキャパシタに振り分ける構成を有する。参照信号は、概して三相交流である。画像を生み出す画素ごとの光電流は、以下の数式1に従う。

Figure 2021026622

f(x,y,t)は時刻tにおける画素(x,y)の明度であり、vは画素(x,y)の速度である。 The time correlation image sensor 11 is an example of a camera capable of constantly opening the shutter. Opening the shutter all the time means that there is no time gap in the exposure time and the light intensity can be measured at all times. One pixel of the imager of the time-correlated image sensor 11 has a configuration of one light diode and a configuration in which the electric charge generated from the light diode is distributed to three capacitors according to a reference signal from the outside. The reference signal is generally three-phase alternating current. The photocurrent for each pixel that produces an image follows Equation 1 below.
Figure 2021026622

f (x, y, t) is the brightness of the pixel (x, y) at time t, and v is the velocity of the pixel (x, y).

1フレームの画像を取得する撮像時間(シャッター開放時間)をTとし、画像g(x,y)を以下の数式(2)のように表す。

Figure 2021026622

数式(2)に示されるように、画像は、明度f(x,y,t)に複素数の参照信号e-inΔ ω を乗じて1フレーム時間の積分を演算した値となる。撮像された画像g(x,y)は以下の数式(3)を満たすとする。
Figure 2021026622

数式(3)の第二項は積分境界値である。数式(3)は連立方程式をなしているため、例えば2つの画像g(x,y)、g(x,y)を用いて連立方程式を解くことで、積分境界値を消去することができる。時間相関イメージセンサは、実部のみからなる強度画像g(x,y)と、複素数の相関画像g(x,y)の実部と虚部を出力することができる。このため、センサ検出結果を数式(3)の連立方程式に代入して解くことで各画素における速度v、つまりオプティカルフローを得ることができる。時間相関イメージセンサ11は、上述した強度画像、相関画像、及びフレーム端点時刻を出力する。以下では、時間相関イメージセンサ11により出力される画像又は画素をカメラ画像という。 The imaging time (shutter opening time) for acquiring an image of one frame is T, and the image g (x, y) is expressed by the following mathematical formula (2).
Figure 2021026622

As shown in the formula (2), the image is a value obtained by multiplying the brightness f (x, y, t) by the complex reference signal e -in Δ ω t and calculating the integral for one frame time. It is assumed that the captured image g (x, y) satisfies the following mathematical formula (3).
Figure 2021026622

The second term of equation (3) is the integration boundary value. Since the equation (3) is a simultaneous equation, it is possible to eliminate the integration boundary value by solving the simultaneous equations using , for example, two images g 0 (x, y) and g 1 (x, y). it can. The time correlation image sensor can output the real part and the imaginary part of the intensity image g 0 (x, y) consisting only of the real part and the complex number correlation image g n (x, y). Therefore, the velocity v at each pixel, that is, the optical flow can be obtained by substituting the sensor detection result into the simultaneous equations of the equation (3) and solving the equation. The time correlation image sensor 11 outputs the above-mentioned intensity image, correlation image, and frame endpoint time. Hereinafter, the image or pixel output by the time correlation image sensor 11 is referred to as a camera image.

ライダ12は、光を利用して車両2の周辺の物体を検出する検出機器である。ライダ12は、光を車両2の周辺に送信し、物体で反射された光を受信することで物体を検出する。ライダ12は、ライダ計測信号を出力する。ライダ計測信号には、距離、方位、計測時刻tLが含まれる。 The rider 12 is a detection device that detects an object around the vehicle 2 by using light. The rider 12 transmits light to the periphery of the vehicle 2 and detects the object by receiving the light reflected by the object. The rider 12 outputs a rider measurement signal. The rider measurement signal includes a distance, a direction, and a measurement time tL.

図2は、センサ設置位置と、カメラの計測範囲とライダの計測範囲とを説明する図である。図2の(A)に示されるように、車両2には、時間相関イメージセンサ11とライダ12とが異なる位置に設けられており、測定原点位置が相違する。また、時間相関イメージセンサ11は、車両2の前方の定まった範囲である計測範囲R1を計測する。これに対して、ライダ12は、非常に狭い範囲である計測範囲R2を回転させながら計測を行う(図中矢印)。このため、図2の(B)に示されるように、フュージョン画像の生成は、ライダ12の計測範囲R2が時間相関イメージセンサ11の計測範囲R1と重なるときだけ可能となる。 FIG. 2 is a diagram illustrating a sensor installation position, a camera measurement range, and a rider measurement range. As shown in FIG. 2A, the vehicle 2 is provided with the time correlation image sensor 11 and the rider 12 at different positions, and the measurement origin positions are different. Further, the time correlation image sensor 11 measures the measurement range R1 which is a fixed range in front of the vehicle 2. On the other hand, the rider 12 performs measurement while rotating the measurement range R2, which is a very narrow range (arrow in the figure). Therefore, as shown in FIG. 2B, the fusion image can be generated only when the measurement range R2 of the rider 12 overlaps with the measurement range R1 of the time correlation image sensor 11.

図3は、カメラの計測時間とライダの計測時間とを説明する図である。図3に示されるように、時間相関イメージセンサ11は、フレーム周期T1間隔(1/30sec)で画像に関する情報を取得することができ、露光時間に時間的な空きがない。このため、ライダ12の計測時間T2は、時間相関イメージセンサ11の計測時間と常に重なることになる。 FIG. 3 is a diagram for explaining the measurement time of the camera and the measurement time of the rider. As shown in FIG. 3, the time correlation image sensor 11 can acquire information about an image at a frame period T1 interval (1/30 sec), and there is no time gap in the exposure time. Therefore, the measurement time T2 of the rider 12 always overlaps with the measurement time of the time correlation image sensor 11.

図1に戻り、ECU10は、時刻算出部14、キャリブレーション情報記憶部15、推定部16、中間生成部17、及び合成部18を備える。 Returning to FIG. 1, the ECU 10 includes a time calculation unit 14, a calibration information storage unit 15, an estimation unit 16, an intermediate generation unit 17, and a synthesis unit 18.

時刻算出部14は、ライダ12のライダ計測信号と、キャリブレーション情報記憶部15に記憶されたキャリブレーション情報に基づいて対応画素を算出する。キャリブレーション情報記憶部15は、キャリブレーション情報を予め記憶する記憶媒体である。キャリブレーション情報は、時間相関イメージセンサ11とライダ12との空間的な差異を補正する情報であり、予め取得される。図2の(A)に示されるように、車両2には、時間相関イメージセンサ11とライダ12とが異なる位置に設けられており、キャリブレーション情報は、時間相関イメージセンサ11とライダ12との測定原点位置の違いを補正する情報である。 The time calculation unit 14 calculates the corresponding pixel based on the rider measurement signal of the rider 12 and the calibration information stored in the calibration information storage unit 15. The calibration information storage unit 15 is a storage medium that stores calibration information in advance. The calibration information is information that corrects the spatial difference between the time correlation image sensor 11 and the rider 12, and is acquired in advance. As shown in FIG. 2A, the vehicle 2 is provided with the time correlation image sensor 11 and the rider 12 at different positions, and the calibration information is provided by the time correlation image sensor 11 and the rider 12. This is information for correcting the difference in the measurement origin position.

図4は、静止物を対象としたカメラとライダとの計測結果の統合を説明する図である。図4に示されるように、時間相関イメージセンサ11の計測結果D1とライダ12の計測結果D2に空間的なズレが生じている。時刻算出部14は、キャリブレーション情報を用いて計測結果D1と計測結果D2との位置合わせ(座標変換など)を行い、ライダ計測信号で測定された距離および方位に対応する画素の位置(時間相関イメージセンサ11の画像上の位置)を算出する。これにより、時間相関イメージセンサ11の計測結果D1とライダ12の計測結果D2とが対応付けられる。 FIG. 4 is a diagram illustrating integration of measurement results between a camera and a rider for a stationary object. As shown in FIG. 4, there is a spatial deviation between the measurement result D1 of the time correlation image sensor 11 and the measurement result D2 of the rider 12. The time calculation unit 14 aligns the measurement result D1 and the measurement result D2 (coordinate conversion, etc.) using the calibration information, and positions the pixels corresponding to the distance and direction measured by the rider measurement signal (time correlation). The position of the image sensor 11 on the image) is calculated. As a result, the measurement result D1 of the time correlation image sensor 11 and the measurement result D2 of the rider 12 are associated with each other.

推定部16は、時間相関イメージセンサ11により取得された情報とライダ12の計測時刻tLとに基づいて、ライダ12の計測時刻tLにおけるカメラ画像を推定する。具体的には、推定部16は、時刻算出部14により算出された対応画素及び計測時刻tLに基づいて、対応画素の計測時刻tLにおける輝度値を再現する。時間相関イメージング技術として、1フレーム時間内の任意の画像を再現する手法が知られている。数式(3)は、任意のn>=0に関して成り立つものの、観測で得られるものはg(x,y)とg(x,y)のみである。この2枚の画像から、速度ベクトルvと、数式(3)の第二項である積分境界値(積分境界値画像F(x,y))とが求められる。そこで、n>=2に関する数式(3)を、既知の係数ベクトルvと既知の駆動項F(x,y)をもつ偏微分方程式とみなし、これを数学的に解いて、高次のフーリエ係数画像g(x,y)を推定する。これにより、対応画素の計測時刻tLにおける輝度値を再現することができる。 The estimation unit 16 estimates the camera image at the measurement time tL of the rider 12 based on the information acquired by the time correlation image sensor 11 and the measurement time tL of the rider 12. Specifically, the estimation unit 16 reproduces the brightness value of the corresponding pixel at the measurement time tL based on the corresponding pixel and the measurement time tL calculated by the time calculation unit 14. As a time correlation imaging technique, a method of reproducing an arbitrary image within one frame time is known. Although the formula (3) holds for any n> = 0, only g 0 (x, y) and g 1 (x, y) can be obtained by observation. From these two images, the velocity vector v and the integration boundary value (integration boundary value image F 0 (x, y)) which is the second term of the mathematical formula (3) can be obtained. Therefore, the mathematical formula (3) for n> = 2 is regarded as a partial differential equation having a known coefficient vector v and a known driving term F 0 (x, y), and this is mathematically solved to obtain a higher-order Fourier. The coefficient image g n (x, y) is estimated. Thereby, the brightness value at the measurement time tL of the corresponding pixel can be reproduced.

上記の説明は、測定対象が静止物である場合である。計測対象が移動する移動体である場合には、時間相関イメージセンサ11の計測結果D1及びライダ12の計測結果D2は変化する。図5は、移動体を対象としたカメラとライダとの計測結果を説明する図である。図5に示されるように、時間相関イメージセンサ11の計測結果D1は、移動体を対象とした場合には時間的なズレが生じるため、ボケ(いわゆるゴースト)が発生する。さらに、ライダ12の計測結果は、スキャン方向に移動分のズレが生じるため、点群の配列に歪みが発生する。 The above description is for the case where the measurement target is a stationary object. When the measurement target is a moving body, the measurement result D1 of the time correlation image sensor 11 and the measurement result D2 of the rider 12 change. FIG. 5 is a diagram for explaining the measurement results of the camera and the rider for the moving body. As shown in FIG. 5, the measurement result D1 of the time correlation image sensor 11 causes a time lag when a moving object is targeted, so that blurring (so-called ghost) occurs. Further, the measurement result of the rider 12 is displaced by the amount of movement in the scanning direction, so that the arrangement of the point cloud is distorted.

このような移動体に起因するズレを解消するために、時間相関イメージセンサ11の計測結果D1及びライダ12の計測結果D2との対応付けを工夫する。具体的には、ライダ12の分解能単位で対応付けを行うことにより、移動体に起因するズレを緩和する。 In order to eliminate the deviation caused by such a moving body, the correspondence between the measurement result D1 of the time correlation image sensor 11 and the measurement result D2 of the rider 12 is devised. Specifically, the deviation caused by the moving body is alleviated by associating with the resolution unit of the rider 12.

中間生成部17は、ライダ12の分解能に対応する点群とライダ12の計測時刻におけるカメラ画像とに基づいて、複数の中間フュージョン画像を生成する。図6は、カメラとライダとの計測結果から中間フュージョン画像を生成してフュージョン画像を生成する流れを説明する図である。図6の(A)に示されるように、ライダ12の計測結果D2は、縦に並ぶ点群であり、この縦1列の点群がライダの分解能である。ライダの分解能に応じた点群ごとに、当該点群の計測時刻tLにおけるカメラ画像が推定され、対応付けられる。続いて、図6の(B)に示されるように、計測時刻tLごとに、中間生成部17は、ライダの分解能分の点群に対応する画像GD2を時間相関イメージセンサ11の計測結果D1から切り出す。これにより、ライダの分解能分の画像GD2、つまり中間フュージョン画像GD2を時系列で得ることができる。 The intermediate generation unit 17 generates a plurality of intermediate fusion images based on the point cloud corresponding to the resolution of the rider 12 and the camera image at the measurement time of the rider 12. FIG. 6 is a diagram illustrating a flow of generating an intermediate fusion image from the measurement results of the camera and the rider to generate the fusion image. As shown in FIG. 6A, the measurement result D2 of the rider 12 is a vertically arranged point cloud, and the vertically one row of point clouds is the resolution of the rider. A camera image at the measurement time tL of the point cloud is estimated and associated with each point cloud according to the resolution of the rider. Subsequently, as shown in FIG. 6B, at each measurement time tL, the intermediate generation unit 17 obtains the image GD2 corresponding to the point cloud corresponding to the resolution of the rider from the measurement result D1 of the time correlation image sensor 11. break the ice. As a result, the image GD2 corresponding to the resolution of the rider, that is, the intermediate fusion image GD2 can be obtained in chronological order.

合成部18は、複数の中間フュージョン画像GD2を合成してフュージョン画像Fを生成する。図6の(C)に示されるように、合成部18は、複数の中間フュージョン画像GD2を位置合わせし、統合する。合成部18は、例えば、時間相関イメージセンサ11の画角とライダ12の画角のうち狭い方に合わせてフュージョン画像Fを生成する。 The synthesizing unit 18 synthesizes a plurality of intermediate fusion images GD2 to generate a fusion image F. As shown in FIG. 6C, the compositing unit 18 aligns and integrates a plurality of intermediate fusion images GD2. The compositing unit 18 generates the fusion image F according to, for example, the narrower of the angle of view of the time correlation image sensor 11 and the angle of view of the rider 12.

(画像処理装置の動作)
図7は、任意時刻の画像生成動作を示すフローチャートである。図7に示されるフローチャートは、ユーザによるフュージョン画像の生成指示操作を受け付けたタイミングで実行される。
(Operation of image processing device)
FIG. 7 is a flowchart showing an image generation operation at an arbitrary time. The flowchart shown in FIG. 7 is executed at the timing when the user receives the operation of instructing the generation of the fusion image.

最初に、時間相関イメージセンサ11は、強度画像g(x,y,t)及び相関画像g(x,y,t)を生成する(ステップS10)。次に、推定部16は、n=0の数式(3)とn=1の数式(3)とを連立させてオプティカルフロー場v(x,y)を算出する(ステップS12)。続いて、推定部16は、強度画像g(x,y,t)、相関画像g(x,y,t)及びオプティカルフロー場v(x,y)を数式(3)に代入して数式(3)の第二項である積分境界値(積分境界値画像F(x,y))を再現する(ステップS14)。そして、推定部16は、n>=2に関する数式(3)を、既知の係数ベクトルvと既知の駆動項F(x,y)をもつ偏微分方程式とみなし、これを数学的に解いて、高次のフーリエ係数画像g(x,y)を推定する(ステップS16)。ステップS16が終了すると、図7に示されるフローチャートは終了する。 First, the time correlation image sensor 11 generates an intensity image g 0 (x, y, t) and a correlation image g 1 (x, y, t) (step S10). Next, the estimation unit 16 calculates the optical flow field v (x, y) by combining the mathematical formula (3) with n = 0 and the mathematical formula (3) with n = 1 (step S12). Subsequently, the estimation unit 16 substitutes the intensity image g 0 (x, y, t), the correlation image g 1 (x, y, t) and the optical flow field v (x, y) into the equation (3). The integration boundary value (integration boundary value image F 0 (x, y)), which is the second term of the mathematical formula (3), is reproduced (step S14). Then, the estimation unit 16 regards the equation (3) relating to n> = 2 as a partial differential equation having a known coefficient vector v and a known driving term F 0 (x, y), and mathematically solves this. , Higher-order Fourier coefficient image g n (x, y) is estimated (step S16). When step S16 ends, the flowchart shown in FIG. 7 ends.

フローチャートが終了した後、画像処理装置1は、ユーザによる終了操作を受け付けたか否かを判定し、ユーザによる終了操作を受け付けていない場合には、図7に示されるフローチャートを最初から実行する。図7に示されるフローチャートを実行することにより、画素(x,y)の時刻tの輝度関数Y(x,y,t)を得ることができる。 After the flowchart is completed, the image processing device 1 determines whether or not the user has accepted the end operation, and if the user has not accepted the end operation, the image processing device 1 executes the flowchart shown in FIG. 7 from the beginning. By executing the flowchart shown in FIG. 7, the luminance function Y (x, y, t) at the time t of the pixel (x, y) can be obtained.

図8は、フュージョン画像の生成動作を示すフローチャートである。図8に示されるフローチャートは、ユーザによるフュージョン画像の生成指示操作を受け付けたタイミングで実行される。 FIG. 8 is a flowchart showing a fusion image generation operation. The flowchart shown in FIG. 8 is executed at the timing when the user receives the operation of instructing the generation of the fusion image.

図8に示されるように、時刻算出部14は、ライダ12のライダ計測信号と、キャリブレーション情報記憶部15に記憶されたキャリブレーション情報に基づいて対応画素を算出する(ステップS20)。時刻算出部14は、ライダ12の計測方向に対応する時間相関イメージセンサ11の画素(x,y)を算出する。 As shown in FIG. 8, the time calculation unit 14 calculates the corresponding pixel based on the rider measurement signal of the rider 12 and the calibration information stored in the calibration information storage unit 15 (step S20). The time calculation unit 14 calculates the pixels (x, y) of the time correlation image sensor 11 corresponding to the measurement direction of the rider 12.

続いて、推定部16は、ステップS20で得られたライダ12の計測時刻tLにおける輝度値を算出するために、計測時刻tLを時間相関イメージセンサ11のフレーム内時刻に換算する(ステップS22)。フレーム内時刻は、フレーム開始時を0とする時刻である。推定部16は、時間相関イメージセンサ11により出力されたフレーム端点時刻に基づいて、計測時刻tLをフレーム内時刻C(x,y)に換算する。 Subsequently, the estimation unit 16 converts the measurement time tL into the time within the frame of the time correlation image sensor 11 in order to calculate the luminance value at the measurement time tL of the rider 12 obtained in step S20 (step S22). The in-frame time is a time with the frame start time as 0. The estimation unit 16 converts the measurement time tL into the in-frame time C (x, y) based on the frame end point time output by the time correlation image sensor 11.

続いて、推定部16は、図7のフローチャートにより取得された輝度関数Y(x,y,t)を用いて、フレーム内時刻C(x,y)における輝度値Y(x,y,C(x,y))を算出する(ステップS24)。これにより、計測時刻tLにおける輝度値が得られる。 Subsequently, the estimation unit 16 uses the luminance function Y (x, y, t) acquired by the flowchart of FIG. 7 to obtain the luminance value Y (x, y, C) at the time C (x, y) in the frame. x, y)) is calculated (step S24). As a result, the brightness value at the measurement time tL can be obtained.

続いて、中間生成部17は、ライダ12の分解能に対応する点群とライダ12の計測時刻tLにおける輝度値Y(x,y,C(x,y))とに基づいて、複数の中間フュージョン画像を生成する(ステップS26)。図6の(B)に示されるように、カメラ画像から点群に対応する中間フュージョン画像GD2が切り出される。 Subsequently, the intermediate generation unit 17 performs a plurality of intermediate fusions based on the point cloud corresponding to the resolution of the rider 12 and the brightness value Y (x, y, C (x, y)) at the measurement time tL of the rider 12. An image is generated (step S26). As shown in FIG. 6B, the intermediate fusion image GD2 corresponding to the point cloud is cut out from the camera image.

続いて、合成部18は、複数の中間フュージョン画像GD2を合成してフュージョン画像Fを生成する(ステップS28)。図6の(C)に示されるように、合成部18は、複数の中間フュージョン画像GD2を位置合わせして統合することにより、1枚のフュージョン画像Fを得る。ステップS28が終了すると、図8に示されるフローチャートは終了する。 Subsequently, the synthesis unit 18 synthesizes a plurality of intermediate fusion images GD2 to generate a fusion image F (step S28). As shown in FIG. 6C, the compositing unit 18 obtains one fusion image F by aligning and integrating a plurality of intermediate fusion images GD2. When step S28 ends, the flowchart shown in FIG. 8 ends.

フローチャートが終了した後、画像処理装置1は、ユーザによる終了操作を受け付けたか否かを判定し、ユーザによる終了操作を受け付けていない場合には、図8に示されるフローチャートを最初から実行する。図8に示されるフローチャートを実行することにより、1枚のフュージョン画像Fを得ることができる。 After the flowchart is completed, the image processing device 1 determines whether or not the user has accepted the end operation, and if the user has not accepted the end operation, the image processing device 1 executes the flowchart shown in FIG. 8 from the beginning. By executing the flowchart shown in FIG. 8, one fusion image F can be obtained.

(実施形態のまとめ)
画像処理装置1によれば、時間相関イメージセンサ11により取得された情報とライダ12の計測時刻tLとに基づいてライダ12の計測時刻tLにおける時間相関イメージセンサ11のカメラ画像が推定される。そして、ライダ12の分解能に対応する点群(測定結果D2)とライダ12の計測時刻tLにおけるカメラ画像とに基づいて、複数の中間フュージョン画像が生成される。そして、複数の中間フュージョン画像GD2を合成してフュージョン画像Fが生成される。このように、時間相関イメージセンサ11を用いてライダ12の計測時刻tLに合わせた画像を推定し、ライダ12の分解能に合わせて画像を逐次切り出して中間フュージョン画像を生成し、複数の中間フュージョン画像を統合して最終的なフュージョン画像を生成することにより、センサ間の時間的及び空間的なズレを緩和することができる。このため、画像処理装置1によれば、カメラ画像と点群との対応付けの確度を向上させることができる。
(Summary of Embodiment)
According to the image processing device 1, the camera image of the time correlation image sensor 11 at the measurement time tL of the rider 12 is estimated based on the information acquired by the time correlation image sensor 11 and the measurement time tL of the rider 12. Then, a plurality of intermediate fusion images are generated based on the point cloud (measurement result D2) corresponding to the resolution of the rider 12 and the camera image at the measurement time tL of the rider 12. Then, a plurality of intermediate fusion images GD2 are combined to generate a fusion image F. In this way, the time-correlation image sensor 11 is used to estimate the image according to the measurement time tL of the rider 12, and the images are sequentially cut out according to the resolution of the rider 12 to generate an intermediate fusion image, and a plurality of intermediate fusion images are generated. By integrating the above to generate the final fusion image, it is possible to alleviate the temporal and spatial deviation between the sensors. Therefore, according to the image processing device 1, the accuracy of associating the camera image with the point cloud can be improved.

本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention is not limited to the above embodiment. The present invention can be modified in various ways without departing from the gist thereof.

カメラとして時間相関イメージセンサ11を採用する例を説明したが、本開示は時間相関イメージセンサ11に限定されず、シャッターを常時開放可能なCMOSカメラであってもよい。CMOSカメラを採用する場合には、フレーム開始時刻の輝度(例えば現時点から1つ前のフレームの画像の輝度)とフレーム終了時刻の輝度(現時点のフレームの画像の輝度)とを線形補間することにより、ライダ12の計測時刻tLに合わせたフレーム内の画像を再現することができる。 Although an example of adopting the time correlation image sensor 11 as a camera has been described, the present disclosure is not limited to the time correlation image sensor 11, and a CMOS camera capable of constantly opening the shutter may be used. When a CMOS camera is adopted, the brightness of the frame start time (for example, the brightness of the image of the frame immediately before the current time) and the brightness of the frame end time (the brightness of the image of the current frame) are linearly interpolated. , The image in the frame according to the measurement time tL of the rider 12 can be reproduced.

1…画像処理装置、12…ライダ、16…推定部、17…中間生成部、18…合成部、GD2…中間フュージョン画像、F…フュージョン画像、tL…計測時刻。 1 ... image processing device, 12 ... rider, 16 ... estimation unit, 17 ... intermediate generation unit, 18 ... synthesis unit, GD2 ... intermediate fusion image, F ... fusion image, tL ... measurement time.

Claims (1)

シャッターを常時開放可能なカメラにより撮影されたカメラ画像と、ライダにより取得された点群とを用いてフュージョン画像を生成する画像処理装置であって、
前記カメラにより取得された情報と前記ライダの計測時刻とに基づいて、前記ライダの計測時刻における前記カメラ画像を推定する推定部と、
前記ライダの分解能に対応する点群と前記ライダの計測時刻における前記カメラ画像とに基づいて、複数の中間フュージョン画像を生成する中間生成部と、
前記複数の中間フュージョン画像を合成して前記フュージョン画像を生成する合成部と、
を備える画像処理装置。
An image processing device that generates a fusion image using a camera image taken by a camera that can always open the shutter and a group of points acquired by the rider.
An estimation unit that estimates the camera image at the measurement time of the rider based on the information acquired by the camera and the measurement time of the rider.
An intermediate generation unit that generates a plurality of intermediate fusion images based on the point cloud corresponding to the resolution of the rider and the camera image at the measurement time of the rider.
A compositing unit that synthesizes the plurality of intermediate fusion images to generate the fusion image, and
An image processing device comprising.
JP2019145687A 2019-08-07 2019-08-07 Image processing apparatus Pending JP2021026622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145687A JP2021026622A (en) 2019-08-07 2019-08-07 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145687A JP2021026622A (en) 2019-08-07 2019-08-07 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2021026622A true JP2021026622A (en) 2021-02-22

Family

ID=74662353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145687A Pending JP2021026622A (en) 2019-08-07 2019-08-07 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2021026622A (en)

Similar Documents

Publication Publication Date Title
EP3707674B1 (en) Method and apparatus for performing depth estimation of object
JP6764863B2 (en) Distance measuring device
JP6296401B2 (en) Distance measuring device and solid-state imaging device
US9188663B2 (en) Time-of-flight imager
TWI393980B (en) The method of calculating the depth of field and its method and the method of calculating the blurred state of the image
US8400505B2 (en) Calibration method, calibration device, and calibration system including the device
JP2004061446A (en) Pattern matching processing method and image processor
JP6413595B2 (en) Image processing apparatus, system, image processing method, and program
JP2008520988A (en) Error compensation method for 3D camera
JP4831760B2 (en) 3D information detection method and apparatus
KR20190098242A (en) System for characterizing the environment around the vehicle
JP4843544B2 (en) 3D image correction method and apparatus
US10209360B2 (en) Reduced phase sampling for high speed depth sensing
CN114170192A (en) Fine detection method for focus plane tremor of satellite-borne optical camera
JP5162412B2 (en) Tunnel wall surface photographing device
WO2023244252A1 (en) 3d vision system with automatically calibrated stereo vision sensors and lidar sensor
US9538161B2 (en) System and method for stereoscopic photography
JP2021026622A (en) Image processing apparatus
JP7147729B2 (en) Movement amount estimation device, movement amount estimation method, movement amount estimation program, and movement amount estimation system
US20220038646A1 (en) Synchronized camera system having two different cameras
JP6039381B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND FOCUS DETECTION METHOD
JP2012049947A (en) Image processing apparatus
JP2012049947A5 (en)
US20230003894A1 (en) Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method
KR101649181B1 (en) Flight information estimator and estimation method of the flying objects