KR102563750B1 - Method and Device of Image Deblurring - Google Patents

Method and Device of Image Deblurring Download PDF

Info

Publication number
KR102563750B1
KR102563750B1 KR1020160107863A KR20160107863A KR102563750B1 KR 102563750 B1 KR102563750 B1 KR 102563750B1 KR 1020160107863 A KR1020160107863 A KR 1020160107863A KR 20160107863 A KR20160107863 A KR 20160107863A KR 102563750 B1 KR102563750 B1 KR 102563750B1
Authority
KR
South Korea
Prior art keywords
image
dvs
blurring
deblurring
edge
Prior art date
Application number
KR1020160107863A
Other languages
Korean (ko)
Other versions
KR20170087814A (en
Inventor
치앙 왕
이규빈
박근주
핑 구오
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/356,808 priority Critical patent/US10062151B2/en
Publication of KR20170087814A publication Critical patent/KR20170087814A/en
Application granted granted Critical
Publication of KR102563750B1 publication Critical patent/KR102563750B1/en

Links

Images

Classifications

    • G06T5/003
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

영상 블러링 제거 방법은, 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득하는 단계 및 상기DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행하는 단계를 포함한다. 영상 블러링 제거 효과가 개선된 방법이 개시된다.An image de-blurring method includes obtaining a blurred image to be processed and a DVS event set recorded by a DVS sensor while the blurred image is exposed, and de-blurring the blurred image based on the DVS event set. It includes the steps of performing A method for improving image deblurring effect is disclosed.

Description

영상 블러링 제거 방법 및 장치{Method and Device of Image Deblurring}Method and device for removing image blurring {Method and Device of Image Deblurring}

아래에 설명되는 실시예들은 영상 처리 기술에 관한 것으로, 영상 블러링 제거 방법 및 장치에 관한 것이다.Embodiments described below relate to image processing technology, and to a method and apparatus for removing image blurring.

카메라를 사용하여 사진을 촬영할 때 손이 흔들리는 등 각종 원인에 의해 이미지가 흐려질 수 있다. 일반적으로 카메라 운동으로 인한 영상 블러링을 제거하거나 감소시키기 위해, 형성된 블러링 이미지에 대해서 블러링 제거 처리를 수행함으로써 선명한 이미지를 획득한다.When taking a picture using a camera, the image may be blurred due to various reasons, such as hand shaking. In general, in order to remove or reduce image blurring due to camera movement, a blurring image is obtained by performing a deblurring process on the formed blurring image.

기존의 블러링 제거 방법은 디콘볼루션 방식으로 블러링을 제거하므로 특정 영상에 대해서만 블러링을 제거하는 효과가 있다. 선명한 영상에 블러링이 발생하는 원인이 불명확할 경우 디콘볼루션을 이용하여 블러링을 제거하는 방법 자체가 문제가 될 수 있다. 영상이 블러링된 원인을 알지 못하므로 대부분의 방법은 해결하고자 하는 영상에 대해 목표하는 수치를 설정하고 실제 영상이 설정한 영상의 수치와 일치하지 않으면 블러링 제거 방법은 그 효과가 크지 않을 수 있다.Existing blurring removal methods have the effect of removing blurring only for a specific image because blurring is removed using a deconvolution method. When the cause of blurring in a clear image is unclear, the method of removing blurring using deconvolution itself may be a problem. Since the cause of the image blur is not known, most methods set a target value for the image to be solved, and if the actual image does not match the set image value, the blurring removal method may not have a great effect. .

영상 블러링 제거 방법은, 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득하는 단계 및 상기DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행하는 단계를 포함한다.An image de-blurring method includes obtaining a blurred image to be processed and a DVS event set recorded by a DVS sensor while the blurred image is exposed, and de-blurring the blurred image based on the DVS event set. It includes the steps of performing

상기DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행하는 단계는, 상기 DVS 이벤트 집합에 기초하여 DVS 엣지(edge) 추정 영상을 추정하고, 상기DVS 엣지 추정 영상에 기초하여 상기 블러링 제거 처리를 수행하는 단계를 포함할 수 있다.The performing of deblurring processing on the blurring image based on the DVS event set may include: estimating a DVS edge estimation image based on the DVS event set; It may include performing deblurring processing.

상기DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행하는 방식은, 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하는 방식, 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작고, 블러링 제거 처리 횟수가 최대 반복(iteration) 횟수보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 평균 엣지 다이어그램(Average Edge Diagram)을 결정하고, 상기 평균 엣지 다이어그램을 이용하여, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치를 만족하거나 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 제거 처리 결과를 블러링 제거 결과로 출력하는 방식, 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 횟수가 최대 반복 횟수보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식 및 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작고 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지, 상기 블러링 제거 처리 결과에 기초하여 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치를 만족하거나 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식 중 적어도 하나를 포함할 수 있다.The method of performing de-blurring processing based on the DVS edge estimation image includes a method of aligning the blurred image with the DVS edge estimation image and performing de-blurring processing based on a result of the alignment, the blurring image is aligned with the DVS edge estimation image, de-blurring processing is performed based on the alignment result, the de-blurring processing result is less than a predetermined de-blurring processing value, and the number of de-blurring processing is the maximum iteration If it is less than the number of times, an average edge diagram is determined based on the deblurring processing result, and the deblurring processing result satisfies a predetermined deblurring processing value using the average edge diagram, or A method of rearranging the blurring image with the DVS edge estimation image until the number of deblurring processing reaches the maximum number of iterations, and outputting the deblurring processing result as a deblurring result, the blurring image Align the DVS edge estimation image, perform de-blurring processing based on the alignment result, and determine an average edge diagram based on the de-blurring processing result when the number of de-blurring processing is less than the maximum iteration number; , Based on the average edge diagram, rearranging the blurred image to the DVS edge estimation image until the maximum number of iterations is reached, and outputting the blurring processing result as a deblurring result, and the blurring An image is aligned with the DVS edge estimation image, deblurring processing is performed based on the alignment result, and the deblurring processing result is less than a predetermined deblurring processing value and the number of deblurring processing reaches the maximum iteration number. an average edge diagram is determined based on the deblurring processing result, and based on the average edge diagram, the deblurring processing result satisfies a predetermined deblurring processing value or the number of deblurring processing is At least one of methods of aligning the blurred image with the DVS edge estimation image again until the maximum number of iterations is reached and outputting the blurring processing result as a deblurring result may be included.

상기 DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행하는 단계는, 상기 DVS 이벤트 집합에 기초하여, 상기 블러링 이미지가 노출되는 동안 카메라 운동 궤적 및 DVS 엣지 추정 영상을 추정하는 단계 및 상기 카메라 운동 궤적 및 DVS 엣지 추정 영상에 기초하여 상기 블러링 제거 처리를 수행하는 단계를 포함할 수 있다.The performing of de-blurring processing on the blurred image based on the DVS event set includes estimating a camera motion trajectory and a DVS edge estimation image while the blurred image is exposed based on the DVS event set. and performing the de-blurring process based on the camera motion trajectory and the DVS edge estimation image.

상기 카메라 운동 궤적 및 DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행하는 방식은, 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 상기 카메라 운동 궤적 방향상의 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치를 만족할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식, 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 설정된 최대 반복 횟수에 달성하지 못하면, 상기 블러링 제거 처리 결과에 기초하여 상기 카메라 운동 궤적 방향상의 평균 엣지 다이어그램을 결정하고 상기 평균 엣지 다이어그램을 이용하여, 설정된 최대 반복 횟수에 달성할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식 및 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작고 블러링 제거 처리 횟수가 최대 반복 횟수보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 상기 카메라 운동 궤적 방향상의 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 블러링 제거 처리 결과가 미리 설정된 블러링 제거 처리 수치를 만족하거나 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식 중 적어도 하나를 포함할 수 있다.The method of performing blurring removal processing based on the camera motion trajectory and the DVS edge estimation image includes aligning the blurred image to the DVS edge estimation image, performing blurring removal processing based on the alignment result, and blurring When the deblurring processing result is smaller than the predetermined deblurring processing value, determining an average edge diagram on the camera motion trajectory direction based on the deblurring processing result, and performing deblurring processing based on the average edge diagram. A method of rearranging the blurred image to the DVS edge estimation image until a result satisfies a predetermined de-blurring processing value, and outputting the blurring processing result as a de-blurring result; Align the edge estimation image, perform de-blurring processing based on the alignment result, and if the set maximum number of iterations is not achieved, determine an average edge diagram in the direction of the camera motion trajectory based on the de-blurring processing result A method of rearranging the blurred image to the DVS edge estimation image using the average edge diagram until a set maximum number of iterations is reached, and outputting the blurring processing result as a deblurring result, and the blurring An image is aligned with the DVS edge estimation image, deblurring processing is performed based on the alignment result, and the deblurring processing result is less than a predetermined deblurring processing value and the number of deblurring processing is less than the maximum iteration number. an average edge diagram in the direction of the camera motion trajectory is determined based on the deblurring process result, and based on the average edge diagram, the deblurring process result satisfies a preset deblurring process value or blurring It may include at least one of a method of rearranging the blurring image with the DVS edge estimation image until the number of iterations of the deblurring process reaches a maximum number of iterations, and outputting the result of the blurring process as a deblurring result.

상기 정렬 결과에 기초하여 블러링 제거 처리를 수행하는 단계는, 현재 정렬된 DVS 엣지 추정 영상에 기초하여 디콘볼루션 변환(deconvolution transform)을 이용하여 현재 정렬된 블러링 이미지에 대해 블러링 제거 처리를 수행하고, 현재 반복 단계에서 획득한 선명한 이미지를 블러링 제거 처리 결과로 하는 단계, 현재 반복 단계 및 이전 반복 단계에서의 이미지의 선명도 차이가 미리 정해진 임계값보다 작은 경우, 미리 정해진 블러링 제거 처리 수치를 만족한 것으로 결정하고, 상기 선명도의 차이가 상기 임계값보다 큰 경우, 미리 정해진 블러링 제거 처리 수치보다 작다고 결정하는 단계를 포함할 수 있다.In the performing of the de-blurring process based on the result of the alignment, the de-blurring process is performed on the currently aligned blurring image using a deconvolution transform based on the currently aligned DVS edge estimation image. and making the sharp image obtained in the current iteration step the deblurring process result, when the difference in sharpness between the images in the current iteration step and the previous iteration step is less than a predetermined threshold value, a predetermined deblurring process value. and determining that the sharpness difference is smaller than a predetermined deblurring processing value when the sharpness difference is greater than the threshold value.

상기 DVS 이벤트 집합에 기초하여 카메라 운동 궤적을 추정하는 단계는, 상기 노출되는 시간을 시간 순서에 따라 N개의 타임 슬라이스로 분할하고, 상기 DVS 이벤트 집합 중 같은 타임 슬라이스에 위치한 DVS 이벤트를 독립적인 이미지로 형성하고, 상기 N 개의 타임 슬라이스 내에 형성된 이미지에 기초하여 상기 노출되는 동안 카메라 운동 궤적을 결정하는 단계를 포함할 수 있다.상기 카메라 운동 궤적을 결정하는 방식은, 2개의 연속된 타임 슬라이스마다 형성된 이미지 중에서, 상기 DVS 이벤트의 위치 관계에 기초하여, 상기 2개의 연속된 타임 슬라이스 내 카메라의 변위(displacement)를 결정하고, 상기 노출되는 동안 2개의 연속된 타임 슬라이스마다 카메라의 변위들을 모두 시간 순서에 따라 연결하고, 상기 노출되는 동안의 카메라 운동 궤적 형성을 포함할 수 있다.상기 DVS 이벤트 집합에 기초하여 상기 DVS 엣지 추정 영상을 추정하는 단계는, 상기 노출되는 시간을 시간 순서에 따라 N 개의 타임 슬라이스로 분할하고, 상기 DVS 이벤트 집합 중 같은 타임 슬라이스에 있는 DVS 이벤트를 통합한 이미지를 형성하고, 모든 타임 슬라이스 내에 형성된 이미지를 정렬 및 중첩(overlay)하고, 중첩된 이미지의 스켈레톤(Skeleton) 다이어그램을 상기 DVS 엣지 추정 영상으로 계산하는 단계를 포함할 수 있다.In the step of estimating the camera motion trajectory based on the DVS event set, the exposure time is divided into N time slices according to time order, and DVS events located in the same time slice among the DVS event sets are divided into independent images. and determining a camera motion trajectory during exposure based on images formed in the N time slices. The method for determining the camera motion trajectory may include an image formed every two consecutive time slices. The displacement of the camera in two consecutive time slices is determined based on the positional relationship of the DVS event, and the displacements of the camera for each two consecutive time slices during the exposure are all ordered in time order. and forming a camera motion trajectory during the exposure. In the estimating the DVS edge estimation image based on the DVS event set, the exposure time may be divided into N time slices according to a time sequence. segmentation, form an image incorporating DVS events in the same time slice among the DVS event set, align and overlay images formed in all time slices, and create a skeleton diagram of the overlapped image in the DVS event set. A step of calculating an edge estimation image may be included.

임의의 2개의 타임 슬라이스의 이미지를 정렬하는 방식은, 임의의 2개의 타임 슬라이스의 이미지 A와B에 대해,

Figure 112016082476895-pat00001
을 계산하고, 상기 (x,y)는 이미지 중 픽셀 포인트의 2D 좌표이고, A (x,y) 및 B (x,y)는 각각 이미지 A 및 B 의 픽셀 포인트의 값이고,
Figure 112016082476895-pat00002
는 이미지B를 이미지A에 정렬할 경우 필요한 2D 변위 값이고,
Figure 112016082476895-pat00003
Figure 112016082476895-pat00004
가 최소일 때의 독립변수이고, 계산된
Figure 112016082476895-pat00005
에 기초하여 이미지 B 및/또는 이미지A의 변위를 결정하고, 이미지 A 및 B의 정렬을 포함할 수 있다.The method of aligning the images of any two time slices is, for images A and B of any two time slices,
Figure 112016082476895-pat00001
where (x,y) is the 2D coordinate of a pixel point in the image, A (x,y) and B (x,y) are the values of the pixel point in images A and B, respectively;
Figure 112016082476895-pat00002
is the 2D displacement value required to align image B to image A,
Figure 112016082476895-pat00003
Is
Figure 112016082476895-pat00004
is the independent variable when is the minimum, and the calculated
Figure 112016082476895-pat00005
Determine the displacement of image B and/or image A based on , and may include alignment of images A and B.

모든 타임 슬라이스 내에 형성된 이미지를 정렬 및 중첩하는 방식은, 2개의 연속된 타임 슬라이스마다 형성된 이미지들에 대해

Figure 112016082476895-pat00006
를 계산하고, 차례에 따라 늦은 시간의 이미지를 앞선 시간의 이미지에 정렬하고 중첩하는 방식 또는 2개의 연속된 타임 슬라이스마다 형성된 이미지들에 대해
Figure 112016082476895-pat00007
를 계산하고, 차례에 따라 앞선 시간의 이미지를 늦은 시간의 이미지에 정렬하고 중첩하는 방식 중 적어도 하나를 포함할 수 있다.The method of aligning and overlapping images formed in every time slice is for images formed every two consecutive time slices.
Figure 112016082476895-pat00006
For the method of calculating , and aligning and overlapping the image of the late time with the image of the earlier time according to the order or for the images formed every two consecutive time slices
Figure 112016082476895-pat00007
It may include at least one of the methods of calculating , arranging and overlapping an image of an earlier time with an image of a later time according to the order.

상기 블러링 제거 처리를 수행할 경우, 블러링 커널(Blurring Kernel)을 계산하는 방식의 블러링 커널은

Figure 112016082476895-pat00008
일 수 있고, 상기 은 매트릭스 x를 벡터 형식으로 표시한 것을 의미할 수 있고, 는 경도(gradient)의 연산을 의미할 수 있으며, I는 블러링 제거 처리 후의 선명도를 의미할 수 있고, C는 현재 정렬된 블러링 이미지일 수 있고, E는 현재 정렬된 DVS 엣지 추정 영상일 수 있고,
Figure 112016082476895-pat00011
는 벡터의 2놈(norm)을 계산한다는 의미일 수 있고,
Figure 112016082476895-pat00012
는 벡터의 1놈을 계산하는 의미일 수 있고,
Figure 112016082476895-pat00013
Figure 112016082476895-pat00014
는 미리 정해진 2개의 가중치(weight value)일 수 있고,
Figure 112016082476895-pat00015
Figure 112016082476895-pat00016
가 최소값일 때의 독립변수를 의미할 수 있다.When performing the de-blurring process, the blurring kernel of the method of calculating the blurring kernel is
Figure 112016082476895-pat00008
may be, and the may mean that the matrix x is expressed in vector form, may mean gradient operation, I may mean sharpness after deblurring processing, C may be a currently aligned blurring image, and E may be a currently aligned DVS edge estimation image. there is,
Figure 112016082476895-pat00011
may mean calculating the 2 norm of the vector,
Figure 112016082476895-pat00012
may mean calculating one norm of a vector,
Figure 112016082476895-pat00013
and
Figure 112016082476895-pat00014
May be two predetermined weight values,
Figure 112016082476895-pat00015
Is
Figure 112016082476895-pat00016
may mean an independent variable when is the minimum value.

평균 엣지 다이어그램을 결정하는 방식은, 현재 반복 단계에서의 이미지의 선명도에 대해, 상기 카메라 운동 궤적 중 각 세그먼트 방향에 있는 엣지 다이어그램을 계산하고, 모든 엣지 다이어그램을 중첩한 후, 스켈레톤 다이어그램을 계산한 결과를 상기 평균 엣지 다이어그램으로 하는 방식을 포함할 수 있다.The method for determining the average edge diagram is the result of calculating the edge diagram in each segment direction of the camera movement trajectory, superimposing all the edge diagrams, and then calculating the skeleton diagram for the sharpness of the image in the current iteration step. It may include a method of making the average edge diagram.

영상 블러링 제거 장치는, 획득 모듈 및 영상 블러링 제거 모듈을 포함하고, 상기 획득 모듈은, 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득하고, 상기 블러링 제거 모듈은, 상기 DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행한다.An image deblurring device includes an acquisition module and an image deblurring module, wherein the acquisition module acquires a blurring image to be processed and a set of DVS events recorded by a DVS sensor while the blurring image is exposed; A deblurring module performs deblurring processing on the blurring image based on the set of DVS events.

카메라 운동 궤적을 추정하고 상기 운동 궤적을 이용하여 블러링 영상의 엣지를 추정하고, DVS 이벤트를 이용하여 DVS 엣지를 추정하고 블러링 영상 또는 추정된 블러링 영상의 엣지 추정 영상을 DVS 엣지 추정 결과에 정렬시키고 블러링 제거 처리를 수행함으로써, 블러링 제거 효과를 개선할 수 있다.Estimating the camera motion trajectory, estimating the edge of the blurring image using the motion trajectory, estimating the DVS edge using the DVS event, and converting the blurring image or the edge estimation image of the estimated blurring image to the DVS edge estimation result By aligning and performing deblurring processing, the deblurring effect can be improved.

블러링 제거 방법 및 기존의 블러링 제거 방법으로 각각 블러링 제거 테스트를 수행하고 결과를 비교했다. 도 10은 일실시예에 따른 블러링 제거 방법의 효과를 기존의 기술의 효과와 비교한 것이다. 도 10에 도시된 바와 같이, 블러링 제거 효과를 더욱 증가시킬 수 있다.The de-blurring test was performed with the de-blurring method and the conventional de-blurring method, respectively, and the results were compared. 10 compares the effect of the de-blurring method according to an embodiment with the effect of the existing technology. As shown in FIG. 10 , the deblurring effect can be further increased.

도 1은 일실시예에 따른 영상 블러링 제거 방법을 도시한 흐름도이다.
도 2는 DVS 이벤트 집합의 이미지 형성 및 각 타임 슬라이스 내에 형성된 이미지 간의 관계를 도시한 개략도이다.
도 3은 연속된 2개의 타임 슬라이스 내의 카메라의 변위를 도시한 개략도이다.
도 4는 DVS 엣지 추정을 수행하는 개략도이다.
도 5는 RGB-DVS 영상의 정렬 처리를 도시한 개략도이다.
도 6은 선명한 이미지를 산출하는 개략도이다.
도 7은 평균 엣지 다이어그램의 생성을 도시한 개략도이다.
도 8은 영상 블러링 제거 장치의 기본 구조를 도시한 개략도이다.
도 9는 영상 블러링 제거 장치 중의 영상 블러링 제거 모듈 구조를 도시한 개략도이다.
도 10은 영상 블러링 제거 방법과 종래의 영상 블러링 제거 방법의 수행한 결과를 도시한다.
1 is a flowchart illustrating a method for removing image blurring according to an exemplary embodiment.
Fig. 2 is a schematic diagram showing the relationship between the image formation of a DVS event set and the image formed within each time slice.
Figure 3 is a schematic diagram showing the displacement of a camera within two consecutive time slices.
Figure 4 is a schematic diagram of performing DVS edge estimation.
5 is a schematic diagram showing alignment processing of RGB-DVS images.
6 is a schematic diagram of yielding a clear image.
7 is a schematic diagram illustrating the creation of an averaged edge diagram.
8 is a schematic diagram showing the basic structure of an image deblurring removal device.
Fig. 9 is a schematic diagram showing the structure of an image deblurring module in an image deblurring device;
10 shows a result of performing an image blurring removal method and a conventional image blurring removal method.

DVS 센서는 마이크로 초(microsecond) 단위 시간 해상도를 구비한 초고속 카메라로서 출력된 DVS를 기록할 수 있고 이 DVS 시간은 카메라 렌즈 내 마이크로 초 단위 시간에 발생한 모든 변화를 나타날 수 있다. 일반적으로 렌즈 내 변화는 영상의 엣지에서 발생하기 때문에, DVS 센서를 일반적인 카메라에 고정시키면, 고속으로 동작하는 일반적인 카메라가 상대적으로 선명한 엣지 영상을 획득할 수 있다. 실시예들은. DVS 센서를 통해 획득할 수 있는 상대적으로 선명한 엣지 영상을 이용하여 일반적인 카메라로 촬영된 블러링 영상에 대해 블러링 제거 처리를 수행한 것이다. 따라서 블러링 제거 효과를 개선할 수 있다.The DVS sensor is a high-speed camera with microsecond time resolution and can record the output DVS, and this DVS time can represent all changes that occur in the camera lens in microsecond time. In general, since intra-lens change occurs at the edge of an image, if the DVS sensor is fixed to a general camera, a general camera operating at high speed can obtain a relatively clear edge image. the examples. Blurring removal processing is performed on a blurring image captured by a general camera using a relatively clear edge image that can be obtained through a DVS sensor. Therefore, the deblurring effect can be improved.

기본적인 영상 블러링 제거 방법은 아래 단계를 포함한다.A basic image deblurring removal method includes the following steps.

단계1: 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득한다.Step 1: Obtain a blurred image to be processed and a set of DVS events recorded by the DVS sensor while the blurred image is exposed.

단계2: 상기DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행한다.Step 2: Perform deblurring processing on the blurred image based on the DVS event set.

단계2에서, DVS 이벤트 집합에 기초하여 DVS 엣지 추정 영상을 추정하고, 상기DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행하거나, DVS 이벤트 집합에 기초하여 카메라 운동 궤적 및 DVS 엣지 추정 영상을 추정하고, 상기 카메라 운동 궤적 및DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행한다.In step 2, a DVS edge estimate image is estimated based on the DVS event set, and blurring removal processing is performed based on the DVS edge estimate image, or a camera motion trajectory and a DVS edge estimate image are estimated based on the DVS event set. and deblurring is performed based on the camera motion trajectory and the DVS edge estimation image.

도 1은 일실시예에 따른 영상 블러링 제거 방법을 도시한 흐름도이다. 도 1에 도시된 바와 같이, 상기 방법은 아래 단계를 포함한다.1 is a flowchart illustrating a method for removing image blurring according to an exemplary embodiment. As shown in Fig. 1, the method includes the following steps.

단계(101)는, 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안DVS 센서가 기록한 DVS 이벤트 집합을 획득한다. 일반적인 카메라로 촬영한 RGB 블러링 이미지를 획득하고, DVS 센서를 상기 일반적인 카메라에 고정시켜, 상기 일반적인 카메라와 같은 각도의 기록을 획득할 수 있다. 또한, 기록된 DVS 이벤트는 촬영하는 카메라의 운동을 반영할 수 있다. 노출되는 동안 블러링 이미지의 DVS 이벤트 집합을 획득할 경우, 해당 노출 시간 동안의 카메라 운동 궤적을 반영할 수 있다.Step 101 obtains a blurred image to be processed and a set of DVS events recorded by a DVS sensor while the blurred image is exposed. It is possible to obtain an RGB blurred image taken by a general camera, fix the DVS sensor to the general camera, and obtain a recording of the same angle as the general camera. In addition, the recorded DVS events may reflect the motion of the shooting camera. When a DVS event set of a blurring image is obtained during exposure, a camera movement trajectory during the corresponding exposure time may be reflected.

단계(102)는, DVS 이벤트 집합에 기초하여, 노출 시간 안에 카메라 운동 궤적 및 DVS 엣지 추정 영상을 추정한다. 노출 시간을 시간 순서에 따라 N개의 타임 슬라이스로 나눌 수 있다. 이 때, N은 미리 설정된 양의 정수로서 필요에 따라 변경할 수 있다. 명세서에 기재된 내용으로 제한되지 않는다. 노출되는 동안의 DVS 이벤트 집합은 복수의 DVS 이벤트를 포함한다. DVS 이벤트들은 각각 시간을 표시한다. 분할된 타임 슬라이스에 따른, DVS 이벤트의 시간 표시에 기초하여 같은 타임 슬라이스에 위치한 DVS 이벤트는 독립적으로 이미지를 형성한다. 독립적으로 이미지를 형성하는 방식은 임의의 방식을 사용할 수 있고, 상기 임의의 방식은 제한이 없다. 도2는, DVS 이벤트 집합의 이미지 형성 및 각 타임 슬라이스 내에 형성된 이미지 간의 관계를 도시한다.Step 102 estimates a camera motion trajectory and a DVS edge estimation image within an exposure time based on the DVS event set. The exposure time can be divided into N time slices according to the time sequence. At this time, N is a preset positive integer and can be changed as needed. It is not limited to what is described in the specification. A set of DVS events during exposure includes a plurality of DVS events. DVS events each indicate a time. Based on the time representation of DVS events according to the divided time slices, DVS events located in the same time slice form images independently. An arbitrary method may be used for independently forming an image, and the arbitrary method is not limited. Figure 2 shows the relationship between the image formation of a set of DVS events and the image formed within each time slice.

우선, 블러링 이미지의 생성 및 DVS 이벤트가 형성한 이미지의 역할을 분석한다. 카메라에 노출되는 동안 촬영된 대상이 정지 상태라고 가정하면 영상의 블러링은 카메라 자체가 상대적으로 정지 상태인 촬영 대상의 운동에 의해 발생한다.. 이에 기초하여, 각 타임 슬라이스마다 형성된 이미지들은, 모두 시간 범위 내에 카메라가 상대적으로 빠른 운동을 하는 상황에서의 상대적으로 선명한 엣지 영상과 대응된다. 서로 다른 타임 슬라이스 내의 이미지들은 촬영 대상이 같으므로 엣지 영상의 윤곽도 같다. 다만, 상기 엣지 영상은 배경에서 상대적인 변위가 발생하고, 이 변위가 바로 서로 다른 타임 슬라이스 간의 카메라의 상대적 운동 궤적이다. 또한, 서로 다른 타임 슬라이스에 형성된 이미지들은 서로 다른 시점의 같은 엣지 영상을 의미하지만, 노이즈(noise) 등의 영향으로 인해 각 이미지의 엣지가 정확하거나 완벽하지 않을 수 있다. 따라서 카메라의 운동 궤적에 기초하여 모두 N개의 타임 슬라이스 내의 이미지들을 같은 시점으로 회복시키고 N 개의 같은 시점의 이미지들을 중첩(overlay)함으로써 상대적으로 더 선명한 엣지 다이어그램을 획득할 수 있다.First of all, the generation of the blurring image and the role of the image formed by the DVS event are analyzed. Assuming that the photographed subject is in a still state while being exposed to the camera, blurring of the image is caused by the movement of the photographed subject in which the camera itself is in a relatively still state. Based on this, the images formed for each time slice are all It corresponds to a relatively clear edge image in a situation where the camera moves relatively quickly within the time range. Since the images in different time slices have the same shooting target, the outline of the edge image is also the same. However, in the edge image, a relative displacement occurs in the background, and this displacement is a relative motion trajectory of the camera between different time slices. In addition, images formed at different time slices refer to the same edge image at different viewpoints, but the edge of each image may not be accurate or perfect due to an effect such as noise. Therefore, a relatively sharper edge diagram can be obtained by restoring images in all N time slices to the same viewpoint based on the movement trajectory of the camera and overlaying the N images of the same viewpoint.

요약하면, 2개의 서로 다른 타임 슬라이스에서 형성된 이미지들은 동일한 형상을 가질 것이고, 상기 형상들의 전체 영상에서의 위치관계 변화는 바로 상기 2개의 타임 슬라이스 내의 카메라의 직선 운동 관계를 의미한다. 그 중 하나의 이미지를 상기 운동 관계에 따라 역(reverse) 운동을 시키면 다른 이미지가 위치한 타임 슬라이스 내에 이미지를 획득할 수 있다. 이 2개의 이미지들을 중첩하면 더 높은 효과를 가진 엣지 다이어그램을 획득할 수 있다.In summary, images formed in two different time slices will have the same shape, and a change in the positional relationship of the shapes in the entire image means the linear motion relationship of the camera in the two time slices. If one of the images is subjected to reverse motion according to the motion relation, an image within a time slice where another image is located can be obtained. By overlapping these two images, an edge diagram with a higher effect can be obtained.

상기 분석된 내용에 기초하여, N개의 타임 슬라이스에 형성된 이미지들에 기초하여, 노출되는 동안의 카메라 운동 궤적 및 DVS 엣지 추정 영상을 결정한다.Based on the analyzed contents, a camera motion trajectory and a DVS edge estimation image during exposure are determined based on images formed in N time slices.

구체적으로, 노출되는 동안 카메라 운동 궤적을 결정하는 방식은, DVS 이벤트의 위치 관계에 기초하여, 2개의 연속된 타임 슬라이스 내에 카메라의 변위를 결정하고, 노출되는 동안 2개의 연속된 타임 슬라이스마다 카메라의 변위들을 모두 시간 순서로 연결하고, 노출되는 동안의 카메라 운동 궤적을 구성한다. 도3은 상기 2개의 연속된 타임 슬라이스 내의 카메라의 변위를 도시한다.Specifically, the method of determining the camera movement trajectory during exposure determines the displacement of the camera within two consecutive time slices based on the positional relationship of the DVS events, and determines the camera movement trajectory during exposure every two consecutive time slices. We connect all the displacements in time sequence and construct the trajectory of the camera movement during the exposure. Figure 3 shows the displacement of the camera within the two consecutive time slices.

일실시예에 있어서, 2개의 연속된 타임 슬라이스 내에 카메라의 변위를 결정하는 방법은, 임의의 2개의 연속된 타임 슬라이스의 이미지 A와 B에 대해 아래 계산식을 이용하여 계산할 수 있다.In one embodiment, the method for determining the displacement of the camera within two consecutive time slices can be calculated using the formula below for images A and B of any two consecutive time slices.

Figure 112016082476895-pat00017
(1)
Figure 112016082476895-pat00017
(One)

상기 (x,y)는 이미지 중 픽셀 포인트의 2D 좌표이고, A (x,y)와 B (x,y)은 각각 이미지 A와B 중의 픽셀 포인트의 값이고,

Figure 112016082476895-pat00018
는 카메라가 이미지B의 시점에서 이미지A의 시점까지의 2D 변위를 의미하고, 상기 2D 변위에 기초하여 도3에 도시한 바와 같은 운동 벡터를 획득할 수 있다. 여기서 2개의 연속된 타임 슬라이스에서 카메라는 직선 운동을 한다고 가정한다. 모두 2개의 연속된 타임 슬라이스에서의 운동 벡터를 시간 순서에 따라 연결하면 노출되는 동안의 카메라 운동 궤적을 획득할 수 있다.(x,y) is the 2D coordinate of the pixel point in the image, A (x,y) and B (x,y) are the values of the pixel point in images A and B, respectively;
Figure 112016082476895-pat00018
Means the 2D displacement of the camera from the viewpoint of image B to the viewpoint of image A, and a motion vector as shown in FIG. 3 can be obtained based on the 2D displacement. Here, it is assumed that the camera moves in a straight line in two consecutive time slices. The camera motion trajectory during exposure can be obtained by connecting the motion vectors in two successive time slices according to the time sequence.

도 4에 도시한 바와 같이, DVS 엣지 추정 영상을 결정하는 방식은 모든 타임 슬라이스 내에 형성된 이미지를 정렬 및 중첩하고, 중첩된 이미지의 스켈레톤 다이어그램을 DVS 엣지 추정 영상으로 하여 계산한다.As shown in FIG. 4, in the method of determining the DVS edge estimation image, images formed in all time slices are aligned and overlapped, and skeleton diagrams of the overlapped images are calculated as the DVS edge estimation image.

정렬을 수행할 때, 모든 타임 슬라이스의 이미지를 같은 타임 슬라이스에 정렬 시키고 통합하고 중첩하거나, 하나의 타임 슬라이스 이미지를 다른 하나의 타임 슬라이스에 정렬시키고 상기 두 개의 타임 슬라이스의 이미지를 중첩하고, 중첩된 결과를 다른 타임 슬라이스에 정렬시키는 방식으로 유추한다. 여기서 상기 계산식(1)을 이용하여 임의의 2개의 타임 슬라이스의 이미지들 간의2D 변위 값

Figure 112016082476895-pat00019
를 계산하고, 상기 2D 변위 값은 이미지B를 이미지A에 정렬할 경우 필요한 2D 변위 값을 의미한다. 이미지B 변위
Figure 112016082476895-pat00020
를 이미지A에 정렬시키거나, 이미지A 변위
Figure 112016082476895-pat00021
를 이미지B 에 정렬시키거나, 이미지A와 이미지B에 대해 동시에 변위를 수행하고, 이미지A와 이미지B 간의 다른 타임 슬라이스에 정렬시킬 수 있다.When performing alignment, either align images of all time slices to the same time slice and merge and overlap, or align images of one time slice to another time slice and overlap images of the two time slices, and overlap It is inferred by aligning the results to different time slices. Here, the 2D displacement value between images of two arbitrary time slices using the above formula (1)
Figure 112016082476895-pat00019
is calculated, and the 2D displacement value means a 2D displacement value required when aligning image B with image A. image B displacement
Figure 112016082476895-pat00020
align to imageA, or imageA displacement
Figure 112016082476895-pat00021
can be aligned to image B, or the displacement can be performed on image A and image B simultaneously, and aligned to different time slices between image A and image B.

또한 계산식(1)를 이용하여 변위를 계산할 때, 2개의 타임 슬라이스 간의 이동이 직선 운동인 것으로 가정하지만, 실제로 시간 간격의 증가에 따라 직선 운동과 실제 운동의 오차가 클수록 추정이 부정확해진다. 따라서, 이미지들을 정렬 및 중첩할 경우, 2개의 연속된 타임 슬라이스마다 이미지들의

Figure 112016082476895-pat00022
를 계산하고, 시간 순서에 따라 뒤/앞 시간의 이미지를 앞/뒤 시간의 이미지에 정렬하고 중첩한다. 이런 방법으로 추정의 정확성을 향상시킬 수 있다. "/"는 "또는"을 의미한다.In addition, when calculating the displacement using equation (1), it is assumed that the movement between two time slices is a linear motion, but the estimation becomes inaccurate as the error between the linear motion and the actual motion increases as the time interval actually increases. Thus, when aligning and overlapping images, every two consecutive time slices
Figure 112016082476895-pat00022
Calculate , and arrange and superimpose the images of the previous/previous time with the image of the previous/posterior time according to the time sequence. In this way, the accuracy of estimation can be improved. "/" means "or".

단계(102)를 수행한 후, 반복(iteration)적으로 영상 블러링을 제거한다.After performing step 102, image blurring is removed iteratively.

단계(103)는, 획득된 블러링 이미지를 DVS 엣지 추정 영상에 정렬시키고, 정렬된 블러링 이미지 및 정렬된 DVS 엣지 추정 영상을 획득한다.Step 103 aligns the obtained blurred image to the DVS edge estimation image, and obtains the aligned blurring image and the aligned DVS edge estimation image.

도 5에 도시된 바와 같이, RGB-DVS 영상 정렬 처리는 우선 RGB 영상 및 DVS 엣지 추정 영상에 대해 각각 왜곡(distortion) 제거를 수행한다. 그 다음, 두 영상 중 대응하는 키 포인트를 획득하고 아핀(Affine) 변환 모델을 계산하여 두 영상을 정렬한다. 왜곡 확인, 키 포인트 결정 및 모델을 통한 영상 정렬 처리는 모두 종래 기술이므로 여기서는 이에 대한 상세한 설명은 생략한다. 상기 왜곡 제거 처리를 단계(103)에 포함시켜, 복잡도 등을 고려하여 왜곡 제거 처리를 수행하지 않고, 키 포인트를 직접 결정함으로써 영상 정렬을 수행할 수도 있다. 정렬을 수행할 때 RGB 영상을 DVS 엣지 추정 영상에 정렬하거나, DVS 엣지 추정 영상을 RGB 영상에 정렬할 수 있다. RGB 영상을 DVS 엣지 추정 영상에 정렬하면 더 좋은 효과를 얻을 수 있다.As shown in FIG. 5, the RGB-DVS image alignment process first performs distortion removal on each of the RGB image and the DVS edge estimation image. Then, the corresponding key points of the two images are acquired and an affine transformation model is calculated to align the two images. Distortion checking, key point determination, and image alignment processing through a model are all conventional techniques, and thus detailed descriptions thereof are omitted here. The image alignment may be performed by including the distortion elimination process in step 103 and directly determining key points without performing the distortion elimination process in consideration of complexity and the like. When performing alignment, an RGB image may be aligned with a DVS edge estimation image or a DVS edge estimation image may be aligned with an RGB image. A better effect can be obtained by aligning the RGB image to the DVS edge estimation image.

또한, 최초 반복을 수행할 때, RGB 블러링 영상과 DVS 엣지 추정 영상을 직접 이용하여 정렬 처리를 수행한다. 그 다음 반복을 수행할 때, 이전 반복을 수행할 당시 결정된 RGB 엣지 추정 영상에 기초하여, RGB 블러링 영상 및 DVS 엣지 추정 영상과 정렬 처리를 수행함으로써 RGB 과 DVS의 정합 정밀도를 향상 시킬 수 있다.In addition, when performing the first iteration, the alignment process is performed using the RGB blurring image and the DVS edge estimation image directly. When the next iteration is performed, the matching precision between RGB and DVS can be improved by aligning the RGB blurring image and the DVS edge estimation image based on the RGB edge estimation image determined at the time of the previous iteration.

단계(104)에서, 현재 정렬된 DVS 엣지 추정 영상에 기초하여, 디콘볼루션 변환(Deconvolution transform)을 이용함으로써 정렬된 블러링 이미지에 대해서 블러링 제거 처리를 수행하고, 현재 반복 단계의 선명한 이미지를 획득한다.In step 104, based on the currently aligned DVS edge estimation image, a de-blurring process is performed on the aligned blurring image by using a deconvolution transform, and a clear image of the current iteration step is obtained. Acquire

영상 블러링 제거 모듈의 처리는 영상의 블러링 커널(blurring kernel)을 추정하고, 디콘볼루션 변환을 이용하여 블러링 제거를 실현할 것이다.The processing of the image deblurring module will estimate a blurring kernel of the image, and use deconvolution transformation to realize deblurring.

아래 계산식을 이용하여 블러링 커널k를 계산할 수 있다.The blurring kernel k can be calculated using the formula below.

Figure 112016082476895-pat00023
Figure 112016082476895-pat00023

상기 은 매트릭스 x를 벡터 형식으로 표시함을 의미하고, 는 경도(gradient)의 연산을 의미하며, I는 블러링 제거 처리 후의 선명한 영상이고, C는 현재 정렬된 블러링 이미지이고, E는 현재 정렬된 DVS 엣지 추정 영상이고,

Figure 112016082476895-pat00026
는 벡터의 2놈(norm)을 계산한다는 의미이고,
Figure 112016082476895-pat00027
는 벡터의 1놈을 계산한다는 의미이고,
Figure 112016082476895-pat00028
Figure 112016082476895-pat00029
는 미리 정해진 2개의 가중치(weight value)이고,
Figure 112016082476895-pat00030
Figure 112016082476895-pat00031
가 최소일 때의 독립변수를 의미한다.remind means that the matrix x is expressed in vector form, Means the operation of the gradient, I is the sharp image after deblurring processing, C is the currently aligned blurring image, E is the currently aligned DVS edge estimation image,
Figure 112016082476895-pat00026
means to calculate the 2 norm of the vector,
Figure 112016082476895-pat00027
means to calculate one norm of the vector,
Figure 112016082476895-pat00028
and
Figure 112016082476895-pat00029
is two predetermined weight values,
Figure 112016082476895-pat00030
Is
Figure 112016082476895-pat00031
is the independent variable when is the minimum.

블러링 커널k를 획득한 후, 아래 계산식을 이용하여 선명한 RGB 영상 I를 구할 수 있다.After obtaining the blurring kernel k, a clear RGB image I can be obtained using the following formula.

Figure 112016082476895-pat00032
Figure 112016082476895-pat00032

상기 은 매트릭스 x를 벡터 형식으로 하는 의미이고,

Figure 112016082476895-pat00034
는 벡터의 2놈(norm)를 계산한다는 의미이고,
Figure 112016082476895-pat00035
는 벡터의 1(norm)를 계산한다는 의미이며, B'는 현재 정렬된 블러링 이미지를 의미한다.remind means matrix x in vector form,
Figure 112016082476895-pat00034
means to calculate the 2 norm of the vector,
Figure 112016082476895-pat00035
means to calculate the 1 (norm) of the vector, and B' means the currently aligned blurring image.

상기 블러링 커널 및 선명한 영상을 획득하는 과정을 수행한 횟수가 미리 정해진 최대 횟수에 도달하거나 획득된 선명한 이미지가 더 이상 변하지 않으면, 계산을 통해 획득된 I를 해당 반복 단계에서 획득된 선명한 이미지로 결정한다.When the number of times the blurring kernel and the process of obtaining a clear image reach a predetermined maximum number or the acquired clear image no longer changes, I obtained through calculation is determined as the clear image obtained in the corresponding iterative step. do.

단계(104)에서, I를 계산하는 방식은 기존 기술과 같고, 블러링 커널 k를 계산할 경우, 정렬된 DVS 엣지 추정 영상 E에 기초하여 수행한다. 따라서, 블러링 커널 k를 계산할 때 영상 E를 이용함으로써 영상 블러링 상황을 빠짐없이 반영할 수 있고, 계산된 선명한 이미지 I는 원본 화면과 더 유사하다.In step 104, the method of calculating I is the same as the existing technology, and when calculating the blurring kernel k, it is performed based on the aligned DVS edge estimation image E. Therefore, by using the image E when calculating the blurring kernel k, the image blurring situation can be fully reflected, and the calculated sharp image I is more similar to the original screen.

단계(104)에서는 DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행한다. 처리 가능한 범위 내에서, 아래 단계를 더 수행할 수 있다. 반복 처리 과정을 통해 블러링 제거 처리 결과를 최적화할 수 있다.In step 104, deblurring processing is performed based on the DVS edge estimation image. Within the processable range, the following steps may be further performed. It is possible to optimize the deblurring processing result through an iterative process.

단계(105)에서, 현재 반복 단계와 이전 반복 단계에서의 이미지 간의 선명도가 일치하는지 판단하고, 판단 결과 두 이미지의 선명도가 일치할 경우, 상기 선명한 이미지를 블러링 제거 결과로 삼고 단계(105)를 종료할 수 있다. 판단 결과 일치하지 않는 경우, 단계(106)를 수행할 수 있다.In step 105, it is determined whether the sharpness of the images in the current iteration step and the previous iteration step match. can be terminated If the determination results do not match, step 106 may be performed.

전후 2번 반복 수행되는 선명한 이미지에 변화가 없다는 것은, 목표하는 블러링 제거 수치를 이미 만족함을 의미한다. 선명한 이미지에 변화가 없는 경우, 상기 선명한 이미지를 출력하고 블러링 제거 처리를 종료할 수 있다. 선명한 이미지에 변화가 있는 경우, RGB의 엣지 다이어그램을 계산하여 다음 반복 단계를 수행할 수 있다. 전후로 2번 반복 수행되는 이미지가 같은지 판단하는 방식은 다음과 같다: 현재 반복 단계와 이전 반복 단계의 이미지 간의 선명도의 오차가 미리 설정된 임계값보다 작으면, 2번 반복 수행되는 선명한 이미지가 같고, 그렇지 않으면 2번 반복 수행되는 이미지가 다르다고 판단할 수 있다.The fact that there is no change in the clear image that is repeated two times before and after means that the target deblurring value is already satisfied. When there is no change in the clear image, the clear image may be output and the deblurring process may be terminated. If there is a change in the sharp image, the next iteration step can be performed by calculating the edge diagram of the RGB. The method of determining whether the images that are repeated twice before and after is the same is as follows: If the sharpness error between the image of the current iteration step and the image of the previous iteration step is smaller than a preset threshold value, the clear images that are repeated twice are the same, otherwise Otherwise, it can be determined that the images performed twice are different.

단계(106)에서, 현재 단계에서 획득되는 선명한 이미지에 기초하여 평균 엣지 다이어그램을 결정하고, 다시 단계(103)로 돌아간다. 다음 반복 수행 시, 상기 평균 엣지 다이어그램에 기초하여 RGB 블러링 이미지와 DVS 엣지 추정 영상을 정렬한다.In step 106, an average edge diagram is determined based on the sharp image obtained in the current step, and the process returns to step 103 again. In the next iteration, the RGB blurred image and the DVS edge estimation image are aligned based on the average edge diagram.

단계(106)의 처리는 RGB 영상의 디랙티드(directed) 엣지 다이어그램 생성에 이용되고, 이는 명세서에서 평균 엣지 다이어그램으로 지칭된다. 구제적으로, 현재 반복 단계 중 추정된 선명한 이미지에 기초하여, 상기 선명한 이미지가 설정한 방향에 대한 엣지 다이어그램을 구하고, 복수의 엣지 다이어그램에 기초하여 평균 엣지 다이어그램을 획득한다. 설정된 방향은 무작위로 지정된 방향이거나 카메라 운동 궤적의 방향일 수 있다.The processing of step 106 is used to generate a directed edge diagram of the RGB image, which is referred to herein as an average edge diagram. Specifically, based on the sharp image estimated during the current iteration step, an edge diagram for a direction set by the clear image is obtained, and an average edge diagram is obtained based on a plurality of edge diagrams. The set direction may be a randomly designated direction or a direction of a camera motion trajectory.

그 다음, 평균 엣지 다이어그램에 근거하여 RGB 영상과 DVS 엣지 추정 영상을 정렬한다. 구체적으로, 평균 엣지 다이어그램을 그 다음의 반복 단계 수행 중 DVS 엣지 추정 영상과 비교하여 정렬의 변위를 획득할 수 있고, RGB 블러링 영상 및/또는 DVS 엣지 추정 영상을 이동하여 정렬함으로써 RGB와 DVS 영상의 정합 정밀도를 향상 시킬 수 있다.Then, the RGB image and the DVS edge estimation image are aligned based on the mean edge diagram. Specifically, the displacement of the alignment can be obtained by comparing the average edge diagram with the DVS edge estimation image during the next iterative step, and by moving and aligning the RGB blurring image and/or the DVS edge estimation image, the RGB and DVS images can improve the matching accuracy.

방향을 카메라 운동 궤적 방향으로 설정할 경우, 평균 엣지 다이어그램을 생성하는 방식은 다음과 같다. 노출되는 동안 카메라 운동 궤적을 세그먼트(segment)화하고, 각 세그먼트 방향에 현재 반복 단계에서 획득된 선명한 이미지에 대한 엣지 다이어그램을 계산하고, 획득된 모든 엣지 다이어그램을 중첩한 후, 스켈레톤 다이어그램을 계산하여 이를 평균 엣지 다이어그램으로 한다.When the direction is set to the direction of the camera movement trajectory, the method for generating the average edge diagram is as follows. Segment the trajectory of the camera movement during exposure, calculate the edge diagram for the sharp image acquired in the current iteration step in each segment direction, superimpose all the acquired edge diagrams, and calculate the skeleton diagram to achieve this. As an average edge diagram.

카메라 운동 궤적에 대한 세그먼트화는, 단계(102) 수행 중 생성되는 운동 궤적에 따라 각각 진행할 수 있다. 평균 엣지 다이어그램을 생성하는 방법은 도7에 도시되어 있다. Segmentation of camera motion trajectories may be performed according to motion trajectories generated during operation 102 . A method of generating an averaged edge diagram is shown in FIG. 7 .

위에서는 영상 블러링 제거 방법의 실시예를 설명하였다. 상기 반복 수행 과정에서, 2번 반복적으로 획득되는 선명한 이미지가 같으면 반복을 종료하고, 블러링 제거에 대한 최종 처리 결과를 획득한 것이다. 더 간단하게, 최대 반복 횟수를 설정하고, 최대 반복 횟수에 이르기 전까지 반복을 수행하고, 반복 수행 횟수가 최대 반복 횟수에 도달하면 하면 반복 수행 과정을 종료하고 블러링 제거에 대한 최종 처리 결과를 획득한다. 또는 상기 전후2번의 반복하여 획득되는 선명한 이미지를 비교하는 방법을 최대 반복 횟수를 설정하는 방법을 함께 이용하여, 그 중에서 하나의 조건에 만족하면 반복과정을 종료하고, 그렇지 않으면 반복을 수행한다. 상기 최대 반복 횟수는 실제 필요 및 장비 처리 성능에 기초하여 설정할 수 있다.Above, an embodiment of the image blurring removal method has been described. In the iterative process, if the clear images obtained twice repeatedly are the same, the repetition is terminated, and the final processing result for deblurring is obtained. More simply, set the maximum number of iterations, repeat until the maximum number of iterations is reached, and when the number of iterations reaches the maximum number of iterations, terminate the iteration process and obtain the final processing result for deblurring. . Alternatively, the method of comparing the sharp images obtained by repeating the previous and previous two times is used together with the method of setting the maximum number of iterations, and if one condition is satisfied among them, the iteration process is terminated, and otherwise, the iteration is performed. The maximum number of iterations may be set based on actual needs and equipment processing performance.

상기 블러링 제거 처리 중, DVS 센서가 기록한 DVS 이벤트를 이용하여 카메라 운동 궤적을 추정하고 상기 운동 궤적을 이용하여 블러링 영상의 엣지를 추정할 수 있다. 또한, DVS 이벤트에 대해 DVS 엣지를 추정하고 블러링 영상 또는 엣지 추정 영상을 DVS 엣지 추정 결과에 정렬한 후 블러링 제거 처리를 수행한다. 상기 처리를 통해, 카메라 운동 궤적 및 DVS 엣지 추정 영상을 이용하여 더욱 실제에 가까운 운동 가설(Hypothesis)을 제공함으로써 블러링 제거 효과를 개선할 수 있다.During the deblurring process, a motion trajectory of a camera may be estimated using a DVS event recorded by a DVS sensor, and an edge of a blurred image may be estimated using the motion trajectory. In addition, a DVS edge is estimated for the DVS event, and after aligning the blurring image or edge estimation image with the DVS edge estimation result, deblurring processing is performed. Through the above processing, it is possible to improve the deblurring effect by providing a more realistic motion hypothesis using the camera motion trajectory and the DVS edge estimation image.

일실시예에 따르면, 영상 블러링 제거 장치를 더 제공하고, 상기 영상 블러링 제거 장치는 도 1에 도시된 블러링 제거 방법의 실시에 이용될 수 있다. 상기 장치는 도 8에 도시된 바와 같이, 획득 모듈 및 영상 블러링 제거 모듈을 포함한다.According to an embodiment, an image de-blurring removal device is further provided, and the image blur removal device may be used in the implementation of the de-blurring method shown in FIG. 1 . As shown in FIG. 8 , the device includes an acquisition module and an image deblurring module.

상기 획득 모듈은, 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득하고, 상기 블러링 제거 모듈은, 상기DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행한다.The acquisition module obtains a blurred image to be processed and a set of DVS events recorded by a DVS sensor while the blurred image is exposed, and the deblurring module obtains a set of blurring images based on the set of DVS events. Perform deblurring processing.

도 9에 도시된 바와 같이, 영상 블러링 제거 모듈은, 궤적 추정 서브 모듈, 영상 정합(image registration) 서브 모듈, 영상 블러링 제거 서브 모듈 및 평균 엣지 다이어그램 생성 서브 모듈을 포함할 수 있다.As shown in FIG. 9 , the image deblurring module may include a trajectory estimation submodule, an image registration submodule, an image deblurring submodule, and an average edge diagram generation submodule.

상기 궤적 추정 서브 모듈은, DVS 이벤트 집합에 기초하여 노출되는 동안의 카메라 운동 궤적 및 DVS 엣지 추정 영상을 추정한다. 궤적 추정 서브 모듈은 단계(101-102)를 수행할 수 있다.The trajectory estimation submodule estimates a camera motion trajectory and a DVS edge estimation image during exposure based on a set of DVS events. The trajectory estimation submodule may perform steps 101-102.

상기 영상 정합 서브 모듈은, 블러링 이미지를 DVS 엣지 추정 영상에 정렬시키고, 정렬된 블러링 이미지 및 현재 정렬된 DVS 엣지 추정 영상을 획득한다. 영상 정합 서브 모듈은, 단계(103)를 수행할 수 있다.The image matching submodule aligns the blurred image with the DVS edge estimation image, and acquires the aligned blurred image and the currently aligned DVS edge estimation image. The image matching submodule may perform step 103.

상기 영상 블러링 제거 서브 모듈은, 정렬된 DVS 엣지 추정 영상에 기초하여, 디콘볼루션 변환을 이용하여 정렬된 블러링 이미지에 대해서 블러링 제거 처리를 수행하여, 이전 반복 단계의 선명한 이미지를 획득하고, 현재 반복 단계 및 이전 반복 단계의 선명도 차이가 미리 정해진 임계값보다 작은 경우, 상기 이전 반복 단계의 선명한 이미지를 블러링 제거 결과로 출력하고, 선명도 차이가 상기 임계값보다 큰 경우, 현재 반복 단계의 선명한 이미지를 평균 엣지 다이어그램 출력 모듈에게 전송한다. 영상 블러링 제거 서브 모듈은 단계(104-105)를 수행할 수 있다.The image deblurring submodule performs deblurring processing on the aligned blurring image using deconvolution based on the aligned DVS edge estimation image to obtain a clear image of a previous iteration step; , If the sharpness difference between the current iteration step and the previous iteration step is less than a predetermined threshold value, the clear image of the previous iteration step is output as a blurring removal result, and if the sharpness difference is greater than the threshold value, the current iteration step The sharp image is sent to the average edge diagram output module. The image deblurring submodule may perform steps 104-105.

평균 엣지 다이어그램 출력 모듈은, 영상 블러링 제거 모듈이 입력된 선명한 이미지에 기초하여, 평균 엣지 다이어그램을 결정한다. 상기 평균 엣지 다이어그램을 영상 정합 모듈에게 전송한 후, 블러링 이미지와 DVS 엣지 추정 영상의 정렬 근거로 사용한다. 이와 같이 카메라 운동 궤적 방향의 평균 엣지 다이어그램을 결정할 수 있다. 평균 엣지 다이어그램 출력 모듈은, 단계(106)을 수행할 수 있다.The average edge diagram output module determines the average edge diagram based on the sharp image input to the image deblurring module. After the average edge diagram is transmitted to the image matching module, it is used as a basis for aligning the blurring image and the DVS edge estimation image. In this way, the average edge diagram of the direction of the camera motion trajectory can be determined. An average edge diagram output module may perform step 106 .

이상과 같이 실시예들을 참조하여 설명하였으나, 상술한 블러링 제거 방법은 이에 한정되지 않는다. 상기의 기재로부터 다양한 수정, 교체 및 변형이 가능하며 모두 청구범위의 보호범위에 속한다.Although described with reference to the embodiments as described above, the above-described de-blurring method is not limited thereto. Various modifications, replacements and variations are possible from the above description, all of which fall within the protection scope of the claims.

Claims (14)

처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득하는 단계;
상기 DVS 이벤트 집합에 기초하여 DVS 엣지(edge) 추정 영상을 추정하는 단계; 및
상기 DVS 엣지 추정 영상에 기초하여 상기 블러링 제거 처리를 수행하는 단계
를 포함하고,
상기 DVS 엣지 추정 영상은 모든 타임 슬라이스 내에 형성된 이미지를 정렬 및 중첩(overlay)하고, 중첩된 이미지의 스켈레톤(Skeleton) 다이어그램을 상기 DVS 엣지 추정 영상으로 계산함으로써 결정되는,
영상 블러링 제거 방법.
obtaining a blurred image to be processed and a set of DVS events recorded by a DVS sensor while the blurred image is exposed;
estimating a DVS edge estimation image based on the DVS event set; and
Performing the de-blurring process based on the DVS edge estimation image
including,
The DVS edge estimation image is determined by aligning and overlaying images formed in all time slices, and calculating a skeleton diagram of the overlapped image as the DVS edge estimation image,
How to remove image blurring.
삭제delete 제1항에 있어서,
상기DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행하는 방식은,
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하는 방식;
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작고, 블러링 제거 처리 횟수가 최대 반복(iteration) 횟수보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 평균 엣지 다이어그램(平均邊緣圖)을 결정하고, 상기 평균 엣지 다이어그램을 이용하여, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치를 만족하거나 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 제거 처리 결과를 블러링 제거 결과로 출력하는 방식;
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 횟수가 최대 반복 횟수보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식; 및
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작고 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지, 상기 블러링 제거 처리 결과에 기초하여 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치를 만족하거나 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식 중 적어도 하나를 포함하는,
영상 블러링 제거 방법.
According to claim 1,
A method of performing de-blurring processing based on the DVS edge estimation image,
a method of aligning the blurred image to the DVS edge estimation image and performing deblurring processing based on a result of the alignment;
The blurring image is aligned with the DVS edge estimation image, deblurring processing is performed based on the alignment result, the deblurring processing result is less than a predetermined deblurring processing value, and the number of deblurring processing is maximum. If it is less than the number of iterations, an average edge diagram is determined based on the deblurring process result, and the deblurring process result is predetermined by using the average edge diagram. rearranging the blurring image to the DVS edge estimation image until a value is satisfied or the number of deblurring processing reaches a maximum iteration number, and outputting the deblurring processing result as a deblurring result;
The blurring image is aligned with the DVS edge estimation image, deblurring processing is performed based on the alignment result, and when the number of deblurring processing is less than the maximum iteration number, an average is calculated based on the deblurring processing result. Determining an edge diagram, rearranging the blurred image to the DVS edge estimation image until the maximum number of repetitions is reached based on the average edge diagram, and outputting the blurring processing result as a deblurring result method; and
The blurring image is aligned with the DVS edge estimation image, de-blurring processing is performed based on the alignment result, and the de-blurring processing result is less than a predetermined de-blurring processing value and the number of de-blurring processing is maximum iterations. until the number is reached, an average edge diagram is determined based on the deblurring process result, and based on the average edge diagram, the deblurring process result satisfies a predetermined deblurring process value or the deblurring is removed. At least one of a method of rearranging the blurred image to the DVS edge estimation image until the number of processing reaches the maximum number of iterations, and outputting the blurring processing result as a deblurring result,
How to remove image blurring.
제1항에 있어서,
상기 DVS 이벤트 집합에 기초하여 상기 블러링 이미지에 대해 블러링 제거 처리를 수행하는 단계는,
상기 DVS 이벤트 집합에 기초하여, 상기 블러링 이미지가 노출되는 동안 카메라 운동 궤적 및 DVS 엣지 추정 영상을 추정하는 단계; 및
상기 카메라 운동 궤적 및 DVS 엣지 추정 영상에 기초하여 상기 블러링 제거 처리를 수행하는 단계
를 포함하는 영상 블러링 제거 방법.
According to claim 1,
Performing de-blurring processing on the blurred image based on the DVS event set comprises:
estimating a camera motion trajectory and a DVS edge estimation image while the blurred image is exposed, based on the DVS event set; and
performing the de-blurring process based on the camera motion trajectory and the DVS edge estimation image;
Image blurring removal method comprising a.
제4항에 있어서,
상기 카메라 운동 궤적 및 DVS 엣지 추정 영상에 기초하여 블러링 제거 처리를 수행하는 방식은,
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 상기 카메라 운동 궤적 방향상의 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치를 만족할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식;
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 설정된 최대 반복 횟수에 달성하지 못하면, 상기 블러링 제거 처리 결과에 기초하여 상기 카메라 운동 궤적 방향상의 평균 엣지 다이어그램을 결정하고 상기 평균 엣지 다이어그램을 이용하여, 설정된 최대 반복 횟수에 달성할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식; 및
상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 정렬시키고, 정렬 결과에 기초하여 블러링 제거 처리를 수행하고, 블러링 제거 처리 결과가 미리 정해진 블러링 제거 처리 수치보다 작고 블러링 제거 처리 횟수가 최대 반복 횟수보다 작은 경우, 상기 블러링 제거 처리 결과에 기초하여 상기 카메라 운동 궤적 방향상의 평균 엣지 다이어그램을 결정하고, 상기 평균 엣지 다이어그램에 기초하여, 블러링 제거 처리 결과가 미리 설정된 블러링 제거 처리 수치를 만족하거나 블러링 제거 처리 횟수가 최대 반복 횟수에 도달할 때까지 상기 블러링 이미지를 상기 DVS 엣지 추정 영상에 다시 정렬시키고, 상기 블러링 처리 결과를 블러링 제거 결과로 출력하는 방식
중 적어도 하나를 포함하는 영상 블러링 제거 방법.
According to claim 4,
The method of performing de-blurring processing based on the camera motion trajectory and the DVS edge estimation image,
The blurring image is aligned with the DVS edge estimation image, deblurring processing is performed based on the alignment result, and when the deblurring processing result is smaller than a predetermined deblurring processing value, the deblurring processing result Determines an average edge diagram in the direction of the camera motion trajectory based on the DVS edge estimation of the blurred image based on the average edge diagram until a deblurring processing result satisfies a predetermined deblurring processing value. a method of rearranging the image and outputting the blurring processing result as a deblurring result;
The blurring image is aligned with the DVS edge estimation image, deblurring processing is performed based on the alignment result, and if the set maximum number of iterations is not achieved, the camera motion trajectory direction is determined based on the deblurring processing result. An average edge diagram of the image is determined, and the blurred image is re-aligned with the DVS edge estimation image until the set maximum number of iterations is reached using the average edge diagram, and the blurring processing result is a deblurring result. way to output; and
The blurring image is aligned with the DVS edge estimation image, de-blurring processing is performed based on the alignment result, and the de-blurring processing result is less than a predetermined de-blurring processing value and the number of de-blurring processing is maximum iterations. if less than the number of deblurring processing results, determine an average edge diagram along the camera movement trajectory direction based on the deblurring processing result, and based on the average edge diagram, the deblurring processing result satisfies a preset deblurring processing value. Alternatively, the blurring image is rearranged with the DVS edge estimation image until the number of deblurring processing reaches the maximum number of iterations, and the blurring processing result is output as a deblurring result.
Image blurring removal method comprising at least one of.
제3항 또는 제5항에 있어서,
상기 정렬 결과에 기초하여 블러링 제거 처리를 수행하는 단계는,
현재 정렬된 DVS 엣지 추정 영상에 기초하여 디콘볼루션 변환(deconvolution transform)을 이용하여 현재 정렬된 블러링 이미지에 대해 블러링 제거 처리를 수행하고, 현재 반복 단계에서 획득한 선명한 이미지를 블러링 제거 처리 결과로 하는 단계; 및
현재 반복 단계 및 이전 반복 단계에서의 이미지의 선명도 차이가 미리 정해진 임계값보다 작은 경우, 미리 정해진 블러링 제거 처리 수치를 만족한 것으로 결정하고, 상기 선명도의 차이가 상기 임계값보다 큰 경우, 미리 정해진 블러링 제거 처리 수치보다 작다고 결정하는 단계
를 포함하는
영상 블러링 제거 방법.
According to claim 3 or 5,
The step of performing de-blurring processing based on the alignment result,
Based on the currently aligned DVS edge estimation image, deblurring processing is performed on the currently aligned blurring image using a deconvolution transform, and the sharp image obtained in the current iteration step is deblurred. the resulting step; and
If the difference between the sharpness of the images in the current iteration step and the previous iteration step is smaller than a predetermined threshold value, it is determined that a predetermined de-blurring process value is satisfied, and if the sharpness difference is greater than the threshold value, it is determined that the predetermined de-blurring processing value is satisfied. Determining that the deblurring processing value is smaller than
containing
How to remove image blurring.
제4항에 있어서,
상기 DVS 이벤트 집합에 기초하여 카메라 운동 궤적을 추정하는 단계는,
노출되는 시간을 시간 순서에 따라 N개의 타임 슬라이스로 분할하고, 상기 DVS 이벤트 집합 중 같은 타임 슬라이스에 위치한 DVS 이벤트를 독립적인 이미지로 형성하고, 상기 N개의 타임 슬라이스 내에 형성된 이미지에 기초하여 노출되는 동안의 카메라 운동 궤적을 결정하는 단계를 포함하는,
영상 블러링 제거 방법.
According to claim 4,
Estimating a camera motion trajectory based on the DVS event set comprises:
The exposure time is divided into N time slices according to the time sequence, the DVS event located in the same time slice among the DVS event set is formed as an independent image, and the image is exposed based on the image formed within the N time slices. Including the step of determining the camera motion trajectory of
How to remove image blurring.
제7항에 있어서,
상기 카메라 운동 궤적을 결정하는 방식은,
2개의 연속된 타임 슬라이스마다 형성된 이미지 중에서, 상기 DVS 이벤트의 위치 관계에 기초하여, 상기 2개의 연속된 타임 슬라이스 내 카메라의 변위를 결정하고, 상기 노출되는 동안 2개의 연속된 타임 슬라이스마다 카메라의 변위들을 모두 시간 순서에 따라 연결하고, 상기 노출되는 동안의 카메라 운동 궤적 형성을 포함하는,
영상 블러링 제거 방법.
According to claim 7,
The method for determining the camera motion trajectory,
Among the images formed every two consecutive time slices, based on the positional relationship of the DVS event, determine the displacement of the camera in the two consecutive time slices, and the displacement of the camera every two consecutive time slices during the exposure. All of them are connected in time sequence, and the camera movement trajectory is formed during the exposure.
How to remove image blurring.
제1항 또는 제4항에 있어서,
상기 DVS 이벤트 집합에 기초하여 상기 DVS 엣지 추정 영상을 추정하는 단계는,
상기 노출되는 시간을 시간 순서에 N 개의 타임 슬라이스로 분할하고, 상기 DVS 이벤트 집합 중 같은 타임 슬라이스에 있는 DVS 이벤트를 통합한 이미지를 형성하고, 모든 타임 슬라이스 내에 형성된 이미지를 정렬 및 중첩(overlay)하고, 중첩된 이미지의 스켈레톤(Skeleton) 다이어그램을 상기 DVS 엣지 추정 영상으로 계산하는 단계를 포함하는,
영상 블러링 제거 방법.
According to claim 1 or 4,
Estimating the DVS edge estimation image based on the DVS event set includes:
Dividing the exposure time into N time slices in time order, forming an image incorporating DVS events in the same time slice among the DVS event sets, aligning and overlaying images formed in all time slices, , Comprising the step of calculating a skeleton diagram of superimposed images as the DVS edge estimation image,
How to remove image blurring.
제9항에 있어서,
임의의 2개의 타임 슬라이스의 이미지를 정렬하는 방식은,
임의의 2개의 타임 슬라이스의 이미지 A와B에 대해,
Figure 112016082476895-pat00036
을 계산하고,
상기 (x,y)는 이미지 중 픽셀 포인트의 2D 좌표이고, A (x,y) 및 B (x,y)는 각각 이미지 A 및 B 의 픽셀 포인트의 값이고,
Figure 112016082476895-pat00037
이미지 B를 이미지 A에 정렬할 경우 필요한 2D 변위 값이고,
Figure 112016082476895-pat00038
Figure 112016082476895-pat00039
가 최소값일 때의 독립변수이고, 계산된
Figure 112016082476895-pat00040
에 기초하여 이미지 B 및/또는 이미지 A의 변위를 결정하고, 이미지 A 및 B의 정렬을 포함하는,
영상 블러링 제거 방법.
According to claim 9,
The method of aligning images of two arbitrary time slices is,
For images A and B of any two time slices,
Figure 112016082476895-pat00036
calculate,
Where (x,y) is the 2D coordinate of the pixel point in the image, A (x,y) and B (x,y) are the pixel point values of images A and B, respectively;
Figure 112016082476895-pat00037
2D displacement value required to align image B to image A,
Figure 112016082476895-pat00038
Is
Figure 112016082476895-pat00039
is the independent variable when is the minimum value, and the calculated
Figure 112016082476895-pat00040
Determining the displacement of image B and / or image A based on, including alignment of images A and B,
How to remove image blurring.
제9항에 있어서,
타임 슬라이스 내 형성된 이미지를 정렬 및 중첩하는 방식은,
2개의 연속된 타임 슬라이스마다 형성된 이미지들에 대해
Figure 112016082476895-pat00041
를 계산하고, 늦은 시간의 이미지를 앞선 시간의 이미지에 정렬하고 중첩하는 방식; 또는
2개의 연속된 타임 슬라이스마다 형성된 이미지들에 대해
Figure 112016082476895-pat00042
를 계산하고, 시간 순서에 따라 앞선 시간의 이미지를 늦은 시간의 이미지에 정렬하고 중첩하는 방식
중 적어도 하나를 포함하는 영상 블러링 제거 방법.
According to claim 9,
The method of aligning and overlapping the images formed in the time slice,
For images formed every two consecutive time slices
Figure 112016082476895-pat00041
A method of calculating , and aligning and superimposing an image of a late time to an image of an earlier time; or
For images formed every two consecutive time slices
Figure 112016082476895-pat00042
A method of calculating , arranging and superimposing an image of an earlier time with an image of a later time according to time order
Image blurring removal method comprising at least one of.
제6항에 있어서,
상기 블러링 제거 처리를 수행할 경우, 블러링 커널(Blurring Kernel)을 계산하는 방식은,
블러링 커널
Figure 112016082476895-pat00043
이고,
상기 은 매트릭스 x를 벡터 형식으로 표시함을 의미하고, 는 경도(gradient)의 연산을 의미하며, I는 블러링 제거 처리 후의 선명한 영상이고, C는 현재 정렬된 블러링 이미지이고, E는 현재 정렬된 DVS 엣지 추정 영상이고,
Figure 112016082476895-pat00046
는 벡터의 2놈(norm)을 계산한다는 의미이고,
Figure 112016082476895-pat00047
는 벡터의 1놈을 계산한다는 의미이고,
Figure 112016082476895-pat00048
Figure 112016082476895-pat00049
는 미리 정해진 2개의 가중치(weight value)이고,
Figure 112016082476895-pat00050
Figure 112016082476895-pat00051
가 최소일 때의 독립변수를 의미하는,
영상 블러링 제거 방법.
According to claim 6,
In the case of performing the de-blurring process, the method of calculating the blurring kernel is,
blurring kernel
Figure 112016082476895-pat00043
ego,
remind means that the matrix x is expressed in vector form, Means the operation of the gradient, I is the sharp image after deblurring processing, C is the currently aligned blurring image, E is the currently aligned DVS edge estimation image,
Figure 112016082476895-pat00046
means to calculate the 2 norm of the vector,
Figure 112016082476895-pat00047
means to calculate one norm of the vector,
Figure 112016082476895-pat00048
and
Figure 112016082476895-pat00049
is two predetermined weight values,
Figure 112016082476895-pat00050
Is
Figure 112016082476895-pat00051
means the independent variable when is minimum,
How to remove image blurring.
제6항에 있어서,
평균 엣지 다이어그램을 결정하는 방식은,
현재 반복 단계에서의 이미지의 선명도에 대해, 상기 DVS 이벤트 집합에 기초하여, 상기 블러링 이미지가 노출되는 동안 추정된 카메라 운동 궤적 중 각 세그먼트 방향에 있는 엣지 다이어그램을 계산하고, 모든 엣지 다이어그램을 중첩한 후, 스켈레톤 다이어그램을 계산한 결과를 상기 평균 엣지 다이어그램으로 하는 방식을 포함하는,
영상 블러링 제거 방법.
According to claim 6,
The way to determine the average edge diagram is,
For the sharpness of the image in the current iteration step, based on the DVS event set, an edge diagram in each segment direction of the estimated camera motion trajectory during exposure of the blurred image is calculated, and all edge diagrams are superimposed. Afterwards, including a method of calculating the result of calculating the skeleton diagram as the average edge diagram,
How to remove image blurring.
영상 블러링 제거 장치에 있어서,
획득 모듈 및 영상 블러링 제거 모듈을 포함하고,
상기 획득 모듈은, 처리할 블러링 이미지 및 상기 블러링 이미지가 노출되는 동안 DVS 센서가 기록한 DVS 이벤트 집합을 획득하고,
상기 블러링 제거 모듈은, 상기 DVS 이벤트 집합에 기초하여 DVS 엣지(edge) 추정 영상을 추정하고; 및
상기 DVS 엣지 추정 영상에 기초하여 상기 블러링 제거 처리를 수행하고,
상기 DVS 엣지 추정 영상은 모든 타임 슬라이스 내에 형성된 이미지를 정렬 및 중첩(overlay)하고, 중첩된 이미지의 스켈레톤(Skeleton) 다이어그램을 상기 DVS 엣지 추정 영상으로 계산함으로써 결정되는,
영상 블러링 제거 장치.
In the image blur removal device,
It includes an acquisition module and an image deblurring module,
The acquisition module acquires a blurred image to be processed and a set of DVS events recorded by a DVS sensor while the blurred image is exposed;
The de-blurring module estimates a DVS edge estimation image based on the DVS event set; and
Performing the de-blurring process based on the DVS edge estimation image;
The DVS edge estimation image is determined by aligning and overlaying images formed in all time slices, and calculating a skeleton diagram of the overlapped image as the DVS edge estimation image,
Video deblurring device.
KR1020160107863A 2016-01-21 2016-08-24 Method and Device of Image Deblurring KR102563750B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/356,808 US10062151B2 (en) 2016-01-21 2016-11-21 Image deblurring method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610039224.2A CN106991650B (en) 2016-01-21 2016-01-21 Image deblurring method and device
CN201610039224.2 2016-01-21

Publications (2)

Publication Number Publication Date
KR20170087814A KR20170087814A (en) 2017-07-31
KR102563750B1 true KR102563750B1 (en) 2023-08-04

Family

ID=59414291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160107863A KR102563750B1 (en) 2016-01-21 2016-08-24 Method and Device of Image Deblurring

Country Status (2)

Country Link
KR (1) KR102563750B1 (en)
CN (1) CN106991650B (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451973B (en) * 2017-07-31 2020-05-22 西安理工大学 Motion blurred image restoration method based on rich edge region extraction
CN108629751A (en) * 2018-05-08 2018-10-09 深圳市唯特视科技有限公司 A kind of image deblurring method always to be made a variation based on weight weighted graph
KR102508992B1 (en) 2018-06-19 2023-03-14 삼성디스플레이 주식회사 Image processing device and image processing method
KR102435519B1 (en) * 2018-06-20 2022-08-24 삼성전자주식회사 Method and apparatus for processing 360 degree image
US11410413B2 (en) 2018-09-10 2022-08-09 Samsung Electronics Co., Ltd. Electronic device for recognizing object and method for controlling electronic device
KR102584501B1 (en) 2018-10-05 2023-10-04 삼성전자주식회사 Method for recognizing object and autonomous driving device therefor
CN110428397A (en) * 2019-06-24 2019-11-08 武汉大学 A kind of angular-point detection method based on event frame
CN111340733B (en) * 2020-02-28 2022-07-26 深圳市商汤科技有限公司 Image processing method and device, electronic equipment and storage medium
CN111369482B (en) * 2020-03-03 2023-06-23 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and storage medium
CN113724142B (en) * 2020-05-26 2023-08-25 杭州海康威视数字技术股份有限公司 Image Restoration System and Method
CN113784014B (en) * 2020-06-04 2023-04-07 杭州海康威视数字技术股份有限公司 Image processing method, device and equipment
CN113923319B (en) * 2021-12-14 2022-03-08 成都时识科技有限公司 Noise reduction device, noise reduction method, chip, event imaging device and electronic equipment
CN114494085B (en) * 2022-04-14 2022-07-15 季华实验室 Video stream restoration method, system, electronic device and storage medium
CN116527407B (en) * 2023-07-04 2023-09-01 贵州毅丹恒瑞医药科技有限公司 Encryption transmission method for fundus image
CN117221731A (en) * 2023-09-21 2023-12-12 思翼科技(深圳)有限公司 Cloud deck camera image processing system and method based on artificial intelligence

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502367A (en) * 2007-04-23 2011-01-20 テセラ テクノロジーズ アイルランド リミテッド Camera motion detection and estimation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101887988B1 (en) * 2012-07-03 2018-08-14 삼성전자 주식회사 Image sensor chip, operation method thereof, and system having the same
KR102074857B1 (en) * 2012-09-26 2020-02-10 삼성전자주식회사 Proximity sensor and proximity sensing method using design vision sensor
US9696812B2 (en) * 2013-05-29 2017-07-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object
US9349165B2 (en) * 2013-10-23 2016-05-24 Adobe Systems Incorporated Automatically suggesting regions for blur kernel estimation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502367A (en) * 2007-04-23 2011-01-20 テセラ テクノロジーズ アイルランド リミテッド Camera motion detection and estimation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chin-Chen Chang, ET AL:"Image Retrieval Using Spatial Color and Edge Detection", PCM 2005: Advances in Multimedia Information Processing - PCM 2005, Nov. 13-16, 2005, pp. 981-992(2005.11.13.) 1부.*
D. Saner, ET AL:"High-Speed Object Tracking Using an Asynchronous Temporal Contrast Sensor", Vision, Modeling and Visualization, Darmstadt, Germany, October 8-10, 2014, pp. 87-94(2014.10.08.) 1부.*

Also Published As

Publication number Publication date
CN106991650B (en) 2020-09-15
KR20170087814A (en) 2017-07-31
CN106991650A (en) 2017-07-28

Similar Documents

Publication Publication Date Title
KR102563750B1 (en) Method and Device of Image Deblurring
US10789765B2 (en) Three-dimensional reconstruction method
Jeon et al. Accurate depth map estimation from a lenslet light field camera
EP3099044B1 (en) Multi-frame noise reduction method and terminal
US10062151B2 (en) Image deblurring method and apparatus
JP4887374B2 (en) A method for obtaining scattered parallax field in stereo vision
KR101429371B1 (en) Algorithms for estimating precise and relative object distances in a scene
KR102135770B1 (en) Method and apparatus for reconstructing 3d face with stereo camera
WO2016074639A1 (en) Methods and systems for multi-view high-speed motion capture
JP2010238234A (en) Method for reducing blur in scene image, method for reducing image blur, and camera configured to reduce image blur
JP6202879B2 (en) Rolling shutter distortion correction and image stabilization processing method
KR101671391B1 (en) Method for deblurring video using modeling blurred video with layers, recording medium and device for performing the method
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
EP2953093A1 (en) Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing
KR100805802B1 (en) Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it
JP4578653B2 (en) Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method
KR20110133677A (en) Method and apparatus for processing 3d image
JP2017059998A (en) Image processing apparatus and method, and imaging device
KR102236473B1 (en) Image processing method and apparatus therefor
JP6730423B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013069012A (en) Multi-lens imaging apparatus
Chiao et al. Rolling shutter correction for video with large depth of field
JP6354907B2 (en) Image processing apparatus and image processing method
JP2017010115A (en) Image resolution conversion device, image resolution conversion method, and computer program
Nakabayashi et al. Event-based Blur Kernel Estimation For Blind Motion Deblurring

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant