KR101424387B1 - Apparatus and method for processing image - Google Patents

Apparatus and method for processing image Download PDF

Info

Publication number
KR101424387B1
KR101424387B1 KR1020130011908A KR20130011908A KR101424387B1 KR 101424387 B1 KR101424387 B1 KR 101424387B1 KR 1020130011908 A KR1020130011908 A KR 1020130011908A KR 20130011908 A KR20130011908 A KR 20130011908A KR 101424387 B1 KR101424387 B1 KR 101424387B1
Authority
KR
South Korea
Prior art keywords
image
camera
information
lens
resolution
Prior art date
Application number
KR1020130011908A
Other languages
Korean (ko)
Inventor
이영현
고한석
양철종
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020130011908A priority Critical patent/KR101424387B1/en
Application granted granted Critical
Publication of KR101424387B1 publication Critical patent/KR101424387B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking

Abstract

The present invention relates to a method and an apparatus for processing an image, which are capable of improving the quality of an image collected by transportation such as a vehicle. According to an embodiment of the present invention, an image processing apparatus for transportation includes: a first camera which includes a first lens and has a first capture speed; a second camera which includes a second lens vertical to the first lens and has a second capture speed; a beam splitter which is arranged at an angle of 45 degrees with the first lens and the second lens; an image processing unit which creates a third image using first information which is acquired from a first image photographed by the first camera and second information which is acquired from a second image photographed by the second camera; and a control unit which controls the first camera, the second camera, the beam splitter, and the image processing unit.

Description

영상 처리 방법 및 장치{APPARATUS AND METHOD FOR PROCESSING IMAGE}[0001] APPARATUS AND METHOD FOR PROCESSING IMAGE [0002]

본 발명은 영상 처리 장치 및 방법에 관한 것으로, 보다 상세하게는 차량 등의 교통 수단에서 수집되는 영상의 화질을 개선하는 영상 처리 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method for improving the image quality of an image collected by a transportation means such as a vehicle.

현대에 들어 자동차 생활이 보편화 되면서 자동차 관련 사고의 분쟁도 많아지고 있다. 자동차 사고의 경우 사고 당사자 간의 주장이 다른 경우가 많이 때문에 사고자의 진술만으로는 사고의 경위를 파악하기 어렵다. 그러나 최근 들어 차량용 블랙박스가 널리 보급되면서 저장된 블랙박스 영상이 교통사고 현장 분석이나 주행 도로 주변 정보 분석에 용이하게 사용되고 있다. 통상적인 차량용 블랙박스는 차량의 전면부 또는 후면부에 하나의 카메라가 장착되어 주행 중인 차량의 전방 또는 후방 영상을 저장한다. 저장된 영상은 촬영 이후 언제든 확인 가능하기 때문에 교통사고 현장에 대한 객관적인 증거로 활용할 수 있으며 뿐만 아니라 지나온 도로 주변 정보의 재확인용으로도 사용 가능하다.As automobile life becomes more common in Hyundai, disputes about automobile related accidents are increasing. In the case of automobile accidents, there are many cases where the accidents are different from each other. However, recently, as the black box for vehicles has become widespread, the stored black box image is easily used for the traffic accident scene analysis and the surrounding road information analysis. A typical vehicle black box is equipped with a single camera on the front or rear of the vehicle to store forward or backward images of the vehicle in motion. Since the stored image can be checked at any time after shooting, it can be used as objective evidence for a traffic accident site, and it can be used for re-checking of the information on the road around.

그러나 차량용 블랙박스 영상은 정확한 정보 전달 면에서 한계를 가진다. 비용 및 활용성을 고려하였을 때 통상적인 보급형 차량용 블랙박스 영상은 VGA(640x480)급으로 주행 과정의 전반적인 상황을 이해하기에는 충분한 해상도를 가지나 고해상도가 아니기 때문에 차량의 번호판 또는 주변 사람들의 얼굴을 통한 신원 확인 등이 어려운 단점이 있다. 이 문제의 해결을 위해 최근 HD급(1280x720) 이상의 고해상도 성능의 블랙박스가 출시되고 있다. 그러나 이러한 고화질 제품은 비용이 비싸 쉽게 구매하기 어려우며, 동영상의 초당 프레임 캡처 속도가 30프레임 수준으로 적다.However, vehicle black box images have limitations in terms of accurate information transmission. Considering the cost and usability, a typical commercial black-box image is VGA (640x480), which has sufficient resolution to understand the overall situation of the driving process but is not high resolution. Therefore, And so on. To solve this problem, a black box having a high resolution performance of more than HD (1280x720) is recently being released. However, these high-quality products are expensive and difficult to purchase, and the frame capture rate per second is as low as 30 frames.

초당 프레임 캡처 속도가 느린 저속 카메라는 움직이는 물체나 배경에 대해서 선명한 정지 영상을 획득하기 어려운 단점이 있다. 즉, 고속 주행하는 차량에서 얻은 동영상이나 차량이 정지해 있는 상태라고 해도 빠르게 움직이는 외부 물체를 촬영하여 얻은 동영상은 각 프레임을 정지영상으로 추출하였을 때 모션 블러링이 많이 발생한다. 모션 블러링 문제에 강인하게 정지영상을 얻으려면 초당 프레임 캡처 속도가 빠른 고속 카메라를 사용해야 하지만, 저장 용량의 한계를 고려하였을 때 해상도를 줄일 수 밖에 없다. 저해상도 영상은 앞서 언급한 세밀한 정보 추출 한계의 문제를 가진다. 또한, 고속 카메라에서 획득한 영상은 조도가 떨어지는 문제가 있다. 즉, 초당 프레임 캡처 속도가 빠를수록 인접한 시간의 정지영상 간의 시간 간격이 좁아지기 때문에 저장되는 영상에 충분한 양의 빛이 포함되지 못한다. 따라서 고속 카메라에서 촬영된 영상은 색상 정보가 충분치 못한 단점이 있다.A low-speed camera with a low frame-capturing rate per second has the disadvantage that it is difficult to obtain a clear still image for a moving object or background. That is, a moving image obtained from a vehicle traveling at a high speed or a moving object obtained by photographing a fast moving external object, even when the vehicle is stationary, generates motion blurring when each frame is extracted as a still image. To obtain still images robustly against the motion blur problem, a high-speed camera with a high frame capture rate per second is required, but the resolution can not be reduced when the storage capacity is considered. The low-resolution images have the problem of the detailed information extraction limit mentioned above. In addition, there is a problem that the image acquired by the high-speed camera has low illumination. That is, as the frame capture rate per second is fast, the time interval between still images of adjacent time becomes narrow, so that a sufficient amount of light is not included in the stored image. Therefore, there is a disadvantage in that the color information is not sufficient for the image captured by the high-speed camera.

공개특허 10-2011-0088467호에는 카메라 영상의 녹화 화질과 해상도, 그리고 프레임 수 중 어느 하나 이상을 증가시켜 녹화함으로써, 상기 스토리지의 한정된 저장 용량을 보다 효율적으로 사용할 수 있다는 내용이 개시되어 있다.Open No. 10-2011-0088467 discloses that a limited storage capacity of the storage can be used more efficiently by recording at least one of a recording image quality, a resolution, and a frame number of a camera image.

하지만, 상기 공개 특허에는 블랙박스 영상 화질을 개선하는 구체적인 방법에 대해서는 개시되어 있지 않다.However, the above patent does not disclose a specific method for improving the black box image quality.

따라서 차량 등의 교통 수단에서 촬영된 영상의 화질을 개선하는 방법에 대한 연구가 필요한 실정이다.Therefore, there is a need for research on a method of improving the image quality of an image captured by a vehicle such as a vehicle.

본 발명의 목적은 캡처(capture) 속도가 다른 복수의 카메라에서 획득된 영상의 융합을 통해 카메라에 의해 촬영된 기존 영상보다 화질이 개선된 영상을 생성하는 영상 처리 장치 및 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus and method for generating an image with improved image quality than an existing image captured by a camera through fusion of images obtained from a plurality of cameras having different capture rates.

상기 목적을 달성하기 위해 본 발명의 일실시예에 의하면, 교통 수단용 영상 처리 장치에 있어서, 제 1 렌즈를 구비하고 제 1 캡처 속도를 가지는 제1카메라; 상기 제 1 렌즈가 향하는 방향과 직교를 이루는 방향에 배치된 제 2 렌즈를 구비하고 제 2 캡처 속도를 가지는 제 2 카메라; 상기 제 1 렌즈가 향하는 방향 및 상기 제 2 렌즈가 향하는 방향과 45도의 각도를 이루며 배치된 빔 스플리터; 상기 제 1 카메라를 통해 촬영된 제 1 영상에서 획득된 제 1 정보 및 상기 제 2 카메라를 통해 촬영된 제 2 영상에서 획득된 제 2 정보를 이용하여 제 3 영상을 생성하는 영상 처리부; 및 상기 제 1 카메라, 상기 제 2 카메라, 상기 빔 스플리터 및 상기 영상 처리부를 제어하는 제어부를 포함하는 영상 처리 장치가 제공된다.According to an aspect of the present invention, there is provided an image processing apparatus for a transportation vehicle, comprising: a first camera having a first lens and having a first capture speed; A second camera having a second lens disposed in a direction orthogonal to a direction in which the first lens is directed, and having a second capturing speed; A beam splitter disposed at an angle of 45 degrees with respect to a direction in which the first lens faces and a direction in which the second lens faces; An image processor for generating a third image using first information obtained from a first image captured through the first camera and second information obtained from a second image captured through the second camera; And a control unit for controlling the first camera, the second camera, the beam splitter, and the image processing unit.

상기 목적을 달성하기 위해 본 발명의 일실시예에 의하면, 제 1 렌즈를 구비하고 제 1 캡처 속도를 가지는 제1카메라, 상기 제 1 렌즈가 향하는 방향과 직교를 이루는 방향에 배치된 제 2 렌즈를 구비하고 제 2 캡처 속도를 가지는 제 2 카메라, 및 상기 제 1 렌즈가 향하는 방향 및 상기 제 2 렌즈가 향하는 방향과 45도의 각도를 이루며 배치된 빔 스플리터를 포함하는 교통 수단용 영상 처리 장치의 영상 처리 방법에 있어서, 상기 제 1 카메라를 통해 촬영된 제 1 영상에서 제 1 정보를 획득하는 단계; 제 2 카메라를 통해 촬영된 제 2 영상에서 제 2 정보를 획득하는 단계; 및 상기 획득된 제 1 정보 및 상기 획득된 제 2 정보를 이용하여 제 3 영상을 생성하는 단계를 포함하는 영상 처리 방법이 제공된다.According to an embodiment of the present invention, there is provided a camera having a first camera having a first lens and having a first capture speed, a second lens disposed in a direction orthogonal to a direction in which the first lens is directed, And a beam splitter arranged at an angle of 45 degrees with respect to a direction in which the first lens faces and a direction in which the second lens faces, The method of claim 1, further comprising: obtaining first information from a first image photographed through the first camera; Acquiring second information from a second image photographed through a second camera; And generating a third image using the obtained first information and the obtained second information.

본 발명의 일실시예에 의한 영상 처리 장치 및 방법은 캡처(capture) 속도가 다른 복수의 카메라에서 획득된 영상의 융합을 통해 카메라에 의해 촬영된 기존 영상보다 화질이 개선된 영상을 생성할 수 있다. The image processing apparatus and method according to an embodiment of the present invention can generate an image with improved image quality than an existing image captured by a camera through fusion of images obtained from a plurality of cameras having different capture rates .

본 발명의 일실시예에 의하면, 차량 등의 교통 수단 외부에 장착된 카메라를 사용하여 차량 주변의 영상 정보를 안정적으로 제공할 수 있다.According to an embodiment of the present invention, video information around the vehicle can be stably provided using a camera mounted outside the means of transportation such as a vehicle.

본 발명의 일실시예에 의하면, 움직이는 차량 등의 교통 수단에서 획득한 영상이 화질 열화 원인을 해결함으로써 블랙박스 등에 적용하였을 때 고속 주행 중 저장된 영상에서도 주변 자동차 번호 등을 인식 가능한 수준으로 복원하여 블랙박스의 효용성을 높일 수 있다.According to an embodiment of the present invention, when an image acquired by a vehicle such as a moving vehicle resolves the cause of deterioration in image quality, it is possible to restore the surrounding car number to a recognizable level even in a video stored during high- The effectiveness of the box can be enhanced.

도 1은 본 발명의 일실시예와 관련된 영상 처리 장치를 나타내는 도면이다.
도 2는 도 1에 도시된 영상 처리 장치가 수행하는 영상 처리 방법을 나타내는 흐름도이다.
도 3은 도 1에 도시된 영상 처리 장치를 통해 획득한 영상의 예를 나타낸다.
도 4는 본 발명의 일실시예와 관련된 영상 처리 방법에서 영상의 모션 블러링을 제거하는 예를 나타내는 도면이다.
도 5는 본 발명의 일실시예와 관련된 영상 처리 방법에서 영상의 모션 블러링을 제거하기 위해 사용되는 점상 강도 분포 함수(point spread function)를 추정하는 예를 나타내는 도면이다.
도 6은 도 5의 스텝 4에서 얻어진 곡선을 위에서 수직으로 보았을 때를 표현한 도면이다.
도 7은 본 발명의 일실시예와 관련된 영상 처리 방법에서 여러 가지 모션이 동시에 존재하는 상황에 대해 점상 강도 분포 함수를 부분적으로 추정하여 모션 블러링을 제거하는 예를 나타내는 도면이다.
도 8은 고속 카메라의 저해상도 영상을 융합하여 고해상도 영상으로 복원하는 예를 나타내는 도면이다.
도 9는 초해상도 복원 알고리즘을 이용하여 복원된 고속 카메라의 영상에 저속 카메라의 영상의 색상 정보를 입혀 최적의 영상을 만들어내는 예를 나타내는 도면이다.
1 is a view showing an image processing apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image processing method performed by the image processing apparatus shown in FIG.
FIG. 3 shows an example of an image acquired through the image processing apparatus shown in FIG.
4 is a diagram illustrating an example of removing motion blurring of an image in an image processing method according to an embodiment of the present invention.
5 is a diagram illustrating an example of estimating a point spread function used to remove motion blurring of an image in an image processing method according to an embodiment of the present invention.
FIG. 6 is a view showing the curve obtained in step 4 of FIG. 5 viewed vertically from above. FIG.
FIG. 7 is a diagram illustrating an example of removing motion blurring by partially estimating a point intensity distribution function for a situation where various motions exist simultaneously in an image processing method according to an embodiment of the present invention.
8 is a view showing an example of reconstructing a high-resolution image by fusing a low-resolution image of a high-speed camera.
9 is a diagram illustrating an example of generating an optimal image by applying color information of a low-speed camera to an image of a high-speed camera reconstructed using a super-resolution restoration algorithm.

이하, 본 발명의 일실시예와 관련된 영상 처리 장치 및 상기 영상 처리 장치가 수행하는 영상 처리 방법에 대해 도면을 참조하여 설명하도록 하겠다.Hereinafter, an image processing apparatus and an image processing method performed by the image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "~ 부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. In this specification, the terms "comprising ", or" comprising "and the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps. Also, the terms "module "," module "and the like described in the specification mean units for processing at least one function or operation, which may be implemented by hardware or software or by a combination of hardware and software.

본 발명의 일실시예에 의한 영상 처리 장치는 교통 수단에 내장되거나 부착되어 상기 교통 수단에서 수집된 영상의 화질을 개선을 위해 영상 처리를 수행할 수 있다. 상기 교통 수단은 차량, 항공기, 기차, 지하철 등을 포함할 수 있다.The image processing apparatus according to an exemplary embodiment of the present invention may be embedded in or attached to a transportation means to perform image processing for improving the image quality of the image collected by the transportation means. The transportation means may include a vehicle, an aircraft, a train, a subway, and the like.

이하에서는 차량용 영상 처리 장치를 본 발명의 일실시예로서 설명하도록 하겠다. 상기 차량용 영상 처리 장치는 블랙박스(black box)를 포함할 수 있다.Hereinafter, a vehicle image processing apparatus will be described as an embodiment of the present invention. The vehicle image processing apparatus may include a black box.

도 1은 본 발명의 일실시예와 관련된 영상 처리 장치를 나타내는 도면이다.1 is a view showing an image processing apparatus according to an embodiment of the present invention.

도시된 바와 같이, 영상 처리 장치(100)는 제 1 카메라(110), 제 2 카메라(120), 빔 스플리터(beam splitter)(130), 영상 처리부(140), 및 제어부(150)를 포함할 수 있다.1, the image processing apparatus 100 includes a first camera 110, a second camera 120, a beam splitter 130, an image processing unit 140, and a control unit 150 .

상기 제 1 카메라(110)와 상기 제 2 카메라(120)는 서로 다른 캡처(capture) 속도를 가질 수 있다. 상기 캡처 속도는 초당 프레임 캡처 속도를 포함할 수 있다.The first camera 110 and the second camera 120 may have different capture rates. The capture rate may include a frame capture rate per second.

이하 실시예에서는 상기 제 1 카메라(110)로 저해상도 고속 카메라를 사용하고, 상기 제 2 카메라(120)는 고해상도의 저속 카메라를 사용한 것을 예로 설명하도록 하겠다.In the following embodiments, a low-resolution high-speed camera is used as the first camera 110, and a low-speed camera having a high resolution is used as the second camera 120. [

상기 영상 처리 장치(100)는 빔 스플리터(beam splitter)(130)를 이용하여 두 대의 카메라(110, 120)에서 얻은 영상을 정합(registration)하는 예를 보이고 있다. 두 대의 카메라(110, 120)에서 얻은 영상을 융합하기 위해서는 촬영된 두 장면의 뷰(view)를 일치시키는 정합 과정이 선행되어야 한다. The image processing apparatus 100 shows an example of registration of images obtained from the two cameras 110 and 120 using a beam splitter 130. [ In order to fuse the images obtained by the two cameras 110 and 120, a matching process for matching the views of two photographed scenes must be preceded.

영상 정합에 관련된 여러 가지 알고리즘 측면의 방법이 있지만 정합 알고리즘을 사용하게 되면 처리 속도가 늦어지고, 상황에 따라 정합 알고리즘의 성능을 보장할 수 없기 때문에 본 실시예에서는 하드웨어적 측면의 정합 방법을 사용한다. Although there are various algorithms related to image matching, if the matching algorithm is used, the processing speed becomes slow and the performance of the matching algorithm can not be guaranteed depending on the situation. Therefore, in this embodiment, the hardware matching method is used .

상기 빔 스플리터(130)는 빔의 빛을 두 개 이상의 이미지로 쪼개도록 사용되는 반사경 장치로서, 50%의 빛은 투과시키고 50%의 빛은 반사시키는 특성을 가진 투명 재질의 판이다. The beam splitter 130 is a reflector device used to split the beam of light into two or more images, and is a transparent material having the characteristics of transmitting 50% of light and reflecting 50% of light.

두 대의 카메라(110, 120)를 직각으로 놓고 빔 스플리터(130)를 45도 방향에 놓음으로써 두 대의 카메라(110, 120)가 같은 장면을 촬영하는 효과를 얻을 수 있다. 영상이 정합되도록 카메라들(110, 120)의 위치와 빔 스플리터(130)의 위치를 두 카메라(110, 120)의 영상을 확인하며 두 영상이 일치하도록 조정할 수 있다.By placing the two cameras 110 and 120 at right angles and placing the beam splitter 130 in the direction of 45 degrees, it is possible to obtain the effect that the two cameras 110 and 120 shoot the same scene. The positions of the cameras 110 and 120 and the position of the beam splitter 130 are checked so that the images of the two cameras 110 and 120 are matched so that the two images coincide with each other.

두 대의 카메라(110, 120)를 직각으로 놓는다는 의미는 상기 제 1 카메라(110)의 렌즈가 향하는 방향과 상기 제 2 카메라(120)의 렌즈가 향하는 방향이 이루는 각은 수직을 이루도록 배치한다는 것을 말한다.The fact that the two cameras 110 and 120 are disposed at right angles means that the angle between the direction of the lens of the first camera 110 and the direction of the lens of the second camera 120 is perpendicular It says.

또한, 두 대의 카메라(110, 120)를 직각으로 놓고 빔 스플리터(130)를 45도 방향에 놓는다는 의미는 빔 스플리터(130)가 제 1 카메라(110)의 렌즈가 향하는 방향 및 상기 제 2 카메라(120)의 렌즈가 향하는 방향 모두와 45도의 각도를 이루며 배치되는 것을 의미할 수 있다.The reason for placing the two cameras 110 and 120 at right angles and placing the beam splitter 130 in the direction of 45 degrees is that the direction in which the beam of the beam splitter 130 is directed by the lens of the first camera 110, May be disposed at an angle of 45 degrees with respect to the direction in which the lens of the light source 120 faces.

영상 처리부(140)는 상기 제 1 카메라(110) 및 상기 제 2 카메라(120)을 통해 촬영된 영상을 융합하여 제 3 영상을 생성할 수 있다. 상기 제 3 영상은 제 1 영상 또는 제 2 영상의 화질을 개선한 영상일 수 있다. 또한, 상기 제 1 영상과 제 2 영상은 동일한 뷰를 촬영한 영상일 수 있다. 예를 들어, 상기 영상 처리부(140)는 차량의 이동과 빠른 프레임 캡처 속도로 인해 발생하는 모션 블러링(motion blurring)을 제거하거나 색상 손실의 보상을 처리하는 방식으로 제 3 영상을 생성할 수 있다. 상기 제 3 영상을 생성하는 방법에 대한 구체적인 설명은 후술하도록 하겠다.The image processing unit 140 may generate a third image by fusing images photographed through the first camera 110 and the second camera 120. The third image may be an image obtained by improving the image quality of the first image or the second image. In addition, the first image and the second image may be images of the same view. For example, the image processing unit 140 may generate a third image in a manner that removes motion blurring caused by movement of the vehicle and a fast frame capturing speed, or processes compensation of color loss . A detailed description of a method of generating the third image will be described later.

제어부(150)는 상기 제 1 카메라(110), 상기 제 2 카메라, 상기 빔 스플리터(130) 및 영상 처리부(140)를 전반적으로 제어할 수 있다.The control unit 150 may control the first camera 110, the second camera, the beam splitter 130, and the image processing unit 140 as a whole.

도 2는 도 1에 도시된 영상 처리 장치가 수행하는 영상 처리 방법을 나타내는 흐름도이다.2 is a flowchart illustrating an image processing method performed by the image processing apparatus shown in FIG.

영상 처리부(140)는 제 1 카메라(110)를 통해 촬영된 제 1 영상 및 제 2 카메라(120)를 통해 촬영된 제 2 영상을 획득할 수 있다. 그리고 영상 처리부(140)는 상기 제 1 영상으로부터 제 1 정보를 획득하고 제 2 영상으로부터 제 2 정보를 획득할 수 있다(S210, S220).The image processor 140 may acquire a first image photographed through the first camera 110 and a second image photographed through the second camera 120. The image processing unit 140 may acquire first information from the first image and acquire second information from the second image (S210, S220).

도 3은 도 1에 도시된 영상 처리 장치를 통해 획득한 영상의 예를 나타낸다.FIG. 3 shows an example of an image acquired through the image processing apparatus shown in FIG.

도 3(a)는 고해상도 저속 카메라인 제 2 카메라(120)를 통해 촬영된 영상을 나타내고, 도 3(b)는 저해상도 고속 카메라인 제 1 카메라(110)를 통해 촬영된 영상을 나타낸다. 3 (a) shows an image taken through the second camera 120, which is a high-resolution low-speed camera, and FIG. 3 (b) shows an image taken through the first camera 110, which is a low-

예를 들어 저속 카메라의 초당 캡처 프레임 수를 10 프레임이라고 하고, 고속 카메라의 초당 캡처 프레임 수를 100 프레임이라고 가정 한다면, 저속 카메라에서 한 장의 프레임 영상을 얻는 동안 고속 카메라는 열 장의 프레임 영상을 얻을 수 있다. 저속 카메라에서 얻은 영상은 해상도가 높지만 셔터 노출 시간이 상대적으로 길기 때문에 카메라 또는 물체의 움직임에 따라 모션 블러링이 일어날 수 있다. 그러나 고속 카메라에서 얻은 영상은 비록 해상도는 낮지만 셔터 노출 시간이 상대적으로 짧기 때문에 저속 카메라에 비해 같은 시간 동안 많은 수의 프레임 영상을 캡처할 수 있고, 그 시간 동안의 카메라나 물체의 움직임을 파악하는 데 용이하다. 그러나 저속 카메라는 셔터 노출 시간이 길기 때문에 빛의 양이 충분하여 영상의 색상 정보를 충분히 담아내지만, 고속 카메라는 셔터 노출 시간이 짧기 때문에 빛의 양이 충분하지 못하여 영상이 상대적으로 어둡게 나타난다.For example, assuming that the number of capture frames per second of a low-speed camera is 10 frames and the number of capture frames per second of a high-speed camera is 100 frames, a high-speed camera obtains ten frame images while obtaining one frame image from a low- have. Images obtained from a low-speed camera have high resolution, but shutter blurring may occur depending on the movement of the camera or the object because the shutter exposure time is relatively long. However, since the image obtained from the high-speed camera has a relatively low resolution but the shutter exposure time is relatively short, it is possible to capture a large number of frame images during the same time as the low-speed camera, It is easy to do. However, since the low speed camera has a long shutter exposure time, the amount of light is enough to sufficiently capture the color information of the image. However, since the shutter speed of the high speed camera is short, the amount of light is insufficient and the image is relatively dark.

영상 처리부(140)는 상기 제 1 정보 및 상기 제 2 정보를 이용하여 제 1 영상 또는 제 2 영상보다 화질이 개선된 제 3 영상을 획득할 수 있다(S230). 상기 제 3 영상은 상기 제 2 영상이 가지는 모션 블러링을 제거하는 방식으로 생성될 수도 있고, 상기 제 1 영상을 융합하여 만든 복원 영상의 색상을 보상하는 방식으로 생성될 수도 있고, 상기 2가지 방식을 모두 적용하여 생성될 수도 있다.The image processing unit 140 may acquire a third image having an improved image quality than the first image or the second image using the first information and the second information (S230). The third image may be generated by removing motion blurring of the second image or may be generated by a method of compensating a color of a reconstructed image created by fusing the first image, May be generated.

먼저, 모션 블러링을 제거하여 제 3 영상을 생성하는 방법에 대해 설명하기로 한다.First, a method for generating a third image by removing motion blur will be described.

도 4는 본 발명의 일실시예와 관련된 영상 처리 방법에서 영상의 모션 블러링을 제거하는 예를 나타내는 도면이다. 특히, 도 4는 점상 강도 분포 함수(point spread function)을 이용하여 모션 블러링된 영상을 복원하는 예를 보이고 있다. 점상 강도 분포 함수는 점 객체(point object)에 대한 이미징 시스템의 응답을 의미한다. 즉, 모션 블러링이 발생할 때 카메라의 셔터 시간 동안 카메라가 움직인 모션의 정보를 표현한다. 4 is a diagram illustrating an example of removing motion blurring of an image in an image processing method according to an embodiment of the present invention. In particular, FIG. 4 illustrates an example of restoring a motion blurred image using a point spread function. The point intensity distribution function refers to the response of the imaging system to a point object. That is, it represents the information of the motion of the camera during the shutter time of the camera when motion blurring occurs.

통상적으로 모션 블러링된 영상은 점상 강도 분포 함수를 가진 커널에 의해 컨볼루션(convolution)된 형태로 모델링될 수 있다. 따라서, 모션 블러링된 영상의 점상 강도 분포 함수를 정확하게 추정할 수 있다면 디컨볼루션(deconvolution) 연산을 통해 블러링이 제거된 영상을 얻을 수 있게 된다. 그러나 한 대의 카메라에서 발생한 대부분의 모션 블러링된 영상은 그 영상 자체만으로 점상 강도 분포 함수를 추정해야 하는데 복잡한 모션에 대해서는 점상 강도 분포 함수를 추정하기 어려운 문제가 있다. 이 문제의 해결을 위해 본 발명의 일실시예에서는 초당 프레임 캡쳐 속도가 다른 두 대의 카메라(110, 120)를 이용한다.Typically, the motion blurred image can be modeled as a convoluted form by a kernel with a point intensity distribution function. Therefore, if the point intensity distribution function of the motion blurred image can be accurately estimated, it is possible to obtain the blurred image by the deconvolution operation. However, most of the motion blurred images generated by one camera have to estimate the point intensity distribution function only by the image itself, but it is difficult to estimate the point intensity distribution function for the complex motion. To solve this problem, an embodiment of the present invention uses two cameras 110 and 120 having different frame capture rates per second.

도 5는 본 발명의 일실시예와 관련된 영상 처리 방법에서 영상의 모션 블러링을 제거하기 위해 사용되는 점상 강도 분포 함수(point spread function)를 추정하는 예를 나타내는 도면이다. 본 실시예에서는 각 프레임 영상과 프레임 영상 사이에는 글로벌 모션만 존재한다고 가정한다. 즉, 물체의 이동은 없고 카메라의 움직임만 있다고 가정한다. 이 경우 연속된 프레임 간의 비교를 통해 프레임 사이의 움직임을 대표하는 모션 벡터를 추출할 수 있다. 5 is a diagram illustrating an example of estimating a point spread function used to remove motion blurring of an image in an image processing method according to an embodiment of the present invention. In this embodiment, it is assumed that only global motion exists between each frame image and the frame image. That is, it is assumed that there is no movement of the object but only the movement of the camera. In this case, motion vectors representing motion between frames can be extracted through comparison between consecutive frames.

도 5의 스텝 1은 각 프레임의 모션 벡터를 표현한 것으로 각각의 점 f는 모션 벡터의 끝점을 표시한 것이며, 모션 벡터의 시작점은 이전 프레임의 점 f가 된다. 도 5의 스텝 2는 각 점 f를 미분 가능한 곡선으로 연결한 것이다. 도 5의 스텝 3에서 사각형의 밑변은 스텝 2의 곡선 상에서 각 점 f 사이의 중점을 연결한 것이고, 높이는 밑변의 길이에 따라 사각형의 넓이가 같아지도록 결정된 것이다. 이는 각 프레임 영상 사이의 카메라 셔터 속도가 동일하다는 가정에 기반한 것으로 같은 카메라 셔터 속도에서는 같은 양의 빛을 포함한다는 것이며, 각 사각형의 넓이는 동일하게 포함된 빛의 양으로 볼 수 있다. 각 점 h는 사각형의 윗변의 중점을 의미한다. 도 5의 스텝 4는 각 점 h를 미분 가능하도록 곡선으로 연결한 것이다. Step 1 of FIG. 5 represents the motion vector of each frame. Each point f represents the end point of the motion vector, and the start point of the motion vector is the point f of the previous frame. Step 2 in Fig. 5 is a connection of each point f with a differentiable curve. In step 3 of FIG. 5, the base of the quadrangle is obtained by connecting the midpoint between each point f on the curve of step 2, and the height is determined so that the width of the quadrangle becomes equal to the length of the base. This is based on the assumption that the camera shutter speeds are the same between each frame image, and that the same camera shutter speed includes the same amount of light, and the width of each quadrangle can be seen as the amount of light equally contained. Each point h represents the midpoint of the upper side of the rectangle. Step 4 in FIG. 5 is a curve connecting each point h to be differentiable.

도 6은 도 5의 스텝 4에서 얻어진 곡선을 위에서 수직으로 보았을 때를 표현한 도면이다.FIG. 6 is a view showing the curve obtained in step 4 of FIG. 5 viewed vertically from above. FIG.

도 5의 스텝 4에서 표현된 h의 높이는 도 6에서 색상으로 표현될 수 있다. 다음과 같이 얻어진 도 6의 그래프가 최종적으로 추정된 점상 강도 분포 함수가 될 수 있다. 상기와 같은 방법으로 고속 카메라로부터 얻은 일련의 프레임 영상들을 통해 점상 강도 분포 함수를 추정할 수 있다. 그리고 추정된 점상 강도 분포 함수와 저속 카메라에서 얻은 모션 블러링된 고화질 영상과의 디컨볼루션 연산을 통해 최종적으로 제 3 영상을 구할 수 있다. The height of h represented in step 4 of FIG. 5 can be expressed in color in FIG. The graph of FIG. 6, obtained as follows, can be a finally estimated point intensity distribution function. The point intensity distribution function can be estimated through a series of frame images obtained from the high-speed camera in the same manner as described above. Finally, the third image can be obtained through the deconvolution operation between the estimated point intensity distribution function and the motion blurred high-quality image obtained from the low-speed camera.

그러나 상기 과정은 프레임 영상 간에 글로벌 모션이 존재한다고 가정하였을 때의 방법이며, 실제 차량 영상은 물체의 움직임과 카메라의 움직임을 동시에 포함하고 있기 때문에 전체 영상에 대해 하나의 모션만을 추정하여 적용하기 불가능하다. 따라서 이 문제를 해결하기 위해서는 영상을 모션에 따라 각각의 영역으로 나누고, 각 영역 마다 다른 점상 강도 분포 함수를 추정하여 디컨볼루션 연산을 적용할 수 있다.However, the above process is based on the assumption that global motion exists between frame images. Since the actual vehicle image includes both motion of the object and motion of the camera, it is impossible to estimate and apply only one motion to the entire image . Therefore, in order to solve this problem, it is possible to divide the image into the respective regions according to the motion, and to apply the deconvolution operation by estimating different point intensity distribution functions for each region.

도 7은 본 발명의 일실시예와 관련된 영상 처리 방법에서 여러 가지 모션이 동시에 존재하는 상황에 대해 점상 강도 분포 함수를 부분적으로 추정하여 모션 블러링을 제거하는 예를 나타내는 도면이다.FIG. 7 is a diagram illustrating an example of removing motion blurring by partially estimating a point intensity distribution function for a situation where various motions exist simultaneously in an image processing method according to an embodiment of the present invention.

먼저, 영상 처리부(140)는 옵티컬 플로우(optical flow)를 이용하여 주어진 영상에 대해 모션을 분석하고, 분석 결과를 이용하여 배경 영역과 움직이는 물체가 있는 영역을 나눌 수 있다. 그리고 영상 처리부(140)는 배경 영역과 물체 영역 각각 앞에서 설명한 방법대로 고속 카메라의 영상을 이용하여 점상 강도 분포 함수를 구하고, 구해진 각기 다른 점상 강도 분포 함수의 커널을 영역에 대해 별개로 적용하여 복원 영상(즉, 제 3 영상)을 획득할 수 있다.First, the image processing unit 140 analyzes the motion of a given image using an optical flow, and divides the background region and the region having the moving object by using the analysis result. Then, the image processing unit 140 obtains a point intensity distribution function using the images of the high-speed camera in the manner described above for each of the background region and the object region, applies the obtained kernel of each different point intensity distribution function separately to the region, (I.e., a third image).

다음은 색상을 보상하여 제 3 영상을 생성하는 방법에 대해 설명하기로 한다. 본 발명의 일실시예에 의하면, 저속 카메라의 고해상도 영상에서 획득된 색상 정보를 고속 카메라의 저해상도 영상에 융합하는 방식으로 제 3 영상을 생성할 수 있다. 이 경우, 고속 카메라의 저해상도 영상을 고해상도로 복원하는 방법이 선행될 수 있다.Next, a method of generating a third image by compensating for a color will be described. According to an embodiment of the present invention, a third image can be generated by blending color information obtained from a high-resolution image of a low-speed camera with a low-resolution image of a high-speed camera. In this case, a method of restoring a low-resolution image of a high-speed camera to a high resolution may be preceded.

도 8은 고속 카메라의 저해상도 영상을 융합하여 고해상도 영상으로 복원하는 예를 나타내는 도면이다.8 is a view showing an example of reconstructing a high-resolution image by fusing a low-resolution image of a high-speed camera.

연속된 여러 장의 저해상도 영상을 초해상도 복원 알고리즘(super resolution)을 통해 고해상도 영상으로 복원할 수 있다. 새로운 시간에 프레임 영상이 들어올 때마다 이전 시간까지 복원된 영상과 융합할 수 있다. 두 장의 영상 융합만으로도 여러 장의 영상을 융합시킨 효과를 얻을 수 있다. 초해상도 복원 알고리즘 과정은 먼저 어떤 시간에 저해상도 영상이 입력되면 복원하고자 하는 크기의 영상으로 저해상도 영상의 사이즈를 보간법(interpolation)을 이용하여 단순 증가시키는 과정을 포함할 수 있다. 이후 이전 시간까지 복원된 영상과 정합을 실시하고 이전 시간까지 복원된 영상과 정합된 저해상도 영상을 가중치 비율로 융합하여 새로 업데이트된 복원 영상을 만들 수 있다. Resolution images can be restored to a high-resolution image through super resolution. Every time a frame image arrives at a new time, it can be merged with the restored image until the previous time. It is possible to obtain an effect in which a plurality of images are fused with only two image fusion. The super resolution restoration algorithm process may include a process of simply increasing the size of the low resolution image by interpolation using a size image to be restored when a low resolution image is input at a certain time. Thereafter, the reconstructed image can be created by matching the restored image up to the previous time and fusing the reconstructed image and the low-resolution image matched to the previous time to a weight ratio.

그러나 고속 카메라의 저해상도 영상들은 카메라의 빠른 셔터 속도로 인해 빛의 양이 충분치 않아 조도가 떨어져 색상 정보가 비교적 잘 나타나지 않는다. 그렇기 때문에 이 영상들은 융합한 고해상도 복원 영상도 색상 정보를 충분히 담고 있지 못한다.However, low-resolution images of a high-speed camera have insufficient amount of light due to a fast shutter speed of the camera, and thus the color information is relatively invisible because of the illumination. For this reason, these images do not contain color information sufficiently for the high-resolution reconstructed images that are fused together.

도 9는 초해상도 복원 알고리즘을 이용하여 복원된 고속 카메라의 영상에 저속 카메라의 영상의 색상 정보를 입혀 최적의 영상을 만들어내는 예를 나타내는 도면이다.9 is a diagram illustrating an example of generating an optimal image by applying color information of a low-speed camera to an image of a high-speed camera reconstructed using a super-resolution restoration algorithm.

고속 카메라의 영상들을 융합하여 만든 고해상도 영상은 텍스처 정보는 충분히 가지고 있으나 조도가 낮아 색상 정보가 적은 단점이 있다. 이 문제를 보완하기 위해 저속 카메라의 고해상도 영상의 색상 정보를 사용한다. 고속 카메라의 저해상도 영상을 융합하여 만든 고해상도 영상과 저속 카메라의 고해상도 영상은 거의 비슷한 장면을 담고 있기 때문에, 저속 카메라의 고해상도 영상의 색상 정보를 충분히 가져올 수 있다. High-resolution images created by blending high-speed camera images have sufficient texture information, but have low illumination and low color information. To overcome this problem, color information of high-resolution images of low-speed cameras is used. Since the high-resolution image created by blending low-resolution images of high-speed cameras and the high-resolution images of low-speed cameras contain almost similar scenes, color information of high-resolution images of low-speed cameras can be sufficiently obtained.

저속 카메라의 고해상도 영상의 색상을 분석하여 비슷한 색상을 가지는 영역으로 구분하고, 구분된 영역의 색상을 조도가 낮은 고해상도 영상에 입힌다. 이로써 모션 블러링을 제거한 저속 카메라의 고해상도 영상의 화질이 좋지 못하더라도 고속 카메라의 저해상도 영상들을 초해상도 복원 알고리즘을 통해 고해상도로 복원하고, 저속 카메라의 고해상도 영상의 색상 정보를 가져옴으로써 최적의 영상을 얻을 수 있다.The color of the high-resolution image of the low-speed camera is analyzed to divide it into areas having similar colors, and colors of the divided areas are superimposed on high-resolution images with low illumination. Thus, even if the image quality of the low-speed camera of the low-speed camera without motion blurring is poor, the low-resolution images of the high-speed camera are restored to the high resolution through the super-resolution restoration algorithm and the optimum image is obtained by bringing the color information of the low- .

상술한 바와 같이, 본 발명의 일실시예에 의한 영상 처리 장치(100)는 캡처(capture) 속도가 다른 복수의 카메라에서 획득된 영상의 융합을 통해 카메라에 의해 촬영된 기존 영상보다 화질이 개선된 영상을 생성할 수 있다. 또한, 차량 등의 교통 수단 외부에 장착된 카메라를 사용하여 차량 주변의 영상 정보를 안정적으로 제공할 수 있다.As described above, the image processing apparatus 100 according to an exemplary embodiment of the present invention can improve the image quality of an original image captured by a camera through fusion of images obtained from a plurality of cameras having different capture rates Images can be generated. In addition, image information around the vehicle can be stably provided using a camera mounted outside the means of transportation such as a vehicle.

본 발명의 일실시예에 의하면, 움직이는 차량 등의 교통 수단에서 획득한 영상이 화질 열화 원인(예: 모션 블러링, 색상 정보 부족 등)을 해결함으로써 블랙박스 등에 적용하였을 때 고속 주행 중 저장된 영상에서도 주변 자동차 번호 등을 인식 가능한 수준으로 복원하여 블랙박스의 효용성을 높일 수 있다.According to the embodiment of the present invention, when an image acquired from a vehicle such as a moving vehicle is applied to a black box by resolving causes of image quality deterioration (e.g., motion blurring, lack of color information, etc.) It is possible to restore the car number of the surrounding area to a recognizable level, thereby increasing the effectiveness of the black box.

상술한 영상 처리 방벙은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 이때, 컴퓨터로 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 한편, 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The image processing described above may be implemented in the form of a program command that can be executed through various computer means and recorded on a computer-readable recording medium. At this time, the computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. On the other hand, the program instructions recorded on the recording medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software.

컴퓨터로 판독 가능한 기록매체에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. The computer-readable recording medium includes a magnetic recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical medium such as a CD-ROM and a DVD, a magnetic disk such as a floppy disk, A magneto-optical media, and a hardware device specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

한편, 이러한 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다.The recording medium may be a transmission medium, such as a light or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, and the like.

또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The program instructions also include machine language code, such as those generated by the compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

상기와 같이 설명된 영상 처리 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described image processing apparatus and method are not limited to the configuration and method of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .

100: 영상 처리 장치
110: 제 1 카메라
120: 제 2 카메라
130: 빔 스플리터
140: 영상 처리부
150: 제어부
100: image processing device
110: First camera
120: Second camera
130: beam splitter
140:
150:

Claims (10)

교통 수단용 영상 처리 장치에 있어서,
제 1 렌즈를 구비하고 제 1 캡처 속도를 가지는 제1카메라;
상기 제 1 렌즈가 향하는 방향과 직교를 이루는 방향에 배치된 제 2 렌즈를 구비하고 제 2 캡처 속도를 가지는 제 2 카메라;
상기 제 1 렌즈가 향하는 방향 및 상기 제 2 렌즈가 향하는 방향과 45도의 각도를 이루며 배치된 빔 스플리터;
상기 제 1 카메라를 통해 촬영된 제 1 영상에서 획득된 제 1 정보 및 상기 제 2 카메라를 통해 촬영된 제 2 영상에서 획득된 제 2 정보를 이용하여 제 3 영상을 생성하는 영상 처리부; 및
상기 제 1 카메라, 상기 제 2 카메라, 상기 빔 스플리터 및 상기 영상 처리부를 제어하는 제어부를 포함하되,
상기 영상 처리부는 이전 시간까지 복원된 영상과 정합된 현재 시간의 영상을 융합하여 상기 복원된 영상을 업데이트하는 것을 특징으로 하는 영상 처리 장치.
A video processing apparatus for transportation means,
A first camera having a first lens and having a first capture speed;
A second camera having a second lens disposed in a direction orthogonal to a direction in which the first lens is directed, and having a second capturing speed;
A beam splitter disposed at an angle of 45 degrees with respect to a direction in which the first lens faces and a direction in which the second lens faces;
An image processor for generating a third image using first information obtained from a first image captured through the first camera and second information obtained from a second image captured through the second camera; And
And a control unit for controlling the first camera, the second camera, the beam splitter, and the image processing unit,
Wherein the image processing unit updates the restored image by fusing an image of the current time matched with the restored image up to a previous time.
제 1 항에 있어서,
상기 제 1 캡처 속도는 제 2 캡처 속도 보다 빠르고, 상기 제 1 카메라의 해상도는 상기 제 2 카메라의 해상도보다 낮은 것을 특징으로 하는 영상 처리 장치.
The method according to claim 1,
Wherein the first capture rate is faster than the second capture rate and the resolution of the first camera is lower than the resolution of the second camera.
제 2 항에 있어서,
상기 영상 처리부는 상기 제 1 정보를 이용하여 상기 제 2 영상이 가지는 모션 블러링(motion blurring)을 제거하여 상기 제 3 영상을 생성하고,
상기 제 1 정보는 점상 강도 분포 함수를 포함하는 것을 특징으로 하는 영상 처리 장치.
3. The method of claim 2,
Wherein the image processing unit generates the third image by removing motion blurring of the second image using the first information,
Wherein the first information includes a point intensity distribution function.
제 3 항에 있어서, 상기 영상 처리부는
배경 영역과 움직임 객체 영역을 구분하여 별개로 모션 블러링을 제거하는 것을 특징으로 하는 영상 처리 장치.
4. The apparatus of claim 3, wherein the image processing unit
And removes motion blurring separately from the background region and the motion object region.
제 2 항에 있어서, 상기 영상 처리부는
상기 제 1 영상을 해상도 복원 기술을 이용하여 복원시키고, 상기 제 2 영상의 색상 정보를 이용하여 상기 해상도가 복원된 제 1 영상의 색상을 보상하는 것을 특징으로 하는 영상 처리 장치.
3. The apparatus of claim 2, wherein the image processing unit
And restores the first image using a resolution restoration technique and compensates the color of the first image in which the resolution is restored by using the color information of the second image.
제 1 렌즈를 구비하고 제 1 캡처 속도를 가지는 제1카메라, 상기 제 1 렌즈가 향하는 방향과 직교를 이루는 방향에 배치된 제 2 렌즈를 구비하고 제 2 캡처 속도를 가지는 제 2 카메라, 및 상기 제 1 렌즈가 향하는 방향 및 상기 제 2 렌즈가 향하는 방향과 45도의 각도를 이루며 배치된 빔 스플리터를 포함하는 교통 수단용 영상 처리 장치의 영상 처리 방법에 있어서,
상기 제 1 카메라를 통해 촬영된 제 1 영상에서 제 1 정보를 획득하는 단계;
제 2 카메라를 통해 촬영된 제 2 영상에서 제 2 정보를 획득하는 단계;
상기 획득된 제 1 정보 및 상기 획득된 제 2 정보를 이용하여 제 3 영상을 생성하는 단계; 및
이전 시간까지 복원된 영상과 정합된 현재 시간의 영상을 융합하여 상기 복원된 영상을 업데이트하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
A second camera including a first lens and having a first capture speed and a second lens disposed in a direction orthogonal to a direction in which the first lens faces, And a beam splitter disposed at an angle of 45 degrees with respect to a direction in which the first lens faces the first lens and a direction in which the first lens faces the second lens, the image processing method comprising:
Acquiring first information from a first image photographed through the first camera;
Acquiring second information from a second image photographed through a second camera;
Generating a third image using the obtained first information and the obtained second information; And
And updating the restored image by fusing an image of the current time matched with the restored image up to a previous time.
제 6 항에 있어서,
상기 제 1 캡처 속도는 제 2 캡처 속도 보다 빠르고, 상기 제 1 카메라의 해상도는 상기 제 2 카메라의 해상도보다 낮은 것을 특징으로 하는 영상 처리 방법.
The method according to claim 6,
Wherein the first capture rate is faster than the second capture rate and the resolution of the first camera is lower than the resolution of the second camera.
제 7 항에 있어서,
상기 제 3 영상을 생성하는 단계는 상기 제 1 정보를 이용하여 상기 제 2 영상이 가지는 모션 블러링(motion blurring)이 제거하는 단계를 포함하고,
상기 제 1 정보는 점상 강도 분포 함수(point spread function)를 포함하는 것을 특징으로 하는 영상 처리 방법.
8. The method of claim 7,
The generating of the third image may include removing motion blurring of the second image using the first information,
Wherein the first information comprises a point spread function.
제 8 항에 있어서, 상기 모션 블러링 제거 단계는
배경 영역과 움직임 객체 영역을 구분하여 별개로 모션 블러링을 제거하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
9. The method of claim 8, wherein the motion blurring removing step
And separating the background region and the motion object region to remove motion blurring separately.
제 7 항에 있어서, 상기 제 3 영상 생성 단계는
상기 제 1 영상을 해상도 복원 기술을 이용하여 복원시키는 단계;
상기 제 2 영상의 색상 정보를 이용하여 상기 해상도가 복원된 제 1 영상의 색상을 보상하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
8. The method of claim 7, wherein the third image generation step comprises:
Reconstructing the first image using a resolution restoration technique;
And compensating a color of the first image in which the resolution is restored by using the color information of the second image.
KR1020130011908A 2013-02-01 2013-02-01 Apparatus and method for processing image KR101424387B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130011908A KR101424387B1 (en) 2013-02-01 2013-02-01 Apparatus and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130011908A KR101424387B1 (en) 2013-02-01 2013-02-01 Apparatus and method for processing image

Publications (1)

Publication Number Publication Date
KR101424387B1 true KR101424387B1 (en) 2014-07-28

Family

ID=51743173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130011908A KR101424387B1 (en) 2013-02-01 2013-02-01 Apparatus and method for processing image

Country Status (1)

Country Link
KR (1) KR101424387B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61129994A (en) * 1984-10-17 1986-06-17 ニユ−ヨ−ク インステイテユ−ト オブ テクノロジイ Video camera system
JP2006074180A (en) 2004-08-31 2006-03-16 Nikon Corp Imaging device
KR100860967B1 (en) 2007-04-16 2008-09-30 삼성전자주식회사 Apparatus and method for removing motion blur of image
JP2011146889A (en) 2010-01-14 2011-07-28 Nikon Corp Imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61129994A (en) * 1984-10-17 1986-06-17 ニユ−ヨ−ク インステイテユ−ト オブ テクノロジイ Video camera system
JP2006074180A (en) 2004-08-31 2006-03-16 Nikon Corp Imaging device
KR100860967B1 (en) 2007-04-16 2008-09-30 삼성전자주식회사 Apparatus and method for removing motion blur of image
JP2011146889A (en) 2010-01-14 2011-07-28 Nikon Corp Imaging apparatus

Similar Documents

Publication Publication Date Title
CN107021015B (en) System and method for image processing
US10600157B2 (en) Motion blur simulation
US9336574B2 (en) Image super-resolution for dynamic rearview mirror
Zhong et al. Towards rolling shutter correction and deblurring in dynamic scenes
US20110304687A1 (en) Generating sharp images, panoramas, and videos from motion-blurred videos
US20160140733A1 (en) Method and systems for multi-view high-speed motion capture
US20050047672A1 (en) Method for de-blurring images of moving objects
US9838604B2 (en) Method and system for stabilizing video frames
JP6790543B2 (en) Display control devices, methods, programs and display control systems
CN108141540B (en) Omnidirectional camera with motion detection
WO2018168539A1 (en) Learning method and program
KR101671391B1 (en) Method for deblurring video using modeling blurred video with layers, recording medium and device for performing the method
US11528453B2 (en) Sensor fusion based perceptually enhanced surround view
US20070110331A1 (en) Image processing device and method
US20060088188A1 (en) Method for the detection of an obstacle
CN115119045A (en) Vehicle-mounted multi-camera-based video generation method and device and vehicle-mounted equipment
KR102003460B1 (en) Device and Method for dewobbling
US20160156826A1 (en) Image-capturing device and image-capturing method
KR100955889B1 (en) Apparatus And Method For Generating Panorama Image And Apparatus For Monitoring Rear View Of Vehicle Based On Panorama Image
JP2016110312A (en) Image processing method, and image processor and program
KR101424387B1 (en) Apparatus and method for processing image
US10943334B2 (en) Method and system for representation of vehicle surroundings with reduced artefacts
WO2017033518A1 (en) Display device for vehicle and display method for vehicle
KR101628931B1 (en) Method and apparatus for controlling view angle of blackbox
KR102490445B1 (en) System and method for deep learning based semantic segmentation with low light images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170707

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190715

Year of fee payment: 6