KR102624160B1 - Ultra-high-resolution image restoration system - Google Patents
Ultra-high-resolution image restoration system Download PDFInfo
- Publication number
- KR102624160B1 KR102624160B1 KR1020220052203A KR20220052203A KR102624160B1 KR 102624160 B1 KR102624160 B1 KR 102624160B1 KR 1020220052203 A KR1020220052203 A KR 1020220052203A KR 20220052203 A KR20220052203 A KR 20220052203A KR 102624160 B1 KR102624160 B1 KR 102624160B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- restoration
- unit
- ultra
- resolution
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 26
- 239000013598 vector Substances 0.000 claims abstract description 22
- 238000004140 cleaning Methods 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 230000006866 deterioration Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
본 발명은, 인공신경망을 이용한 초고해상도 영상복원 시스템에 있어서, 영상을 수신하는 영상 수신부; 상기 영상 수신부가 수신한 영상의 이동벡터(motion vector)를 분석하여 영상에서 중복된 부분을 재사용하는 영상 재사용부; 상기 영상 수신부가 수신한 영상에서 상기 영상 재사용부에서 재사용하는 부분을 제외한 영상을 인공신경망에 입력하여 초고해상도 영상으로 복원하는 복원부; 및 상기 복원부에서 복원한 영상을 출력하는 출력부;를 포함하는 것을 특징으로 한다.The present invention provides a super-resolution image restoration system using an artificial neural network, comprising: an image receiver for receiving an image; an image reuse unit that analyzes a motion vector of the image received by the image receiver and reuses duplicated portions of the image; a restoration unit that inputs the image received by the image receiver, excluding the portion reused by the image reuse unit, into an artificial neural network and restores it to a super-resolution image; and an output unit that outputs the image restored by the restoration unit.
Description
본 발명은 초고해상도 영상복원 시스템에 관한 것으로서, 특히 저해상도 이미지를 고해상도 이미지로 복원하는 시간을 단축하기 위한 초고해상도 영상복원 시스템에 관한 것이다.The present invention relates to an ultra-high-resolution image restoration system, and particularly to an ultra-high-resolution image restoration system for shortening the time for restoring a low-resolution image to a high-resolution image.
저해상도 이미지를 초고해상도 이미지로 복원하는 기술은 다양한 분야에서 응용되어 사용되고 있고, 다양한 초고해상도 복원 알고리즘이 제안되어 졌다. Super resolution은 저해상도의 이미지로부터 고해상도의 이미지를 만들어내는 기술로 천문학, 차량 번호판인식 같은 응용에 사용되고 있다. Technology for restoring low-resolution images to super-resolution images has been applied and used in various fields, and various super-resolution restoration algorithms have been proposed. Super resolution is a technology that creates high-resolution images from low-resolution images and is used in applications such as astronomy and vehicle license plate recognition.
최근에는 딥러닝을 이용한 super resolution이 좋은 성능을 보여 활발한 연구가 이루어지고 있다. Super resolution은 단일 이미지로부터 고해상도를 만들어내는 SISR(Single Image Super Resolution)과 영상의 여러 프레임을 이용하여 고해상도를 만들어내는 VSR(Video Super Resolution)로 나눌 수 있다. super resolution의 경우 자연스러운 이미지를 만들어내기 위한 많은 양의 연산이 사용되어 실시간 추론에 어려움이 있다. 초고해상도 복원 알고리즘은 뉴럴네트워크를 이용하므로 방대한 파라미터 기반의 연산이 수반되어 연산 시간이 오래 걸리고, 알고리즘의 메모리 사용량도 높다는 문제점이 있다. Recently, super resolution using deep learning has shown good performance, and active research is being conducted. Super resolution can be divided into SISR (Single Image Super Resolution), which creates high resolution from a single image, and VSR (Video Super Resolution), which creates high resolution using multiple frames of an image. In the case of super resolution, a large amount of computation is used to create a natural image, making real-time inference difficult. Since the ultra-high-resolution restoration algorithm uses a neural network, it involves a large number of parameter-based calculations, so it takes a long time to calculate, and the algorithm's memory usage is also high.
따라서, 연산량과 연산 시간을 줄일 수 있는 초고해상도 영상복원 시스템이 요구되고 있는 실정이다. Therefore, there is a need for an ultra-high resolution image restoration system that can reduce the amount of computation and computation time.
본 과제(결과물)는 2021년도 교육부이 재원으로 한국연구재단의 지원을 받아 수행된 지자체-대학 협력기반 지역혁신 사업의 결과입니다(2021RIS-004).This project (result) is the result of a local innovation project based on local government-university cooperation conducted in 2021 with funding from the Ministry of Education and support from the National Research Foundation of Korea (2021RIS-004).
This results was supported by "Regional Innovation Strategy (RIS)" through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(MOE)(2021RIS-004)This results was supported by "Regional Innovation Strategy (RIS)" through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(MOE)(2021RIS-004)
본 발명은 기존의 초고해상도 복원 알고리즘을 압축 및 가속하는 방식으로 경량화하여 복원 시간을 단축할 수 있는 초고해상도 영상복원 시스템을 제공하는 것을 목적으로 한다.The purpose of the present invention is to provide a super-resolution image restoration system that can shorten the restoration time by reducing the weight of the existing ultra-high-resolution restoration algorithm by compressing and accelerating it.
상기 목적을 달성하기 위하여 본 발명은, 인공신경망을 이용한 초고해상도 영상복원 시스템에 있어서, 영상을 수신하는 영상 수신부; 상기 영상 수신부가 수신한 영상의 이동벡터(motion vector)를 분석하여 영상에서 중복된 부분을 재사용하는 영상 재사용부; 상기 영상 수신부가 수신한 영상에서 상기 영상 재사용부에서 재사용하는 부분을 제외한 영상을 인공신경망에 입력하여 초고해상도 영상으로 복원하는 복원부; 및 상기 복원부에서 복원한 영상을 출력하는 출력부;를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a super-resolution image restoration system using an artificial neural network, comprising: an image receiver for receiving an image; an image reuse unit that analyzes a motion vector of the image received by the image receiver and reuses duplicated portions of the image; a restoration unit that inputs the image received by the image receiver, excluding the portion reused by the image reuse unit, into an artificial neural network and restores it to a super-resolution image; and an output unit that outputs the image restored by the restoration unit.
바람직하게는, 상기 복원부는, 영상 프레임 사이의 차이값 및 이동 벡터를 상기 영상 재사용부로 전송할 수 있다. Preferably, the restoration unit may transmit difference values and movement vectors between video frames to the image reuse unit.
바람직하게는, 상기 복원부는, 영상의 열화를 제거하는 이미지 클리닝 모듈; 영상 전후의 특징을 추출하는 양방향 전파 모듈; 및 상기 양방향 전파 모듈에서 추출한 영상 전후의 특징으로부터 초고해상도 영상을 생성하는 업샘플링 모듈;을 포함할 수 있다. Preferably, the restoration unit includes an image cleaning module that removes image deterioration; A two-way propagation module that extracts features before and after the image; and an upsampling module that generates a super-resolution image from features before and after the image extracted from the two-way propagation module.
바람직하게는, 상기 양방향 전파 모듈은, 영상 전후의 특징을 추출하기 위한 복수개의 컨볼루션층으로 구성되고, 상기 복수개의 컨볼루션층 중 일부만을 사용하며, 상기 영상 재사용부에서 재사용되는 전/후 프레임을 뛰어넘으므로 컨볼루션 연산을 일부만 수행할 수 있다. Preferably, the two-way propagation module is composed of a plurality of convolutional layers for extracting features before and after the image, uses only a portion of the plurality of convolutional layers, and pre- and post-frames are reused in the image reuse unit. Since it exceeds , only some convolution operations can be performed.
바람직하게는, 상기 양방향 전파 모듈은, 절반의 컨볼루션층만을 이용할 수 있다. Preferably, the two-way propagation module can use only half of the convolutional layer.
본 발명에 따르면, 불필요한 뉴럴네트워크를 압축하여 초고해상도의 복원 시간을 단축할 수 있다는 이점이 있다. According to the present invention, there is an advantage that ultra-high resolution restoration time can be shortened by compressing unnecessary neural networks.
또한, 본 발명은 뉴럴네트워크 구조를 경량화하여 연산량을 감소시키므로 휴대용 기기에 적용할 수 있다는 이점이 있다. In addition, the present invention has the advantage of being applicable to portable devices because it reduces the amount of computation by lightweighting the neural network structure.
도 1은 본 발명의 실시예에 따른 초고해상도 영상복원 시스템의 구성도를 나타낸다.
도 2는 본 발명의 실시예에 따른 기존 초고해상도의 복원 알고리즘을 나타낸다.
도 3은 본 발명의 실시예에 따른 복원부의 구성도를 나타낸다.
도 4는 본 발명의 실시예에 따른 초고해상도 영상복원 시스템의 알고리즘을 나타낸다.
도 5는 본 발명의 실시예에 따른 인공신경망 모델에 따른 시간성능 비교 그래프를 나타낸다.
도 6은 본 발명의 실시예에 따른 인공신경망의 가중치 분포를 나타낸다.
도 7은 본 발명의 실시예에 따른 인공신경망 모델에 따른 초고해상도 영상복원의 출력을 나타낸다. Figure 1 shows a configuration diagram of an ultra-high resolution image restoration system according to an embodiment of the present invention.
Figure 2 shows an existing super-resolution restoration algorithm according to an embodiment of the present invention.
Figure 3 shows a configuration diagram of a restoration unit according to an embodiment of the present invention.
Figure 4 shows an algorithm of a super-resolution image restoration system according to an embodiment of the present invention.
Figure 5 shows a graph comparing time performance according to an artificial neural network model according to an embodiment of the present invention.
Figure 6 shows the weight distribution of an artificial neural network according to an embodiment of the present invention.
Figure 7 shows the output of super-resolution image restoration according to an artificial neural network model according to an embodiment of the present invention.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 상세히 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the exemplary embodiments. The same reference numerals in each drawing indicate members that perform substantially the same function.
본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해 질 수 있으며, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.The purpose and effect of the present invention can be naturally understood or become clearer through the following description, and the purpose and effect of the present invention are not limited to the following description. Additionally, in describing the present invention, if it is determined that a detailed description of known techniques related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.
도 1은 본 발명의 실시예에 따른 초고해상도 영상복원 시스템(10)의 구성도를 나타낸다. 도 1을 참조하면, 초고해상도 영상복원 시스템(10)은 영상 수신부(100), 영상 재사용부(300), 복원부(500), 및 출력부(700)를 포함할 수 있다. Figure 1 shows a configuration diagram of an ultra-high resolution image restoration system 10 according to an embodiment of the present invention. Referring to FIG. 1, the ultra-high resolution image restoration system 10 may include an image reception unit 100, an image reuse unit 300, a restoration unit 500, and an output unit 700.
초고해상도 영상복원 시스템(10)은 저해상도 영상을 초고해상도 영상으로 복원할 수 있다. 초고해상도 영상복원 시스템(10)은 초고해상도 영상복원 알고리즘을 가속 및 압축하여 복원 시간을 단축시킬 수 있다. 초고해상도 영상복원 시스템(10)은 뉴럴네트워크(neural network) 기반 영상복원 알고리즘을 사용하여 저해상도 영상를 초고해상도 영상으로 복원할 수 있다. The ultra-high resolution image restoration system 10 can restore low-resolution images to ultra-high resolution images. The ultra-high resolution image restoration system 10 can shorten restoration time by accelerating and compressing the ultra-high resolution image restoration algorithm. The ultra-high resolution image restoration system 10 can restore a low-resolution image to a super-resolution image using a neural network-based image restoration algorithm.
초고해상도 영상복원 시스템(10)은 불필요한 뉴럴네트워크를 압축하여 알고리즘을 경량화할 수 있다. 초고해상도 영상복원 시스템(10)은 알고리즘을 경량화하여도 기존 알고리즘과 동일한 품질을 유지할 수 있다. 초고해상도 영상복원 시스템(10)은 알고리즘 경량화를 통해 연산량을 감소시킬 수 있다. 초고해상도 영상복원 시스템(10)은 초고해상도 영상복원의 속도를 높이고 연산량을 감소시킴으로써 스마트폰과 같은 휴대용 기기에 적용될 수 있다. The ultra-high resolution image restoration system 10 can compress unnecessary neural networks to make the algorithm lighter. The ultra-high resolution image restoration system 10 can maintain the same quality as the existing algorithm even if the algorithm is lightweight. The ultra-high-resolution image restoration system 10 can reduce the amount of calculation through lightweighting the algorithm. The ultra-high resolution image restoration system 10 can be applied to portable devices such as smartphones by increasing the speed of ultra-high resolution image restoration and reducing the amount of computation.
도 2는 본 발명의 실시예에 따른 기존 초고해상도의 복원 알고리즘을 나타낸다. 도 2를 참조하면, 기존 초고해상도의 복원 알고리즘은 입력된 영상의 열화를 제거하는 image cleaning을 거친 후 백본망으로 입력된다. 이후 forward/backward의 양방향 전파로 영상 전후의 특징을 추출한다. 이후, 영상과 영상 전후의 특징을 연결하고 융합하여 초고해상도 영상을 생성할 수 있다.Figure 2 shows an existing super-resolution restoration algorithm according to an embodiment of the present invention. Referring to Figure 2, the existing super-resolution restoration algorithm undergoes image cleaning to remove deterioration of the input image and then inputs it to the backbone network. Afterwards, features before and after the image are extracted through forward/backward bidirectional propagation. Afterwards, a super-resolution image can be created by connecting and fusing the image and features before and after the image.
기존 초고해상도의 복원 알고리즘과 본 발명과의 차이는 이동벡터를 이용하여 중복되는 영상 부분을 재사용하고 인공신경망의 네트워크 중 일부만을 사용하는 것이다. 본 발명의 특징에 대한 구체적인 내용은 아래에서 설명한다. The difference between the existing super-resolution restoration algorithm and the present invention is that it reuses overlapping image parts using motion vectors and uses only a portion of the artificial neural network network. Specific details about the features of the present invention are described below.
영상 수신부(100)는 영상을 수신할 수 있다. 영상 수신부(100)는 촬영장치 또는 저장장치로부터 영상을 수신할 수 있다. 영상 수신부(100)는 제3의 장치와 유선 또는 무선 네트워크로 연결되어 제 3의 장치가 촬영 또는 저장한 이미지를 수신할 수 있다. 영상 수신부(100)는 복원하고자 하는 영상을 수신하여 영상 재사용부(300)로 전달할 수 있다. The video receiver 100 can receive video. The image receiver 100 can receive images from a photographing device or a storage device. The image receiver 100 is connected to a third device through a wired or wireless network and can receive images captured or stored by the third device. The image receiver 100 may receive an image to be restored and transmit it to the image reuse unit 300.
영상 수신부(100)는 수신받은 영상을 전처리할 수 있다. 영상 수신부(100)는 수신받은 영상의 픽값값을 정규화하는 방식의 전처리를 수행할 수 있다. 영상 수신부(100)는 영상의 픽셀을 정규화하여 인공신경망에서의 연산속도를 향상시킬 수 있다. The video receiver 100 may preprocess the received video. The image receiver 100 may perform preprocessing by normalizing the pick values of the received image. The image receiver 100 can normalize the pixels of the image to improve the computation speed in the artificial neural network.
영상 재사용부(300)는 영상 수신부(100)가 수신한 영상의 이동벡터(motion vector)를 분석하여 영상에서 중복된 부분을 재사용할 수 있다. 영상 재사용부(300)는 연속된 이미지의 집합인 영상의 특성상 연속된 이미지에서는 중복된 부분이 발생하므로 중복된 부분을 재사용할 수 있다. 영상 재사용부(300)는 이동벡터를 사용하여 예측 영역을 재생성하고 해당 예측 영역에 복원된 오차를 합성하여 원래의 영상을 재구성할 수 있다. The video reuse unit 300 can analyze the motion vector of the video received by the video receiver 100 and reuse the duplicated portion of the video. The image reuse unit 300 can reuse the duplicated portions because duplicated portions occur in consecutive images due to the nature of the video, which is a set of consecutive images. The image reuse unit 300 can reconstruct the original image by regenerating the prediction area using the motion vector and combining the restored errors in the prediction area.
이동벡터(motion vector)는 현재 블록과 매우 닮은 참조 블록과의 위치좌표간 차이 벡터를 의미한다. 본 발명에서 이동벡터는 전후 영상의 위치좌표 간 차이 벡터를 의미할 수 있다. 이동벡터는 시간 중복성을 제거할 수 있다. 이동벡터는 기준 프레임인 이전 또는 다음 프레임에서 가장 가능성 있는 위치와의 수평, 수직 변위를 묘사할 수 있다. 이동벡터는 영상 화면 단위마다 앞, 뒤 화면 어느 곳에서 움직여 왔는지에 대한 정보를 제공할 수 있다. 이동벡터는 현 매크로 블록과 이동벡터에 의해 움직임 보상된 이전 화면의 매크로 블록 간의 차이만을 부호화함으로써 데이터량을 크게 줄일 수 있다.The motion vector refers to the difference vector between the position coordinates of the current block and a reference block that is very similar. In the present invention, the motion vector may refer to the difference vector between the position coordinates of the front and back images. Movement vectors can eliminate temporal redundancy. A movement vector can describe the horizontal and vertical displacement from the most likely position in the previous or next frame, which is a reference frame. Movement vectors can provide information about where each video screen unit moves, from the front or back of the screen. The motion vector can greatly reduce the amount of data by encoding only the difference between the current macro block and the macro block of the previous screen whose motion was compensated by the motion vector.
영상 재사용부(300)는 중복되는 영상을 재사용하여 인공신경망의 연산량을 줄일 수 있다. 이를 통해, 영상 재사용부(300)는 복원 속도를 향상시킬 수 있다. 영상 재사용부(300)는 영상 프레임 사이의 차이값 및 이동 벡터를 복원부(500) 또는 출력부(700)로부터 제공받을 수 있다.The image reuse unit 300 can reduce the amount of calculation of the artificial neural network by reusing overlapping images. Through this, the image reuse unit 300 can improve the restoration speed. The image reuse unit 300 may receive difference values and movement vectors between image frames from the restoration unit 500 or the output unit 700.
도 3은 본 발명의 실시예에 따른 복원부(500)의 구성도를 나타낸다. 도 3을 참조하면, 복원부(500)는 이미지 클리닝 모듈(510), 양방향 전파 모듈(530), 및 업샘플링 모듈(550)을 포함할 수 있다. Figure 3 shows a configuration diagram of the restoration unit 500 according to an embodiment of the present invention. Referring to FIG. 3 , the restoration unit 500 may include an image cleaning module 510, a bidirectional propagation module 530, and an upsampling module 550.
복원부(500)는 영상 수신부(100)가 수신한 영상에서 영상 재사용부(300)에서 재사용하는 부분을 제외한 영상을 인공신경망에 입력하여 초고해상도 영상으로 복원할 수 있다. 복원부(500)는 초고해상도 복원을 위해 시스템에 입력된 영상 중에 중복되는 부분을 제외하고 복원을 수행하므로 연산속도를 향상시키고 연산량을 감소시킬 수 있다. The restoration unit 500 can input the image received by the image receiver 100, excluding the portion reused by the image reuse unit 300, into an artificial neural network and restore it to a super-resolution image. The restoration unit 500 performs restoration by excluding overlapping portions of images input to the system for ultra-high resolution restoration, thereby improving calculation speed and reducing calculation amount.
도 4는 본 발명의 실시예에 따른 초고해상도 영상복원 시스템(10)의 알고리즘을 나타낸다. 도 4를 참조하면, 복원부(500)는 영상 프레임 사이의 차이값 및 이동벡터를 영상 재사용부(300)로 전송할 수 있다. 영상 프레임 사이의 차이값 및 이동벡터를 전송받은 영상 재사용부(300)는 이동벡터를 분석하여 중복되는 영상 부분을 재사용할 수 있다. Figure 4 shows the algorithm of the ultra-high resolution image restoration system 10 according to an embodiment of the present invention. Referring to FIG. 4, the restoration unit 500 may transmit the difference value and motion vector between image frames to the image reuse unit 300. The video reuse unit 300, which has received the difference value and motion vector between video frames, can analyze the motion vector and reuse the overlapping video portion.
이미지 클리닝 모듈(510)은 영상의 열화를 제거할 수 있다. The image cleaning module 510 can remove image deterioration.
양방향 전파 모듈(530)은 영상 전후의 특징을 추출할 수 있다. 양방향 전파 모듈(530)은 장기(long-term) 및 전역(global) 전파에 중점을 둔 양방향 전파를 수행할 수 있다. 양방향 전파 모듈(530)은 복원 품질과 인공신경망의 효율성에서 뛰어난 성능을 발휘할 수 있다. The two-way propagation module 530 can extract features before and after the image. The two-way propagation module 530 can perform two-way propagation focusing on long-term and global propagation. The two-way propagation module 530 can demonstrate excellent performance in terms of restoration quality and efficiency of the artificial neural network.
양방향 전파 모듈(530)은 영상 전후의 특징을 추출하기 위한 복수개의 컨볼루션층으로 구성되고, 복수개의 컨볼루션층 중 일부만을 사용하며, 영상 재사용부(300)에서 재사용되는 전/후 프레임을 뛰어넘으므로 컨볼루션 연산을 일부만 수행할 수 있다. 바람직하게는, 양방향 전파 모듈(530)은 절반의 컨볼루션층만을 이용할 수 있다. 양방향 전파 모듈(530)은 복수개의 컨볼류션층에서 중복 연산이 발생되므로, 복수개의 건볼류층 중 일부만을 사용하여 중복 연산으로 인한 연산량 증가와 연산속도 감소 문제를 해결할 수 있다. 양방향 전파 모듈(530)은 컨볼루션 연산의 일부만을 수행하여 연산량 증가와 연산속도 감소 문제를 해결할 수 있다. The two-way propagation module 530 consists of a plurality of convolutional layers for extracting features before and after the image, uses only a portion of the plurality of convolutional layers, and skips the before and after frames reused in the image reuse unit 300. Therefore, only part of the convolution operation can be performed. Preferably, the two-way propagation module 530 can use only half of the convolutional layers. Since the two-way propagation module 530 generates redundant operations in a plurality of convolution layers, it is possible to solve the problems of increasing the amount of operations and reducing the operation speed due to the duplicate operations by using only a portion of the plurality of dry volume layers. The two-way propagation module 530 can solve the problems of increasing the amount of calculation and reducing the calculation speed by performing only part of the convolution operation.
업샘플링 모듈(550)은 양방향 전파 모듈에서 추출한 영상 전후의 특징으로부터 초고해상도 영상을 생성할 수 있다. The upsampling module 550 can generate a super-resolution image from features before and after the image extracted from the two-way propagation module.
출력부(700)는 복원부(500)에서 복원한 영상을 출력할 수 있다. The output unit 700 may output the image restored by the restoration unit 500.
이하에서는 본 발명의 시뮬레이션 결과를 설명한다. Below, the simulation results of the present invention are described.
본 시뮬레이션에서는 좋은 성능지표를 보이는 인공신경망 모델들을 NVIDIA Jetson Board에서 추론시간 측정 및 모델을 분석하였다. 이러한 시뮬레이션을 통해 본 발명에 따른 초고해상도 영상복원 시스템(10)이 가장 적합한 모델임을 확인할 수 있다. In this simulation, the inference time was measured and the models were analyzed on the NVIDIA Jetson Board for artificial neural network models showing good performance indicators. Through this simulation, it can be confirmed that the ultra-high-resolution image restoration system 10 according to the present invention is the most suitable model.
Super resolution 모델의 성능은 손실정보를 평가하는 PSNR(Peak Signal-to-noise ratio)과 시각적 화질과의 유사도를 평가하는 SSIM(Structural Similarity Index Map)으로 평가될 수 있다. The performance of the super resolution model can be evaluated by PSNR (Peak Signal-to-noise ratio), which evaluates loss information, and SSIM (Structural Similarity Index Map), which evaluates similarity to visual image quality.
최근 두 가지 수치에서 높은 성능을 보이는 인공신경망 모델로 SISR 모델인 LIFF, EDSR과 VSR 모델인 basicVSR, bascivVSR++, 및 Realbasic VSR을 대상으로 Jetson Xavier NX 보드에서 추론 성능을 측정하였다. 각 모델은 320x240 이미지를 1280x960 로 4배 확대하는 시간을 측정하였고, PyTorch를 기반으로 작성된 MMEditting 프레임워크에서 실험하였다.Recently, the inference performance was measured on the Jetson Xavier NX board for the SISR models LIFF and EDSR and the VSR models basicVSR, bascivVSR++, and Realbasic VSR, which are artificial neural network models that show high performance in two figures. For each model, the time to enlarge a 320x240 image by 4 times to 1280x960 was measured and tested in the MMEditting framework written based on PyTorch.
도 5는 본 발명의 실시예에 따른 인공신경망 모델에 따른 시간성능 비교 그래프를 나타낸다. Figure 5 shows a graph comparing time performance according to an artificial neural network model according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 인공신경망의 가중치 분포를 나타낸다. Figure 6 shows the weight distribution of an artificial neural network according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 인공신경망 모델에 따른 초고해상도 영상복원의 출력을 나타낸다.Figure 7 shows the output of super-resolution image restoration according to an artificial neural network model according to an embodiment of the present invention.
도 5 내지 도 7을 참조하면, Convolution layer를 이용한 EDSR모델은 0.67초로 가장 빠른 속도를 보여주나 낮은 화질을 보이고 있다. LIFF모델은 EDSR을 기반으로 추가적인 구조가 붙은 형태로 1장당 13.78초로 가장 느린 속도를 보여준다. BasicVSR 모델들은 Optical flow를 추출하는 Spynet을 기반으로 하는 모델들이며, Realbasic VSR이 1.51초로 좋은 화질을 보이면서도 타 모델에 비해 비교적 빠른 속도를 보여준다. 따라서, 본 발명은 RealbasicVSR 모델을 적합한 모델로 선정하였고, 해당 모델을 가속하고 압축하기 위해 이동벡터를 이용하여 중복되는 영상 부분을 재사용하고 인공신경망의 네트워크 중 일부만을 사용하였다. Referring to Figures 5 to 7, the EDSR model using a convolution layer shows the fastest speed at 0.67 seconds, but shows low image quality. The LIFF model is based on EDSR with additional structures and shows the slowest speed at 13.78 seconds per sheet. BasicVSR models are based on Spynet, which extracts optical flow. Realbasic VSR shows good image quality at 1.51 seconds and is relatively faster than other models. Therefore, the present invention selected the RealbasicVSR model as a suitable model, reused overlapping image parts using movement vectors to accelerate and compress the model, and used only a portion of the artificial neural network network.
RealbasicVSR은 Image Cleaning block, Spynet, Forward block and Backward block, Upsample Layer로 나눌 수 있다. Image Cleaning block과 Forward, Backword block의 경우 Convolution layer로 이루어져 있으며 전체 추론시간의 70%를 차지한다. 가중치들은 0에 가깝게 분포해 있어, 가지치기 기법을 적용해 볼 수 있다. 본 시뮬레이션에서는 세 개의 모듈에서 Convolution 레이어 일부를 단순히 제거해보았고, 도 7의 (d)와 같은 결과를 보였다. 기존 초고해상도 복원 알고리즘인 도 6의 (c)와 비교하여, PSNR이 31.2, SSIM이 0.90으로 좋은 성능을 보이면서도, 추론시간이 30% 더 빠른 것을 확인하였다. RealbasicVSR can be divided into Image Cleaning block, Spynet, Forward block and Backward block, and Upsample Layer. The Image Cleaning block and Forward and Backword blocks consist of a convolution layer and account for 70% of the total inference time. Since the weights are distributed close to 0, pruning techniques can be applied. In this simulation, part of the convolution layer was simply removed from the three modules, and the results were shown in (d) of Figure 7. Compared to the existing super-resolution restoration algorithm (c) in Figure 6, it was confirmed that the PSNR showed good performance with 31.2 and SSIM of 0.90, and the inference time was 30% faster.
임베디드 보드에서 딥러닝을 이용한 super resolution을 위해 성능을 측정하였을 때, Real basicVSR 모델이 빠르면서도 좋은 성능을 보였다. 실시간 추론을 위해 모델의 구조를 분석하였고, Convolution layer들의 가중치가 0에 가깝게 분포해 있어 컨볼류션 층을 단순 제거 시에도 30% 추론성능향상을 보였다.When performance was measured for super resolution using deep learning on an embedded board, the Real basicVSR model was fast and showed good performance. The structure of the model was analyzed for real-time inference, and the weights of the convolution layers were distributed close to 0, showing a 30% improvement in inference performance even when the convolution layer was simply removed.
이상에서 대표적인 실시예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다. Although the present invention has been described in detail through representative embodiments above, those skilled in the art will understand that various modifications can be made to the above-described embodiments without departing from the scope of the present invention. will be. Therefore, the scope of rights of the present invention should not be limited to the described embodiments, but should be determined not only by the claims described later, but also by all changes or modified forms derived from the claims and the concept of equivalents.
10 : 초고해상도 영상복원 시스템
100 : 영상 수신부
300 : 영상 재사용부
500 : 복원부
510 : 이미지 클리닝 모듈
530 : 양방향 전파 모듈
550 : 업샘플링 모듈
700 : 출력부10: Ultra-high resolution image restoration system
100: Video receiver
300: Video reuse unit
500: restoration unit
510: Image cleaning module
530: Two-way radio wave module
550: Upsampling module
700: output unit
Claims (5)
영상을 수신하는 영상 수신부;
상기 영상 수신부가 수신한 영상의 이동벡터(motion vector)를 분석하여 영상에서 중복된 프레임을 인공신경망에 입력하지 않고 재사용하는 영상 재사용부;
상기 영상 수신부가 수신한 영상에서 상기 영상 재사용부에서 재사용하는 프레임을 제외한 영상을 인공신경망에 입력하여 초고해상도 영상으로 복원하는 복원부; 및
상기 복원부에서 복원한 영상을 출력하는 출력부;를 포함하고,
상기 영상 수신부는,
수신받은 영상의 픽셀값을 정규화하는 방식의 전처리를 수행하고,
상기 영상 재사용부는,
이동벡터를 사용하여 예측 영역을 재생성하고,
상기 복원부는,
영상의 전방/후방(forward/backward) 양방향 전파를 이용하여 전후 프레임의 컨볼루션 연산 결과인 영상 전후의 특징을 추출하는 양방향 전파 모듈; 및
상기 양방향 전파 모듈에서 추출한 영상 전후의 특징으로부터 초고해상도 영상을 생성하는 업샘플링 모듈;을 포함하고,
상기 양방향 전파 모듈은,
영상 전후의 특징을 추출하기 위해 학습된 복수개의 전방(forward) 컨볼루션층과 복수개의 후방(backward) 컨볼루션층으로 구성되고,
상기 양방향 전파 모듈은,
가중치들의 분포에 기반하여 상기 복수개의 전방 컨볼루션층과 복수개의 후방 컨볼루션층에 대하여 각각 일부의 컨볼루션층만을 사용하여 영상 전후의 특징을 추출하는,
초고해상도 영상복원 시스템.
In a super-resolution image restoration system using an artificial neural network,
A video receiving unit that receives video;
an image reuse unit that analyzes motion vectors of the image received by the image receiver and reuses duplicated frames in the image without inputting them into an artificial neural network;
a restoration unit that inputs the image received by the image receiver, excluding frames reused by the image reuse unit, into an artificial neural network and restores it to a super-resolution image; and
An output unit that outputs the image restored by the restoration unit,
The video receiver,
Preprocessing is performed to normalize the pixel values of the received image,
The video reuse department,
Regenerate the prediction area using the movement vector,
The restoration unit,
A bidirectional propagation module that extracts features before and after the image, which are the result of convolution operations of the front and back frames, using forward/backward bidirectional propagation of the image; and
It includes an upsampling module that generates a super-resolution image from features before and after the image extracted from the two-way propagation module,
The two-way propagation module is,
It consists of a plurality of forward convolution layers and a plurality of backward convolution layers learned to extract features before and after the image,
The two-way propagation module is,
Extracting features before and after the image using only some of the forward convolutional layers and the plurality of backward convolutional layers based on the distribution of weights, respectively.
Ultra-high resolution video restoration system.
상기 복원부는,
영상의 열화를 제거하는 이미지 클리닝 모듈;을 더 포함하는 것을 특징으로 하는,
초고해상도 영상복원 시스템.
According to claim 1,
The restoration unit,
Characterized in that it further includes an image cleaning module that removes image deterioration,
Ultra-high resolution video restoration system.
상기 양방향 전파 모듈은,
상기 복수개의 전방 컨볼루션층과 복수개의 후방 컨볼루션층에 대하여 각각 절반의 컨볼루션층만을 이용하는 것을 특징으로 하는,
초고해상도 영상복원 시스템.According to claim 1,
The two-way propagation module is,
Characterized in that only half of the convolutional layers are used for each of the plurality of forward convolutional layers and the plurality of backward convolutional layers,
Ultra-high resolution video restoration system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220051032 | 2022-04-25 | ||
KR1020220051032 | 2022-04-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230151414A KR20230151414A (en) | 2023-11-01 |
KR102624160B1 true KR102624160B1 (en) | 2024-01-12 |
Family
ID=88746329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220052203A KR102624160B1 (en) | 2022-04-25 | 2022-04-27 | Ultra-high-resolution image restoration system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102624160B1 (en) |
-
2022
- 2022-04-27 KR KR1020220052203A patent/KR102624160B1/en active IP Right Grant
Non-Patent Citations (2)
Title |
---|
Dingyi Li et al., "Video Super-Resolution via Motion Compensation and Deep Residual Learning", IEEE Transactions on Computational Imaging, (2017.02.17.)* |
Lielin Jiang et al., "PP-MSVSR: Multi-Stage Video Super-Resolution", Computer Vision and Pattern Recognition, (2021.12.06.)* |
Also Published As
Publication number | Publication date |
---|---|
KR20230151414A (en) | 2023-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | Efficient and information-preserving future frame prediction and beyond | |
Liu et al. | Learned video compression via joint spatial-temporal correlation exploration | |
WO2018150083A1 (en) | A method and technical equipment for video processing | |
CN108921910B (en) | JPEG coding compressed image restoration method based on scalable convolutional neural network | |
CN103141092B (en) | The method and apparatus carrying out encoded video signal for the super-resolution based on example of video compress use motion compensation | |
CN109819321A (en) | A kind of video super-resolution Enhancement Method | |
JPH1056643A (en) | Device for encoding and decoding moving image recording arbitrary object | |
CN101883284B (en) | Video encoding/decoding method and system based on background modeling and optional differential mode | |
TWI826160B (en) | Image encoding and decoding method and apparatus | |
CN115239591A (en) | Image processing method, image processing apparatus, electronic device, storage medium, and program product | |
CN113132729B (en) | Loop filtering method based on multiple reference frames and electronic device | |
CN113850718A (en) | Video synchronization space-time super-resolution method based on inter-frame feature alignment | |
CN116156202A (en) | Method, system, terminal and medium for realizing video error concealment | |
KR102624160B1 (en) | Ultra-high-resolution image restoration system | |
Ren et al. | A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms | |
Raman et al. | Compressnet: Generative compression at extremely low bitrates | |
CN113747178A (en) | Image edge end compression and back end recovery method and system in power channel visualization scene | |
CN113068041B (en) | Intelligent affine motion compensation coding method | |
CN114627444A (en) | Auxiliary safe driving method and system for rail transit | |
CN114202463A (en) | Video super-resolution method and system for cloud fusion | |
CN117689541A (en) | Multi-region classification video super-resolution reconstruction method with optimized time redundancy | |
Dash et al. | CompressNet: Generative compression at extremely low bitrates | |
CN116363014A (en) | Cascade self-adaptive optical image blind restoration method | |
CN112258394B (en) | Data processing method, ship tracking method, device, equipment and storage medium | |
Tran et al. | Nonlinear multi-scale super-resolution using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |