KR20220129852A - Image processing apparatus and method for generating information beyond image area - Google Patents

Image processing apparatus and method for generating information beyond image area Download PDF

Info

Publication number
KR20220129852A
KR20220129852A KR1020210034698A KR20210034698A KR20220129852A KR 20220129852 A KR20220129852 A KR 20220129852A KR 1020210034698 A KR1020210034698 A KR 1020210034698A KR 20210034698 A KR20210034698 A KR 20210034698A KR 20220129852 A KR20220129852 A KR 20220129852A
Authority
KR
South Korea
Prior art keywords
image
frame
screen standard
frames
similarity
Prior art date
Application number
KR1020210034698A
Other languages
Korean (ko)
Other versions
KR102492430B1 (en
Inventor
심재완
하헌필
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020210034698A priority Critical patent/KR102492430B1/en
Publication of KR20220129852A publication Critical patent/KR20220129852A/en
Application granted granted Critical
Publication of KR102492430B1 publication Critical patent/KR102492430B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

The present invention relates to an image processing technique for generating information outside an image area. In accordance with the present invention, an image processing device receives a video having a first screen standard; sets an image area corresponding to a difference from a second screen standard defined differently from the first screen standard as an unsecured area based on the first screen standard; detects each similar frame by frame included in the inputted video of the first screen standard to set the frames to a similar frame group; generates an image with respect to the unsecured area by referring to the similar frame group with respect to each frame included in the inputted video of the first screen standard; and outputs a video having the second screen standard from an original image included in the video of the first screen standard and an image created for the unsecured area. Therefore, the present invention is capable of improving quality satisfaction which a user can experience as a result.

Description

영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법{Image processing apparatus and method for generating information beyond image area}Image processing apparatus and method for generating information beyond image area

본 발명은 영상 처리 기술에 관한 것으로, 특히 동영상 내의 다양한 프레임을 참조하거나 또는 인공지능에 기반하여 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법, 그 방법을 기록한 기록매체에 관한 것이다.The present invention relates to image processing technology, and more particularly, to an image processing apparatus and method for referencing various frames in a moving picture or generating information outside an image area based on artificial intelligence, and a recording medium recording the method.

통신 기술, 영상 처리 기술 및 하드웨어의 발달과 더불어 보다 고품질의 영상을 실시간으로 처리하는 것이 가능해졌다. 이에 따라 영상의 규격에도 많은 변화가 나타나게 되었다. 예를 들어, 과거에는 동영상의 화면비(aspect ratio)가 4:3인 것이 일반적이었으나, 요즘은 16:9와 같은 와이드(wide) 화면비를 선호하는 추세이다. 따라서, 과거에 제작된 동영상을 새로운 화면비를 가진 최신의 장치에서 재생하게 될 경우, 영상 재생 장치의 좌우 영역에 표시할 정보가 없이 해당 영역을 비워놓아야 한다는 현실에 마주하게 된다. 이를 해결하기 위해, 영상의 비율을 변화시키는 스트레치(stretch)나 일부 영역을 잘라내는 크롭(crop)을 사용하지 않는 한, 통상적으로 영상 재생 장치는 영상 정보가 없는 영역을 검은색으로 채워 표시하게 된다. 이렇게 정보가 없어 빈 공간에 검은색으로 채우는 레터박스(letterbox) 또는 필러박스(pillarbox) 방식을 통해 보완하게 되었다.With the development of communication technology, image processing technology, and hardware, it has become possible to process higher quality images in real time. As a result, many changes were made to the standard of the image. For example, in the past, an aspect ratio of a moving picture was generally 4:3, but nowadays, a wide aspect ratio such as 16:9 is preferred. Accordingly, when a video produced in the past is played back on a newer device having a new aspect ratio, the left and right areas of the video reproducing device face the reality that the corresponding area must be empty without information to be displayed. In order to solve this problem, unless a stretch that changes the ratio of an image or a crop that cuts out a part of an image is used, the image reproducing apparatus typically fills in the region without image information and displays it in black. . This lack of information has been supplemented by letterbox or pillarbox methods that fill in the blank spaces with black.

또한, 과거에 제작된 영상은 화면비뿐만 아니라, 영상 자체의 품질도 좋지 못하였는데, 예를 들어, 해상도(resolution) 내지 비트 레이트(bit rate)가 낮아 고해상도의 화소(pixel) 기반으로 설계된 최신 디스플레이 장치에서 해당 영상을 재생할 경우 화질의 조악함이 두드러지게 된다.In addition, images produced in the past did not have good aspect ratio as well as the quality of the image itself. For example, the latest display device designed based on high resolution pixels due to low resolution or bit rate. When the video is played back in , the coarseness of the image quality becomes conspicuous.

즉, 과거에 제작된 영상을 최신의 장치에서 활용하고자 할 경우 소비자들의 높아진 안목과 기대 수준에 부합하기 어렵다. 따라서, 과거의 저품질 영상을 고품질 영상을 지원하는 최신의 영상 재생 장치에서 활용하기 위한 다양한 아이디어가 제안되고 있다. 이하에서 제시되는 선행기술문헌에는 이러한 영상의 품질 향상을 위한 변환 기술이 소개되어 있다.In other words, it is difficult to meet consumers' heightened expectations and expectations when trying to use images produced in the past in the latest devices. Accordingly, various ideas have been proposed to utilize the low-quality images of the past in the latest image reproducing apparatuses supporting high-quality images. In the prior art literature presented below, a conversion technique for improving the quality of such an image is introduced.

"저해상도 영상의 손실 정보 추정 방법과 고해상도 영상 변환 방법", 한국특허공개공보 제2011-0026942호"Low-resolution image loss information estimation method and high-resolution image conversion method", Korean Patent Laid-Open No. 2011-0026942

본 발명이 해결하고자 하는 기술적 과제는, 과거의 화면 규격에 따른 동영상을 최신의 화면 규격에 따른 영상 재생 장치에서 재생함에 있어서 종래의 기술이 단순히 과거의 동영상의 일측면을 기준으로 영상의 크기를 조절하되 나머지 타측면 밖의 영역에는 표시할 정보가 없어 검은색으로 표시하는 레터박스 또는 필러박스 방식을 사용함으로 인해 최신 영상 재생 장치의 자원이 낭비되는 문제를 해결하고, 그로 인해 최신의 기기를 사용하였음에도 불구하고 사용자가 체감하는 품질 만족도가 오히려 저하되는 약점을 극복하고자 한다.The technical problem to be solved by the present invention is that when a video according to the past screen standard is reproduced by an image reproducing device according to the latest screen standard, the conventional technology simply adjusts the size of the video based on one side of the past video However, since there is no information to display in the area outside the other side, the problem of wasted resources of the latest video playback device is solved by using the letterbox or pillarbox method that displays black and to overcome the weakness that the quality satisfaction experienced by users is rather lowered.

상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 영상 처리 방법은, (a) 영상 처리 장치가 제 1 화면 규격을 갖는 동영상을 입력받는 단계; (b) 상기 영상 처리 장치가 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하는 단계; (c) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하는 단계; (d) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하는 단계; 및 (e) 상기 영상 처리 장치가 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 단계;를 포함한다.In order to solve the above technical problem, an image processing method according to an embodiment of the present invention includes the steps of: (a) receiving, by an image processing apparatus, a video having a first screen standard; (b) setting, by the image processing apparatus, an image area corresponding to a difference between the first screen standard and a second screen standard defined differently from the first screen standard as an unsecured area; (c) detecting, by the image processing apparatus, each similar frame for each frame included in the inputted moving picture of the first screen standard, and setting a similar frame group; (d) generating, by the image processing apparatus, an image of the unsecured area by referring to the similar frame group for each frame included in the inputted moving picture of the first screen standard; and (e) outputting, by the image processing apparatus, a moving picture having the second screen standard from the original image included in the moving picture of the first screen standard and the image generated for the unsecured area.

일 실시예에 따른 영상 처리 방법에서, 미확보 영역으로 설정하는 상기 (b) 단계는, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다.In the image processing method according to an embodiment, in the step (b) of setting the area as an unsecured area, the second screen standard is set as a target and is selected from among aspect ratio, resolution, and angle of view. An image area that is not possessed by the first screen standard due to a difference in screen standards including at least one may be set as an unsecured area.

일 실시예에 따른 영상 처리 방법에서, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, 특징 매칭(feature matching), 템플릿 매칭(template matching), 및 히스토그램(histogram) 비교 중 적어도 하나를 이용하여 2개의 인접 프레임들을 비교하여 유사도 값을 산출할 수 있다.In the image processing method according to an embodiment, the step (c) of setting a similar frame group is 2 using at least one of feature matching, template matching, and histogram comparison. A similarity value may be calculated by comparing adjacent frames.

일 실시예에 따른 영상 처리 방법에서, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, (c1) 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하는 단계; (c2) 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하는 단계; 및 (c3) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (c1) 단계 및 상기 (c2) 단계를 수행하여 프레임별로 유사 프레임 그룹을 도출하는 단계;를 포함할 수 있다.In the image processing method according to an embodiment, the step (c) of setting a similar frame group includes: (c1) temporally preceding or temporally preceding the reference frame with respect to one reference frame included in the moving picture of the first screen standard; calculating similarities with subsequent adjacent frames, respectively; (c2) when the similarity calculated from the neighboring frames is equal to or greater than the threshold, setting the neighboring frame equal to or greater than the threshold as a new reference frame, calculating the similarity with the neighboring frames again, and checking whether the newly calculated similarity is equal to or greater than the threshold setting only frames having a similarity greater than or equal to a threshold as a group of similar frames to the first reference frame by repeating the process in series; and (c3) deriving a similar frame group for each frame by performing steps (c1) and (c2) for all frames included in the moving picture of the first screen standard.

또한, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, 2개의 인접 프레임들 간의 유사도 값을 해당 프레임의 식별자 쌍(pair)에 매칭시켜 룩업 테이블(look-up table)에 저장하되, 새롭게 2개의 인접 프레임들 간의 유사도를 산출하는 경우 먼저 상기 룩업 테이블을 조회하여 미리 저장된 유사도 값이 존재하는 경우 저장된 해당 유사도 값을 독출하여 사용하고, 미리 저장된 유사도 값이 존재하지 않는 경우에만 유사도를 산출하여 상기 룩업 테이블에 저장할 수 있다.Also, in the step (c) of setting the similar frame group, the similarity value between two adjacent frames is matched with an identifier pair of the corresponding frame and stored in a look-up table, but two new When calculating the similarity between adjacent frames, the lookup table is first searched for, and if there is a previously stored similarity value, the stored similarity value is read and used, and the similarity is calculated only when there is no previously stored similarity value. can be stored in a table.

일 실시예에 따른 영상 처리 방법에서, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, (c4) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하는 단계; 및 (c5) 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정하는 단계;를 포함할 수 있다.In the image processing method according to an embodiment, in the step (c) of setting the group of similar frames, (c4) sequentially calculating the similarity between adjacent frames for all frames included in the moving picture of the first screen standard. to do; and (c5) setting a similar frame group including only frames having a similarity greater than or equal to the threshold for each frame section in which the calculated similarity value is equal to or greater than the threshold value for successive time series.

일 실시예에 따른 영상 처리 방법에서, 미확보 영역에 대한 영상을 생성하는 상기 (d) 단계는, (d1) 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 현재 프레임을 확장하는 단계; 및 (d2) 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (d1) 단계의 프레임 확장을 수행하여 상기 미확보 영역에 대한 영상을 생성하는 단계;를 포함할 수 있다.In the image processing method according to an embodiment, the step (d) of generating the image for the unsecured area includes (d1) included in the similar frame group with respect to the current frame included in the input video of the first screen standard. extending the current frame using a geometric relationship between the similar frame and the current frame; and (d2) generating an image for the unsecured area by performing the frame expansion of step (d1) on all frames included in the inputted moving picture of the first screen standard.

또한, 현재 프레임을 확장하는 상기 (d1) 단계는, 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장할 수 있다.In addition, the step (d1) of extending the current frame may extend the current frame by extracting a keypoint from each of the similar frame and the current frame and matching both images based on the extracted keypoint. .

나아가, 미확보 영역에 대한 영상을 생성하는 상기 (d) 단계는, (d3) 상기 (d1) 단계의 프레임 확장을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충하는 단계;를 더 포함할 수 있다.Furthermore, the step (d) of generating the image for the non-secured area includes: (d3) when the image for the non-secured area is not generated through the frame expansion of the (d1) step, a Generative Adversarial Network (GAN) or auto-encoder The method may further include a step of replenishing the image for the unsecured area using (Autoencoder).

일 실시예에 따른 영상 처리 방법에서, 제 2 화면 규격을 갖는 동영상을 출력하는 상기 (e) 단계는, (e1) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환하는 단계;를 포함할 수 있다.In the image processing method according to an embodiment, the step (e) of outputting a video having a second screen standard includes: (e1) the original video and the unsecured video for all frames included in the video having the first screen standard, respectively. and converting the image generated for the region into an image having the second screen standard by combining the image.

또한, 제 2 화면 규격을 갖는 동영상을 출력하는 상기 (e) 단계는, (e2) 상기 미확보 영역에 대해 생성된 영상과 상기 원본 영상 간의 품질 차이가 수용 한계치 이상인 경우 열등한 영상의 해상도(resolution) 또는 비트 레이트(bir rate)를 상기 유사 프레임으로부터 보충하는 단계;를 더 포함할 수 있다.In addition, the step (e) of outputting a moving picture having a second screen standard includes: (e2) when the quality difference between the image generated for the unsecured area and the original image is equal to or greater than the acceptable limit, the resolution of the inferior image or The method may further include supplementing a bit rate from the similar frame.

나아가, 제 2 화면 규격을 갖는 동영상을 출력하는 상기 (e) 단계는, (e3) 상기 미확보 영역에 대해 생성된 영상과 상기 제 1 화면 규격의 동영상에 포함된 원본 영상의 경계를 스무딩(smoothing)하는 단계;를 더 포함할 수 있다.Furthermore, the step (e) of outputting the moving picture having the second screen standard includes: (e3) smoothing the boundary between the image generated for the unsecured area and the original image included in the moving picture of the first screen standard. It may further include;

한편, 이하에서는 상기 기재된 영상 처리 방법들을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, below, a computer-readable recording medium in which a program for executing the above-described image processing methods is recorded on a computer is provided.

상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 영상 처리 장치는, 제 1 화면 규격을 갖는 동영상을 입력받는 입력부; 입력된 상기 제 1 화면 규격을 갖는 동영상을 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격의 동영상으로 변환하는 프로그램을 저장하는 메모리; 및 상기 메모리에 저장된 프로그램을 실행하는 프로세서;를 포함하고, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하며, 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 명령을 포함한다.In order to solve the above technical problem, an image processing apparatus according to an embodiment of the present invention includes an input unit for receiving a video having a first screen standard; a memory for storing a program for converting the input video having the first screen standard into a video having a second screen standard defined differently from the first screen standard; and a processor executing the program stored in the memory, wherein the program stored in the memory is an image corresponding to a difference from a second screen standard defined differently from the first screen standard based on the first screen standard The area is set as an unsecured area, and similar frames are detected for each frame included in the input video of the first screen standard, respectively, and set as a group of similar frames, and the inputted video included in the video of the first screen standard For each frame, an image of the unsecured area is generated by referring to the similar frame group, and the second screen standard is obtained from the original image included in the moving picture of the first screen standard and the image generated for the unsecured area. Contains a command to output a video with

일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다.In the image processing apparatus according to an embodiment, the program stored in the memory includes at least one of an aspect ratio, a resolution, and an angle of view by targeting the second screen standard. An image area that is not possessed by the first screen standard due to a difference in screen standards may be set as an unsecured area.

일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하고, 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하며, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출할 수 있다.In the image processing apparatus according to an embodiment, the program stored in the memory determines a similarity with adjacent frames temporally preceding or following the reference frame with respect to one reference frame included in the moving picture of the first screen standard. If the similarity calculated from the adjacent frames is equal to or greater than the threshold, the adjacent frame greater than or equal to the threshold is set as a new reference frame, the similarity with the adjacent frames is calculated again, and whether the newly calculated similarity is greater than or equal to the threshold is checked. a process of sequentially repeating the process of setting only frames having a similarity greater than or equal to a threshold as a group of similar frames to the first reference frame, and calculating the similarity for all frames included in the moving picture of the first screen standard; A similar frame group may be derived for each frame by performing a process of setting the similar frame group.

일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하고, 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정할 수 있다.In the image processing apparatus according to an embodiment, the program stored in the memory sequentially calculates similarities between adjacent frames for all frames included in the moving picture of the first screen standard, and the calculated similarity is equal to or greater than a threshold value. For this time-series continuous frame section, a similar frame group including only frames having a similarity degree equal to or greater than a threshold value for each section can be set.

일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 현재 프레임을 확장하는 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성할 수 있다.In the image processing apparatus according to an embodiment, the program stored in the memory uses a geometric relationship between the similar frame included in the similar frame group and the current frame with respect to the current frame included in the input video of the first screen standard. to extract a keypoint from each of the similar frame and the current frame, extend the current frame by matching both images based on the extracted keypoint, and all frames included in the input video of the first screen standard By performing a process of extending the current frame with respect to , it is possible to generate an image for the unsecured area.

또한, 상기 메모리에 저장된 프로그램은, 상기 현재 프레임을 확장하는 과정을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충할 수 있다.In addition, the program stored in the memory uses a generative adversarial network (GAN) or an autoencoder when the image for the unsecured region is not generated through the process of extending the current frame. can be supplemented.

일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환할 수 있다.In the image processing apparatus according to an embodiment, the program stored in the memory combines the original image and the image generated for the unsecured area with respect to all frames included in the moving picture of the first screen standard, respectively, to obtain the second screen It can be converted to an image having a standard.

본 발명의 실시예들은, 동영상 내의 인접한 프레임 내의 정보에 기초하여 영상을 확장하되 이와 더블어 인공지능을 통해 확장되지 못한 영역에 대한 영상을 보충함으로써 화면 규격의 변화에 능동적이고 효과적으로 대응할 수 있고, 화면 규격의 변화에 따라 영상 내의 일부 영역에 표시할 정보가 없어 검은색으로 표시하는 레터박스 또는 필러박스를 방지할 수 있으며, 최신 영상 재생 장치의 자원을 충분히 활용함으로써 결과적으로 사용자가 체감하는 품질 만족도를 향상시킬 수 있다.Embodiments of the present invention can actively and effectively respond to changes in screen standards by expanding an image based on information in an adjacent frame in the video, but by supplementing the image for an area that has not been expanded through artificial intelligence. It is possible to prevent letterboxes or pillarboxes that are displayed in black because there is no information to display in some areas in the video according to the change in video quality. can do it

도 1은 영상 영역 밖의 정보를 획득하여 화면 규격이 변화된 영상을 생성하는 본 발명의 기본 아이디어를 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 방법을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임을 검출하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임 그룹을 설정하는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 영상 처리 방법에서 미확보 영역에 대한 영상을 생성하는 과정과 이를 위한 프로그램 코드를 예시한 도면이다.
도 7 및 도 8은 각각 딥 뉴럴 네트워크를 이용하여 영상 내의 빈 영역을 보충하는 과정을 설명하기 위한 예시도와 블럭도이다.
도 9는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 장치를 도시한 블럭도이다.
1 is an exemplary diagram for explaining the basic idea of the present invention for generating an image with a changed screen standard by acquiring information outside the image area.
2 is a flowchart illustrating an image processing method for generating information outside an image area according to an embodiment of the present invention.
3 is a diagram for explaining a process of detecting a similar frame in an image processing method according to an embodiment of the present invention.
4 is a diagram for explaining a process of setting a similar frame group in an image processing method according to an embodiment of the present invention.
5 and 6 are diagrams illustrating a process of generating an image for an unsecured area in an image processing method according to an embodiment of the present invention and a program code therefor.
7 and 8 are exemplary diagrams and block diagrams for explaining a process of replenishing a blank area in an image by using a deep neural network, respectively.
9 is a block diagram illustrating an image processing apparatus for generating information outside an image area according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 실시예들을 구체적으로 설명하도록 한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 덧붙여, 명세서 전체에서, 어떤 구성 요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, detailed descriptions of well-known functions or configurations that may obscure the gist of the present invention in the following description and accompanying drawings will be omitted. In addition, throughout the specification, 'including' a certain component does not exclude other components unless otherwise stated, but means that other components may be further included.

또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Also, terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구비하다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "comprises" are intended to designate that the specified feature, number, step, operation, component, part, or combination thereof exists, but is one or more other features or It should be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof does not preclude the possibility of addition.

특별히 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless specifically defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the context of the related art, and unless explicitly defined in the present application, they are not to be interpreted in an ideal or excessively formal meaning. .

도 1은 영상 영역 밖의 정보를 획득하여 화면 규격이 변화된 영상을 생성하는 본 발명의 기본 아이디어를 설명하기 위한 예시도이다.1 is an exemplary diagram for explaining the basic idea of the present invention for generating an image with a changed screen standard by acquiring information outside the image area.

도 1의 (A)는 바르셀로나 올림픽 마라톤 결승 동영상의 일부 프레임을 예시한 것으로 현재의 화면비를 변화시켜 와이드 화면비를 갖는 동영상을 생성하고자 한다. 이를 위해, 주어진 재생 시점에 재생되고 있는 영상의 시야(화각) 밖의 정보는 많은 경우에 있어서 재생 시점 전/후의 영상에 담겨있다는 점에 주목하였다. 즉, 특정 재생 시점의 전/후의 프레임(frame) 내에 포함된 정보를 활용하여 상기 특정 재생 시점에 재생되고 있는 영상의 시야(화각)를 확장할 수 있다.FIG. 1A exemplifies some frames of the Barcelona Olympic marathon final video, and it is intended to generate a video having a wide aspect ratio by changing the current aspect ratio. To this end, it was noted that information outside the field of view (angle of view) of the image being reproduced at a given reproduction time point is contained in the image before/after the reproduction time point in many cases. That is, the field of view (angle of view) of the image being reproduced at the specific playback time may be expanded by using information included in frames before and after the specific playback time.

도 1의 (B)를 참조하면, 도 1의 (A)에 예시된 특정 시점의 전/후 프레임으로부터 얻은 정보와 원래의 특정 시점의 프레임을 결합하여 보다 큰 이미지를 생성하였음을 보여준다. 이러한 방식을 통해 특정 시점의 영상 영역 밖의 정보를 얻을 수 있으며, 인접한 전/후 프레임에 대한 탐색을 반복적으로 확장할 경우 보다 큰 이미지의 생성 또한 기대할 수 있다.Referring to FIG. 1B, it shows that a larger image is generated by combining the information obtained from the frames before and after the specific time point illustrated in FIG. 1A and the frame of the original specific time point. In this way, information outside the image area at a specific time can be obtained, and when the search for adjacent front/rear frames is repeatedly extended, a larger image can also be expected.

나아가, 인공지능을 활용하여 인접한 전/후 프레임으로부터 얻을 수 없는 영역의 정보를 획득하는 것이 가능하다. 도 1의 (C)를 참조하면, 앞서 도 1의 (B)를 통해 예시된 바와 같이 주어진 프레임의 전후 프레임에서 얻은 정보로부터 생성된 큰 이미지보다 더욱 큰 이미지가 생성된 결과를 예시하였다. 이러한 도 1의 (C)의 이미지는 인공지능을 이용하여 화각 밖의 영역을 추정하여 새롭게 생성함으로써 얻을 수 있었다.Furthermore, it is possible to acquire information on an area that cannot be obtained from adjacent front/back frames by using artificial intelligence. Referring to FIG. 1C , as exemplified by FIG. 1B , a result of generating a larger image than a large image generated from information obtained from frames before and after a given frame is exemplified. The image of FIG. 1C could be obtained by estimating the area outside the angle of view using artificial intelligence and creating a new image.

즉, 동영상 내의 인접한 프레임 내의 정보와 인공지능을 통해 영상의 보충을 함께 활용함으로써 화면 규격의 변화에 능동적이고 효과적으로 대응할 수 있다. 이하에서 제시되는 본 발명의 실시예들에서는 이러한 아이디어를 구현하는 구체적인 기술적 수단을 도면을 참조하여 설명하도록 한다.In other words, it is possible to actively and effectively respond to changes in screen standards by utilizing information in adjacent frames within a video and supplementation of video through artificial intelligence. In the embodiments of the present invention presented below, specific technical means for implementing this idea will be described with reference to the drawings.

도 2는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 방법을 도시한 흐름도이다.2 is a flowchart illustrating an image processing method for generating information outside an image area according to an embodiment of the present invention.

S210 단계에서, 영상 처리 장치는 제 1 화면 규격을 갖는 동영상을 입력받는다. 여기서, 동영상은 복수 개의 정지 영상 프레임이 연속하여 연결되어 형성된 집합 데이터로 이해될 수 있다. 따라서, 각각의 프레임들은 시계열적인 관계가 존재하며, 설명의 편의를 위해 특정 시점에서 선택된 하나의 프레임을 기준으로 시간적으로 앞서는 것을 선행 프레임으로, 시간적으로 뒤지는 것을 후행 프레임을 명명하도록 한다.In step S210, the image processing apparatus receives a video having a first screen standard. Here, the moving picture may be understood as set data formed by continuously connecting a plurality of still image frames. Accordingly, each frame has a time-series relationship, and for convenience of explanation, a frame that is temporally ahead of one frame selected at a specific point in time is named a preceding frame, and a frame that is temporally behind is named a succeeding frame.

S220 단계에서, 상기 영상 처리 장치는 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정한다. 이 과정에서는, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다. 이러한 과정을 통해 원본 영상이 갖지 못한 정보가 어느 영역에 해당하는지를 특정하게 된다.In step S220, the image processing apparatus sets an image area corresponding to a difference from a second screen standard defined differently from the first screen standard as an unsecured area based on the first screen standard. In this process, targeting the second screen standard, the first screen standard is retained due to a difference in screen standards including at least one of aspect ratio, resolution, and angle of view. An image area that is not available can be set as an unsecured area. Through this process, it is specified which area the information does not have in the original image corresponds to.

S230 단계에서, 상기 영상 처리 장치는 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정한다. 즉, 하나의 기준 프레임과 인접한 선행 프레임 또는 후행 프레임을 탐색하여 기준 프레임과 유사한 프레임들이 존재하는지를 검사하고, 검사 결과, 유사도 값이 미리 설정된 기준을 만족하는 경우, 해당 프레임을 유사 프레임으로서 하나의 그룹으로 묶어 관리하게 된다. 이러한 과정을 동영상 내의 모든 프레임에 대해 수행함으로써 특정 시점의 프레임과 유사도가 높은 유사 프레임 그룹을 도출하게 된다. 이 과정에서는, 특징 매칭(feature matching), 템플릿 매칭(template matching), 및 히스토그램(histogram) 비교 중 적어도 하나를 이용하여 2개의 인접 프레임들을 비교하여 유사도 값을 산출할 수 있다.In step S230, the image processing apparatus detects a similar frame for each frame included in the input video of the first screen standard, and sets the similar frame group. That is, it is checked whether frames similar to the reference frame exist by searching for a preceding frame or a succeeding frame adjacent to one reference frame. tied and managed. By performing this process on all frames in the moving picture, a similar frame group with a high degree of similarity to the frame at a specific time is derived. In this process, a similarity value may be calculated by comparing two adjacent frames using at least one of feature matching, template matching, and histogram comparison.

본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임을 검출하는 과정을 설명하기 위한 도 3을 참조하면, 시간 축을 따라 5개의 프레임이 예시되었다. 예를 들어, 시간 t에 해당하는 프레임 ft를 기준으로 그에 인접한 시간 t-1 및 t+1에서 각각 프레임 ft-1 및 ft+1을 선택한 후, 기준 프레임 ft와 비교하여 유사도를 산출한다. 만약 산출된 유사도가 미리 설정된 임계치 이상인 경우 다시 해당 인접 프레임에 인접한 시간 t-2 또는 t+2의 프레임 ft-2 및 ft+2에 대해 유사도 평가를 재차 수행하게 된다. 이러한 방식으로 기준 프레임 ft와 유사한 인접 프레임들을 탐색하여 시간적으로 연속하는 유사 프레임만을 유사 프레임 그룹 내에 포함시킨다. 여기서, 유사 프레임 그룹은 이후 기준 프레임 ft에서 화면 규격 밖의 영역에 대한 정보를 얻기 위해 활용될 수 있는 후보들의 집합을 의미한다.Referring to FIG. 3 for explaining a process of detecting a similar frame in an image processing method according to an embodiment of the present invention, five frames are exemplified along the time axis. For example, based on the frame f t corresponding to time t, frames f t-1 and f t+1 are selected at times t-1 and t+1 adjacent thereto, respectively, and the similarity is compared with the reference frame f t . Calculate. If the calculated similarity is equal to or greater than a preset threshold, similarity evaluation is performed again on frames f t-2 and f t+2 of time t-2 or t+2 adjacent to the adjacent frame. In this way, adjacent frames similar to the reference frame f t are searched and only temporally continuous similar frames are included in the similar frame group. Here, the similar frame group refers to a set of candidates that can be used to obtain information on an area outside the screen standard in the subsequent reference frame f t .

한편, 제 1 화면 규격의 동영상에 포함된 프레임별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하기 위해, 구현의 관점에서 다양한 실시예가 활용될 수 있다.On the other hand, in order to detect a similar frame for each frame included in the moving picture of the first screen standard and set it as a similar frame group, various embodiments may be utilized in terms of implementation.

첫 번째 실시예로서, 먼저 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출한다. 그런 다음, 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정한다. 이제, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 인접 프레임들과의 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출할 수 있다.As a first embodiment, first, with respect to one reference frame included in a moving picture of the first screen standard, similarities with adjacent frames temporally preceding or following the reference frame are calculated, respectively. Then, when the degree of similarity calculated from the adjacent frames is equal to or greater than the threshold, the adjacent frame greater than the threshold is set as a new reference frame, the degree of similarity with the adjacent frames is calculated again, and the newly calculated similarity is greater than or equal to the threshold. By repeating the process sequentially, only frames having a similarity greater than or equal to a threshold are set as a group of similar frames to the first reference frame. Now, a similar frame group can be derived for each frame by performing a process of calculating the degree of similarity with the adjacent frames for all frames included in the moving picture of the first screen standard and setting the similar frame group. .

연산의 반복을 줄이고 데이터 재사용 효율을 높이기 위해, 2개의 인접 프레임들 간의 유사도 값을 해당 프레임의 식별자 쌍(pair)에 매칭시켜 룩업 테이블(look-up table)에 저장하되, 새롭게 2개의 인접 프레임들 간의 유사도를 산출하는 경우 먼저 상기 룩업 테이블을 조회하여 미리 저장된 유사도 값이 존재하는 경우 저장된 해당 유사도 값을 독출하여 사용하고, 미리 저장된 유사도 값이 존재하지 않는 경우에만 유사도를 산출하여 상기 룩업 테이블에 저장하는 것이 바람직하다.In order to reduce the repetition of the operation and increase data reuse efficiency, the similarity value between two adjacent frames is matched with the identifier pair of the corresponding frame and stored in a look-up table. In the case of calculating the similarity between the two groups, the lookup table is first searched, and if there is a previously stored similarity value, the stored similarity value is read and used. It is preferable to do

도 4는 본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임 그룹을 설정하는 과정을 설명하기 위한 도면으로 룩업 테이블을 예시하였다. 도 4를 참조하면 연속하는 프레임들에 대해 2개씩 쌍을 지어 프레임의 식별자 쌍을 인덱스(index)로 설정하고, 그에 대응하는 유사도 값을 저장하였다. 유사도 산출 과정이 반복되면서 유사도 값이 기록되고 유사 프레임 그룹의 형성을 위한 검사가 수행된다. 예를 들어, 유사도 판정을 위한 임계치를 '0.7'로 설정하였다고 가정하면, (f1,f2), (f2,f3), (f3,f4)의 연속하는 구간이 '유사 프레임 그룹 #1'을 형성하였음을 확인할 수 있다. 그러나, (f4,f5)에 해당하는 유사도는 임계치 기준을 만족하지 못하였으며, 다시 (f5,f6), (f6,f7)의 연속하는 구간이 '유사 프레임 그룹 #2'를 형성하였다. 따라서, 이렇게 생성된 룩업 테이블을 참조함으로써 특정 시점의 프레임과 유사한 인접 프레임이 어느 것인지를 빠르게 확인할 수 있으며, 이후 영상의 화면 규격을 변경할 경우 원본 영상에서 영역 밖의 정보를 얻기 위한 후보 데이터로서 활용할 수 있다.4 is a view for explaining a process of setting a similar frame group in an image processing method according to an embodiment of the present invention, and illustrates a lookup table. Referring to FIG. 4 , two pairs of consecutive frames are formed, an identifier pair of the frame is set as an index, and a similarity value corresponding thereto is stored. As the similarity calculation process is repeated, a similarity value is recorded and a check for forming a similarity frame group is performed. For example, assuming that the threshold for determining the similarity is set to '0.7', successive sections of (f 1 ,f 2 ), (f 2 ,f 3 ), (f 3 ,f 4 ) are 'similar frames' It can be confirmed that group #1' was formed. However, the similarity corresponding to (f 4 ,f 5 ) did not satisfy the threshold criterion, and again, the continuous sections of (f 5 ,f 6 ) and (f 6 ,f 7 ) were 'similar frame group #2' was formed. Therefore, by referring to the lookup table generated in this way, it is possible to quickly identify which adjacent frames are similar to the frame at a specific time, and when the screen standard of the image is changed later, it can be used as candidate data for obtaining information outside the region in the original image. .

제 1 화면 규격의 동영상에 포함된 프레임별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하기 위한 두 번째 실시예로서, 시간 순서에 따라 프레임 간의 유사도를 미리 산출하는 방식이 활용 가능하다. 먼저, 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출한다. 그런 다음, 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정할 수 있다. 즉, 앞서 기술한 첫 번째 실시예가 하나의 기준 프레임으로부터 인접한 전/후의 선행/후행 프레임을 탐색하는데 반해, 두 번째 실시예는 일방향으로 인접 프레임간의 유사도를 산출하는 방식으로 동작한다. 이러한 두 번째 실시예에서도 산출된 유사도를 관리하기 위해 앞서 소개한 룩업 테이블이 활용될 수 있음은 물론이다.As a second embodiment for detecting similar frames for each frame included in the moving picture of the first screen standard and setting them as a group of similar frames, a method of calculating the degree of similarity between frames in advance according to time sequence can be utilized. First, for all frames included in the moving picture of the first screen standard, similarities between adjacent frames are sequentially calculated. Then, with respect to frame sections in which the calculated similarity value equal to or greater than the threshold value is continuous in time series, a similar frame group including only frames having a similarity level equal to or greater than the threshold value for each section may be set. That is, while the first embodiment described above searches for adjacent previous/next preceding/following frames from one reference frame, the second embodiment operates in a way that calculates the similarity between adjacent frames in one direction. Of course, even in this second embodiment, the lookup table introduced above can be used to manage the calculated similarity.

다시 도 2로 돌아와, S240 단계에서, 상기 영상 처리 장치는 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성한다. 이 과정에서는, 우선 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 현재 프레임을 확장한다. 그런 다음, 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기된 현재 프레임의 확장 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성할 수 있다.Returning to FIG. 2 , in step S240 , the image processing apparatus generates an image of the unsecured area with reference to the similar frame group for each frame included in the inputted moving picture of the first screen standard. In this process, with respect to the current frame included in the input video of the first screen standard, the current frame is expanded by using a geometric relationship between the similar frame included in the similar frame group and the current frame. Then, the above-described current frame expansion process is performed on all frames included in the inputted moving picture of the first screen standard to generate an image for the unsecured area.

현재 프레임(기준이 되는 기본 프레임)을 확장하고자 할 때, 현재 프레임과 유사도가 높은 유사 프레임을 복수 개 포함하는 유사 프레임 그룹이 설정되었다고 가정하자. 이러한 유사 프레임 그룹에서 하나의 프레임을 선택하여 현재 프레임을 확장하는 상황에 있어서, 현재 프레임과 유사 프레임에 담긴 내용은 같아도(예를 들어, 이미지에 사람이 달리는 장면이 포함된 프레임), 프레임이 촬영되는 순간에 카메라가 향하는 각도, 원근, 조도 등에 따라서 나타나는 프레임의 특성이 서로 상이할 수 있다. 따라서, 현재 프레임을 확장할 때에는 이러한 프레임의 특성을 맞추는 작업이 필요하다. 예를 들어, 정육면체가 존재할 때 카메라가 향하는 각도에 따라서 정육면체의 모양이 정사각형으로 보이기도 하고, 사다리꼴로 보이기도 하며, 임의의 사각형으로 보이기도 한다.It is assumed that a similar frame group including a plurality of similar frames having a high similarity to the current frame is set when the current frame (a reference basic frame) is to be extended. In a situation in which the current frame is extended by selecting one frame from the similar frame group, even if the contents of the current frame and the similar frame are the same (for example, a frame including a human running scene in the image), the frame is shot The frame characteristics may be different from each other depending on the angle, perspective, illuminance, etc. that the camera faces at the moment the camera is directed. Therefore, when extending the current frame, it is necessary to match the characteristics of the frame. For example, when a cube exists, the shape of the cube may appear as a square, a trapezoid, or an arbitrary rectangle depending on the angle the camera faces.

현재 프레임과 유사 프레임을 하나의 프레임으로 병합하기 위해서는 두 개의 프레임 간의 카메라 각도 및 원근 등을 포함하는 특성 요소에 관한 다양한 보정이 필요하다. 구현의 관점에서, 보정을 위해 이미지를 늘리거나 줄이는 등의 수학적 변환이 필요한데, 이하에서 예시하는 일련의 처리 과정을 이용하여 효과적으로 보정을 수행할 수 있다.In order to merge the current frame and the similar frame into one frame, various corrections regarding characteristic factors including camera angle and perspective between the two frames are required. From an implementation point of view, a mathematical transformation such as stretching or reducing an image is required for correction, and correction can be effectively performed using a series of processing steps exemplified below.

우선, 인공 신경망을 구성한다. 그런 다음, 기본 입체 모형(직육면체, 정육면체, 원기둥, 구 등)과 이의 합체 구성 모형을 다양한 각도 및 원근에서 바라본 영상을 컴퓨터를 활용하여 인공적으로 생성하여 인공 신경망을 통해 학습시킨다. 그러면, 인공 신경망은 각도 및 원근에 대한 개념을 학습하여 임의의 각도 및 원근의 이미지를 입력으로 받았을 때 특정한 각도 및 원근의 이미지로 출력할 수 있는 상태가 된다. 이제, 두 개의 이미지를 입력으로 하여 이미지들 간의 각도 및 원근 차이를 출력하는 인공 신경망을 학습시키고, 이를 이용하여 유사 프레임을 변환하여 각도 및 원근 특징을 기본 프레임과 맞춤으로써 두 개의 프레임을 하나로 병합할 수 있다.First, an artificial neural network is constructed. Then, the basic three-dimensional model (cube, cube, cylinder, sphere, etc.) and its combined configuration model are artificially generated using a computer using images viewed from various angles and perspectives, and then taught through an artificial neural network. Then, the artificial neural network learns the concept of angle and perspective, and when it receives an image of an arbitrary angle and perspective as input, it is in a state in which it can output an image of a specific angle and perspective. Now, by taking two images as input and learning an artificial neural network that outputs the angle and perspective difference between the images, it is used to transform similar frames and merge the two frames into one by matching the angle and perspective features with the basic frame. can

도 5 및 도 6은 본 발명의 일 실시예에 따른 영상 처리 방법에서 미확보 영역에 대한 영상을 생성하는 과정과 이를 위한 프로그램 코드를 예시한 도면이다.5 and 6 are diagrams illustrating a process of generating an image for an unsecured area in an image processing method according to an embodiment of the present invention and a program code therefor.

앞서, 도 2의 S240 단계에서, 입력된 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 유사 프레임 그룹을 참조하여 미확보 영역에 대한 영상을 생성할 수 있음을 설명하였다. 이를 위해, 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장할 수 있다. 도 5를 참조하면 주어진 기준 프레임에 인접한 선행 및 후행 프레임에서 얻을 정보로부터 원본 이미지보다 큰 이미지를 생성하는 과정을 예시하였으며, 도 6은 도 5의 이미지로부터 재차 인접한 선행 및 후행 프레임을 확장하여 해당 프레임들로부터 얻은 정보를 활용하여 더욱 큰 이미지를 생성하였음을 보여준다.Previously, it has been described that in step S240 of FIG. 2 , an image for an unsecured area can be generated with reference to a similar frame group with respect to each frame included in the inputted moving picture of the first screen standard. To this end, the current frame may be extended by extracting a keypoint from each of the similar frame and the current frame and matching both images based on the extracted keypoint. Referring to FIG. 5, the process of generating an image larger than the original image from information obtained from preceding and following frames adjacent to a given reference frame is exemplified. It shows that a larger image was created by using the information obtained from them.

한편, 도 6에는 좌측 하단과 우측 상단에 영상 내의 정보가 확보되지 않은 빈 영역이 나타나고 있는 것을 확인할 수 있다. 이하에서는 이를 보완하기 위한 기술적 수단을 소개한다.Meanwhile, in FIG. 6 , it can be seen that blank areas in which information in the image is not secured are shown in the lower left and upper right corners. Hereinafter, technical means for supplementing this will be introduced.

도 7 및 도 8은 각각 딥 뉴럴 네트워크를 이용하여 영상 내의 빈 영역을 보충하는 과정을 설명하기 위한 예시도와 블럭도이다.7 and 8 are exemplary diagrams and block diagrams for explaining a process of replenishing a blank area in an image by using a deep neural network, respectively.

본 발명의 실시예들은 유사 프레임 그룹을 참조하여 미확보 영역에 대한 영상을 생성하였다. 그럼에도 불구하고 요구되는 화면 규격에 대해 유사 프레임 그룹으로부터 미확보 영역에 대한 정보를 얻지 못할 수 있다. 즉, 입력된 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 현재 프레임을 확장하였으나, 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충할 수 있다.In the embodiments of the present invention, an image of an unsecured area is generated with reference to a similar frame group. Nevertheless, it may not be possible to obtain information on an unreserved area from a similar frame group for a required screen standard. That is, with respect to the current frame included in the input video of the first screen standard, the current frame is extended using the geometric relationship between the similar frame included in the similar frame group and the current frame, but the image for the unsecured area is not generated. In this case, an image for the unsecured area may be supplemented using a generative adversarial network (GAN) or an autoencoder.

도 7을 참조하면, 도 6과 비교할 때, 좌측 상단의 영역(710) 및 우측 하단의 영역(720)이 보충되었음을 확인할 수 있다. 도 8을 참조하면, 먼저 정보가 비어 있는 영상을 포함하여 다수의 인접 영상들을 입력영상(810)으로 입력한다. 그런 다음, 딥 뉴럴 네트워크(820)를 통해 정보가 비어 있는 빈자리 영상에 대한 실마리 정보(830)를 제공받음으로써 정보가 비어 있는 영역을 보충할 수 있는 영상을 새롭게 생성한 후 출력영상(840)으로 출력한다. 이때, 딥 뉴럴 네트워크(820)는 GAN 또는 오토인코더를 이용하여 구현할 수 있다.Referring to FIG. 7 , compared with FIG. 6 , it can be confirmed that the upper left area 710 and the lower right area 720 are supplemented. Referring to FIG. 8 , first, a plurality of adjacent images including an image with empty information are input as an input image 810 . Then, by receiving the clue information 830 for the vacant image in which the information is empty through the deep neural network 820, an image that can supplement the empty information is newly generated, and then as the output image 840. print out In this case, the deep neural network 820 may be implemented using a GAN or an autoencoder.

이제 마지막으로, 도 2의 S250 단계에서, 상기 영상 처리 장치는 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력한다. 여기서, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환할 수 있다.Now, finally, in step S250 of FIG. 2 , the image processing apparatus outputs the moving picture having the second screen standard from the original image included in the moving picture of the first screen standard and the image generated for the unsecured area. Here, for all frames included in the moving picture of the first screen standard, the original image and the image generated for the unsecured area may be combined, respectively, to be converted into an image having the second screen standard.

앞서 유사성이 높은 프레임으로 판정된 경우는 크게 3가지 유형을 고려할 수 있다. 첫 번째 유형은 촬영 수단(카메라)이 고정된 상태로 영상을 촬영한 경우이고, 두 번째 유형은 촬영 수단을 상/하/좌/우로 움직이며 촬영한 경우이며, 세 번째 유형은 촬영 수단으로 줌인(zoom-in)/줌아웃(zoom-out)하여 촬영한 경우이다.In the case where it is determined as a frame with high similarity, three types can be considered. The first type is a case in which the image is taken while the shooting means (camera) is fixed, the second type is when the shooting means is moved up/down/left/right, and the third type is when the shooting device is zoomed in. (zoom-in) / zoom-out (zoom-out) is the case of shooting.

첫 번째 경우는 스튜디오에서 진행되는 뉴스에서 진행자가 말하는 장면을 예로 들 수 있다. 유사도 비교시 프레임 간 차이가 많이 나는 화소는 버리고, 차이가 많이 나지 않는 화소만을 활용하여 해상도를 향상시킬 수 있다. 예를 들어, 기준 프레임에 시간적으로 연속하는 구간에 4개의 유사 프레임이 존재한다고 판단되었다면, 이러한 유사 프레임으로 구성된 유사 프레임 그룹을 활용하여 1 by 1 화상 정보를 4 by 4 화상 정보로 향상시킬 수 있다.In the first case, for example, a scene in which the presenter speaks in a news broadcast in the studio. When comparing similarity, pixels with a large difference between frames are discarded and only pixels with little difference are used to improve the resolution. For example, if it is determined that four similar frames exist in a temporally continuous section of the reference frame, 1 by 1 image information can be improved to 4 by 4 image information by using a similar frame group composed of these similar frames. .

두 번째 또는 세 번째 경우는 기준 프레임에 인접한 선행 및 후행 프레임에 기초하여 상기 기준 프레임을 확장시킬 수 있다. 예를 들어, 4:3의 화면비를 갖는 영상들을 연결하여 16:9의 화면비를 갖는 영상을 생성할 수 있다.In the second or third case, the reference frame may be extended based on preceding and following frames adjacent to the reference frame. For example, an image having an aspect ratio of 16:9 may be generated by connecting images having an aspect ratio of 4:3.

이상에서 제안한 영상 생성 방법을 사용하여 동영상의 품질을 향상시킬 경우, 해상도가 일관되지 못하거나, 보충된 영상의 일부 영역에서 의도하지 않았음에도 이질적인 색상(예를 들어, 검정색)이 나타나는 문제가 발생할 수 있다. 따라서, 이러한 이질감을 해소하기 위한 영상 후처리 내지 필터링이 요구된다. 구현의 관점에서, 상기 미확보 영역에 대해 생성된 영상과 상기 원본 영상 간의 품질 차이가 수용 한계치 이상인 경우 열등한 영상의 해상도(resolution) 또는 비트 레이트(bir rate)를 상기 유사 프레임으로부터 보충할 수 있다. 또한, 상기 미확보 영역에 대해 생성된 영상과 상기 제 1 화면 규격의 동영상에 포함된 원본 영상의 경계를 스무딩(smoothing)할 수 있다. If the quality of the video is improved using the image creation method suggested above, the resolution may be inconsistent or a problem may occur in which a heterogeneous color (e.g., black) appears in some areas of the supplemented image unintentionally. have. Therefore, image post-processing or filtering is required to resolve such heterogeneity. From an implementation point of view, when the quality difference between the image generated for the unsecured region and the original image is equal to or greater than an acceptable threshold, the inferior image resolution or bit rate may be supplemented from the similar frame. Also, a boundary between the image generated for the unsecured area and the original image included in the moving picture of the first screen standard may be smoothed.

도 9는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 장치(920)를 도시한 블럭도로서, 도 2의 흐름도에 대응하여 하드웨어 구현의 관점에서 각각의 구성요소의 동작 및 기능을 나타내었다. 따라서, 설명의 중복을 피하기 위해 여기서는 그 개괄적인 구성만을 약술하도록 한다.9 is a block diagram illustrating an image processing apparatus 920 for generating information outside an image region according to an embodiment of the present invention. function was shown. Therefore, in order to avoid duplication of description, only the general structure thereof is outlined herein.

입력부(921)는 제 1 화면 규격을 갖는 동영상(910)을 입력받는 수단이다. 메모리(923)는 입력부(921)를 통해 입력된 상기 제 1 화면 규격을 갖는 동영상(910)을 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격의 동영상(930)으로 변환하는 프로그램을 저장한다. 프로세서(925)는 상기 메모리(923)에 저장된 프로그램을 실행하는 주체이다. 여기서, 상기 메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하며, 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 명령을 포함한다.The input unit 921 is a means for receiving a moving picture 910 having the first screen standard. The memory 923 stores a program for converting the moving picture 910 having the first screen standard input through the input unit 921 into the moving picture 930 having a second screen standard defined differently from the first screen standard. . The processor 925 is a subject that executes the program stored in the memory 923 . Here, the program stored in the memory 923 sets an image area corresponding to a difference between the first screen standard and a second screen standard defined differently based on the first screen standard as an unsecured area, and A similar frame is detected for each frame included in the moving picture of the first screen standard, and is set as a similar frame group, and the similar frame group is generated for each frame included in the inputted moving picture of the first screen standard. generating an image of the non-secured area with reference to, and outputting a moving picture having the second screen standard from the original image included in the moving picture of the first screen standard and the image generated for the non-secured area.

메모리(923)에 저장된 프로그램은, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다.The program stored in the memory 923 targets the second screen standard, and due to a difference in screen standards including at least one of an aspect ratio, a resolution, and an angle of view, 1 The image area that the screen standard does not have can be set as an unsecured area.

메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하고, 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하며, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출할 수 있다.The program stored in the memory 923 calculates a similarity with adjacent frames temporally preceding or following the reference frame with respect to one reference frame included in the moving picture of the first screen standard, and the adjacent frames When the degree of similarity calculated from is equal to or greater than the threshold, by setting the adjacent frame greater than or equal to the threshold as a new reference frame, calculating the degree of similarity with the adjacent frames again, and repeatedly repeating the process of checking whether the newly calculated degree of similarity is greater than or equal to the threshold. a process of setting only frames having a similarity equal to or greater than a threshold value as a similar frame group to the first reference frame, calculating the similarity for all frames included in the moving picture of the first screen standard, and setting the similar frame group as the similar frame group; It is possible to derive a similar frame group for each frame by performing it.

메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하고, 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정할 수 있다.The program stored in the memory 923 sequentially calculates a degree of similarity between adjacent frames for all frames included in the moving picture of the first screen standard, and a frame section in which the calculated similarity is greater than or equal to a threshold value is continuous in time series can be set as a similar frame group including only frames having a similarity level equal to or greater than a threshold value for each section.

메모리(923)에 저장된 프로그램은, 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 현재 프레임을 확장하는 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성할 수 있다. 또한, 메모리(923)에 저장된 프로그램은, 상기 현재 프레임을 확장하는 과정을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충할 수 있다. The program stored in the memory 923 uses a geometrical relationship between the similar frame and the current frame included in the similar frame group with respect to the current frame included in the inputted moving picture of the first screen standard, the similar frame and the current frame. Extracting a keypoint from each, extending the current frame by matching both images based on the extracted keypoint, and extending the current frame with respect to all frames included in the input video of the first screen standard By performing the process, an image of the unsecured area may be generated. In addition, the program stored in the memory 923 is stored in the non-secured region using a Generative Adversarial Network (GAN) or an autoencoder when the image for the non-secured region is not generated through the process of extending the current frame. You can supplement the video.

메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환할 수 있다.The program stored in the memory 923 may convert an image having the second screen standard by combining the original image and the image generated for the unsecured area, respectively, for all frames included in the moving picture of the first screen standard. have.

본 발명의 실시예들에 따르면, 동영상 내의 인접한 프레임 내의 정보에 기초하여 영상을 확장하되 이와 더블어 인공지능을 통해 확장되지 못한 영역에 대한 영상을 보충함으로써 화면 규격의 변화에 능동적이고 효과적으로 대응할 수 있고, 화면 규격의 변화에 따라 영상 내의 일부 영역에 표시할 정보가 없어 검은색으로 표시하는 레터박스 또는 필러박스를 방지할 수 있으며, 최신 영상 재생 장치의 자원을 충분히 활용함으로써 결과적으로 사용자가 체감하는 품질 만족도를 향상시킬 수 있다.According to embodiments of the present invention, it is possible to actively and effectively respond to changes in the screen standard by expanding an image based on information in an adjacent frame in the moving picture, but by supplementing the image for the area that has not been expanded through artificial intelligence. It is possible to prevent letterbox or pillarbox that is displayed in black because there is no information to display in some areas of the image according to the change of the screen standard. can improve

한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the embodiments of the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.In the above, various embodiments of the present invention have been mainly examined. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

810: 입력영상
820: 딥 뉴럴 네트워크 830: 빈자리 영상 실마리 정보
840: 출력영상
910: 제 1 규격 동영상
920: 영상 처리 장치 921: 입력부
923: 메모리 925: 프로세서
930: 제 2 규격 동영상
810: input image
820: deep neural network 830: vacant image clue information
840: output image
910: first standard video
920: image processing device 921: input unit
923: memory 925: processor
930: 2nd standard video

Claims (20)

(a) 영상 처리 장치가 제 1 화면 규격을 갖는 동영상을 입력받는 단계;
(b) 상기 영상 처리 장치가 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하는 단계;
(c) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하는 단계;
(d) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하는 단계; 및
(e) 상기 영상 처리 장치가 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 단계;를 포함하는, 영상 처리 방법.
(a) receiving, by the image processing apparatus, a video having a first screen standard;
(b) setting, by the image processing apparatus, an image area corresponding to a difference between the first screen standard and a second screen standard defined differently from the first screen standard as an unsecured area;
(c) detecting, by the image processing apparatus, each similar frame for each frame included in the inputted moving picture of the first screen standard, and setting a similar frame group;
(d) generating, by the image processing apparatus, an image of the unsecured area by referring to the similar frame group for each frame included in the inputted moving picture of the first screen standard; and
(e) outputting, by the image processing apparatus, a moving picture having the second screen standard from the original image included in the moving picture of the first screen standard and the image generated for the unsecured area; .
제 1 항에 있어서,
상기 (b) 단계는,
상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정하는, 영상 처리 방법.
The method of claim 1,
Step (b) is,
An image that is not possessed by the first screen standard due to a difference in screen standards including at least one of aspect ratio, resolution, and angle of view, targeting the second screen standard An image processing method for setting an area as an unsecured area.
제 1 항에 있어서,
상기 (c) 단계는,
특징 매칭(feature matching), 템플릿 매칭(template matching), 및 히스토그램(histogram) 비교 중 적어도 하나를 이용하여 2개의 인접 프레임들을 비교하여 유사도 값을 산출하는, 영상 처리 방법.
The method of claim 1,
Step (c) is,
An image processing method of calculating a similarity value by comparing two adjacent frames using at least one of feature matching, template matching, and histogram comparison.
제 1 항에 있어서,
상기 (c) 단계는,
(c1) 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하는 단계;
(c2) 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하는 단계; 및
(c3) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (c1) 단계 및 상기 (c2) 단계를 수행하여 프레임별로 유사 프레임 그룹을 도출하는 단계;를 포함하는, 영상 처리 방법.
The method of claim 1,
Step (c) is,
(c1) calculating similarities with adjacent frames temporally preceding or following the reference frame with respect to one reference frame included in the moving picture of the first screen standard;
(c2) when the similarity calculated from the neighboring frames is equal to or greater than the threshold, setting the neighboring frame equal to or greater than the threshold as a new reference frame, calculating the similarity with the neighboring frames again, and checking whether the newly calculated similarity is equal to or greater than the threshold setting only frames having a similarity greater than or equal to a threshold as a group of similar frames to the first reference frame by repeating the process in series; and
(c3) performing steps (c1) and (c2) for all frames included in the moving picture of the first screen standard to derive a similar frame group for each frame;
제 4 항에 있어서,
상기 (c) 단계는,
2개의 인접 프레임들 간의 유사도 값을 해당 프레임의 식별자 쌍(pair)에 매칭시켜 룩업 테이블(look-up table)에 저장하되,
새롭게 2개의 인접 프레임들 간의 유사도를 산출하는 경우 먼저 상기 룩업 테이블을 조회하여 미리 저장된 유사도 값이 존재하는 경우 저장된 해당 유사도 값을 독출하여 사용하고, 미리 저장된 유사도 값이 존재하지 않는 경우에만 유사도를 산출하여 상기 룩업 테이블에 저장하는, 영상 처리 방법.
5. The method of claim 4,
Step (c) is,
A similarity value between two adjacent frames is matched with an identifier pair of the corresponding frame and stored in a look-up table,
When the similarity between two adjacent frames is newly calculated, the lookup table is first searched, and if there is a previously stored similarity value, the stored similarity value is read and used, and the similarity is calculated only when the previously stored similarity value does not exist. and storing it in the lookup table.
제 1 항에 있어서,
상기 (c) 단계는,
(c4) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하는 단계; 및
(c5) 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정하는 단계;를 포함하는, 영상 처리 방법.
The method of claim 1,
Step (c) is,
(c4) sequentially calculating similarities between adjacent frames for all frames included in the moving picture of the first screen standard; and
(c5) setting a similar frame group including only frames having a similarity greater than or equal to the threshold for each frame section in which the calculated similarity value is greater than or equal to the threshold value for successive time series;
제 1 항에 있어서,
상기 (d) 단계는,
(d1) 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 현재 프레임을 확장하는 단계; 및
(d2) 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (d1) 단계의 프레임 확장을 수행하여 상기 미확보 영역에 대한 영상을 생성하는 단계;를 포함하는, 영상 처리 방법.
The method of claim 1,
Step (d) is,
(d1) expanding the current frame by using a geometric relationship between the current frame and the similar frame included in the similar frame group with respect to the current frame included in the input video of the first screen standard; and
(d2) performing the frame expansion of step (d1) on all frames included in the inputted moving picture of the first screen standard to generate an image for the unsecured area;
제 7 항에 있어서,
상기 (d1) 단계는,
상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하는, 영상 처리 방법.
8. The method of claim 7,
The step (d1) is,
An image processing method for extending the current frame by extracting a keypoint from each of the similar frame and the current frame and matching both images based on the extracted keypoint.
제 7 항에 있어서,
(d3) 상기 (d1) 단계의 프레임 확장을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충하는 단계;를 더 포함하는, 영상 처리 방법.
8. The method of claim 7,
(d3) if the image for the non-secured region is not generated through the frame extension of step (d1), supplementing the image for the non-secured region using a Generative Adversarial Network (GAN) or an autoencoder; Further comprising, an image processing method.
제 1 항에 있어서,
상기 (e) 단계는,
(e1) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환하는 단계;를 포함하는, 영상 처리 방법.
The method of claim 1,
Step (e) is,
(e1) converting an image having the second screen standard by combining the original image and the image generated for the unsecured region for all frames included in the moving picture of the first screen standard, respectively; processing method.
제 10 항에 있어서,
(e2) 상기 미확보 영역에 대해 생성된 영상과 상기 원본 영상 간의 품질 차이가 수용 한계치 이상인 경우 열등한 영상의 해상도(resolution) 또는 비트 레이트(bir rate)를 상기 유사 프레임으로부터 보충하는 단계;를 더 포함하는, 영상 처리 방법.
11. The method of claim 10,
(e2) supplementing the inferior image resolution or bit rate from the similar frame when the quality difference between the image generated for the unsecured area and the original image is equal to or greater than an acceptable threshold; , image processing method.
제 10 항에 있어서,
(e3) 상기 미확보 영역에 대해 생성된 영상과 상기 제 1 화면 규격의 동영상에 포함된 원본 영상의 경계를 스무딩(smoothing)하는 단계;를 더 포함하는, 영상 처리 방법.
11. The method of claim 10,
(e3) smoothing the boundary between the image generated for the unsecured area and the original image included in the moving picture of the first screen standard;
제 1 항 내지 제 12 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program for executing the method of any one of claims 1 to 12 on a computer is recorded. 제 1 화면 규격을 갖는 동영상을 입력받는 입력부;
입력된 상기 제 1 화면 규격을 갖는 동영상을 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격의 동영상으로 변환하는 프로그램을 저장하는 메모리; 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서;를 포함하고,
상기 메모리에 저장된 프로그램은,
상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하며, 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 명령을 포함하는, 영상 처리 장치.
an input unit for receiving a video having a first screen standard;
a memory for storing a program for converting the input video having the first screen standard into a video having a second screen standard defined differently from the first screen standard; and
A processor that executes the program stored in the memory;
The program stored in the memory is
An image area corresponding to a difference between the first screen standard and a second screen standard defined differently based on the first screen standard is set as an unsecured area, and a frame ( frame) is detected for each similar frame, set as a similar frame group, and for each frame included in the input video of the first screen standard, an image for the unsecured area is generated with reference to the similar frame group, and a command for outputting a moving picture having the second screen standard from the original image included in the moving picture of the first screen standard and the image generated for the unsecured area.
제 14 항에 있어서,
상기 메모리에 저장된 프로그램은,
상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정하는, 영상 처리 장치.
15. The method of claim 14,
The program stored in the memory is
An image that is not possessed by the first screen standard due to a difference in screen standards including at least one of aspect ratio, resolution, and angle of view, targeting the second screen standard An image processing apparatus for setting an area as an unsecured area.
제 14 항에 있어서,
상기 메모리에 저장된 프로그램은,
상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하고,
상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하며,
상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출하는, 영상 처리 장치.
15. The method of claim 14,
The program stored in the memory is
For one reference frame included in the moving picture of the first screen standard, a degree of similarity with adjacent frames temporally preceding or following the reference frame is calculated, respectively;
If the degree of similarity calculated from the adjacent frames is equal to or greater than the threshold, the process of setting the adjacent frame equal to or greater than the threshold as a new reference frame, calculating the degree of similarity with the adjacent frames again, and checking whether the newly calculated similarity is equal to or greater than the threshold is chained By repeatedly repeating, only frames with similarity greater than or equal to the threshold are set as similar frame groups to the first reference frame,
An image processing apparatus for deriving a similar frame group for each frame by performing a process of calculating the degree of similarity and setting the similarity frame group for all frames included in the moving picture of the first screen standard.
제 14 항에 있어서,
상기 메모리에 저장된 프로그램은,
상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하고,
산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정하는, 영상 처리 장치.
15. The method of claim 14,
The program stored in the memory is
For all frames included in the moving picture of the first screen standard, the similarity between adjacent frames is sequentially calculated,
An image processing apparatus for setting a similar frame group including only frames having a similarity equal to or greater than the threshold value for each frame section in which the calculated similarity value is equal to or greater than the threshold value is continuous in time series.
제 14 항에 있어서,
상기 메모리에 저장된 프로그램은,
입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하고,
입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 현재 프레임을 확장하는 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성하는, 영상 처리 장치.
15. The method of claim 14,
The program stored in the memory is
Extracting a keypoint from each of the similar frame and the current frame by using a geometric relationship between the similar frame included in the similar frame group and the current frame with respect to the current frame included in the input video of the first screen standard, Expand the current frame by matching both images based on the extracted feature points,
An image processing apparatus for generating an image of the unsecured area by performing a process of extending the current frame with respect to all frames included in the inputted moving picture of the first screen standard.
제 18 항에 있어서,
상기 메모리에 저장된 프로그램은,
상기 현재 프레임을 확장하는 과정을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충하는, 영상 처리 장치.
19. The method of claim 18,
The program stored in the memory is
An image processing apparatus for replenishing an image for the unsecured region by using a generative adversarial network (GAN) or an autoencoder when the image for the unsecured region is not generated through the process of extending the current frame.
제 14 항에 있어서,
상기 메모리에 저장된 프로그램은,
상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환하는, 영상 처리 장치.
15. The method of claim 14,
The program stored in the memory is
An image processing apparatus for converting an image having the second screen standard by combining an original image and an image generated for the unsecured area for all frames included in the moving picture of the first screen standard, respectively.
KR1020210034698A 2021-03-17 2021-03-17 Image processing apparatus and method for generating information beyond image area KR102492430B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210034698A KR102492430B1 (en) 2021-03-17 2021-03-17 Image processing apparatus and method for generating information beyond image area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210034698A KR102492430B1 (en) 2021-03-17 2021-03-17 Image processing apparatus and method for generating information beyond image area

Publications (2)

Publication Number Publication Date
KR20220129852A true KR20220129852A (en) 2022-09-26
KR102492430B1 KR102492430B1 (en) 2023-01-30

Family

ID=83452596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210034698A KR102492430B1 (en) 2021-03-17 2021-03-17 Image processing apparatus and method for generating information beyond image area

Country Status (1)

Country Link
KR (1) KR102492430B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026942A (en) 2009-09-09 2011-03-16 부경대학교 산학협력단 Loss information estimation method and high resolution transform method of low resolution image
KR20150011938A (en) * 2013-07-24 2015-02-03 한국전자통신연구원 Method and apparatus for stabilizing panorama video captured based multi-camera platform
JP2015070328A (en) * 2013-09-26 2015-04-13 キヤノン株式会社 Imaging apparatus and control method for the same
KR20190088406A (en) * 2018-01-04 2019-07-26 삼성전자주식회사 Video playback device and controlling method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026942A (en) 2009-09-09 2011-03-16 부경대학교 산학협력단 Loss information estimation method and high resolution transform method of low resolution image
KR20150011938A (en) * 2013-07-24 2015-02-03 한국전자통신연구원 Method and apparatus for stabilizing panorama video captured based multi-camera platform
JP2015070328A (en) * 2013-09-26 2015-04-13 キヤノン株式会社 Imaging apparatus and control method for the same
KR20190088406A (en) * 2018-01-04 2019-07-26 삼성전자주식회사 Video playback device and controlling method thereof

Also Published As

Publication number Publication date
KR102492430B1 (en) 2023-01-30

Similar Documents

Publication Publication Date Title
US10958854B2 (en) Computer-implemented method for generating an output video from multiple video sources
Feng et al. SGANVO: Unsupervised deep visual odometry and depth estimation with stacked generative adversarial networks
CA2636858C (en) Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
KR100931311B1 (en) Depth estimation device and its method for maintaining depth continuity between frames
US20140241576A1 (en) Apparatus and method for camera tracking
US11557081B2 (en) Image processing apparatus, control method for an image processing apparatus, and medium
US20150036945A1 (en) Reconstruction of Missing Regions Of Images
KR101173559B1 (en) Apparatus and method for the automatic segmentation of multiple moving objects from a monocular video sequence
WO2014013673A1 (en) Moving image generation device and moving image generation method
KR102546631B1 (en) Apparatus for video data argumentation and method for the same
CN111402412A (en) Data acquisition method and device, equipment and storage medium
CN110930310A (en) Panoramic image splicing method
US20170188008A1 (en) Method and device for generating depth map
KR20100084075A (en) Multi-frame combined video object matting system and method thereof
KR100960694B1 (en) System and Method for matting multi-view image, Storage medium storing the same
KR102443630B1 (en) Method And Apparatus for Retargeting Video
KR20220129852A (en) Image processing apparatus and method for generating information beyond image area
WO2024007182A1 (en) Video rendering method and system in which static nerf model and dynamic nerf model are fused
JP5070179B2 (en) Scene similarity determination device, program thereof, and summary video generation system
KR101544156B1 (en) Video retargeting method
KR101826463B1 (en) Method and apparatus for synchronizing time line of videos
Conze et al. Multi-reference combinatorial strategy towards longer long-term dense motion estimation
Ito et al. Deep homography-based video stabilization
CN110996173B (en) Image data processing method and device and storage medium
KR102404894B1 (en) Input viewpoint selection system for generating output viewpoints from multi-view image information sources

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right