KR20210083524A - Method And Apparatus for Retargeting Video - Google Patents

Method And Apparatus for Retargeting Video Download PDF

Info

Publication number
KR20210083524A
KR20210083524A KR1020190175874A KR20190175874A KR20210083524A KR 20210083524 A KR20210083524 A KR 20210083524A KR 1020190175874 A KR1020190175874 A KR 1020190175874A KR 20190175874 A KR20190175874 A KR 20190175874A KR 20210083524 A KR20210083524 A KR 20210083524A
Authority
KR
South Korea
Prior art keywords
image
line
mask
area
preservation
Prior art date
Application number
KR1020190175874A
Other languages
Korean (ko)
Other versions
KR102443630B1 (en
Inventor
신재섭
류성걸
손세훈
김형덕
김효성
Original Assignee
주식회사 픽스트리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 픽스트리 filed Critical 주식회사 픽스트리
Priority to KR1020190175874A priority Critical patent/KR102443630B1/en
Priority to PCT/KR2020/018690 priority patent/WO2021133002A2/en
Publication of KR20210083524A publication Critical patent/KR20210083524A/en
Application granted granted Critical
Publication of KR102443630B1 publication Critical patent/KR102443630B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

Disclosed are a method and device for retargeting an image for expanding or reducing an image ratio. In this embodiment, the image ratio is expanded by acquiring an image in which a line extracted from an energy map for an area other than an area to be preserved in the input image is inserted, and the image ratio is reduced by acquiring a line deletion image extracted from the energy map for the area excluding the area to be preserved in a correct answer image, in the provided method and device for retargeting an image.

Description

영상 비율을 확장 또는 축소하기 위한 영상 리타겟팅 방법 및 장치{Method And Apparatus for Retargeting Video} Image retargeting method and apparatus for expanding or reducing image ratio {Method And Apparatus for Retargeting Video}

본 실시예는 영상 비율을 확장 또는 축소하기 위한 영상 리타겟팅 방법 및 장치에 관한 것이다. The present embodiment relates to an image retargeting method and apparatus for expanding or reducing an image ratio.

이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The content described below merely provides background information related to the present embodiment and does not constitute the prior art.

사용자의 편의에 따라 새로운 영상을 형성하기 위해 영상의 단편을 수정하거나 합성하는 영상 편집/합성 기술은 다양한 방법으로 개발되어 왔다. 영상 편집/합성 기술은 일반적으로 원치 않는 영상 부분을 지우거나 원하는 부분을 분리하고 새로운 부분과 합성하는 목적을 가지고 개발되고 있다.In order to form a new image according to the user's convenience, image editing/synthesis technology for correcting or synthesizing image fragments has been developed in various ways. In general, video editing/compositing technology is being developed for the purpose of erasing unwanted video parts, separating desired parts, and synthesizing new parts.

영상을 합성하기 위하여 이미지 내의 객체 추출이 요구되는데, 객체를 추출하는 영상 분할 기술(Image Segmentation)로는 워터쉐드(Watershed) 알고리즘과 그래프 컷(Graph Cut) 알고리즘 등의 기술들이 개발되어 다양한 방법으로 활용되고 있다.In order to synthesize an image, it is required to extract an object within an image. As an image segmentation technology for extracting an object, technologies such as a Watershed algorithm and a Graph Cut algorithm have been developed and used in various ways. have.

영상 크기 조정을 위해 개발된 기술로는 심 카빙(seam carving/insertion) 알고리즘이 있다. 심 카빙 알고리즘은 원본 영상에서 각각의 화소(pixel)간 중요도를 계산하여, 동적 계획법(Dynamic Programming)에 의해 중요도가 낮은 화소들을 연결시킨 라인(Line)을 구성하고, 중요도가 낮은 순서로 라인을 제거(Removal)하거나 삽입(Insertion)하여 영상의 크기를 축소하거나 확장한다. 심 카빙 기술은 본래 다양한 해상도를 갖는 장치에서 이미지를 표시하는 데 있어서 왜곡 없이 나타내기 위한 목적으로 고안되었다.A technique developed for image resizing includes a seam carving/insertion algorithm. The seam carving algorithm calculates the importance between each pixel in the original image, constructs a line that connects pixels of low importance by dynamic programming, and removes the lines in the order of low importance. (Removal) or insert (Insertion) to reduce or expand the size of the image. The seam carving technology was originally designed for the purpose of displaying images without distortion in devices having various resolutions.

종래기술들은 단순히 배경영상에 객체영상을 덮어씌워 합성하는 방식을 이용하였다. 영상의 확대 및 축소 과정에서도 객체영상과 배경영상의 비율 등에 상관없이 단순히 전체 영상을 확대하거나 축소하였기 때문에 영상 편집/합성에 한계가 있으며, 이에 따라 자연스러운 합성영상을 제공하기 어려운 문제점이 있다.The prior art used a method of synthesizing a background image by simply overlaying an object image. Even in the process of image enlargement and reduction, there is a limitation in image editing/compositing because the entire image is simply enlarged or reduced regardless of the ratio of the object image and the background image, and thus, there is a problem in that it is difficult to provide a natural synthetic image.

본 실시예는 입력 이미지에서 보존하고자 하는 관심 영역을 설정하고, 해당 영역을 제외한 나머지 영역에 대해 관심 정도가 낮은 순서로 빈 라인(Line)을 삽입한 영상을 구성하여, 기계 학습에 기반하여 해당 라인을 채우거나 보정하는 것을 목표로 하는 영상 리타겟팅 방법 및 장치를 제공하는 데 목적이 있다.In this embodiment, a region of interest to be preserved in the input image is set, and an image in which blank lines are inserted in an order of low interest in the remaining regions except for the region is constructed, and the corresponding line is based on machine learning. An object of the present invention is to provide an image retargeting method and apparatus aimed at filling or correcting the .

본 실시예의 일 측면에 의하면, 입력 이미지(Input Image)(I)를 입력받는 과정; 상기 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하는 과정; 상기 입력 이미지(I)로부터 상기 보존 마스크(M)를 제외한 영역에 대한 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성하는 과정; 상기 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출하는 과정; 상기 보존 마스크(M)의 영역을 보존하면서 상기 라인 삽입 이미지(I+)를 획득하는 과정; 상기 라인 삽입 이미지(I+)를 미리 기계 학습 기반으로 학습된 인공지능 모델을 이용하여 영상 비율이 확장된 리타겟 이미지(I^ R)로 생성하는 과정을 포함하는 것을 특징으로 하는 영상 리타겟팅 방법을 제공한다.According to one aspect of the present embodiment, the process of receiving an input image (Input Image) (I); setting a partial region of the input image (I) as a Preservation Mask (M); calculating an importance for all pixels in an area except for the preservation mask M from the input image I, and generating an energy map composed of the importance of each pixel; a process of searching for and extracting a line composed of a connection of pixels of relatively low importance in the energy map; acquiring the line insertion image (I + ) while preserving the area of the preservation mask (M); Image retargeting method comprising the step of generating the line-inserted image (I + ) as a retarget image (I ^ R ) with an expanded image ratio using an artificial intelligence model trained in advance based on machine learning provides

본 실시예의 다른 측면에 의하면, 입력 이미지(Input Image)(I)를 입력받는 입력부; 상기 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하는 마스크 설정부; 상기 입력 이미지(I)로부터 상기 보존 마스크(M)를 제외한 영역에 대한 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성하는 에너지맵 생성부; 상기 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출하는 라인 추출부; 상기 보존 마스크(M)의 영역을 보존하면서 상기 라인 삽입 이미지(I+)를 획득하는 라인 삽입부; 미리 기계 학습 기반으로 학습된 인공지능 모델을 이용하여 상기 라인 삽입 이미지(I+)를 영상 비율이 확장된 리타겟 이미지(I^ R)로 생성하는 영상 비율 확장부;를 포함하는 것을 특징으로 하는 영상 리타겟팅 장치를 제공한다.According to another aspect of the present embodiment, the input unit for receiving an input image (Input Image) (I); a mask setting unit for setting a partial region of the input image (I) as a preservation mask (M); an energy map generator for calculating the importance of all pixels in an area except for the preservation mask M from the input image I, and generating an energy map composed of the importance of each pixel; a line extracting unit that searches for and extracts a line formed by connecting pixels of relatively low importance in the energy map; a line insertion unit which acquires the line insertion image (I + ) while preserving the area of the preservation mask (M); An image ratio extension unit for generating the line-inserted image (I + ) as a retarget image (I ^ R ) with an expanded image ratio using an artificial intelligence model learned in advance based on machine learning; characterized in that it comprises a; An image retargeting device is provided.

이상에서 설명한 바와 같이 본 실시예에 의하면, 입력 이미지에서 보존하고자 하는 영역을 제외한 영역에 대한 에너지 맵(Energy Map)에서 추출된 라인(Line)을 삽입한 이미지를 획득하여 영상 비율이 확장하거나, 정답 이미지에서 보존하고자 하는 영역을 제외한 영역에 대한 에너지 맵에서 추출된 라인을 삭제한 이미지를 획득하여 영상 비율을 축소할 수 있는 효과가 있다.As described above, according to this embodiment, an image in which a line extracted from an energy map is obtained for a region excluding a region to be preserved in the input image is obtained to expand the image ratio or correct the correct answer. There is an effect that the image ratio can be reduced by obtaining an image in which the line extracted from the energy map for the area except for the area to be preserved in the image is obtained.

도 1a,1b,1c는 본 실시예에 따른 영상 비율을 확장 또는 축소하기 위한 영상 리타겟팅 장치를 개략적으로 나타낸 블럭 구성도이다.
도 2a,2b,2c는 본 실시예에 따른 영상 리타겟팅 장치 내에 탑재되는 영상 리타겟팅 프로그램을 개략적으로 나타낸 블럭 구성도이다.
도 3은 본 실시예에 따른 영상 비율을 확장 또는 축소하는 방식을 나타낸 도면이다.
도 4는 본 실시예에 따른 영상 비율을 확장하는 방법을 설명하기 위한 순서도이다.
도 5는 본 실시예에 따른 영상 비율을 축소하는 방법을 설명하기 위한 순서도이다.
1A, 1B, and 1C are block diagrams schematically illustrating an image retargeting apparatus for expanding or reducing an image ratio according to the present embodiment.
2A, 2B, and 2C are block diagrams schematically illustrating an image retargeting program mounted in an image retargeting apparatus according to the present embodiment.
3 is a diagram illustrating a method of expanding or reducing an image ratio according to the present embodiment.
4 is a flowchart illustrating a method of extending an image ratio according to the present embodiment.
5 is a flowchart illustrating a method of reducing an image ratio according to the present embodiment.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings.

도 1a,1b,1c는 본 실시예에 따른 영상 비율을 확장 또는 축소하기 위한 영상 리타겟팅 장치를 개략적으로 나타낸 블럭 구성도이다.1A, 1B, and 1C are block diagrams schematically illustrating an image retargeting apparatus for expanding or reducing an image ratio according to the present embodiment.

본 실시예에 따른 영상 리타켓팅 장치(110)는 탑재된 영상 리타겟팅 프로그램(120)을 이용하여 영상의 비율을 확장 또는 축소한다. 영상 리타겟팅 프로그램(120)은 라인 카빙, 인페이팅 기술, 인공지능 모델을 이용하여 영상의 비율을 확장 또는 축소한다. The image retargeting apparatus 110 according to the present embodiment expands or reduces the ratio of the image by using the mounted image retargeting program 120 . The image retargeting program 120 expands or reduces the ratio of the image by using line carving, infating technology, and artificial intelligence model.

영상 리타켓팅 장치(110)는 영상 리타겟팅 프로그램(120)을 이용하여 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하고, 에너지 맵(Energy Map)을 생성한 후 추출된 라인(Line)을 삽입한 이미지(I+)를 획득한 후 기 학습된 인공지능 모델에 이용하여 영상 비율을 확장한다.The image retargeting device 110 uses the image retargeting program 120 to set a partial region of the input image I as a preservation mask (M), and after generating an energy map (Energy Map) After acquiring the image (I + ) with the extracted line inserted, the image ratio is extended by using the pre-trained artificial intelligence model.

영상 리타켓팅 장치(110)는 영상 리타겟팅 프로그램(120)을 이용하여 정답 이미지(IR)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하고, 에너지 맵(Energy Map)을 생성한 후 추출된 라인(Line)을 삭제한 이미지(I-)를 획득한 후 기 학습된 인공지능 모델에 이용하여 영상 비율을 축소한다.The image retargeting device 110 uses the image retargeting program 120 to set a partial area of the correct image I R as a preservation mask (M), and generate an energy map (Energy Map). After obtaining the image (I - ) from which the extracted line is deleted, the image ratio is reduced by using the pre-trained artificial intelligence model.

영상 리타켓팅 장치(110)는 영상 리타겟팅 프로그램(120)을 탑재하는 사용자 단말기 또는 응용 서버, 서비스 서버, 서버 단말기일 수 있다. The image retargeting device 110 may be a user terminal or an application server, a service server, or a server terminal on which the image retargeting program 120 is mounted.

영상 리타켓팅 장치(110)는 각기 (ⅰ) 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, (ⅱ) 영상 비율을 확장하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, (ⅲ) 영상 리타겟팅 프로그램(120)을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다. 적어도 일 실시예에 따르면, 메모리는 램(Random Access Memory: RAM), 롬(Read Only Memory: ROM), 플래시 메모리, 광 디스크, 자기 디스크, 솔리드 스테이트 디스크(Solid State Disk: SSD) 등의 컴퓨터로 판독 가능한 기록/저장매체일 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 명세서에 기재된 동작과 기능을 하나 이상 선택적으로 수행하도록 프로그램될 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 전체 또는 부분적으로 특정한 구성의 주문형반도체(Application Specific Integrated Circuit: ASIC) 등의 하드웨어로써 구현될 수 있다.The image retargeting device 110 is each (i) a communication device such as a communication modem for performing communication with various devices or wired and wireless communication networks, (ii) a memory for storing various programs and data for expanding the image ratio, ( iii) It may refer to various devices including a microprocessor for executing and controlling the image retargeting program 120 . According to at least one embodiment, the memory is a computer such as random access memory (RAM), read only memory (ROM), flash memory, optical disk, magnetic disk, solid state disk (SSD), etc. It may be a readable recording/storage medium. According to at least one embodiment, a microprocessor may be programmed to selectively perform one or more of the operations and functions described herein. According to at least one embodiment, the microprocessor may be fully or partially implemented as hardware such as an Application Specific Integrated Circuit (ASIC) of a specific configuration.

일반적으로 학습에 필요한 데이터 셋을 생성하는 과정에서, 라인(Line)을 만든 다음에 일반적인 인페이딩 기술로 라인을 채우는 경우, 라인에 채워지는 영상의 통계적인 특성이 다르기 때문에, 영상이 이질감을 갖게 된다. 예컨대, 사람의 얼굴이 좌우로 늘어난 경우, 데이터 셋 자체를 해당 환경에 맞게 만들어야 한다.In general, in the process of creating a data set required for learning, if a line is created and then filled with a general infading technique, the image has a sense of heterogeneity because the statistical characteristics of the image filled in the line are different. . For example, when a person's face is stretched from side to side, the data set itself needs to be adapted to the environment.

따라서, 본 실시예에 따른 영상 리타겟팅 프로그램(120)은 기계 학습을 기반으로 보존하고자 하는 영역에 보존 마스크(M)를 설정한 후 보존 마스크 영역을 제외한 나머지 영역에서 라인을 찾는다. 이후, 영상 리타겟팅 프로그램(120)은 라인을 제거하면 축소 영상을 만들 수 있으며, 정답 영상(IR)에서 축소 영상을 만드는 과정에서 보존 마스크(M)가 설정될 영역을 기계 학습으로 찾을 수 있다. 영상 리타겟팅 프로그램(120)은 보존 마스크(M)가 설정될 영역을 찾은 다음에 라인을 제거하여 데이터 셋(입력 이미지(I), 정답 이미지(IR))을 만들 수 있다.Therefore, the image retargeting program 120 according to the present embodiment sets the preservation mask M in the region to be preserved based on machine learning, and then finds a line in the remaining region except for the preservation mask region. Thereafter, the image retargeting program 120 may create a reduced image by removing the line, and in the process of creating a reduced image from the correct answer image I R , the region in which the preservation mask M will be set may be found by machine learning. . The image retargeting program 120 may create a data set (input image I, correct answer image I R ) by removing the line after finding the region where the preservation mask M is to be set.

영상 리타겟팅 프로그램(120)은 라인 카빙과 인페이팅 기술을 활용하여 영상의 비율을 확장한다. 영상 리타겟팅 프로그램(120)은 기계 학습 기술 대비 아티팩트가 적고 일반화 성능이 뛰어난 라인 카빙 기술을 이용하여 영상 비율을 확장하고, 확장된 라인을 인페인팅 기술을 통해 채운다.The image retargeting program 120 expands the ratio of the image by using line carving and inpainting technology. The image retargeting program 120 expands the image ratio by using line carving technology, which has fewer artifacts and excellent generalization performance compared to machine learning technology, and fills the extended lines through inpainting technology.

영상 리타겟팅 프로그램(120)은 입력 이미지(I)에서 보존 마스크(M)의 영역을 보존하면서 라인 삽입 이미지(I+)를 획득하고, 정답 이미지(IR)에서 보존 마스크(M)의 영역을 보존하면서 라인 삭제 이미지(I-)를 획득할 수 있다. 영상 리타겟팅 프로그램(120)은 라인 삽입 이미지(I+)를 생성할 때, 인페이팅(Inpainting) 기법을 이용할 수 있다. The image retargeting program 120 acquires the line insertion image (I + ) while preserving the area of the preservation mask (M) in the input image (I), and the area of the preservation mask (M) in the correct answer image ( IR ) A line deletion image (I ) can be acquired while preserving. The image retargeting program 120 may use an inpainting technique when generating the line inserted image I + .

따라서, 학습에 필요한 데이터셋을 만들 때, 정답 이미지(IR)가 존재하면 라인 삭제 이미지(I-), 라인 삽입 이미지(I+)를 쌍으로 학습 데이터에 이용할 수 있다. 여기서, 정답 이미지(IR)는 학습에 필요한 이미지를 의미한다.Therefore, when creating a dataset required for learning, if a correct answer image ( IR ) exists, the line deletion image (I - ) and the line insertion image (I + ) can be used as a pair for the training data. Here, the correct answer image I R means an image required for learning.

영상 리타겟팅 프로그램(120)은 학습 데이터를 만들 때는 정답 이미지(IR)(오리지널 영상)로부터 라인을 제거한 영상 라인 삭제 이미지(I-)를 만든 후 입력 영상(I), 영상 비율이 확장된 리타겟 이미지(I^ R)와 함께 학습에 이용한다. 영상 리타겟팅 프로그램(120)은 라인 삽입 이미지(I+)를 CNN에 입력하여 정답 이미지(IR)를 만든다. When creating training data, the image retargeting program 120 creates an image line deletion image (I - ) in which lines are removed from the correct answer image (I R ) (original image), and then the input image (I), the image ratio is expanded It is used for learning together with the target image (I ^ R ). The image retargeting program 120 inputs the line-inserted image (I + ) to the CNN to create the correct answer image ( IR ).

영상 리타겟팅 프로그램(120)은 학습 데이터를 기초로 늘려야 하는 입력 영상(I)이 입력되면, 영상 비율이 확장된 리타겟 이미지(I^ R)를 만든다. 영상 리타겟팅 프로그램(120)은 인공지능 모델을 학습시킬 때, 라인 삭제 이미지(I-), 정답 이미지(IR)를 입력한다. 영상 리타겟팅 프로그램(120)은 라인 삽입 이미지(I+)와 라인 삭제 이미지(I-)를 쌍으로 입력받아 학습하여 인공지능 모델을 학습한다. The image retargeting program 120 creates a retargeting image (I ^ R ) with an expanded image ratio when an input image (I) to be increased based on the learning data is input. Video retargeting program 120 when learning artificial intelligence model, delete the line image (I -) enter, answer the image (I R). The image retargeting program 120 learns the artificial intelligence model by receiving and learning the line inserted image (I + ) and the line deleted image (I - ) as a pair.

도 2a,2b,2c는 본 실시예에 따른 영상 리타겟팅 장치 내에 탑재되는 영상 리타겟팅 프로그램을 개략적으로 나타낸 블럭 구성도이다.2A, 2B, and 2C are block diagrams schematically illustrating an image retargeting program mounted in an image retargeting apparatus according to the present embodiment.

본 실시예에 따른 영상 리타겟팅 프로그램(120)은 입력부(210), 마스크 설정부(220), 에너지맵 생성부(230), 라인 추출부(240), 라인 삽입부(252), 라인 삭제부(254), 영상 비율 확장부(262), 영상 비율 축소부(264), 학습부(270)를 포함한다. 영상 리타겟팅 프로그램(120)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The image retargeting program 120 according to the present embodiment includes an input unit 210 , a mask setting unit 220 , an energy map generation unit 230 , a line extraction unit 240 , a line insertion unit 252 , and a line deletion unit 254 , an image ratio extension unit 262 , an image ratio reduction unit 264 , and a learning unit 270 . Components included in the image retargeting program 120 are not necessarily limited thereto.

영상 리타겟팅 프로그램(120)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the image retargeting program 120 may be connected to a communication path that connects a software module or a hardware module inside the device to operate organically with each other. These components communicate using one or more communication buses or signal lines.

도 2에 도시된 영상 리타겟팅 프로그램(120)의 각 구성요소는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 소프트웨어적인 모듈, 하드웨어적인 모듈 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.Each component of the image retargeting program 120 shown in FIG. 2 means a unit for processing at least one function or operation, and may be implemented as a software module, a hardware module, or a combination of software and hardware.

입력부(210)는 입력 이미지(Input Image)(I)를 입력받는다. 입력부(210)는 정답 이미지(IR)를 입력받는다.The input unit 210 receives an input image (I). The input unit 210 receives the correct answer image I R .

마스크 설정부(220)는 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정한다. 마스크 설정부(220)는 입력 이미지(I)에 대해 인스턴스 세그먼트(Instance Segmentation)을 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency Map)와 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 보전 마스크(M)를 설정한다.The mask setting unit 220 sets a partial region of the input image I as a Preservation Mask (M). The mask setting unit 220 performs instance segmentation on the input image I, and combines the results of performing the instance segmentation with the score given to each segmentation area (Saliency Map) for an important area. Set the maintenance mask (M) where it is determined as .

마스크 설정부(220)는 정답 이미지(IR)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정한다. 마스크 설정부(220)는 정답 이미지(IR)에 대한 인스턴스 세그멘테이션(Instance Segmentation) 또는 오브젝트 디텍션(object detection)을 샐리언시 맵(Saliency Map)과 결합하는 방식을 이용하여 보존 마스크(M)를 설정한다. 마스크 설정부(220)는 정답 이미지(IR)에 대한 인스턴스 세그먼트(Instance Segmentation)를 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency map)와 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 보전 마스크(M)를 설정한다.A mask setting section 220 sets a partial region of the correct image (I R) to preserve the mask (Mask Preservation) (M). A mask setting section 220 using a scheme that combines the correct image (I R) instance segmentation (Instance Segmentation) or object detection (object detection) frozen when map (Saliency Map) Sally to about the preserve mask (M) set A mask setting section 220 may correct the image (I R) instance for the segment (Instance Segmentation) perform, and combining the results of the score (Saliency map) and instances segment (Instance Segmentation) assigned to each segmentation area relevant A preservation mask (M) is set at a place determined as an area.

에너지맵 생성부(230)는 입력 이미지(I)로부터 보존 마스크(M)를 제외한 영역에 대한 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성한다. 에너지맵 생성부(230)는 정답 이미지(IR)로부터 보존 마스크(M)를 제외한 영역에 대해 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성한다.The energy map generator 230 calculates the importance of all pixels in the region except for the preservation mask M from the input image I, and generates an energy map composed of the importance of each pixel. do. Energy map generation unit 230 may correct the image (I R), calculate the importance, and the importance of energy map (Energy Map), consisting of each pixel for all the pixels (Pixel) for an area other than the preservation mask (M) from the create

라인 추출부(240)는 입력 이미지(I)에 대한 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출한다. 라인 추출부(240)는 정답 이미지(IR)에 대한 에너지 맵 내의 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출한다.The line extractor 240 searches for and extracts a line formed by connecting pixels of relatively low importance in the energy map for the input image I. Line extracting section 240 extracts the search line (Line) made of a relative importance is attached to a lower pixel in the energy map of the correct images (I R).

라인 삽입부(252)는 입력 이미지(I) 내의 보존 마스크(M)의 영역을 보존하면서 라인 삽입 이미지(I+)를 획득한다. 라인 삭제부(254)는 정답 이미지(IR) 내의 보존 마스크(M)의 영역을 보존하면서 라인 삭제 이미지(I-)를 획득한다.The line inserter 252 acquires the line insert image I + while preserving the region of the preservation mask M in the input image I. The line deletion unit 254 acquires the line deletion image I - while preserving the area of the preservation mask M in the correct answer image I R .

영상 비율 확장부(262)는 미리 기계 학습 기반으로 학습된 인공지능 모델을 이용하여 라인 삽입 이미지(I+)를 영상 비율이 확장된 리타겟 이미지(I^ R)로 생성한다. 영상 비율 축소부(264)는 인공지능 모델을 이용하여 라인 삭제 이미지(I-)를 영상 비율이 축소된 리타겟 이미지로 생성한다. The image ratio extension unit 262 generates a line-inserted image (I + ) as a retarget image (I ^ R ) with an extended image ratio using an artificial intelligence model trained in advance based on machine learning. The image ratio reduction unit 264 generates a line deletion image (I - ) as a retarget image with a reduced image ratio using an artificial intelligence model.

학습부(270)는 입력 이미지(I) 내의 보존 마스크(M)의 영역을 보존하면서 라인을 삽입한 라인 삽입 이미지(I+)와 정답 이미지(IR) 내의 보존 마스크(M)의 영역을 보존하면서 라인을 삭제한 라인 삭제 이미지(I-)를 쌍으로 학습하여 인공지능 모델을 학습시킨다.The learning unit 270 preserves the area of the preservation mask M in the input image I while preserving the area of the preservation mask M in the line-inserted image I + and the correct answer image I R The artificial intelligence model is trained by pairwise learning the line deletion image (I - ) where the line has been deleted.

학습부(270)는 정답 이미지(IR) 내의 보존 마스크(M)의 영역을 보존하면서 라인을 삭제한 라인 삭제 이미지(I-)를 순차적으로 획득하면서 원래의 입력 이미지(I)를 생성하는 과정을 학습한다. 학습부(270)는 입력 이미지(I) 내의 보존 마스크(M)의 영역을 보존하면서 라인을 삽입한 라인 삽입 이미지(I+)를 순차적으로 획득하여 정답 이미지(IR)를 생성한다.Learning unit 270 is preserved line removed image (I -) delete lines, while preserving the areas of the mask (M) in the correct answer image (I R), generating an original input image (I) as obtained by a sequential to learn The learning unit 270 sequentially acquires line-inserted images (I + ) in which lines are inserted while preserving the area of the preservation mask (M) in the input image (I) to generate a correct answer image ( IR ).

도 3은 본 실시예에 따른 영상 비율을 확장 또는 축소하는 방식을 나타낸 도면이다.3 is a diagram illustrating a method of expanding or reducing an image ratio according to the present embodiment.

영상 리타겟팅 프로그램(120)은 입력 이미지(I)에 대한 세그멘테이션을 수행한다.The image retargeting program 120 performs segmentation on the input image I.

영상 리타겟팅 프로그램(120)은 각각의 세그멘테이션에 대한 점수(Saliency Map)를 산출한다. 이때, 영상 리타겟팅 프로그램(120)에서 인스턴스 세그먼트(객체로 사람이 존재하면, 사람마다 세그먼테이션)를 수행하여 각 세그먼트 영역마다 점수를 부여한다.The image retargeting program 120 calculates a score (Saliency Map) for each segmentation. At this time, the image retargeting program 120 performs an instance segment (if there is a person as an object, segmentation is performed for each person), a score is given to each segment area.

영상 리타겟팅 프로그램(120)은 각 세그먼트 영역마다 부여된 점수(Saliency map)와 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 보전 마스크(Preservation mask)(M)를 생성한다.The image retargeting program 120 generates a preservation mask (M) by combining the score (Saliency map) given to each segment area and the result of performing the instance segmentation (Instance Segmentation).

영상 리타겟팅 프로그램(120)은 입력 이미지(I)로부터 보존 마스크(M)를 설정할 영역을 예측한다. 영상 리타겟팅 프로그램(120)은 인스턴스 세그멘테이션 또는 오브젝트 디텍션을 샐리언시 맵과 결합하여 보존 마스크(M)를 설정할 영역을 예측할 수 있다.The image retargeting program 120 predicts a region to set the preservation mask (M) from the input image (I). The image retargeting program 120 may predict an area to set the preservation mask M by combining instance segmentation or object detection with a saliency map.

영상 리타겟팅 프로그램(120)은 중요한 영역을 판별하여 유지하기 위한 보존 마스크(M)를 생성한다. 즉, 영상 리타겟팅 프로그램(120)은 일반적인 심 카빙을 수행하는 것이 아니라 각 세그먼트 영역마다 부여된 점수(Saliency map)와 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 보전 마스크(M)를 설정한다.The image retargeting program 120 generates a preservation mask M for identifying and maintaining an important area. That is, the image retargeting program 120 does not perform general seam carving, but combines the score (Saliency map) given to each segment area and the result of performing the instance segmentation (Instance Segmentation) to determine the area as an important area. (M) is set.

일반적인 심 카빙 방식에도 마스크를 설정하나 본 실시예에서는 영상 리타겟팅 프로그램(120)이 보존 마스크(M)를 설정할 때, 보존 마스크(M) 영역을 세그먼테이션하여 점수를 부여하여, 의미 있는 영역만을 보존 마스크(M)로 설정한다. 세그먼테이션 영역 중 점수가 낮은 영역은 보존하지 않는다. 다시 말해, 일반적인 심 카빙 방식에서는 마스크를 만들 때 사람이 직접 영역 또는 개체를 선택하였으나, 본 실시예에서는 영상 리타겟팅 프로그램(120) 인공지능을 이용하여 영역 또는 객체를 자동으로 보존 마스크(M)로 설정한다.A mask is also set in the general seam carving method, but in this embodiment, when the image retargeting program 120 sets the preservation mask (M), the preservation mask (M) area is segmented to give a score, and only the meaningful area is the preservation mask (M). Areas with low scores among segmentation areas are not preserved. In other words, in the general seam carving method, a person directly selects an area or object when making a mask, but in this embodiment, the area or object is automatically converted into a preservation mask (M) using the image retargeting program 120 artificial intelligence. set

심 카빙 알고리즘은 사람이 관심을 가지지 않는 영역을 라인으로 찾은 다음에 라인으로 채우면서 영상을 확장시키는 방식이다. 에너지 맵은 각각의 픽셀값마다 점수값이 부여되고, 점수값을 맵 형태로 펼쳐진 것을 의미한다. 심 카빙 알고리즘은 점수값을 픽셀에서의 그래디언트 매그니튜드로 계산한다.The seam carving algorithm is a method of expanding the image by filling in the line with a line after finding an area that a person is not interested in. The energy map means that a score value is given to each pixel value, and the score value is spread out in the form of a map. The seam carving algorithm computes the score as the gradient magnitude in the pixel.

그래디언트 매그니튜드는 픽셀값을 기준으로 예컨대, 왼쪽에 있는 픽셀값과 차이와 위쪽에 있는 픽셀값의 차이값의 절대값의 합을 의미한다. 영상 내에서의 변화량이 큰 영역은 사람이 존재하는 영역은 변화량이 크기 때문에, 마스크를 씌우지 않아도, 라인을 피해나갈 수 있다.The gradient magnitude refers to the sum of, for example, the absolute value of the difference between the pixel value on the left and the difference between the pixel value on the left and the upper pixel value based on the pixel value. Since the area where there is a person has a large amount of change in the area with a large amount of change in the image, the line can be avoided even without a mask.

심 카빙 방식은 이미지를 연장할 때, 채워야하는 라인을 채우는 방식을 의미하며, 영상을 확장 또는 축소시킬 수 있다. 영상을 축소할 때는 라인을 찾은 다음 라인을 그대로 제거한다. 라인이 불필요하다고 판단하고, 라인을 찾아서 합치면서 줄여나간다. 영상을 확장할 때는 라인을 찾은 다음 라인을 2배로 확장한다. 라인을 확장한 다음에 적당한 값(보간값(interpolation))을 채워 넣는다.The seam carving method refers to a method of filling a line to be filled when extending an image, and may expand or reduce an image. When reducing the image, find the line and then remove the line as it is. It judges that the line is unnecessary, finds the line, and reduces it by merging it. When expanding the image, it finds a line and then expands the line twice. Expand the line and fill in the appropriate value (interpolation).

심 카빙 방식은 마스킹을 필요한 경우, 특정 영역에 마스크를 씌울 수 있다. 라인을 찾기 전에 에너지 맵을 구성하며, 에너지 맵은 그래디언트 매그니튜드로 계산한다. 예컨대, 붉은 마스크는 에너지를 최대값으로 만들게 되며, 보존할 영역에 씌워진 붉은 마스크는 라인을 피할 수 있다. 예컨대, 녹색 마스크는 에너지를 최소값으로 만들게 되며, 지워야할 영역에 씌워진 녹색 마스크는 라인을 지나게 된다.In the seam carving method, if masking is necessary, a mask may be applied to a specific area. Before finding a line, an energy map is constructed, and the energy map is calculated by gradient magnitude. For example, a red mask makes the energy maximum, and a red mask over the area to be preserved avoids the line. For example, the green mask minimizes energy, and the green mask over the area to be erased passes through the line.

일반적인 심 카빙 방식에서는 사람이 직접 마스킹했으나, 본 실시예에서는 사람이 관심을 갖는 영역을 선별하여 마스킹을 수행한다.In a general seam carving method, a person directly masked, but in this embodiment, an area of interest to the person is selected and masking is performed.

영상 리타겟팅 프로그램(120)은 입력 이미지(I)에서 보전 마스크(M)를 제외한 나머지에 대해서만 심 카빙(Seam Carving)을 수행하며, 보존 마스크(M)의 영역을 보존하면서 라인 삽입 이미지(I+)를 획득한다.The image retargeting program 120 performs seam carving only on the remainder of the input image (I) except for the preservation mask (M), and preserves the area of the preservation mask (M) while preserving the line insertion image (I + ). ) is obtained.

영상 리타겟팅 프로그램(120)은 입력 이미지(I)에서 심 카빙을 수행할 때, 예컨대, 8k 정답 이미지(IR)를 심 카빙하면서 줄여나가면서 에너지 맵을 순차적으로 생성한 후 정보 제거하면서 원래의 입력 이미지(I)를 만든 다음, 다시 입력 이미지(I)를 기반으로 정답 이미지(IR)을 만드는 과정을 학습한다.When performing a seam carving on the image retargeting program 120 is an input image (I), for example, 8k correct original and image (I R) a going and reduced while sim Carving removed after creating an energy map in sequence information made an input image (I), and then learn the process of creating an image of the correct answer (I R) is based on the re-input image (I).

즉, 영상 리타겟팅 프로그램(120)은 심 카빙을 역으로 수행한 결과값을 기반으로 다시 학습할 수 있다. 영상 리타겟팅 프로그램(120)은 확장된 원본 영역(정답 이미지(IR))을 역으로 심 카빙하여 축소된 이미지를 생성한다. 영상 리타겟팅 프로그램(120)은 축소된 이미지를 가지고 심 카빙하여 정답 이미지(IR)을 만드는 학습을 수행한다.That is, the image retargeting program 120 may learn again based on the result of performing the reverse seam carving. The image retargeting program 120 generates a reduced image by inversely seam carving the extended original region (the correct answer image I R ). Video retargeting program 120 has a reduced image seam carving to be done to make learning the correct answer image (I R).

영상 리타겟팅 프로그램(120)은 라인 삽입 이미지(I+)의 삽입된 라인을 마스크로 하여 영상 비율이 확장된 리타겟 이미지(I^ R)를 예측한다. 즉, 영상 리타겟팅 프로그램(120)은 심 카빙과 인페이팅 기술을 활용하여 영상의 비율을 확장한다.The image retargeting program 120 predicts the retarget image (I ^ R ) in which the image ratio is extended by using the inserted line of the line inserted image (I + ) as a mask. That is, the image retargeting program 120 expands the ratio of the image by using the seam carving and inpainting technology.

영상 리타겟팅 프로그램(120)은 학습을 수행하기 위해 정답 이미지(IR)로부터 보존 마스크(M)를 예측한다. 영상 리타겟팅 프로그램(120)은 보존 마스크(M)의 영역을 보존하면서 라인 삭제 이미지(I-)를 획득한다. 영상 리타겟팅 프로그램(120)은 라인 삭제 이미지(I-)와 리타겟 이미지(IR)을 쌍으로 하여 학습 데이터를 구성한다.Image retargeting program 120 predicts the preservation mask (M) from the correct image (I R) to perform the learning. The image retargeting program 120 acquires a line deletion image (I - ) while preserving the area of the preservation mask (M). The image retargeting program 120 configures the training data by pairing the line deletion image (I - ) and the retarget image ( IR ).

도 4는 본 실시예에 따른 영상 비율을 확장하는 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of extending an image ratio according to the present embodiment.

영상 리타겟팅 프로그램(120)은 입력 이미지(Input Image)(I)를 입력받는다(S410). 영상 리타겟팅 프로그램(120)은 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정한다(S420).The image retargeting program 120 receives an input image (I) (S410). The image retargeting program 120 sets a partial region of the input image I as a Preservation Mask (M) (S420).

단계 S420에서, 영상 리타겟팅 프로그램(120)은 입력 이미지(I)에 대해 인스턴스 세그먼트(Instance Segmentation)을 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency Map)와 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 보전 마스크(M)를 설정한다.In step S420, the image retargeting program 120 performs instance segmentation on the input image I, and performs an instance segmentation and a score given to each segmentation area (Saliency Map). Combining the results, a preservation mask (M) is set where it is determined as an important area.

영상 리타겟팅 프로그램(120)은 입력 이미지(I)로부터 보존 마스크(M)를 제외한 영역에 대한 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성한다(S430).The image retargeting program 120 calculates the importance of all pixels in the region except the preservation mask M from the input image I, and generates an energy map composed of the importance of each pixel. do (S430).

영상 리타겟팅 프로그램(120)은 입력 이미지(I)에 대한 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출한다(S440).The image retargeting program 120 searches for and extracts a line consisting of a connection of pixels of relatively low importance in the energy map for the input image I (S440).

영상 리타겟팅 프로그램(120)은 입력 이미지(I) 내의 보존 마스크(M)의 영역을 보존하면서 라인 삽입 이미지(I+)를 획득한다(S450). The image retargeting program 120 acquires the line insertion image (I + ) while preserving the area of the preservation mask (M) in the input image (I) (S450).

영상 리타겟팅 프로그램(120)은 미리 기계 학습 기반으로 학습된 인공지능 모델을 이용하여 라인 삽입 이미지(I+)를 영상 비율이 확장된 리타겟 이미지(I^ R)로 생성한다(S460). The image retargeting program 120 generates a line-inserted image (I + ) as a retarget image (I ^ R ) with an extended image ratio using an artificial intelligence model trained in advance based on machine learning (S460).

도 4에서는 단계 S410 내지 단계 S460을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.Although it is described that steps S410 to S460 are sequentially executed in FIG. 4 , the present invention is not limited thereto. In other words, since it may be applicable to changing and executing the steps described in FIG. 4 or executing one or more steps in parallel, FIG. 4 is not limited to a time-series order.

전술한 바와 같이 도 4에 기재된 본 실시예에 따른 영상 비율을 확장하는 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 영상 비율을 확장하는 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. As described above, the method of extending the image ratio according to the present embodiment illustrated in FIG. 4 may be implemented as a program and recorded in a computer-readable recording medium. The computer-readable recording medium in which the program for implementing the method of extending the image ratio according to the present embodiment is recorded includes all kinds of recording devices in which data readable by the computer system is stored.

도 5는 본 실시예에 따른 영상 비율을 축소하는 방법을 설명하기 위한 순서도이다.5 is a flowchart illustrating a method of reducing an image ratio according to the present embodiment.

영상 리타겟팅 프로그램(120)은 정답 이미지(IR)를 입력받는다(S510). 영상 리타겟팅 프로그램(120)은 정답 이미지(IR)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정한다(S520).The image retargeting program 120 receives the correct answer image I R (S510). Image retargeting program 120 sets a partial region of the correct image (I R) to preserve the mask (Mask Preservation) (M) (S520).

단계 S520에서, 영상 리타겟팅 프로그램(120)은 정답 이미지(IR)에 대한 인스턴스 세그멘테이션(Instance Segmentation) 또는 오브젝트 디텍션(object detection)을 샐리언시 맵(Saliency Map)과 결합하는 방식을 이용하여 보존 마스크(M)를 설정한다.In step S520, image retargeting program 120 is preserved by a method in combination with the correct answer image (I R) instance segmentation (Instance Segmentation) or object detection (object detection) frozen when map (Saliency Map) Sally to about Set the mask (M).

영상 리타겟팅 프로그램(120)은 정답 이미지(IR)에 대한 인스턴스 세그먼트(Instance Segmentation)을 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency map)와 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 보전 마스크(M)를 설정한다.Image retargeting program 120 is combining the result of performing the instance of the segment (Instance Segmentation) for a correct answer image (I R), and carry out the score (Saliency map) and instances segment (Instance Segmentation) assigned to each segmentation area A preservation mask (M) is set where it is determined as an important area.

영상 리타겟팅 프로그램(120)은 정답 이미지(IR)로부터 보존 마스크(M)를 제외한 영역에 대해 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성한다(S530).The image retargeting program 120 calculates the importance for all pixels in the area except the preservation mask M from the correct answer image I R , and generates an energy map composed of the importance of each pixel. generated (S530).

영상 리타겟팅 프로그램(120)은 정답 이미지(IR)에 대한 에너지 맵 내의 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출한다(S540).Image retargeting program 120 is extracted by searching the lines (Line) made of a relative importance is attached to a lower pixel in the energy map of the correct images (I R) (S540).

영상 리타겟팅 프로그램(120)은 정답 이미지(IR) 내의 보존 마스크(M)의 영역을 보존하면서 라인 삭제 이미지(I-)를 획득한다(S550). 영상 리타겟팅 프로그램(120)은 인공지능 모델을 이용하여 라인 삭제 이미지(I-)를 영상 비율이 축소된 리타겟 이미지로 생성한다(S560). The image retargeting program 120 acquires the line deletion image I - while preserving the area of the preservation mask M in the correct answer image I R (S550). The image retargeting program 120 generates a line deletion image (I - ) as a retargeting image with a reduced image ratio using an artificial intelligence model (S560).

도 5에서는 단계 S510 내지 단계 S560을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 5에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 5는 시계열적인 순서로 한정되는 것은 아니다.Although it is described that steps S510 to S560 are sequentially executed in FIG. 5 , it is not necessarily limited thereto. In other words, since it may be applicable to changing and executing the steps described in FIG. 5 or executing one or more steps in parallel, FIG. 5 is not limited to a chronological order.

전술한 바와 같이 도 5에 기재된 본 실시예에 따른 영상 비율을 축소하는 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 영상 비율을 축소하는 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. As described above, the method for reducing the image ratio according to the present embodiment illustrated in FIG. 5 may be implemented as a program and recorded in a computer-readable recording medium. The computer-readable recording medium in which the program for implementing the method of reducing the image ratio according to the present embodiment is recorded includes all kinds of recording devices in which data readable by the computer system is stored.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of the present embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present embodiment.

110: 영상 리타겟팅 장치
120: 영상 리타겟팅 프로그램
210: 입력부 220: 마스크 설정부
230: 에너지맵 생성부 240: 라인 추출부
252: 라인 삽입부 254: 라인 삭제부
262: 영상 비율 확장부 264: 영상 비율 축소부
270: 학습부
I : 입력 이미지(Input Image)
M: 보존 마스크(Preservation Mask)
I+: 라인 삽입 이미지(Seam Inserted Image)
I-: 라인 삭제 이미지(Seam Removed Image)
I^ R: 영상 비율이 확장된 리타겟 이미지((Predicted) Retargeted Image)
IR: 정답 이미지((Ground-Truth) Retargeted Image)
110: video retargeting device
120: video retargeting program
210: input unit 220: mask setting unit
230: energy map generation unit 240: line extraction unit
252: line insertion unit 254: line deletion unit
262: image ratio expansion unit 264: image ratio reduction unit
270: study unit
I : Input Image
M: Preservation Mask
I + : Seam Inserted Image
I - : Seam Removed Image
I ^ R : Retargeted image with extended image ratio ((Predicted) Retargeted Image)
I R : (Ground-Truth) Retargeted Image

Claims (15)

입력 이미지(Input Image)(I)를 입력받는 과정;
상기 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하는 과정;
상기 입력 이미지(I)로부터 상기 보존 마스크(M)를 제외한 영역에 대한 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성하는 과정;
상기 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출하는 과정;
상기 보존 마스크(M)의 영역을 보존하면서 상기 라인 삽입 이미지(I+)를 획득하는 과정;
상기 라인 삽입 이미지(I+)를 미리 기계 학습 기반으로 학습된 인공지능 모델을 이용하여 영상 비율이 확장된 리타겟 이미지(I^ R)로 생성하는 과정;
을 포함하는 것을 특징으로 하는 영상 리타겟팅 방법.
a process of receiving an input image (I);
setting a partial region of the input image (I) as a Preservation Mask (M);
calculating an importance for all pixels in an area except for the preservation mask M from the input image I, and generating an energy map composed of the importance of each pixel;
a process of searching for and extracting a line composed of a connection of pixels of relatively low importance in the energy map;
acquiring the line insertion image (I + ) while preserving the area of the preservation mask (M);
generating the line-inserted image (I + ) as a retarget image (I ^ R ) with an extended image ratio using an artificial intelligence model trained in advance based on machine learning;
Image retargeting method comprising a.
제1항에 있어서,
상기 보존 마스크(M)로 설정하는 과정은,
상기 입력 이미지(I)에 대해 인스턴스 세그먼트(Instance Segmentation)을 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency map)와 상기 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 상기 보전 마스크(M)를 설정하는 것을 특징으로 하는 영상 리타겟팅 방법.
According to claim 1,
The process of setting the preservation mask (M) is,
Instance segmentation is performed on the input image (I), and a score given to each segmentation area (Saliency map) and a result of performing the instance segmentation are combined to determine an important area. Image retargeting method, characterized in that setting the preservation mask (M).
제1항에 있어서,
정답 이미지(IR)를 입력받는 과정;
상기 정답 이미지(IR)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하는 과정;
상기 정답 이미지(IR)로부터 상기 보존 마스크(M)를 제외한 영역에 대해 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성하는 과정;
상기 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출하는 과정;
상기 보존 마스크(M)의 영역을 보존하면서 상기 라인 삭제 이미지(I-)를 획득하는 과정;
상기 인공지능 모델을 이용하여 상기 라인 삭제 이미지(I-)를 영상 비율이 축소된 리타겟 이미지로 생성하는 과정
을 추가로 포함하는 것을 특징으로 하는 영상 리타겟팅 방법.
According to claim 1,
The process of receiving the correct answer image (I R );
The process of setting a partial area of the correct images (I R) to the preservation mask (Preservation Mask) (M);
calculating the importance for all pixels in the area except the preservation mask M from the correct answer image I R and generating an energy map composed of the importance of each pixel;
a process of searching for and extracting a line composed of a connection of pixels of relatively low importance in the energy map;
acquiring the line deletion image (I - ) while preserving the area of the preservation mask (M);
The process of generating the line deletion image (I - ) as a retarget image with reduced image ratio using the artificial intelligence model
Image retargeting method, characterized in that it further comprises.
제3항에 있어서,
상기 입력 이미지(I) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삽입한 상기 라인 삽입 이미지(I+)와 상기 정답 이미지(IR) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삭제한 상기 라인 삭제 이미지(I-)를 쌍으로 학습하여 상기 인공지능 모델을 학습되도록 하는 과정;
를 추가로 포함하는 것을 특징으로 하는 영상 리타겟팅 방법.
4. The method of claim 3,
While preserving the area of the preservation mask M in the input image I, while preserving the area of the preservation mask M in the line-inserted image I + and the correct answer image I R A process of learning the artificial intelligence model by learning the line deleted image (I − ) from which the line has been deleted in pairs;
Image retargeting method, characterized in that it further comprises.
제4항에 있어서,
상기 인공지능 모델을 학습하도록 하는 과정은,
상기 정답 이미지(IR) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삭제한 상기 라인 삭제 이미지(I-)를 순차적으로 획득하면서 상기 입력 이미지(I)를 생성하는 과정을 학습하고,
상기 입력 이미지(I) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삽입한 상기 라인 삽입 이미지(I+)를 순차적으로 획득하여 상기 정답 이미지를 생성하는 과정을 학습하는 것을 특징으로 하는 영상 리타겟팅 방법.
5. The method of claim 4,
The process of learning the artificial intelligence model is,
The correct image the preservation mask (M) the line removes the image (I -), while preserving the area, delete the line in the (I R) and obtaining in sequence, and learning the step of generating the input image (I),
An image characterized in that learning the process of generating the correct answer image by sequentially acquiring the line-inserted image (I + ) in which lines are inserted while preserving the area of the preservation mask (M) in the input image (I) How to retarget.
제3항에 있어서,
상기 보존 마스크(M)로 설정하는 과정은
상기 정답 이미지(IR)에 대한 인스턴스 세그멘테이션(Instance Segmentation) 또는 오브젝트 디텍션(object detection)을 샐리언시 맵(Saliency Map)과 결합하는 방식을 이용하는 것을 특징으로 하는 영상 리타겟팅 방법.
4. The method of claim 3,
The process of setting the preservation mask (M) is
Image retargeting method characterized by using the method in combination with the correct images (I R) instance segmentation (Segmentation Instance) or object detection (object detection) when unloading map (Map Saliency) Sally to about.
제6항에 있어서,
상기 보존 마스크(M)로 설정하는 과정은,
상기 정답 이미지(IR)에 대한 상기 인스턴스 세그먼트(Instance Segmentation)를 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency map)와 상기 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 상기 보전 마스크(M)를 설정하는 것을 특징으로 하는 영상 리타겟팅 방법.
7. The method of claim 6,
The process of setting the preservation mask (M) is,
The instance segmentation is performed on the correct image I R , and the result of performing the instance segmentation with the score given to each segmentation area is combined to determine an important area. Image retargeting method, characterized in that setting the preservation mask (M) in the place.
입력 이미지(Input Image)(I)를 입력받는 입력부;
상기 입력 이미지(I)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하는 마스크 설정부;
상기 입력 이미지(I)로부터 상기 보존 마스크(M)를 제외한 영역에 대한 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성하는 에너지맵 생성부;
상기 에너지 맵에서 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출하는 라인 추출부;
상기 보존 마스크(M)의 영역을 보존하면서 상기 라인 삽입 이미지(I+)를 획득하는 라인 삽입부;
미리 기계 학습 기반으로 학습된 인공지능 모델을 이용하여 상기 라인 삽입 이미지(I+)를 영상 비율이 확장된 리타겟 이미지(I^ R)로 생성하는 영상 비율 확장부;
를 포함하는 것을 특징으로 하는 영상 리타겟팅 장치.
an input unit for receiving an input image (I);
a mask setting unit for setting a partial region of the input image (I) as a preservation mask (M);
an energy map generator for calculating the importance of all pixels in an area except for the preservation mask M from the input image I, and generating an energy map composed of the importance of each pixel;
a line extracting unit that searches for and extracts a line formed by connecting pixels of relatively low importance in the energy map;
a line insertion unit which acquires the line insertion image (I + ) while preserving the area of the preservation mask (M);
an image ratio extension unit for generating the line-inserted image (I + ) as a retarget image (I ^ R ) with an extended image ratio using an artificial intelligence model learned in advance based on machine learning;
Image retargeting device comprising a.
제8항에 있어서,
상기 마스크 설정부는,
상기 입력 이미지(I)에 대해 인스턴스 세그먼트(Instance Segmentation)을 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency Map)와 상기 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 상기 보전 마스크(M)를 설정하는 것을 특징으로 하는 영상 리타겟팅 장치.
9. The method of claim 8,
The mask setting unit,
Instance Segmentation is performed on the input image I, and a score (Saliency Map) given to each segmentation area and a result of performing the Instance Segmentation are combined to determine an important area. Image retargeting device, characterized in that setting the preservation mask (M).
제8항에 있어서,
상기 입력부에서 정답 이미지(IR)를 입력받으면,
상기 마스크 설정부에서 상기 정답 이미지(IR)의 일부 영역을 보존 마스크(Preservation Mask)(M)로 설정하는 과정;
상기 에너지맵 생성부에서 상기 정답 이미지(IR)로부터 상기 보존 마스크(M)를 제외한 영역에 대해 모든 화소(Pixel)에 대해 중요도를 계산하고, 각 화소의 중요도로 구성된 에너지 맵(Energy Map)을 생성하고
상기 라인추출부에서 상기 에너지 맵 내의 상대적으로 중요도가 낮은 화소의 연결로 이루어지는 라인(Line)을 탐색하여 추출하는 것을 특징으로 하는 영상 리타겟팅 장치.
9. The method of claim 8,
When the correct answer image (I R ) is input from the input unit,
From the mask setting unit process of setting a partial region of the correct image (I R) to the preservation mask (Preservation Mask) (M);
Wherein the correct answer image (I R) Energy Map (Energy Map) calculates the priority for all the pixels (Pixel) for the region excluding the preservation mask (M) and consisting of the importance of each pixel from the energy map generator for create and
An image retargeting apparatus, characterized in that the line extractor searches for and extracts a line consisting of a connection of pixels of relatively low importance in the energy map.
제10항에 있어서,
상기 보존 마스크(M)의 영역을 보존하면서 상기 라인 삭제 이미지(I-)를 획득하는 라인 삭제부;
상기 인공지능 모델을 이용하여 상기 라인 삭제 이미지(I-)를 영상 비율이 축소된 리타겟 이미지로 생성하는 영상 비율 축소부
를 추가로 포함하는 것을 특징으로 하는 영상 리타겟팅 장치.
11. The method of claim 10,
a line erasing unit for acquiring the line erasing image (I - ) while preserving the area of the preserving mask (M);
Image ratio reduction unit for generating the line deletion image (I - ) as a retarget image with reduced image ratio using the artificial intelligence model
Image retargeting device, characterized in that it further comprises.
제11항에 있어서,
상기 입력 이미지(I) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삽입한 상기 라인 삽입 이미지(I+)와 상기 정답 이미지(IR) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삭제한 상기 라인 삭제 이미지(I-)를 쌍으로 학습하여 상기 인공지능 모델을 학습하도록 하는 학습부
를 추가로 포함하는 것을 특징으로 하는 영상 리타겟팅 장치.
12. The method of claim 11,
While preserving the area of the preservation mask M in the input image I, while preserving the area of the preservation mask M in the line-inserted image I + and the correct answer image I R A learning unit that learns the artificial intelligence model by learning the line deleted image (I - ) from which the line has been deleted in pairs
Image retargeting device, characterized in that it further comprises.
제12항에 있어서,
상기 학습부는,
상기 정답 이미지(IR) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삭제한 상기 라인 삭제 이미지(I-)를 순차적으로 획득하면서 원래의 상기 입력 이미지(I)를 생성하는 과정을 학습하고,
상기 입력 이미지(I) 내의 상기 보존 마스크(M)의 영역을 보존하면서 라인을 삽입한 상기 라인 삽입 이미지(I+)를 순차적으로 획득하여 상기 정답 이미지(IR)을 생성하는 과정을 학습하는 것을 특징으로 하는 영상 리타겟팅 장치.
13. The method of claim 12,
The learning unit,
Learning the process of generating the original of the input image (I) and obtained by sequentially - the correct image (I R) the preservation mask (M) the line removes the image (I), while preserving the area, delete the line in and,
To obtain the line insert images (I +), insert the lines, while preserving the portion of the retention mask (M) in the input image (I) in order to study the process of generating the correct image (I R) A video retargeting device characterized by.
제12항에 있어서,
상기 마스크 설정부는,
상기 정답 이미지(IR)에 대한 인스턴스 세그멘테이션(Instance Segmentation) 또는 오브젝트 디텍션(object detection)을 샐리언시 맵(Saliency Map)과 결합하는 방식을 이용하여 상기 보존 마스크(M)를 설정하는 것을 특징으로 하는 영상 리타겟팅 장치.
13. The method of claim 12,
The mask setting unit,
Characterized in that for setting the preservation mask (M) by using a method in combination with the correct images (I R) instance segmentation (Instance Segmentation) or object detection (object detection) frozen when map (Saliency Map) Sally to about video retargeting device.
제13항에 있어서,
상기 마스크 설정부는,
상기 정답 이미지(IR)에 대한 상기 인스턴스 세그먼트(Instance Segmentation)을 수행하고, 각 세그멘테이션 영역마다 부여된 점수(Saliency map)와 상기 인스턴스 세그먼트(Instance Segmentation)를 수행한 결과를 합쳐서 중요한 영역으로 판별되는 곳에 상기 보전 마스크(M)를 설정하는 것을 특징으로 하는 영상 리타겟팅 장치.
14. The method of claim 13,
The mask setting unit,
The instance segmentation is performed on the correct image I R , and the result of performing the instance segmentation with the score given to each segmentation area is combined to determine an important area. Image retargeting device, characterized in that setting the preservation mask (M) in the place.
KR1020190175874A 2019-12-27 2019-12-27 Method And Apparatus for Retargeting Video KR102443630B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190175874A KR102443630B1 (en) 2019-12-27 2019-12-27 Method And Apparatus for Retargeting Video
PCT/KR2020/018690 WO2021133002A2 (en) 2019-12-27 2020-12-18 Image retargeting method and apparatus for increasing or reducing image ratio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190175874A KR102443630B1 (en) 2019-12-27 2019-12-27 Method And Apparatus for Retargeting Video

Publications (2)

Publication Number Publication Date
KR20210083524A true KR20210083524A (en) 2021-07-07
KR102443630B1 KR102443630B1 (en) 2022-09-15

Family

ID=76573202

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190175874A KR102443630B1 (en) 2019-12-27 2019-12-27 Method And Apparatus for Retargeting Video

Country Status (2)

Country Link
KR (1) KR102443630B1 (en)
WO (1) WO2021133002A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492121B1 (en) * 2022-05-25 2023-01-26 경북대학교 산학협력단 Image classification method using data augmentation technology and computing device for performing the method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220020113A1 (en) * 2020-07-15 2022-01-20 Instasize, Inc. Image resizing using seam carving

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100074927A (en) * 2008-12-24 2010-07-02 포항공과대학교 산학협력단 Image retargeting method using importance diffusion, storage medium of storing program for executing the same and apparatus performing the same
KR20100102986A (en) * 2009-03-12 2010-09-27 고려대학교 산학협력단 Method and apparatus for resizing image
KR20110075110A (en) * 2009-12-28 2011-07-06 연세대학교 산학협력단 Image size converting apparatus
KR20110084593A (en) * 2010-01-18 2011-07-26 계명대학교 산학협력단 Compressing method of blood cell image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7747107B2 (en) * 2007-03-06 2010-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for retargeting images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100074927A (en) * 2008-12-24 2010-07-02 포항공과대학교 산학협력단 Image retargeting method using importance diffusion, storage medium of storing program for executing the same and apparatus performing the same
KR20100102986A (en) * 2009-03-12 2010-09-27 고려대학교 산학협력단 Method and apparatus for resizing image
KR20110075110A (en) * 2009-12-28 2011-07-06 연세대학교 산학협력단 Image size converting apparatus
KR20110084593A (en) * 2010-01-18 2011-07-26 계명대학교 산학협력단 Compressing method of blood cell image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Weimin Tan 등, Cycle-IR: Deep Cyclic Image Retargeting, arXiv:1905.03556v1(2019.05.09.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492121B1 (en) * 2022-05-25 2023-01-26 경북대학교 산학협력단 Image classification method using data augmentation technology and computing device for performing the method

Also Published As

Publication number Publication date
KR102443630B1 (en) 2022-09-15
WO2021133002A2 (en) 2021-07-01
WO2021133002A3 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
KR102349289B1 (en) Method And Apparatus for Providing Semantic Image Extrapolation
CN106254933B (en) Subtitle extraction method and device
KR102443630B1 (en) Method And Apparatus for Retargeting Video
CN110443140B (en) Text positioning method, device, computer equipment and storage medium
JP2008520152A (en) Detect and correct text in images
KR102142567B1 (en) Image composition apparatus using virtual chroma-key background, method and computer program
CN111275034B (en) Method, device, equipment and storage medium for extracting text region from image
CN111881904A (en) Blackboard writing recording method and system
CN115294055A (en) Image processing method, image processing device, electronic equipment and readable storage medium
JP2001076161A (en) Method and device for image processing and storage medium
KR102546631B1 (en) Apparatus for video data argumentation and method for the same
CN112418033B (en) Landslide slope surface segmentation recognition method based on mask rcnn neural network
JP7363383B2 (en) Analysis equipment, analysis program and analysis method
JP7363384B2 (en) Analysis equipment, analysis program and analysis method
KR102268027B1 (en) Method for single image dehazing based on deep learning, recording medium and device for performing the method
KR20160146458A (en) Apparatus and method for protecting privacy
CN116596895A (en) Substation equipment image defect identification method and system
CN114359739B (en) Target identification method and device
KR101544156B1 (en) Video retargeting method
KR101167644B1 (en) Seam carving method having improved response speed and apparatus thereof
KR20220102905A (en) Apparatus, method and computer program for generating facial video
Rathore et al. Deepbbox: accelerating precise ground truth generation for autonomous driving datasets
KR102492430B1 (en) Image processing apparatus and method for generating information beyond image area
KR102368677B1 (en) DALE: Dark Region-Aware Low-light Image Enhancement
US20230169708A1 (en) Image and video matting

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right