KR102340942B1 - Method for Image Processing and Display Device using the same - Google Patents
Method for Image Processing and Display Device using the same Download PDFInfo
- Publication number
- KR102340942B1 KR102340942B1 KR1020170154004A KR20170154004A KR102340942B1 KR 102340942 B1 KR102340942 B1 KR 102340942B1 KR 1020170154004 A KR1020170154004 A KR 1020170154004A KR 20170154004 A KR20170154004 A KR 20170154004A KR 102340942 B1 KR102340942 B1 KR 102340942B1
- Authority
- KR
- South Korea
- Prior art keywords
- grid
- image
- grid size
- size
- axis
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/005—Adapting incoming signals to the display format of the display terminal
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0442—Handling or displaying different aspect ratios, or changing the aspect ratio
Abstract
본 발명은 표시 패널, 구동부 및 제어부를 포함하는 표시장치를 제공한다. 표시 패널은 영상을 표시한다. 구동부는 표시 패널을 구동한다. 제어부는 구동부를 제어하고 외부로부터 입력된 영상을 영상 처리한다. 제어부는 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하고, 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하고, 그리드 맵과 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성한다.The present invention provides a display device including a display panel, a driving unit, and a control unit. The display panel displays an image. The driver drives the display panel. The control unit controls the driving unit and image-processes an image input from the outside. The control unit calculates the first grid size corresponding to each point of the input image according to the target resolution in consideration of the salience value corresponding to a visually important part in the input image, and considers the second grid size in consideration of temporal consistency , calculates the final grid size based on the first and second grid sizes, generates a grid map, and expresses and generates a reassigned image to be finally output based on the grid map and the input image.
Description
본 발명은 영상 처리 방법 및 이를 이용한 표시장치에 관한 것이다.The present invention relates to an image processing method and a display device using the same.
최근 전계발광표시장치(Light Emitting Display: LED), 액정표시장치(Liquid Crystal Display: LCD), 전계방출표시장치(Field Emission Display: FED), 전기영동표시장치(Electro Phoretic Display: EPD), 전기습윤표시장치(Electro-Wetting Display: EWD), 및 양자점표시장치(Quantum Dot display: QD) 등과 같은 표시장치의 사용이 증가하고 있다.Recently, Light Emitting Display (LED), Liquid Crystal Display (LCD), Field Emission Display (FED), Electrophoretic Display (EPD), Electrowetting The use of display devices such as an electro-wetting display (EWD) and a quantum dot display (QD) is increasing.
앞서 설명된 표시장치는 텔레비젼, 영상 플레이어, 개인용 컴퓨터(PC), 홈시어터, 스마트폰, 증강/가상 현실기기 등으로 구현될 수 있다. 표시장치는 앞의 예와 같이 다양한 형태로 구현됨은 물론이고 다양한 크기의 종횡비를 갖는다.The display device described above may be implemented as a TV, an image player, a personal computer (PC), a home theater, a smart phone, an augmented/virtual reality device, and the like. The display device is implemented in various forms as in the previous example and has aspect ratios of various sizes.
이처럼 표시장치는 다양한 형태로 제작되고 있지만, 정작 영상 콘텐츠는 특정 대상의 종횡비에 맞게 생성되고 있다. 예컨대, 영상 콘텐츠는 텔레비전 등과 같은 특정 대상에 적합한 영상 포맷의 한 형태로 표준화되어 있어 스마트폰에 구현시 원본 콘텐츠 대비 종횡비 차이가 발생하게 된다.Although display devices are produced in various forms as described above, video content is actually created to fit the aspect ratio of a specific target. For example, since image content is standardized as a form of an image format suitable for a specific target such as a television, when implemented in a smartphone, an aspect ratio difference occurs compared to the original content.
이 때문에, 특정 표시장치는 임의의 크기의 영상이 입력되면 장치의 환경에 맞는 영상을 구현하기 위해 원본의 형태를 유지하면 영상의 크기를 변경(resizing)하는 등의 영상 처리를 수행해야 한다. 영상의 크기를 변경할 때에는 입력된 영상의 종횡비를 재지정(retarget)하는 것은 물론이고 이때 원본의 형태를 최대한 자연스럽게 유지하기 위해 왜곡 등을 방지할 필요가 있다.For this reason, when an image of an arbitrary size is input, the specific display device needs to perform image processing such as resizing the image while maintaining the original shape in order to realize an image suitable for the environment of the device. When changing the size of an image, it is necessary to not only retarget the aspect ratio of the input image, but also to prevent distortion in order to keep the original shape as natural as possible.
상술한 배경기술의 문제점을 해결하기 위한 본 발명은 움직이는 물체와 정적인 배경이 공존하는 영상의 크기 변경(resizing) 시, 구조적 뒤틀림(Structure twist) 현상을 방지하면서 시간 일관성을 유지할 수 있도록 하는 것이다.The present invention for solving the problems of the above-mentioned background art is to prevent structural twist when resizing an image in which a moving object and a static background coexist, while maintaining temporal consistency.
상술한 과제 해결 수단으로 본 발명은 표시 패널, 구동부 및 제어부를 포함하는 표시장치를 제공한다. 표시 패널은 영상을 표시한다. 구동부는 표시 패널을 구동한다. 제어부는 구동부를 제어하고 외부로부터 입력된 영상을 영상 처리한다. 제어부는 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하고, 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하고, 그리드 맵과 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성한다.As a means for solving the above problems, the present invention provides a display device including a display panel, a driving unit, and a control unit. The display panel displays an image. The driver drives the display panel. The control unit controls the driving unit and image-processes an image input from the outside. The control unit calculates the first grid size corresponding to each point of the input image according to the target resolution in consideration of the salience value corresponding to a visually important part in the input image, and considers the second grid size in consideration of temporal consistency , calculates the final grid size based on the first and second grid sizes, generates a grid map, and expresses and generates a reassigned image to be finally output based on the grid map and the input image.
제어부는 시간 일관성을 고려하여 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감할 수 있다.The controller may subtract the position of the grid point of the current frame from the position of the grid point of the previous frame in order to calculate the second grid size in consideration of temporal consistency.
제어부는 제1그리드 크기와 제2그리드 크기를 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하여 각 축마다 최종 그리드 크기를 계산할 수 있다.The controller may calculate the final grid size for each axis by considering the ratio of the static background to the moving object of the first grid size and the second grid size.
제어부는 최종 그리드 크기를 계산하기 위해 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여할 수 있다.In order to calculate the final grid size, the controller may assign a weight to a pixel having a large difference between a luminance value of a previous frame and a luminance value of the current frame (a large change in image).
제어부는 제2그리드 크기는 하기의 수식에 의해 계산되고,In the control unit, the second grid size is calculated by the following formula,
위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k 는 k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타낼 수 있다.In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is A grid size in consideration of temporal coherence ( T ) on the k-th axis may be represented.
다른 측면에서 본 발명은 영상 처리 방법을 제공한다. 영상 처리 방법은 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 추정하는 단계; 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하는 단계; 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하는 단계; 및 그리드 맵과 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성하는 단계를 포함한다.In another aspect, the present invention provides an image processing method. The image processing method includes estimating a saliency value corresponding to a visually important part in an input image; calculating a first grid size corresponding to each point of the input image according to a target resolution in consideration of the saliency value and calculating a second grid size in consideration of temporal consistency; generating a grid map after calculating a final grid size based on the first and second grid sizes; and expressing and generating a redirected image to be finally output based on the grid map and the input image.
그리드 크기를 계산하는 단계는 시간 일관성을 고려하여 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감할 수 있다.The calculating of the grid size may include subtracting the position of the grid point of the current frame from the position of the grid point of the previous frame in order to calculate the second grid size in consideration of temporal consistency.
최종 그리드 크기를 계산하는 단계는 각 축에서 움직이는 물체와 정적인 배경의 비율을 고려하여 각각 계산된 제1그리드 크기값과 제2그리드 크기값을 선형 결합하여 최종 그리드 크기를 계산할 수 있다.In the calculating of the final grid size, the final grid size may be calculated by linearly combining the calculated first and second grid size values in consideration of the ratio of the moving object and the static background on each axis.
최종 그리드 크기를 계산하는 단계는 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여할 수 있다.In the step of calculating the final grid size, a weight may be given to pixels having a large difference between the luminance value of the previous frame and the luminance value of the current frame (image change is large).
제2그리드 크기는 하기의 수식에 의해 계산되고,The second grid size is calculated by the following formula,
위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k 는 k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타낼 수 있다.In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is A grid size in consideration of temporal coherence ( T ) on the k-th axis may be represented.
본 발명은 영상의 크기 변경(resizing) 시, 구조적 뒤틀림(Structure twist) 현상을 방지하면서 시간 일관성을 유지할 수 있는 영상 처리 방법을 제공하는 효과가 있다. 또한, 본 발명은 움직이는 물체와 정적인 배경이 공존하는 영상의 크기 변경(resizing) 시, 시간 일관성을 고려한 영상 처리 방법으로 원본의 형태를 최대한 자연스럽게 유지하면서 물체의 움직임에 따른 영상의 울렁거림을 최소화하고 고품질의 영상을 표시할 수 있는 표시장치를 제공하는 효과가 있다.The present invention has the effect of providing an image processing method capable of maintaining temporal consistency while preventing a structural twist phenomenon when resizing an image. In addition, the present invention is an image processing method in consideration of temporal coherence when resizing an image in which a moving object and a static background coexist, while maintaining the original shape as natural as possible while minimizing the noise of the image due to the movement of the object. And there is an effect of providing a display device capable of displaying a high-quality image.
도 1은 표시장치의 개략적인 블록도.
도 2는 서브 픽셀의 개략적인 회로 구성 예시도.
도 3은 표시 패널의 단면 예시도.
도 4는 영상 처리 방법에 따른 영상의 크기 변경예를 나타낸 도면.
도 5는 실험예에 따른 영상 재지정 방법을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 영상 재지정 방법을 설명하기 위한 도면.
도 7은 도 6의 정경 단계를 구체적으로 나타낸 도면.
도 8은 및 도 9는 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제1예시도들.
도 10은 및 도 11은 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제2예시도들.
도 12는 실험예의 방법과 실시예의 방법을 사용함에 따라 최종 출력 영상에서 나타나는 변화의 양상을 알기 쉽게 도시한 도면.1 is a schematic block diagram of a display device;
2 is a schematic circuit configuration diagram of a sub-pixel;
3 is a cross-sectional view of a display panel;
4 is a diagram illustrating an example of changing the size of an image according to an image processing method;
5 is a view for explaining an image reassignment method according to an experimental example;
6 is a view for explaining an image reassignment method according to an embodiment of the present invention.
Fig. 7 is a view showing the canon stage of Fig. 6 in detail;
8 and 9 are first exemplary views showing the results of comparative experiments between the Experimental Example and the Example in order to verify the effect of a method considering time consistency according to the Example.
10 and 11 are second exemplary views showing the results of comparative experiments between the Experimental Example and the Example in order to verify the effect of a method considering time consistency according to the Example.
12 is a diagram illustrating in an easy-to-understand manner the aspect of a change appearing in the final output image according to the method of the experimental example and the method of the embodiment.
이하, 본 발명의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 설명한다.Hereinafter, specific details for carrying out the present invention will be described with reference to the accompanying drawings.
본 발명에 표시장치는 전계발광표시장치(Light Emitting Display: LED), 액정표시장치(Liquid Crystal Display: LCD), 전계방출표시장치(Field Emission Display: FED), 전기영동표시장치(Electro Phoretic Display: EPD), 전기습윤표시장치(Electro-Wetting Display: EWD), 및 양자점표시장치(Quantum Dot display: QD) 등과 같은 표시장치 중 하나로 선택될 수 있으나 이에 한정되지 않는다.In the present invention, the display device is a light emitting display (LED), a liquid crystal display (LCD), a field emission display (FED), an electrophoretic display (Electro Phoretic Display: EPD), an electro-wetting display (EWD), and a quantum dot display (Quantum Dot display: QD) may be selected from among display devices such as, but not limited thereto.
도 1은 표시장치의 개략적인 블록도이고, 도 2는 서브 픽셀의 개략적인 회로 구성 예시도이며, 도 3은 표시 패널의 단면 예시도이고, 도 4는 영상 처리 방법에 따른 영상의 크기 변경예를 나타낸 도면이다.1 is a schematic block diagram of a display device, FIG. 2 is a schematic circuit configuration diagram of a sub-pixel, FIG. 3 is a cross-sectional diagram of a display panel, and FIG. 4 is an example of changing the size of an image according to an image processing method is a diagram showing
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 표시장치에는 영상 처리부(110), 타이밍 제어부(120), 데이터 구동부(130), 스캔 구동부(140) 및 표시 패널(150)이 포함된다. 영상 처리부(110) 및 타이밍 제어부(120)는 IC(Integrated Circuit) 형태로 통합되어 하나의 제어부로 구현될 수 있으나 이에 한정되지 않는다.1 , the display device according to an embodiment of the present invention includes an
영상 처리부(110)는 외부로부터 공급된 영상 데이터신호(DATA)에 대한 영상 처리를 하고 영상 처리된 데이터신호(DATA)와 더불어 데이터 인에이블 신호(DE) 등을 출력한다. 영상 처리부(110)는 데이터 인에이블 신호(DE) 외에도 수직 동기신호, 수평 동기신호 및 클럭신호 중 하나 이상을 출력할 수 있으나 이 신호들은 설명의 편의상 생략 도시한다.The
타이밍 제어부(120)는 영상 처리부(110)로부터 데이터 인에이블 신호(DE) 또는 수직 동기신호, 수평 동기신호 및 클럭신호 등을 포함하는 구동신호와 더불어 데이터신호(DATA)를 공급받는다. 타이밍 제어부(120)는 구동신호에 기초하여 스캔 구동부(140)의 동작 타이밍을 제어하기 위한 게이트 타이밍 제어신호(GDC)와 데이터 구동부(130)의 동작 타이밍을 제어하기 위한 데이터 타이밍 제어신호(DDC)를 출력한다.The
데이터 구동부(130)는 타이밍 제어부(120)로부터 공급된 데이터 타이밍 제어신호(DDC)에 응답하여 타이밍 제어부(120)로부터 공급되는 데이터신호(DATA)를 샘플링하고 래치하여 감마 기준전압으로 변환하여 출력한다. 데이터 구동부(130)는 데이터라인들(DL1 ~ DLn)을 통해 데이터신호(DATA)를 출력한다. 데이터 구동부(130)는 IC 형태로 형성될 수 있다.The
스캔 구동부(140)는 타이밍 제어부(120)로부터 공급된 게이트 타이밍 제어신호(GDC)에 응답하여 게이트전압의 레벨을 시프트시키면서 스캔신호를 출력한다. 스캔 구동부(140)는 스캔라인들(GL1 ~ GLm)을 통해 스캔신호를 출력한다. 스캔 구동부(140)는 IC 형태로 형성되거나 표시 패널(150)에 게이트인패널(Gate In Panel) 방식으로 형성된다.The
표시 패널(150)은 데이터 구동부(130) 및 스캔 구동부(140)로부터 공급된 데이터신호(DATA) 및 스캔신호에 대응하여 영상을 표시한다. 표시 패널(150)은 영상을 표시할 수 있도록 동작하는 서브 픽셀들(SP)을 포함한다. 서브 픽셀들(SP)은 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀을 포함하거나 백색 서브 픽셀, 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀을 포함한다. 표시 패널(150)은 서브 픽셀들(SP)에 포함된 픽셀회로(PC)의 구성에 따라 액정표시패널, 전계발광표시패널, 전기영동표시패널 등으로 구분될 수 있다.The
도 2에 도시된 바와 같이, 하나의 서브 픽셀(SP)에는 스캔 라인(GL1)과 데이터 라인(DL1)에 연결된 스위칭 트랜지스터(SW)와 스위칭 트랜지스터(SW)를 통해 공급된 스캔신호에 대응하여 공급된 데이터신호에 대응하여 동작하는 픽셀회로(PC)가 포함된다. 예컨대, 표시 패널이 전계발광표시패널로 선택된 경우, 서브 픽셀(SP)의 픽셀회로(PC)는 구동 트랜지스터, 스토리지 커패시터 및 유기 발광다이오드와 더불어 다양한 형태의 보상회로가 더 추가되도록 구성될 수 있다.As shown in FIG. 2 , one sub-pixel SP is supplied in response to a scan signal supplied through the switching transistor SW connected to the scan line GL1 and the data line DL1 and the switching transistor SW. A pixel circuit (PC) operating in response to the data signal is included. For example, when the display panel is selected as the electroluminescent display panel, the pixel circuit PC of the sub-pixel SP may be configured to further include various types of compensation circuits in addition to a driving transistor, a storage capacitor, and an organic light emitting diode.
도 3에 도시된 바와 같이, 표시 패널(150)은 표시영역(AA)과 비표시영역(NA)을 갖는 기판(또는 박막 트랜지스터 기판)(150a)과 보호필름(또는 보호기판)(150b)을 포함한다. 표시영역(AA)에는 도 2에서 설명된 회로를 기반으로 픽셀(P)이 형성된다. 표시영역(AA) 상에 배치된 픽셀(P)은 적색(R), 백색(W), 청색(B) 및 녹색(G)의 서브 픽셀을 포함한다. 적색(R), 백색(W), 청색(B) 및 녹색(G)의 서브 픽셀은 기판(150a) 상에 수평 또는 수직하게 배치될 수 있다. 그러나 앞서 설명된 서브 픽셀들의 배치 순서는 하나의 예시일 뿐 표시 패널(150)의 구현 방식에 따라 다양하게 변경될 수 있다. 그러나 픽셀(P)은 적색(R), 청색(B) 및 녹색(G)의 서브 픽셀만 포함할 수도 있다.As shown in FIG. 3 , the
앞서 설명된 표시장치는 텔레비젼, 영상 플레이어, 개인용 컴퓨터(PC), 홈시어터, 스마트폰, 증강/가상 현실기기 등으로 구현될 수 있다. 표시장치는 앞의 예와 같이 다양한 형태로 구현됨은 물론이고 다양한 크기의 종횡비를 갖는다.The display device described above may be implemented as a TV, an image player, a personal computer (PC), a home theater, a smart phone, an augmented/virtual reality device, and the like. The display device is implemented in various forms as in the previous example and has aspect ratios of various sizes.
이처럼 표시장치는 다양한 형태로 제작되고 있지만, 정작 영상 콘텐츠는 특정 대상의 종횡비에 맞게 생성되고 있다. 예컨대, 영상 콘텐츠는 텔레비전 등과 같은 특정 대상에 적합한 영상 포맷의 한 형태로 표준화되어 있어 홈시어터, 스마트폰, 증강/가상 현실기기 등에 구현시 원본 콘텐츠 대비 종횡비 차이가 발생하게 된다.Although display devices are produced in various forms as described above, video content is actually created to fit the aspect ratio of a specific target. For example, image content is standardized in a form of an image format suitable for a specific target such as a television, so that when implemented in a home theater, smart phone, augmented/virtual reality device, etc., an aspect ratio difference occurs compared to the original content.
이 때문에, 특정 표시장치는 임의의 크기의 영상이 입력되면 장치의 환경에 맞는 영상을 구현하기 위해 원본의 형태를 유지하면 영상의 크기를 변경(resizing)하는 등의 영상 처리를 수행해야 한다. 영상 처리는 영상 처리부나 타이밍 제어부 또는 영상 처리부와 타이밍 제어부의 연동에 의해 이루어질 수 있으나 이에 한정되지 않는다.For this reason, when an image of an arbitrary size is input, the specific display device needs to perform image processing such as resizing the image while maintaining the original shape in order to realize an image suitable for the environment of the device. The image processing may be performed by the image processing unit, the timing control unit, or the image processing unit and the timing control unit, but is not limited thereto.
도 4 (a)의 제1예시와 같이, 가로(16)*세로(9)의 크기로 입력된 입력 영상(Video input)은 가로(18)*세로(9)의 출력 영상(Video output)으로 영상의 크기가 변경될 수 있다. 도 4 (b)의 제2예시와 같이, 가로(18)*세로(9)의 크기로 입력된 입력 영상(Video input)은 가로(16)*세로(9)의 출력 영상(Video output)으로 영상의 크기가 변경될 수 있다.As in the first example of Fig. 4 (a), the input image input in the size of horizontal (16) * vertical (9) (Video input) is horizontal (18) * vertical (9) as an output image (Video output) The size of the image may be changed. As in the second example of FIG. 4 (b), the input image input in the size of horizontal (18) * vertical (9) is a horizontal (16) * vertical (9) output image (Video output) The size of the image may be changed.
도 4에서는 (a) 및 (b)와 같이 입력 영상(Video input)의 어느 한 부분(예와 같이 우측)만 크기를 변경하는 것을 일례로 하였지만, 이는 하나의 예시일 뿐 적어도 어느 한 부분에 해당하는 것으로 이해되어야 한다. 예를 들면, 입력 영상의 상, 하, 좌, 우 중 하나의 크기를 변경하거나 상하, 좌우 또는 상하좌우를 변경할 수도 있다.4, as shown in (a) and (b), changing the size of only one part (right side as in the example) of the video input is an example, but this is only an example and corresponds to at least one part should be understood as For example, the size of one of the top, bottom, left, and right of the input image may be changed, or the size of the input image may be changed up and down, left and right, or up and down, left and right.
이처럼, 영상의 크기를 변경할 때에는 입력된 영상의 종횡비를 재지정(retarget)하는 것은 물론이고 이때 원본의 형태를 최대한 자연스럽게 유지하기 위해 왜곡 등을 방지할 필요가 있다.As such, when changing the size of an image, it is necessary to not only retarget the aspect ratio of the input image, but also to prevent distortion in order to keep the original shape as natural as possible.
이하에서는 실험예에 따른 영상 재지정(video retargeting) 방식을 하나 선택하고 이의 문제점을 연구 및 고찰한 후 실험예로부터 예견 및 발생하고 있는 문제를 개선한 실시예를 설명한다.Hereinafter, after selecting one video retargeting method according to the experimental example and studying and considering its problems, an embodiment in which problems predicted and occurring from the experimental example are improved will be described.
<실험예><Experimental example>
도 5는 실험예에 따른 영상 재지정 방법을 설명하기 위한 도면이다.5 is a diagram for explaining an image reassignment method according to an experimental example.
도 5에 도시된 바와 같이, 실험예에 따른 영상 재지정 방법은 영상 입력 단계(S110), 입력된 영상에 대한 2차원 두드러짐 추정 단계(S120), 정경 단계(S130), 표현 단계(S140) 및 재지정 영상 출력 단계(S150)를 포함한다.As shown in Fig. 5, the image reassignment method according to the experimental example includes an image input step (S110), a two-dimensional prominence estimation step for the input image (S120), a scene step (S130), an expression step (S140), and and outputting the redirected image ( S150 ).
영상 입력 단계(S110)는 외부로부터 임의의 입력 영상(Video input)을 입력받는 단계이다.The video input step S110 is a step of receiving an arbitrary video input from the outside.
2차원 두드러짐 추정(2D saliency estimation) 단계(S120)는 입력 영상 내에서 시각적으로 중요한 부분(눈의 초점 또는 관심도 집중 영역 등으로 정의될 수 있음)을 추정하는 단계이다. 2차원 두드러짐은 각 행과 열의 중요성을 결정하기 위해 수평 및 수직의 1차원 두드러짐 프로파일로 구분되어 돌출된다.The 2D saliency estimation step S120 is a step of estimating a visually important part (which may be defined as a focus of an eye or an area of concentration of interest, etc.) in the input image. The two-dimensional salience is divided into horizontal and vertical one-dimensional salience profiles to determine the importance of each row and column and protrude.
2차원 두드러짐 추정 단계(S120)는 낮은 수준의 두드러짐 맵(low-level saliency map)을 사용하기 위해, 다운 샘플링 단계(S121), 쿼터니언 푸리에 변환 단계(S122) 및 가우시안 필터링 단계(S123)를 포함한다.The two-dimensional saliency estimation step S120 includes a downsampling step S121, a quaternion Fourier transform step S122, and a Gaussian filtering step S123 to use a low-level saliency map. .
다운 샘플링(Down sampling) 단계(S121)는 입력된 영상 내에서 데이터가 많은 쪽을 적게 추출하는 단계이다. 다운 샘플링 단계는 낮은 수준의 두드러짐 맵을 사용하기 위한 전처리 단계로 정의될 수 있다. 다운 샘플링을 하면 이후의 과정에서 수행되는 모든 계산 과정에서 발생할 수 있는 복잡도를 낮출 수 있다.The down sampling step S121 is a step of extracting less data from the input image. The downsampling step can be defined as a preprocessing step to use a low-level saliency map. Downsampling can reduce the complexity that may occur in all calculations performed in subsequent steps.
쿼터니언 푸리에 변환 두드러짐 추정(quaternion fourier transform; QFT saliency) 단계(S122)는 다운 샘플링된 영상 내에서 시각적으로 두드러진 부분을 추정할 수 있도록 영상 시퀀스의 위상 스펙트럼을 얻고 이로부터 추정 결과를 획득하는 단계이다.The quaternion fourier transform saliency estimation (QFT saliency) step S122 is a step of obtaining a phase spectrum of an image sequence and obtaining an estimation result therefrom so as to estimate a visually salient part within the down-sampled image.
예컨대, 움직임을 갖는 RGB 동영상 정보는 쿼터니언 재표현 (4 개의 성분을 갖는 복소수)으로 변환된 후 쿼터니언 푸리에 변환법(이하 QFT)에 따라 주파수 공간으로 변환된다. 주파수 영역에서의 위상 정보는 각 쿼터니온을 크기로 정규화되어 추출된다. 그 결과 두드러진 부분은 부드럽게 흐려진다.For example, RGB video information having motion is transformed into a quaternion representation (a complex number having four components) and then transformed into a frequency space according to a quaternion Fourier transform (hereinafter, QFT). Phase information in the frequency domain is extracted by normalizing each quaternion to a magnitude. As a result, prominent areas are gently blurred.
가우시안 필터링(Gaussian filtering) 단계(S123)는 추정 결과로 획득한 두드러진 부분에서 고주파 잡음을 제거하는 단계이다. 실험예에서는 고주파 잡음을 제거하기 위해 가우시안 필터링 방법을 사용하는 것을 일례로 하였으나 이에 한정되지 않는다. 또한, 필터링 단계는 경우에 따라 생략될 수도 있다.The Gaussian filtering step S123 is a step of removing high-frequency noise from a prominent portion obtained as a result of the estimation. In the experimental example, the Gaussian filtering method is used as an example to remove high-frequency noise, but the present invention is not limited thereto. Also, the filtering step may be omitted in some cases.
정경(Warping) 단계(S130)는 앞서 구한 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 그리드 크기(grid size)를 계산한 후 그리드 맵(grid map)을 생성하는 단계이다.The warping step (S130) is a step of calculating a grid size corresponding to each point of the input image according to the target resolution in consideration of the previously obtained saliency value, and then generating a grid map to be.
정경 단계(S130)는 각 축별로 그리드 크기를 계산하고 이들에 대해 동일한 크기의 그리드 크기를 부여하기 위해, 1차원 두드러짐 계산 단계(S131), 비선형 1차원 스케일 단계(S132), 필터링 단계(S133), 업 샘플링 단계(S134) 및 그리드 생성 단계(S135)를 포함한다.In the canon step (S130), a one-dimensional prominence calculation step (S131), a non-linear one-dimensional scale step (S132), and a filtering step (S133) are performed to calculate the grid size for each axis and to give a grid size of the same size to them. , including an up-sampling step (S134) and a grid generation step (S135).
1차원 두드러짐(1D saliency) 계산 단계(S131)는 수평 및 수직의 1차원 두드러짐 프로파일 각각에 대해 축별 그리드 크기를 계산하는 단계이다. 예컨대, 1차원 두드러짐을 계산할 때에는 수평 1차원 두드러짐 프로파일 및 수직 1차원 두드러짐 프로파일의 일정 영역을 각각 블록화하는 방식으로 일정 단위의 픽셀들을 기준으로 두드러짐 값을 계산(블록 단위 누적 계산)할 수 있으나 이에 한정되지 않는다.The 1D saliency calculation step S131 is a step of calculating the grid size for each axis for each of the horizontal and vertical 1D saliency profiles. For example, when calculating the 1D saliency, the saliency value may be calculated based on pixels of a predetermined unit (accumulated calculation in block units) in a manner that blocks predetermined areas of the horizontal 1D saliency profile and the vertical 1D salience profile, respectively, but limited to this. doesn't happen
비선형 1차원 스케일(Non-linear 1D scale) 단계(S132)는 시각적으로 두드러진 부분과 같이 중요한 영역의 종횡비를 유지하기 위해 수직 방향 및 수평 방향 모두에 대해 비선형적인 스케일 벡터를 계산하는 단계이다. 예컨대, 스케일 벡터 계산 시, 시각적으로 낮거나 없는 중요 영역을 축소할 경우 1 보다 낮은 스케일링 값을 가질 수 있고, 그 반대로 확대할 경우 1 보다 높은 스케일링 값을 가질 수 있다. 이때, 스케일링의 모든 요소의 합 벡터는 영상 재지정(video retargeting)을 고려하기 위해 요구된 목표 크기와 일치해야 한다.Non-linear 1D scale step S132 is a step of calculating a non-linear scale vector for both the vertical and horizontal directions in order to maintain the aspect ratio of an important area, such as a visually prominent part. For example, when a scale vector is calculated, when a visually low or no important area is reduced, a scaling value lower than 1 may be obtained, and vice versa, a scaling value higher than 1 may have a scaling value higher than 1. In this case, the sum vector of all elements of the scaling must match the target size required to consider video retargeting.
필터링(Filtering) 단계(S133)는 비선형 1차원 스케일 계산 후 포스트 필터를 적용하여 정규화를 직접 시행하는 단계이다. 입력 영상은 비선형 1차원 스케일 계산까지의 과정을 통해 두드러진 부분 안에서의 고주파 및 저주파 변동을 거치므로 출력 영상에 대한 시공간적 변동을 가져올 수 있다. 그러므로 포스트 필터를 적용하여 정규화를 직접 시행하면 시공간적 변동에 따른 문제를 해소할 수 있다.The filtering step ( S133 ) is a step of directly performing normalization by applying a post filter after calculating the nonlinear one-dimensional scale. Since the input image undergoes high-frequency and low-frequency fluctuations within the prominent part through the process up to the nonlinear one-dimensional scale calculation, spatiotemporal fluctuations in the output image can be brought about. Therefore, if normalization is directly performed by applying a post filter, the problem caused by spatiotemporal fluctuations can be solved.
예컨대, 필터링 단계(S133)에서는 고주파 성분을 없애기 위해 비인과적 유한 임펄스 응답(acausal finite impulse response; aFIR) 필터를 사용할 수 있고, 저주파 성분을 없애기 위해 무한 임펄스 응답(infinite impulse response; IIR) 필터를 사용할 수 있으나 이에 한정되지 않는다.For example, in the filtering step S133, a non-causal finite impulse response (aFIR) filter may be used to remove the high frequency component, and an infinite impulse response (IIR) filter may be used to remove the low frequency component. may be, but is not limited thereto.
업 샘플링(Up sampling) 단계(S134)는 입력된 영상 내에서 데이터가 적은 쪽을 더 많이 추출하는 단계이다. 앞서와 같은 과정을 통해 마련된 샘플링 그리드를 기반으로 실제 목표 해상도를 달성하기 위해서는 수평 및 수직 스케일링 벡터들을 선형적으로 업 샘플링한 후 다시 샘플링 그리드(resampling grid)를 생성해야 하므로, 이 단계를 거치게 된다.The up-sampling step S134 is a step of extracting more data from less data in the input image. In order to achieve the actual target resolution based on the sampling grid prepared through the above process, it is necessary to linearly upsample the horizontal and vertical scaling vectors and then generate a sampling grid again, so this step is performed.
그리드 생성(Grid generation) 단계(S135)는 다시 마련된 샘플링 그리드를 기반으로 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 그리드 크기(grid size)를 계산한 후 그리드 맵(grid map)을 생성하는 단계이다.In the grid generation step (S135), the grid size corresponding to each point of the input image is calculated according to the target resolution by considering the saliency value based on the re-prepared sampling grid, and then the grid map ( This is the step to create a grid map).
표현(Rendering) 단계(S140)는 이전 단계를 통해 생성된 그리드 맵과 입력 영상을 이용하여 최종적으로 출력할 재지정(retarget) 영상을 표현 및 생성하는 단계이다. 표현 단계(S140)는 타원 가중치 평균(elliptical weighted average; EWA splatting) 방식의 프레임워크(framework) 등을 기반으로 재지정(retarget) 영상을 만들 수 있다. 이때, EWA 프레임 워크는 순방향 매핑을 사용할 수 있고, 최대 해상도 입력 스트림 하에 영상을 다시 샘플링할 수도 있다.The rendering step ( S140 ) is a step of expressing and generating a retarget image to be finally output using the grid map and the input image generated through the previous step. The expression step S140 may create a retargeted image based on a framework of an elliptical weighted average (EWA splatting) method and the like. In this case, the EWA framework may use forward mapping and may resample an image under the maximum resolution input stream.
재지정 영상 출력(Retarget video output) 단계(S150)는 입력된 영상에 대하여 종횡비가 재지정된 재지정 영상을 출력하는 단계이다.The retarget video output step S150 is a step of outputting a retargeted image whose aspect ratio is redefined with respect to the input image.
실험예는 영상의 영역별 중요도를 계산하고, 이를 고려하여 목표로 하는 해상도에 맞게 입력 영상의 각 포인트의 그리드 크기(grid size)를 계산하고, 그리드 맵(grid map)을 생성하고 이를 이용하여 영상을 표현 및 생성하는 영상 재지정(video retargeting) 방식이다.The experimental example calculates the importance of each area of the image, calculates the grid size of each point of the input image according to the target resolution by taking this into account, generates a grid map, and uses this to calculate the grid size It is a video retargeting method that expresses and generates
실험예는 특히 축별로 그리드 크기를 계산 및 동일한 크기의 그리드 크기를 부여하여 입력 영상에서 같은 축 상에 있던 물체가 출력 영상에서 다른 축 상에 존재하는 구조적 뒤틀림(structure twist)과 같은 왜곡을 방지할 수 있는 이점이 있는 것으로 검토된다.In particular, the experimental example calculates the grid size for each axis and gives the grid size of the same size to prevent distortion such as structure twist in which an object on the same axis in the input image is on a different axis in the output image. It is considered to have potential advantages.
그러나 실험예는 움직이는 물체가 존재하는 영상에 적용하기 어려운 것으로 검토된다. 일례로, 움직이는 물체의 그리드 크기를 유지하는 것에 우선순위를 둘 경우, 정적인 배경의 그리드 크기가 물체의 움직임에 따라 달라진다. 다른 예로, 정적인 배경의 그리드 크기를 유지하는 것에 우선순위를 둘 경우, 물체의 이동에 따라 그리드 크기가 달라진다. 이처럼, 실험예는 하나의 축에 움직이는 물체와 정적인 배경이 동시에 존재하기 때문에 어느 한쪽에 우선순위를 둘 경우 다른 한쪽이 영향을 받게 되어 영상의 울렁거림 현상을 유발하기 때문이다.However, the experimental example is considered to be difficult to apply to an image in which a moving object exists. For example, if priority is given to maintaining the grid size of a moving object, the grid size of the static background changes according to the movement of the object. As another example, if priority is given to maintaining the grid size of the static background, the grid size changes according to the movement of the object. As such, in the experimental example, since a moving object and a static background exist on one axis at the same time, if one is given priority, the other will be affected, and this is because the sound of the image is caused.
<실시예><Example>
도 6은 본 발명의 실시예에 따른 영상 재지정 방법을 설명하기 위한 도면이고, 도 7은 도 6의 정경 단계를 구체적으로 나타낸 도면이다.6 is a diagram for explaining an image reassignment method according to an embodiment of the present invention, and FIG. 7 is a diagram specifically illustrating the scene stage of FIG. 6 .
도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 재지정 방법은 영상 입력 단계(S210), 입력된 영상에 대한 2차원 두드러짐 추정 단계(S220), 정경 단계(S230), 표현 단계(S240) 및 재지정 영상 출력 단계(S250)를 포함한다.As shown in FIG. 6 , the image reassignment method according to an embodiment of the present invention includes an image input step (S210), a two-dimensional prominence estimation step (S220) for the input image, a scene step (S230), an expression step ( S240) and a redirected image output step (S250).
영상 입력 단계(S210)는 외부로부터 임의의 입력 영상(Video input)을 입력받는 단계이다.The video input step S210 is a step of receiving an arbitrary video input from the outside.
2차원 두드러짐 추정(2D saliency estimation) 단계(S220)는 입력 영상 내에서 시각적으로 중요한 부분(눈의 초점 또는 관심도 집중 영역 등으로 정의될 수 있음)을 추정하는 단계이다. 2차원 두드러짐은 각 행과 열의 중요성을 결정하기 위해 수평 및 수직의 1차원 두드러짐 프로파일로 구분되어 돌출된다.The 2D saliency estimation step S220 is a step of estimating a visually important part (which may be defined as an eye focus or an area of concentration of interest, etc.) in the input image. The two-dimensional salience is divided into horizontal and vertical one-dimensional salience profiles to determine the importance of each row and column and protrude.
2차원 두드러짐 추정 단계(S220)는 낮은 수준의 두드러짐 맵(low-level saliency map)을 사용하기 위해, 다운 샘플링 단계(S221), 쿼터니언 푸리에 변환 단계(S222) 및 가우시안 필터링 단계(S223)를 포함한다.The two-dimensional saliency estimation step S220 includes a down-sampling step S221, a quaternion Fourier transform step S222, and a Gaussian filtering step S223 to use a low-level saliency map. .
다운 샘플링(Down sampling) 단계(S221)는 입력된 영상 내에서 데이터가 많은 쪽을 적게 추출하는 단계이다. 다운 샘플링 단계는 낮은 수준의 두드러짐 맵을 사용하기 위한 전처리 단계로 정의될 수 있다. 다운 샘플링을 하면 이후의 과정에서 수행되는 모든 계산 과정에서 발생할 수 있는 복잡도를 낮출 수 있다.The down sampling step S221 is a step of extracting less data from the input image. The downsampling step can be defined as a preprocessing step to use a low-level saliency map. Downsampling can reduce the complexity that may occur in all calculations performed in subsequent steps.
쿼터니언 푸리에 변환 두드러짐 추정(quaternion fourier transform; QFT saliency) 단계(S222)는 다운 샘플링된 영상 내에서 시각적으로 두드러진 부분을 추정할 수 있도록 영상 시퀀스의 위상 스펙트럼을 얻고 이로부터 추정 결과를 획득하는 단계이다.The quaternion fourier transform saliency estimation (QFT saliency) step S222 is a step of obtaining a phase spectrum of an image sequence and obtaining an estimation result therefrom so as to estimate a visually salient part in the down-sampled image.
예컨대, 움직임을 갖는 RGB 동영상 정보는 쿼터니언 재표현 (4 개의 성분을 갖는 복소수)으로 변환된 후 쿼터니언 푸리에 변환법(이하 QFT)에 따라 주파수 공간으로 변환된다. 주파수 영역에서의 위상 정보는 각 쿼터니온을 크기로 정규화되어 추출된다. 그 결과 두드러진 부분은 부드럽게 흐려진다.For example, RGB video information having motion is transformed into a quaternion representation (a complex number having four components) and then transformed into a frequency space according to a quaternion Fourier transform (hereinafter, QFT). Phase information in the frequency domain is extracted by normalizing each quaternion to a magnitude. As a result, prominent areas are gently blurred.
가우시안 필터링(Gaussian filtering) 단계(S223)는 추정 결과로 획득한 두드러진 부분에서 고주파 잡음을 제거하는 단계이다. 실시예에서는 고주파 잡음을 제거하기 위해 가우시안 필터링 방법을 사용하는 것을 일례로 하였으나 이에 한정되지 않는다. 또한, 필터링 단계는 경우에 따라 생략될 수도 있다.The Gaussian filtering step S223 is a step of removing high-frequency noise from a prominent portion obtained as a result of the estimation. In the embodiment, the Gaussian filtering method is used as an example to remove high-frequency noise, but the present invention is not limited thereto. Also, the filtering step may be omitted in some cases.
정경(Warping) 단계(S230)는 앞서 구한 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기(grid size)를 계산하고, 시간 일관성을 고려한 제2그리드 크기를 계산하고, 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵(grid map)을 생성하는 단계이다.In the warping step (S230), the first grid size corresponding to each point of the input image is calculated according to the target resolution in consideration of the previously obtained saliency value, and the second grid size in consideration of temporal consistency , and a final grid size is calculated based on the first and second grid sizes, and then a grid map is generated.
도 6 및 도 7에 도시된 바와 같이, 정경 단계(S230)는 각 축에서 움직이는 물체와 정적인 배경의 비율을 고려하여 각각 계산된 제1그리드 크기값과 제2그리드 크기값을 선형 결합하는 방식으로 최종 그리드 크기를 계산하기 위해, 제1그리드 계산 단계(S239)와 제2그리드 계산 단계(S236), 최종 그리드 계산 단계(S237), 및 그리드 맵 생성 단계(S238)를 포함한다.6 and 7, in the canon step S230, the first grid size value and the second grid size value calculated in consideration of the ratio of the moving object and the static background on each axis are linearly combined. In order to calculate the final grid size as , a first grid calculation step (S239), a second grid calculation step (S236), a final grid calculation step (S237), and a grid map generation step (S238) are included.
제1그리드 계산 단계(S239)는 앞서 구한 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 그리드 크기(grid size)를 계산하는 단계이다. 높은 두드러짐 값을 가질수록 원본과 유사한 그리드 크기를 갖게 된다. 일반적으로 움직이는 물체는 높은 두드러짐 값을 갖는다.The first grid calculation step S239 is a step of calculating a grid size corresponding to each point of the input image according to the target resolution in consideration of the previously obtained saliency value. The higher the saliency value, the more similar the grid size to the original. In general, moving objects have a high saliency value.
제1그리드 계산 단계(S239)는 각 축별로 그리드 크기를 계산하고 이들에 대해 동일한 크기의 그리드 크기를 부여하기 위해, 1차원 두드러짐 계산 단계(S231), 비선형 1차원 스케일 단계(S232), 필터링 단계(S233) 및 업 샘플링 단계(S234)를 포함한다.The first grid calculation step (S239) is a one-dimensional prominence calculation step (S231), a non-linear one-dimensional scale step (S232), a filtering step in order to calculate the grid size for each axis and give a grid size of the same size to them. (S233) and an up-sampling step (S234).
1차원 두드러짐(1D saliency) 계산 단계(S231)는 수평 및 수직의 1차원 두드러짐 프로파일 각각에 대해 축별 제1그리드 크기를 계산하는 단계이다. 예컨대, 1차원 두드러짐을 계산할 때에는 수평 1차원 두드러짐 프로파일 및 수직 1차원 두드러짐 프로파일의 일정 영역을 각각 블록화하는 방식으로 일정 단위의 픽셀들을 기준으로 두드러짐 값을 계산(블록 단위 누적 계산)할 수 있으나 이에 한정되지 않는다.The 1D saliency calculation step S231 is a step of calculating the first grid size for each axis for each of the horizontal and vertical 1D saliency profiles. For example, when calculating the 1D saliency, the saliency value may be calculated based on pixels of a predetermined unit (accumulated calculation in block units) in a manner that blocks predetermined areas of the horizontal 1D saliency profile and the vertical 1D salience profile, respectively, but limited to this. doesn't happen
비선형 1차원 스케일(Non-linear 1D scale) 단계(S232)는 시각적으로 두드러진 부분과 같이 중요한 영역의 종횡비를 유지하기 위해 수직 방향 및 수평 방향 모두에 대해 비선형적인 스케일 벡터를 계산하는 단계이다. 스케일 벡터 계산 시, 시각적으로 낮거나 없는 중요 영역을 축소할 경우 1 보다 낮은 스케일링 값을 가질 수 있고, 그 반대로 확대할 경우 1 보다 높은 스케일링 값을 가질 수 있다. 이때, 스케일링의 모든 요소의 합 벡터는 영상 재지정(video retargeting)을 고려하기 위해 요구된 목표 크기와 일치해야 한다. 비선형 1차원 스케일은 하기의 수식에 의해 계산될 수 있다.The non-linear 1D scale step S232 is a step of calculating a non-linear scale vector in both the vertical direction and the horizontal direction in order to maintain the aspect ratio of an important area, such as a visually prominent part. When calculating the scale vector, when a visually low or absent important area is reduced, it may have a scaling value lower than 1, and vice versa, it may have a scaling value higher than 1 when it is enlarged. In this case, the sum vector of all elements of the scaling must match the target size required to consider video retargeting. The nonlinear one-dimensional scale may be calculated by the following equation.
위의 수식에서 GS s Down (k)는 k번째 축에서의 그리드 크기를 나타내고, S h 는 두드러짐 값을 나타내고,In the above formula, GS s Down (k) represents the grid size on the k- th axis, S h represents the salience value,
W' down 은 목표 해상도의 폭의 1/2값을 의미하고, R max 은 그리드 크기의 최대값을 의미하고, R min 은 그리드 크기의 최소값을 의미한다. W' down
필터링(Filtering) 단계(S233)는 비선형 1차원 스케일 계산 후 포스트 필터를 적용하여 정규화를 직접 시행하는 단계이다. 입력 영상은 비선형 1차원 스케일 계산까지의 과정을 통해 두드러진 부분 안에서의 고주파 및 저주파 변동을 거치므로 출력 영상에 대한 시공간적 변동을 가져올 수 있다. 그러므로 포스트 필터를 적용하여 정규화를 직접 시행하면 시공간적 변동에 따른 문제를 해소할 수 있다.The filtering step ( S233 ) is a step of directly performing normalization by applying a post filter after calculating the nonlinear one-dimensional scale. Since the input image undergoes high-frequency and low-frequency fluctuations within the prominent part through the process up to the nonlinear one-dimensional scale calculation, spatiotemporal fluctuations in the output image can be brought about. Therefore, if normalization is directly performed by applying a post filter, the problem caused by spatiotemporal fluctuations can be solved.
예컨대, 필터링 단계(S233)에서는 고주파 성분을 없애기 위해 비인과적 유한 임펄스 응답(acausal finite impulse response; aFIR) 필터를 사용할 수 있고, 저주파 성분을 없애기 위해 무한 임펄스 응답(infinite impulse response; IIR) 필터를 사용할 수 있으나 이에 한정되지 않는다.For example, in the filtering step S233, a non-causal finite impulse response (aFIR) filter may be used to remove the high frequency component, and an infinite impulse response (IIR) filter may be used to remove the low frequency component. may be, but is not limited thereto.
업 샘플링(Up sampling) 단계(S234)는 입력된 영상 내에서 데이터가 적은 쪽을 더 많이 추출하는 단계이다. 앞서와 같은 과정을 통해 마련된 샘플링 그리드를 기반으로 실제 목표 해상도를 달성하기 위해서는 수평 및 수직 스케일링 벡터들을 선형적으로 업 샘플링한 후 다시 샘플링 그리드(resampling grid)를 생성해야 하므로, 이 단계를 거치게 된다.The up-sampling step S234 is a step of extracting more data from less data in the input image. In order to achieve the actual target resolution based on the sampling grid prepared through the above process, it is necessary to linearly upsample the horizontal and vertical scaling vectors and then generate a sampling grid again, so this step is performed.
제2그리드 계산 단계(S236)는 시간 일관성을 고려해서 그리드 크기(grid size)를 계산하기 위해 이전 프레임의 그리드 포인트와 현재 프레임의 그리드 포인트의 위치가 동일해질 수 있도록 그리드 크기를 계산하는 단계이다. 이 단계에서는 이전 프레임의 그리드 포인트와 현재 프레임의 그리드 포인트의 위치가 최대한 동일해지거나 근접해지는 수렴값을 찾는 것이다. 이때, 각 축별 그리드 크기는 하기의 수식에 의해 계산될 수 있다.The second grid calculation step S236 is a step of calculating the grid size so that the positions of the grid points of the previous frame and the grid points of the current frame are the same in order to calculate the grid size in consideration of temporal consistency. In this step, the grid point of the previous frame and the grid point of the current frame are to find a convergence value that is the same as or close to the maximum possible. In this case, the grid size for each axis may be calculated by the following equation.
위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k -1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k 는 k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타낸다. 이 수식을 기반으로 한 그리드 크기의 계산으로 인하여, 정적인 배경의 그리드 포인트의 위치가 유지됨으로써 영상에서 배경이 울렁거리는 현상을 방지할 수 있다.In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k -1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is It represents the grid size considering the temporal coherence ( T ) on the k-th axis. Due to the calculation of the grid size based on this formula, the position of the grid point of the static background is maintained, thereby preventing the background from rumble in the image.
최종 그리드 크기(grid size) 계산 단계(S237)는 앞서 구한 제1그리드 크기와 제2그리드 크기를 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하여 각 축마다 최종 그리드 크기를 계산하는 단계이다. 이때, 최종 그리드 크기는 아래의 수식에 의해 계산될 수 있다.The final grid size calculation step S237 is a step of calculating the final grid size for each axis by considering the ratio of the static background and the moving object of each axis to the previously obtained first and second grid sizes. In this case, the final grid size may be calculated by the following equation.
위의 수식에서 N k dist _pixel 는 k번째 축에서 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀의 수이며, N k tot 는 k번째 축의 픽셀 수를 나타낸다. W S k , W T k 는 각각 k번째 축에서의 GS S k 와 GS T k 에 대한 가중치를 나타낸다. GS k 는 k번째 축에서의 최종 그리드 크기를 나타낸다.In the above formula, N k dist _pixel is the number of pixels on the k-th axis where the difference between the luminance value of the previous frame and the luminance value of the current frame is large (large image change), and N k tot represents the number of pixels on the k-th axis. . W S k and W T k represent weights for GS S k and GS T k on the k- th axis, respectively. GS k represents the final grid size on the k-th axis.
위의 수식에서, 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차이가 많은 픽셀의 수를 예컨대 "20 이상인 픽셀의 수"를 일례로 설정할 수 있으나 이는 하나의 예시일 뿐 픽셀의 수는 실험 결과에 기초하여 최적화될 수 있다.In the above formula, the number of pixels with a large difference between the luminance value of the previous frame and the current frame may be set to, for example, “the number of pixels greater than or equal to 20” as an example, but this is only an example and the number of pixels is an experimental result can be optimized based on
한편, 정적인 배경에서의 그리드 크기의 변화는 움직이는 물체의 그리드 크기의 변화보다 인지하기 쉽다. 따라서, 실시예에서는 정적인 배경의 시간 일관성을 잘 유지하기 위해 그리드 크기의 변화에 대한 경계값을 설정한다. 그리고 설정된 경계값을 넘으면 그리드 크기를 재설정한다. 이때, 그리드 크기의 재설정은 아래의 수식에 의해 계산될 수 있다. On the other hand, a change in the grid size in a static background is easier to recognize than a change in the grid size of a moving object. Therefore, in the embodiment, a boundary value for the change in the grid size is set in order to maintain the temporal consistency of the static background well. And when the set boundary value is exceeded, the grid size is reset. In this case, the reset of the grid size may be calculated by the following equation.
위의 수식에서 GS T k , GS k 는 각각 k번째 축에서의 시간 일관성을 고려한 그리드 크기와 최종 그리드 크기를 나타내며 λ는 최종 그리드 크기가 설정된 경계값보다 너무 크거나 작을 경우의 절삭을 위해 0.1로 설정할 수 있으나 이는 실험 결과에 기초하여 최적화될 수 있다.In the above formula, GS T k and GS k represent the grid size and final grid size considering temporal consistency on the k- th axis, respectively, and λ is 0.1 for cutting when the final grid size is too large or smaller than the set boundary value. can be set, but this can be optimized based on the experimental results.
그리드 맵(Grid map) 생성 단계(S238)는 각 그리드 포인트의 그리드 크기를 누적해서 그리드 맵(grid map)을 생성하는 단계이다. 이때, 그리드 맵은 아래의 수식에 의해 계산될 수 있다.The grid map generating step S238 is a step of generating a grid map by accumulating the grid size of each grid point. In this case, the grid map may be calculated by the following equation.
위의 수식에서 Pos k prev , Pos k - 1 cur 는 각각 이전 프레임과 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며 GS k 는 최종 그리드 크기를 나타낸다.In the above equation, Pos k prev , Pos k - 1 cur denote the position of the k- th axis in the grid map of the previous frame and the current frame, respectively , and GS k denotes the final grid size.
표현(Rendering) 단계(S240)는 이전 단계를 통해 생성된 그리드 맵과 입력 영상을 이용하여 최종적으로 출력할 재지정(retarget) 영상을 표현 및 생성하는 단계이다. 표현 단계(S240)는 타원 가중치 평균(elliptical weighted average; EWA splatting) 방식의 프레임워크(framework) 등을 기반으로 재지정(retarget) 영상을 만들 수 있다. 이때, EWA 프레임 워크는 순방향 매핑을 사용할 수 있고, 최대 해상도 입력 스트림 하에 영상을 다시 샘플링할 수도 있다.The rendering step S240 is a step of expressing and generating a retarget image to be finally output using the grid map and the input image generated through the previous step. The expression step S240 may create a retargeted image based on a framework of an elliptical weighted average (EWA splatting) method or the like. In this case, the EWA framework may use forward mapping and may resample an image under the maximum resolution input stream.
재지정 영상 출력(Retarget video output) 단계(S250)는 입력된 영상에 대하여 종횡비가 재지정된 재지정 영상을 출력하는 단계이다.The retarget video output step S250 is a step of outputting a retargeted video whose aspect ratio is re-specified with respect to the input video.
이상, 본 발명의 실시예는 동일한 축에 동일한 그리드 크기가 부여되기 때문에 입력 영상에서 동일한 축 상에 있던 물체가 출력 영상에서 다른 축 상에 존재하는 구조적 뒤틀림(structure twist)과 같은 왜곡을 방지할 수 있다. 또한, 본 발명의 실시예는 1차원에서 그리드 크기를 계산하기 때문에 계산량이 적다. 또한, 본 발명의 실시예는 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하기 때문에 비중이 높은 물체의 시간적 일관성을 잘 유지 할 수 있다.As described above, in the embodiment of the present invention, since the same grid size is given to the same axis, it is possible to prevent distortion such as a structural twist in which an object on the same axis in the input image exists on a different axis in the output image. have. In addition, since the embodiment of the present invention calculates the grid size in one dimension, the amount of calculation is small. In addition, since the embodiment of the present invention considers the ratio of the static background and the moving object of each axis, it is possible to maintain the temporal consistency of the object with high specific gravity.
본 발명의 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해서 실험예와 실시예를 비교 실험한 결과를 설명하면 다음과 같다.In order to verify the effect of the method considering time consistency according to the embodiment of the present invention, the results of comparative experiments between the experimental examples and the examples will be described as follows.
<제1예시><Example 1>
도 8은 및 도 9는 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제1예시도들이다.8 and 9 are first exemplary views showing results of comparative experiments between the Experimental Example and the Example in order to verify the effect of the method considering time consistency according to the Example.
제1예시에서는 실시예의 방법과 실험예의 방법을 이용하여 가로와 세로의 크기 16:9 영상을 18:9 영상으로 변환하였다. 이때 실시예의 방법에 대한 시간적 일관성을 평가하였다. 실험예는 앞서 설명된 Greisen[1] 방법을 사용하였다.In the first example, a 16:9 image with a horizontal and vertical size was converted into an 18:9 image using the method of the embodiment and the method of the experimental example. At this time, the temporal consistency of the method of the example was evaluated. For the experimental example, the Greisen [1] method described above was used.
그리고 입력 영상으로는 텔레비전 프로그램으로서, 1280*720 해상도를 갖는 "연애의 발견" 영상 800 프레임과 "마리텔(마이 리틀 텔레비전) 영상" 500 프레임을 사용하였다. 제1예시에서는 시간적 일관성을 판단하기 위한 평가 지표로써 Jittery Metric(JM)[2]을 사용했다. Jittery Metric(JM)은 아래의 수식에 의해 계산될 수 있다.And, as input images, 800 frames of "Discovery of Romance" and 500 frames of "Maritel (My Little Television)" were used as television programs with a resolution of 1280*720. In the first example, Jittery Metric (JM) [2] was used as an evaluation index to judge temporal consistency. Jittery Metric (JM) can be calculated by the following formula.
위의 수식에서 S k,j cols 는 현재 프레임의 k번째 축의 그리드 크기를 나타내고, S k,j-1 cols 는 이전 프레임의 k번째 축의 그리드 크기를 나타내며, DS k,j cols 는 현재 프레임과 이전 프레임의 k번째 축의 그리드 크기의 차이를 나타낸다. N은 입력 영상의 너비를 나타내며 JM j 는 현재 프레임과 이전 프레임에 대한 수평 방향으로의 Jittery Metric(JM)을 나타낸다. 이때, DS와 JM 값이 낮을수록 시간 일관성을 보다 잘 유지한다고 할 수 있다.In the above formula, S k,j cols represents the grid size of the k- th axis of the current frame , S k,j-1 cols represents the grid size of the k- th axis of the previous frame , and DS k,j cols represents the current frame and previous frame. It represents the difference in grid size on the k- th axis of the frame. N represents the width of the input image, and JM j represents the jittery metric (JM) in the horizontal direction for the current frame and the previous frame. In this case, it can be said that the lower the DS and JM values, the better the temporal consistency is maintained.
실험예에 해당하는 Greisen 방법[1]은 P. Greisen이 제안한 것으로서, “Algorithm and VLSI architecture for real-time 1080p60 video retargeting,”와 같이 2012년 ACM SIGGRAPH에 등재된 바 있다.The Greisen method [1] corresponding to the experimental example was proposed by P. Greisen, and was registered in ACM SIGGRAPH in 2012 like “Algorithm and VLSI architecture for real-time 1080p60 video retargeting,”.
평가 지표에 해당하는 Jittery Metric(JM)[2]은 Bo Yan이 제안한 것으로서, “Effective video retargeting with jittery assessment,”와 같이 2014년 IEEE Transactions on multimedia에 등재된 바 있다.Jittery Metric (JM)[2], which is an evaluation index, was proposed by Bo Yan, and has been registered in IEEE Transactions on multimedia in 2014 like “Effective video retargeting with jittery assessment,”.
도 8의 그래프에서 가로축은 컬럼 인덱스(Column index)이고, 세로축은 그리드 크기(DS)이다. 도 9의 그래프에서 가로축은 프레임 넘버(Frame number)이고, 세로축은 Jittery Metric(JM)이다.In the graph of FIG. 8 , a horizontal axis is a column index, and a vertical axis is a grid size DS. In the graph of FIG. 9 , the horizontal axis is the frame number, and the vertical axis is the jittery metric (JM).
제1예시에서는 실험예와 실시예 간의 비교를 위해 동일한 영상의 일부 프레임에서 나타나는 그리드 크기 분포를 발췌하여 도 8의 그래프로 나타낸 것이고, 실험예와 실시예 간의 시간적 일관성의 유무 차이를 판단할 수 있도록 텔레비전 프로그램 2개에 나타나는 Jittery Metric (JM)를 발췌하여 도 9의 그래프로 나타낸 것이다.In the first example, the grid size distribution appearing in some frames of the same image is extracted for comparison between the experimental example and the example and shown as a graph in FIG. 8, so that the difference in temporal consistency between the experimental example and the example can be determined The Jittery Metric (JM) appearing in two television programs is excerpted and shown as a graph in FIG. 9 .
도 8 및 9에 도시된 실험 결과를 통해 알 수 있듯이, 실시예의 방법(Proposed method)이 실험예의 방법(Greisen's method)에 비해 DS와 JM 값이 전반적으로 낮은 것을 확인할 수 있다.As can be seen from the experimental results shown in FIGS. 8 and 9 , it can be confirmed that the DS and JM values of the Example method (Proposed method) are generally lower than those of the Example method (Greisen's method).
예컨대, 실험예의 방법(Greisen's method)을 따르면, 도 8의 제6프레임(<Frame #6>), 제9프레임(<Frame #9>), 제12프레임(<Frame #12>)에 표시된 바와 같이 특정 영상에서 시간적 일관성을 벗어난 부분(PT)이 발생하는 것을 볼 수 있다. 그러나 실시예의 방법(Proposed method)은 실험예와 동일한 프레임에서도 시간적 일관성을 유지할 수 있어 "PT"와 같은 부분이 발생하지 않음을 알 수 있다.For example, according to the method of the experimental example (Greisen's method), as shown in the 6th frame (<
<제2예시><2nd example>
도 10은 및 도 11은 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제2예시도들이다.10 and 11 are second exemplary views showing results of comparative experiments between the Experimental Example and the Example in order to verify the effect of a method considering time consistency according to the Example.
제2예시에서는 제1예시와 동일한 조건으로 실험하되, 평가 지표를 Jittery Metric-II(JM-II)으로 변경하였다. 이 평가 지표는 그리드 크기가 아닌 그리드 포인트(grid point)의 위치를 고려하여 제안된 것이다. Jittery Metric-II(JM-II)는 아래의 수식에 의해 계산될 수 있다.In Example 2, the experiment was performed under the same conditions as in Example 1, but the evaluation index was changed to Jittery Metric-II (JM - II). This evaluation index is proposed considering the location of the grid point, not the size of the grid. Jittery Metric-II (JM - II) can be calculated by the following formula.
위의 수식에서 P k,j cols 는 현재 프레임의 k번째 축의 그리드 포인트의 위치를 나타내고, P k,j - 1 cols 는 이전 프레임의 k번째 축의 그리드 포인트의 위치를 나타내며, PD k,j cols 는 현재 프레임과 이전 프레임의 k번째 축의 그리드 포인트의 위치 차이를 나타낸다. N은 입력 영상의 너비를 나타내며 JM - II j 는 현재 프레임과 이전 프레임에 대한 수평 방향으로의 Jittery Metric(JM-II)을 나타낸다. 이때, 그리드 포인트의 위치와 JM-II 값은 낮을수록 정적인 배경에서 시간 일관성을 보다 잘 유지한다고 할 수 있다.In the above formula, P k,j cols indicates the position of the grid point on the k- th axis of the current frame , P k,j - 1 cols indicates the position of the grid point on the k- th axis of the previous frame , and PD k,j cols is It represents the difference between the positions of the grid points on the k- th axis of the current frame and the previous frame. N represents the width of the input image, and JM - II j represents the jittery metric (JM-II) in the horizontal direction for the current frame and the previous frame. In this case, it can be said that the lower the grid point position and the JM-II value, the better the temporal consistency is maintained in a static background.
도 10의 그래프에서 가로축은 픽셀 넘버(Pixel number)이고, 세로축은 그리드 포인트의 위치(PD)이다. 도 11의 그래프에서 가로축은 프레임 넘버(Frame number)이고, 세로축은 Jittery Metric(JM-II)이다.In the graph of FIG. 10 , the horizontal axis is the pixel number, and the vertical axis is the position PD of the grid point. In the graph of FIG. 11 , the horizontal axis is frame number, and the vertical axis is Jittery Metric (JM-II).
제2예시는 실험예와 실시예 간의 비교를 위해 동일한 영상의 일부 프레임에서 나타나는 그리드 포인트의 위치 분포를 발췌하여 도 10의 그래프로 나타낸 것이고, 실험예와 실시예 간의 시간적 일관성의 유무 차이를 판단할 수 있도록 텔레비전 프로그램 2개에 나타나는 Jittery Metric(JM-II)를 발췌하여 도 11의 그래프로 나타낸 것이다.The second example is a graph of FIG. 10 by extracting the location distribution of grid points appearing in some frames of the same image for comparison between the experimental example and the example, and the difference in temporal consistency between the experimental example and the example can be determined. Jittery Metric (JM-II) appearing in two television programs is extracted and shown as a graph in FIG.
도 10 및 11에 도시된 실험 결과를 통해 알 수 있듯이, 그리드 포인트의 위치 값은 그리드 크기를 누적해서 계산되는 값이기 때문에, 실시예의 방법(Proposed method)과 실험예의 방법(Greisen's method) 간의 JM-II 값의 차이가 큰 것을 확인할 수 있다.As can be seen from the experimental results shown in FIGS. 10 and 11, the position value of the grid point is a value calculated by accumulating the grid size, so JM- It can be seen that the difference in II values is large.
예컨대, 실험예의 방법(Greisen's method)을 따르면, 도 10의 제6프레임(<Frame #6>), 제9프레임(<Frame #9>), 제12프레임(<Frame #12>)에 표시된 바와 같이 특정 영상에서 시간적 일관성을 벗어난 부분(PT)이 발생하는 것을 볼 수 있다. 그러나 실시예의 방법(Proposed method)은 실험예와 동일한 프레임에서도 시간적 일관성을 유지할 수 있어 "PT"와 같은 부분이 발생하지 않음을 알 수 있다.For example, according to the method of the experimental example (Greisen's method), as shown in the 6th frame (<
HD급 영상에서 그리드 포인트의 위치(PD) 값이 0.1 이상의 값을 지니는 경우 정적인 배경이 울렁거리는 현상을 느낄 수 있다. 도 10을 통해 알 수 있듯이, 실시예의 방법(Proposed method)은 0.1보다 낮은 그리드 포인트의 위치 값을 갖는 반면 실험예의 방법(Greisen's method)은 이보다 훨씬 높은 그리드 포인트의 위치 값을 갖는다. 그러므로 실시예의 방법(Proposed method)은 정적인 배경이 울렁거리는 현상을 방지할 수 있다.When the position (PD) value of the grid point in the HD image has a value of 0.1 or more, the static background may be felt. As can be seen from FIG. 10, the Example method (Proposed method) has a grid point position value lower than 0.1, whereas the Experimental example method (Greisen's method) has a grid point position value much higher than this. Therefore, the Proposed method can prevent the static background from bouncing.
이하, 정지 영상과 인접하여 시각적으로 두드러진 부분에 해당하는 동영상이 프레임마다 다르게 나타나는 영상을 실험예의 방법과 실시예의 방법으로 처리할 때 최종 영상에서 나타나는 변화 양상을 알기 쉽게 도시하면 다음과 같다.Hereinafter, when an image in which a moving image corresponding to a visually prominent part adjacent to a still image is different for each frame is processed by the method of the experimental example and the method of the embodiment, the change pattern appearing in the final image is easily illustrated as follows.
도 12는 실험예의 방법과 실시예의 방법을 사용함에 따라 최종 출력 영상에서 나타나는 변화의 양상을 알기 쉽게 도시한 도면이다. 도 12에서 좌측의 솔리드 패턴이 들어간 타원은 정지 영상(예: 자막이나 배경 등)에 해당하고, 우측의 사선 패턴이 들어간 타원은 동영상(예: 움직이는 물체나 사람 등)에 해당한다.12 is a diagram illustrating in an easy-to-understand manner the aspect of a change appearing in the final output image according to the method of the experimental example and the method of the embodiment. In FIG. 12 , an ellipse having a solid pattern on the left corresponds to a still image (eg, a subtitle or a background, etc.), and an oval containing a diagonal pattern on the right corresponds to a moving image (eg, a moving object or person).
이상적으로는 정지 영상 내에 "t+1과 t+3"과 같은 특정 시간대에 동영상이 존재하더라도 동영상이 존재하지 않았던 "t와 t+2"와 같이 시간적 위치가 변하지 않고 동일하게 유지되어야 한다. 그러나 실험예를 통해 알게 된 바와 같이, 입력된 영상의 크기를 변경할 경우 시간적 위치에 변동이 발생한다.Ideally, even if a moving picture exists in a specific time period such as “t+1 and t+3” in a still image, the temporal position should remain the same as in “t and t+2” where the moving image did not exist. However, as found through the experimental example, when the size of the input image is changed, the temporal position is changed.
도 12의 (a)에 도시된 실험예는 정지 영상과 인접하여 동영상이 프레임마다 다르게 나타날 경우 5번 위치에서 볼 수 있는 바와 같이 시간적 위치변동 폭이 크게 발생함을 알 수 있다.In the experimental example shown in (a) of FIG. 12 , it can be seen that when a moving image is displayed differently for each frame adjacent to a still image, as can be seen from
반면, 도 12의 (b)에 도시된 실시예는 정지 영상과 인접하여 동영상이 프레임마다 다르게 나타날 경우 실험예와 같이 5번 위치에서 시간적 위치변동 폭이 발생하긴 하지만 실험예 대비 시간적 위치 변동 폭이 작게 발생함을 알 수 있다.On the other hand, in the embodiment shown in FIG. 12 (b), when a moving image is displayed differently for each frame adjacent to a still image, although the temporal position fluctuation width occurs at the 5th position as in the experimental example, the temporal position fluctuation width is higher than that of the experimental example. It can be seen that small
이상 본 발명은 영상의 크기 변경(resizing) 시, 구조적 뒤틀림(Structure twist) 현상을 방지하면서 시간 일관성을 유지할 수 있는 영상 처리 방법을 제공하는 효과가 있다. 또한, 본 발명은 움직이는 물체와 정적인 배경이 공존하는 영상의 크기 변경(resizing) 시, 시간 일관성을 고려한 영상 처리 방법으로 원본의 형태를 최대한 자연스럽게 유지하면서 물체의 움직임에 따른 영상의 울렁거림을 최소화하고 고품질의 영상을 표시할 수 있는 표시장치를 제공하는 효과가 있다.As described above, the present invention has an effect of providing an image processing method capable of maintaining temporal consistency while preventing a structural twist phenomenon when resizing an image. In addition, the present invention is an image processing method in consideration of temporal coherence when resizing an image in which a moving object and a static background coexist, while maintaining the original shape as natural as possible while minimizing the noise of the image due to the movement of the object. And there is an effect of providing a display device capable of displaying a high-quality image.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술 분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 한다. 아울러, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어진다. 또한, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, the technical configuration of the present invention can be changed to other specific forms by those skilled in the art to which the present invention pertains without changing the technical spirit or essential features of the present invention. It will be appreciated that this may be practiced. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. In addition, the scope of the present invention is indicated by the claims to be described later rather than the above detailed description. In addition, all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.
110: 영상 처리부 120: 타이밍 제어부
130: 데이터 구동부 140: 스캔 구동부
150: 표시 패널 SP: 서브 픽셀(들)
S110: 영상 입력 단계 S120: 2차원 두드러짐 추정 단계
S130: 정경 단계 S140: 표현 단계
S150: 재지정 영상 출력 단계110: image processing unit 120: timing control unit
130: data driver 140: scan driver
150: display panel SP: sub-pixel(s)
S110: image input step S120: two-dimensional prominence estimation step
S130: canon stage S140: expression stage
S150: Redirected video output stage
Claims (10)
상기 표시 패널을 구동하는 구동부; 및
상기 구동부를 제어하고 외부로부터 입력된 영상을 영상 처리하는 제어부를 포함하고,
상기 제어부는 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 상기 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하고, 상기 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하고, 상기 그리드 맵과 상기 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성하는 표시장치.a display panel for displaying an image;
a driver driving the display panel; and
A control unit for controlling the driving unit and processing an image input from the outside,
The controller calculates a first grid size corresponding to each point of the input image according to a target resolution in consideration of a saliency value corresponding to a visually important part in the input image, and also calculates a second grid size corresponding to each point of the input image in consideration of temporal consistency. After calculating the grid size, calculating the final grid size based on the first and second grid sizes, generating a grid map, and expressing a redesignated image to be finally output based on the grid map and the input image, and the display it creates.
상기 제어부는
상기 시간 일관성을 고려하여 상기 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감하는 표시장치.According to claim 1,
the control unit
A display device for subtracting a position of a grid point of a current frame from a position of a grid point of a previous frame in order to calculate the size of the second grid in consideration of the temporal consistency.
상기 제어부는
상기 제1그리드 크기와 상기 제2그리드 크기를 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하여 각 축마다 최종 그리드 크기를 계산하는 표시장치.According to claim 1,
the control unit
A display device for calculating a final grid size for each axis in consideration of a ratio of a static background to a moving object of the first grid size and the second grid size.
상기 제어부는
상기 최종 그리드 크기를 계산하기 위해 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여하는 표시장치.4. The method of claim 3,
the control unit
In order to calculate the final grid size, a weight is given to pixels having a large difference between a luminance value of a previous frame and a luminance value of a current frame (image change is large).
상기 제어부는
상기 제2그리드 크기는 하기의 수식에 의해 계산되고,
위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k 는 k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타내는 표시장치.According to claim 1,
the control unit
The second grid size is calculated by the following formula,
In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is A display indicating the grid size considering the temporal coherence ( T ) on the k-th axis.
상기 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 상기 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하는 단계;
상기 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하는 단계; 및
상기 그리드 맵과 상기 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성하는 단계를 포함하는 영상 처리 방법.estimating a saliency value corresponding to a visually important part in the input image;
calculating a first grid size corresponding to each point of the input image according to a target resolution in consideration of the saliency value and calculating a second grid size in consideration of temporal consistency;
generating a grid map after calculating a final grid size based on the first and second grid sizes; and
and expressing and generating a redirected image to be finally output based on the grid map and the input image.
상기 그리드 크기를 계산하는 단계는
상기 시간 일관성을 고려하여 상기 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감하는 영상 처리 방법.7. The method of claim 6,
The step of calculating the grid size is
An image processing method of subtracting a position of a grid point of a current frame from a position of a grid point of a previous frame in order to calculate the size of the second grid in consideration of the temporal consistency.
상기 최종 그리드 크기를 계산하는 단계는
각 축에서 움직이는 물체와 정적인 배경의 비율을 고려하여 각각 계산된 상기 제1그리드 크기값과 상기 제2그리드 크기값을 선형 결합하여 상기 최종 그리드 크기를 계산하는 영상 처리 방법.7. The method of claim 6,
The step of calculating the final grid size is
An image processing method of calculating the final grid size by linearly combining the first grid size value and the second grid size value calculated in consideration of the ratio of the moving object and the static background on each axis.
상기 최종 그리드 크기를 계산하는 단계는
이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여하는 영상 처리 방법.9. The method of claim 8,
The step of calculating the final grid size is
An image processing method in which a weight is given to pixels with a large difference between the luminance value of the previous frame and the luminance value of the current frame.
상기 제2그리드 크기는 하기의 수식에 의해 계산되고,
위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k 는 k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타내는 영상 처리 방법.7. The method of claim 6,
The second grid size is calculated by the following formula,
In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is An image processing method representing the grid size considering temporal coherence ( T ) on the k-th axis.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170154004A KR102340942B1 (en) | 2017-11-17 | 2017-11-17 | Method for Image Processing and Display Device using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170154004A KR102340942B1 (en) | 2017-11-17 | 2017-11-17 | Method for Image Processing and Display Device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190056740A KR20190056740A (en) | 2019-05-27 |
KR102340942B1 true KR102340942B1 (en) | 2021-12-17 |
Family
ID=66678994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170154004A KR102340942B1 (en) | 2017-11-17 | 2017-11-17 | Method for Image Processing and Display Device using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102340942B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7112603B2 (en) * | 2019-09-27 | 2022-08-03 | 富士フイルム株式会社 | Control device, control method, control program, and projection system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006523979A (en) | 2003-04-17 | 2006-10-19 | トムソン ライセンシング | Data request transmitting apparatus and process and corresponding products |
JP2015126238A (en) | 2013-12-25 | 2015-07-06 | キヤノン株式会社 | Video projector, video projection method and program |
JP2016524423A (en) | 2013-06-21 | 2016-08-12 | クアルコム,インコーポレイテッド | System and method for super-resolution of user-selected regions of interest |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2549754A1 (en) * | 2011-07-19 | 2013-01-23 | Thomson Licensing | Method and apparatus for reframing and encoding an original video signal |
US9196216B2 (en) * | 2011-12-07 | 2015-11-24 | Parade Technologies, Ltd. | Frame buffer management and self-refresh control in a self-refresh display system |
KR101291616B1 (en) * | 2011-12-29 | 2013-08-01 | 동명대학교산학협력단 | Multi image monitering system using the weight value of image variation rates |
KR101785027B1 (en) * | 2016-01-14 | 2017-11-06 | 주식회사 라온텍 | Image distortion compensation display device and image distortion compensation method using the same |
-
2017
- 2017-11-17 KR KR1020170154004A patent/KR102340942B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006523979A (en) | 2003-04-17 | 2006-10-19 | トムソン ライセンシング | Data request transmitting apparatus and process and corresponding products |
US20060271982A1 (en) | 2003-04-17 | 2006-11-30 | Gilles Gallou | Data requesting and transmitting devices and processes |
JP2016524423A (en) | 2013-06-21 | 2016-08-12 | クアルコム,インコーポレイテッド | System and method for super-resolution of user-selected regions of interest |
JP2015126238A (en) | 2013-12-25 | 2015-07-06 | キヤノン株式会社 | Video projector, video projection method and program |
Also Published As
Publication number | Publication date |
---|---|
KR20190056740A (en) | 2019-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110650368B (en) | Video processing method and device and electronic equipment | |
RU2433477C1 (en) | Image dynamic range expansion | |
CN102789632B (en) | Learning apparatus and method, image processing apparatus and method, program, and recording medium | |
TWI455588B (en) | Bi-directional, local and global motion estimation based frame rate conversion | |
US20100067818A1 (en) | System and method for high quality image and video upscaling | |
JP2009042482A (en) | Image processing apparatus and control method thereof | |
KR20090071624A (en) | Image enhancement | |
KR101987079B1 (en) | Method for removing noise of upscaled moving picture with dynamic parameter based on machine learning | |
EP2161687B1 (en) | Video signal processing device, video signal processing method, and video signal processing program | |
JP4548520B2 (en) | Coefficient generation apparatus and method, image generation apparatus and method, and program | |
JP5051983B2 (en) | LCD blur reduction by frame rate control | |
Niu et al. | Warp propagation for video resizing | |
US8233748B2 (en) | Image-resolution-improvement apparatus and method | |
JP6087612B2 (en) | Image processing apparatus and image processing method | |
WO2015064671A1 (en) | Image quality heightening device, image display device, image quality heightening method, and computer program | |
KR20110041753A (en) | Apparatus and method for inter view crosstalk reduction | |
WO2014008329A1 (en) | System and method to enhance and process a digital image | |
KR102340942B1 (en) | Method for Image Processing and Display Device using the same | |
JPWO2011155258A1 (en) | Image processing apparatus and method, image display apparatus and method | |
CN114514746B (en) | System and method for motion adaptive filtering as pre-processing for video encoding | |
WO2024032331A9 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN113344820A (en) | Image processing method and device, computer readable medium and electronic equipment | |
US20220215559A1 (en) | Display apparatus, virtual reality display system having the same and method of estimating user motion based on input image | |
CN111696034B (en) | Image processing method and device and electronic equipment | |
US11954867B2 (en) | Motion vector generation apparatus, projection image generation apparatus, motion vector generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |