KR102340942B1 - Method for Image Processing and Display Device using the same - Google Patents

Method for Image Processing and Display Device using the same Download PDF

Info

Publication number
KR102340942B1
KR102340942B1 KR1020170154004A KR20170154004A KR102340942B1 KR 102340942 B1 KR102340942 B1 KR 102340942B1 KR 1020170154004 A KR1020170154004 A KR 1020170154004A KR 20170154004 A KR20170154004 A KR 20170154004A KR 102340942 B1 KR102340942 B1 KR 102340942B1
Authority
KR
South Korea
Prior art keywords
grid
image
grid size
size
axis
Prior art date
Application number
KR1020170154004A
Other languages
Korean (ko)
Other versions
KR20190056740A (en
Inventor
홍종주
김성균
이호섭
배규진
강석주
김영환
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020170154004A priority Critical patent/KR102340942B1/en
Publication of KR20190056740A publication Critical patent/KR20190056740A/en
Application granted granted Critical
Publication of KR102340942B1 publication Critical patent/KR102340942B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio

Abstract

본 발명은 표시 패널, 구동부 및 제어부를 포함하는 표시장치를 제공한다. 표시 패널은 영상을 표시한다. 구동부는 표시 패널을 구동한다. 제어부는 구동부를 제어하고 외부로부터 입력된 영상을 영상 처리한다. 제어부는 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하고, 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하고, 그리드 맵과 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성한다.The present invention provides a display device including a display panel, a driving unit, and a control unit. The display panel displays an image. The driver drives the display panel. The control unit controls the driving unit and image-processes an image input from the outside. The control unit calculates the first grid size corresponding to each point of the input image according to the target resolution in consideration of the salience value corresponding to a visually important part in the input image, and considers the second grid size in consideration of temporal consistency , calculates the final grid size based on the first and second grid sizes, generates a grid map, and expresses and generates a reassigned image to be finally output based on the grid map and the input image.

Description

영상 처리 방법 및 이를 이용한 표시장치{Method for Image Processing and Display Device using the same}Image processing method and display device using same

본 발명은 영상 처리 방법 및 이를 이용한 표시장치에 관한 것이다.The present invention relates to an image processing method and a display device using the same.

최근 전계발광표시장치(Light Emitting Display: LED), 액정표시장치(Liquid Crystal Display: LCD), 전계방출표시장치(Field Emission Display: FED), 전기영동표시장치(Electro Phoretic Display: EPD), 전기습윤표시장치(Electro-Wetting Display: EWD), 및 양자점표시장치(Quantum Dot display: QD) 등과 같은 표시장치의 사용이 증가하고 있다.Recently, Light Emitting Display (LED), Liquid Crystal Display (LCD), Field Emission Display (FED), Electrophoretic Display (EPD), Electrowetting The use of display devices such as an electro-wetting display (EWD) and a quantum dot display (QD) is increasing.

앞서 설명된 표시장치는 텔레비젼, 영상 플레이어, 개인용 컴퓨터(PC), 홈시어터, 스마트폰, 증강/가상 현실기기 등으로 구현될 수 있다. 표시장치는 앞의 예와 같이 다양한 형태로 구현됨은 물론이고 다양한 크기의 종횡비를 갖는다.The display device described above may be implemented as a TV, an image player, a personal computer (PC), a home theater, a smart phone, an augmented/virtual reality device, and the like. The display device is implemented in various forms as in the previous example and has aspect ratios of various sizes.

이처럼 표시장치는 다양한 형태로 제작되고 있지만, 정작 영상 콘텐츠는 특정 대상의 종횡비에 맞게 생성되고 있다. 예컨대, 영상 콘텐츠는 텔레비전 등과 같은 특정 대상에 적합한 영상 포맷의 한 형태로 표준화되어 있어 스마트폰에 구현시 원본 콘텐츠 대비 종횡비 차이가 발생하게 된다.Although display devices are produced in various forms as described above, video content is actually created to fit the aspect ratio of a specific target. For example, since image content is standardized as a form of an image format suitable for a specific target such as a television, when implemented in a smartphone, an aspect ratio difference occurs compared to the original content.

이 때문에, 특정 표시장치는 임의의 크기의 영상이 입력되면 장치의 환경에 맞는 영상을 구현하기 위해 원본의 형태를 유지하면 영상의 크기를 변경(resizing)하는 등의 영상 처리를 수행해야 한다. 영상의 크기를 변경할 때에는 입력된 영상의 종횡비를 재지정(retarget)하는 것은 물론이고 이때 원본의 형태를 최대한 자연스럽게 유지하기 위해 왜곡 등을 방지할 필요가 있다.For this reason, when an image of an arbitrary size is input, the specific display device needs to perform image processing such as resizing the image while maintaining the original shape in order to realize an image suitable for the environment of the device. When changing the size of an image, it is necessary to not only retarget the aspect ratio of the input image, but also to prevent distortion in order to keep the original shape as natural as possible.

상술한 배경기술의 문제점을 해결하기 위한 본 발명은 움직이는 물체와 정적인 배경이 공존하는 영상의 크기 변경(resizing) 시, 구조적 뒤틀림(Structure twist) 현상을 방지하면서 시간 일관성을 유지할 수 있도록 하는 것이다.The present invention for solving the problems of the above-mentioned background art is to prevent structural twist when resizing an image in which a moving object and a static background coexist, while maintaining temporal consistency.

상술한 과제 해결 수단으로 본 발명은 표시 패널, 구동부 및 제어부를 포함하는 표시장치를 제공한다. 표시 패널은 영상을 표시한다. 구동부는 표시 패널을 구동한다. 제어부는 구동부를 제어하고 외부로부터 입력된 영상을 영상 처리한다. 제어부는 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하고, 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하고, 그리드 맵과 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성한다.As a means for solving the above problems, the present invention provides a display device including a display panel, a driving unit, and a control unit. The display panel displays an image. The driver drives the display panel. The control unit controls the driving unit and image-processes an image input from the outside. The control unit calculates the first grid size corresponding to each point of the input image according to the target resolution in consideration of the salience value corresponding to a visually important part in the input image, and considers the second grid size in consideration of temporal consistency , calculates the final grid size based on the first and second grid sizes, generates a grid map, and expresses and generates a reassigned image to be finally output based on the grid map and the input image.

제어부는 시간 일관성을 고려하여 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감할 수 있다.The controller may subtract the position of the grid point of the current frame from the position of the grid point of the previous frame in order to calculate the second grid size in consideration of temporal consistency.

제어부는 제1그리드 크기와 제2그리드 크기를 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하여 각 축마다 최종 그리드 크기를 계산할 수 있다.The controller may calculate the final grid size for each axis by considering the ratio of the static background to the moving object of the first grid size and the second grid size.

제어부는 최종 그리드 크기를 계산하기 위해 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여할 수 있다.In order to calculate the final grid size, the controller may assign a weight to a pixel having a large difference between a luminance value of a previous frame and a luminance value of the current frame (a large change in image).

제어부는 제2그리드 크기는 하기의 수식에 의해 계산되고,In the control unit, the second grid size is calculated by the following formula,

Figure 112017114597278-pat00001
Figure 112017114597278-pat00001

위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타낼 수 있다.In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is A grid size in consideration of temporal coherence ( T ) on the k-th axis may be represented.

다른 측면에서 본 발명은 영상 처리 방법을 제공한다. 영상 처리 방법은 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 추정하는 단계; 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하는 단계; 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하는 단계; 및 그리드 맵과 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성하는 단계를 포함한다.In another aspect, the present invention provides an image processing method. The image processing method includes estimating a saliency value corresponding to a visually important part in an input image; calculating a first grid size corresponding to each point of the input image according to a target resolution in consideration of the saliency value and calculating a second grid size in consideration of temporal consistency; generating a grid map after calculating a final grid size based on the first and second grid sizes; and expressing and generating a redirected image to be finally output based on the grid map and the input image.

그리드 크기를 계산하는 단계는 시간 일관성을 고려하여 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감할 수 있다.The calculating of the grid size may include subtracting the position of the grid point of the current frame from the position of the grid point of the previous frame in order to calculate the second grid size in consideration of temporal consistency.

최종 그리드 크기를 계산하는 단계는 각 축에서 움직이는 물체와 정적인 배경의 비율을 고려하여 각각 계산된 제1그리드 크기값과 제2그리드 크기값을 선형 결합하여 최종 그리드 크기를 계산할 수 있다.In the calculating of the final grid size, the final grid size may be calculated by linearly combining the calculated first and second grid size values in consideration of the ratio of the moving object and the static background on each axis.

최종 그리드 크기를 계산하는 단계는 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여할 수 있다.In the step of calculating the final grid size, a weight may be given to pixels having a large difference between the luminance value of the previous frame and the luminance value of the current frame (image change is large).

제2그리드 크기는 하기의 수식에 의해 계산되고,The second grid size is calculated by the following formula,

Figure 112017114597278-pat00002
Figure 112017114597278-pat00002

위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타낼 수 있다.In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is A grid size in consideration of temporal coherence ( T ) on the k-th axis may be represented.

본 발명은 영상의 크기 변경(resizing) 시, 구조적 뒤틀림(Structure twist) 현상을 방지하면서 시간 일관성을 유지할 수 있는 영상 처리 방법을 제공하는 효과가 있다. 또한, 본 발명은 움직이는 물체와 정적인 배경이 공존하는 영상의 크기 변경(resizing) 시, 시간 일관성을 고려한 영상 처리 방법으로 원본의 형태를 최대한 자연스럽게 유지하면서 물체의 움직임에 따른 영상의 울렁거림을 최소화하고 고품질의 영상을 표시할 수 있는 표시장치를 제공하는 효과가 있다.The present invention has the effect of providing an image processing method capable of maintaining temporal consistency while preventing a structural twist phenomenon when resizing an image. In addition, the present invention is an image processing method in consideration of temporal coherence when resizing an image in which a moving object and a static background coexist, while maintaining the original shape as natural as possible while minimizing the noise of the image due to the movement of the object. And there is an effect of providing a display device capable of displaying a high-quality image.

도 1은 표시장치의 개략적인 블록도.
도 2는 서브 픽셀의 개략적인 회로 구성 예시도.
도 3은 표시 패널의 단면 예시도.
도 4는 영상 처리 방법에 따른 영상의 크기 변경예를 나타낸 도면.
도 5는 실험예에 따른 영상 재지정 방법을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 영상 재지정 방법을 설명하기 위한 도면.
도 7은 도 6의 정경 단계를 구체적으로 나타낸 도면.
도 8은 및 도 9는 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제1예시도들.
도 10은 및 도 11은 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제2예시도들.
도 12는 실험예의 방법과 실시예의 방법을 사용함에 따라 최종 출력 영상에서 나타나는 변화의 양상을 알기 쉽게 도시한 도면.
1 is a schematic block diagram of a display device;
2 is a schematic circuit configuration diagram of a sub-pixel;
3 is a cross-sectional view of a display panel;
4 is a diagram illustrating an example of changing the size of an image according to an image processing method;
5 is a view for explaining an image reassignment method according to an experimental example;
6 is a view for explaining an image reassignment method according to an embodiment of the present invention.
Fig. 7 is a view showing the canon stage of Fig. 6 in detail;
8 and 9 are first exemplary views showing the results of comparative experiments between the Experimental Example and the Example in order to verify the effect of a method considering time consistency according to the Example.
10 and 11 are second exemplary views showing the results of comparative experiments between the Experimental Example and the Example in order to verify the effect of a method considering time consistency according to the Example.
12 is a diagram illustrating in an easy-to-understand manner the aspect of a change appearing in the final output image according to the method of the experimental example and the method of the embodiment.

이하, 본 발명의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 설명한다.Hereinafter, specific details for carrying out the present invention will be described with reference to the accompanying drawings.

본 발명에 표시장치는 전계발광표시장치(Light Emitting Display: LED), 액정표시장치(Liquid Crystal Display: LCD), 전계방출표시장치(Field Emission Display: FED), 전기영동표시장치(Electro Phoretic Display: EPD), 전기습윤표시장치(Electro-Wetting Display: EWD), 및 양자점표시장치(Quantum Dot display: QD) 등과 같은 표시장치 중 하나로 선택될 수 있으나 이에 한정되지 않는다.In the present invention, the display device is a light emitting display (LED), a liquid crystal display (LCD), a field emission display (FED), an electrophoretic display (Electro Phoretic Display: EPD), an electro-wetting display (EWD), and a quantum dot display (Quantum Dot display: QD) may be selected from among display devices such as, but not limited thereto.

도 1은 표시장치의 개략적인 블록도이고, 도 2는 서브 픽셀의 개략적인 회로 구성 예시도이며, 도 3은 표시 패널의 단면 예시도이고, 도 4는 영상 처리 방법에 따른 영상의 크기 변경예를 나타낸 도면이다.1 is a schematic block diagram of a display device, FIG. 2 is a schematic circuit configuration diagram of a sub-pixel, FIG. 3 is a cross-sectional diagram of a display panel, and FIG. 4 is an example of changing the size of an image according to an image processing method is a diagram showing

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 표시장치에는 영상 처리부(110), 타이밍 제어부(120), 데이터 구동부(130), 스캔 구동부(140) 및 표시 패널(150)이 포함된다. 영상 처리부(110) 및 타이밍 제어부(120)는 IC(Integrated Circuit) 형태로 통합되어 하나의 제어부로 구현될 수 있으나 이에 한정되지 않는다.1 , the display device according to an embodiment of the present invention includes an image processor 110 , a timing controller 120 , a data driver 130 , a scan driver 140 , and a display panel 150 . . The image processing unit 110 and the timing control unit 120 may be integrated in the form of an integrated circuit (IC) and implemented as one control unit, but is not limited thereto.

영상 처리부(110)는 외부로부터 공급된 영상 데이터신호(DATA)에 대한 영상 처리를 하고 영상 처리된 데이터신호(DATA)와 더불어 데이터 인에이블 신호(DE) 등을 출력한다. 영상 처리부(110)는 데이터 인에이블 신호(DE) 외에도 수직 동기신호, 수평 동기신호 및 클럭신호 중 하나 이상을 출력할 수 있으나 이 신호들은 설명의 편의상 생략 도시한다.The image processing unit 110 performs image processing on the image data signal DATA supplied from the outside, and outputs a data enable signal DE and the like along with the image-processed data signal DATA. The image processing unit 110 may output one or more of a vertical synchronization signal, a horizontal synchronization signal, and a clock signal in addition to the data enable signal DE, but these signals are omitted for convenience of description.

타이밍 제어부(120)는 영상 처리부(110)로부터 데이터 인에이블 신호(DE) 또는 수직 동기신호, 수평 동기신호 및 클럭신호 등을 포함하는 구동신호와 더불어 데이터신호(DATA)를 공급받는다. 타이밍 제어부(120)는 구동신호에 기초하여 스캔 구동부(140)의 동작 타이밍을 제어하기 위한 게이트 타이밍 제어신호(GDC)와 데이터 구동부(130)의 동작 타이밍을 제어하기 위한 데이터 타이밍 제어신호(DDC)를 출력한다.The timing controller 120 receives the data signal DATA from the image processing unit 110 as well as a driving signal including a data enable signal DE or a vertical synchronization signal, a horizontal synchronization signal, and a clock signal. The timing controller 120 includes a gate timing control signal GDC for controlling the operation timing of the scan driver 140 and a data timing control signal DDC for controlling the operation timing of the data driver 130 based on the driving signal. to output

데이터 구동부(130)는 타이밍 제어부(120)로부터 공급된 데이터 타이밍 제어신호(DDC)에 응답하여 타이밍 제어부(120)로부터 공급되는 데이터신호(DATA)를 샘플링하고 래치하여 감마 기준전압으로 변환하여 출력한다. 데이터 구동부(130)는 데이터라인들(DL1 ~ DLn)을 통해 데이터신호(DATA)를 출력한다. 데이터 구동부(130)는 IC 형태로 형성될 수 있다.The data driver 130 samples and latches the data signal DATA supplied from the timing controller 120 in response to the data timing control signal DDC supplied from the timing controller 120 , converts it into a gamma reference voltage, and outputs it . The data driver 130 outputs the data signal DATA through the data lines DL1 to DLn. The data driver 130 may be formed in the form of an IC.

스캔 구동부(140)는 타이밍 제어부(120)로부터 공급된 게이트 타이밍 제어신호(GDC)에 응답하여 게이트전압의 레벨을 시프트시키면서 스캔신호를 출력한다. 스캔 구동부(140)는 스캔라인들(GL1 ~ GLm)을 통해 스캔신호를 출력한다. 스캔 구동부(140)는 IC 형태로 형성되거나 표시 패널(150)에 게이트인패널(Gate In Panel) 방식으로 형성된다.The scan driver 140 outputs a scan signal while shifting the level of the gate voltage in response to the gate timing control signal GDC supplied from the timing controller 120 . The scan driver 140 outputs a scan signal through the scan lines GL1 to GLm. The scan driver 140 is formed in the form of an IC or is formed in the display panel 150 in a gate-in-panel method.

표시 패널(150)은 데이터 구동부(130) 및 스캔 구동부(140)로부터 공급된 데이터신호(DATA) 및 스캔신호에 대응하여 영상을 표시한다. 표시 패널(150)은 영상을 표시할 수 있도록 동작하는 서브 픽셀들(SP)을 포함한다. 서브 픽셀들(SP)은 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀을 포함하거나 백색 서브 픽셀, 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀을 포함한다. 표시 패널(150)은 서브 픽셀들(SP)에 포함된 픽셀회로(PC)의 구성에 따라 액정표시패널, 전계발광표시패널, 전기영동표시패널 등으로 구분될 수 있다.The display panel 150 displays an image in response to the data signal DATA and the scan signal supplied from the data driver 130 and the scan driver 140 . The display panel 150 includes sub-pixels SP that operate to display an image. The sub-pixels SP include a red sub-pixel, a green sub-pixel, and a blue sub-pixel, or include a white sub-pixel, a red sub-pixel, a green sub-pixel, and a blue sub-pixel. The display panel 150 may be classified into a liquid crystal display panel, an electroluminescent display panel, an electrophoretic display panel, etc. according to the configuration of the pixel circuit PC included in the sub-pixels SP.

도 2에 도시된 바와 같이, 하나의 서브 픽셀(SP)에는 스캔 라인(GL1)과 데이터 라인(DL1)에 연결된 스위칭 트랜지스터(SW)와 스위칭 트랜지스터(SW)를 통해 공급된 스캔신호에 대응하여 공급된 데이터신호에 대응하여 동작하는 픽셀회로(PC)가 포함된다. 예컨대, 표시 패널이 전계발광표시패널로 선택된 경우, 서브 픽셀(SP)의 픽셀회로(PC)는 구동 트랜지스터, 스토리지 커패시터 및 유기 발광다이오드와 더불어 다양한 형태의 보상회로가 더 추가되도록 구성될 수 있다.As shown in FIG. 2 , one sub-pixel SP is supplied in response to a scan signal supplied through the switching transistor SW connected to the scan line GL1 and the data line DL1 and the switching transistor SW. A pixel circuit (PC) operating in response to the data signal is included. For example, when the display panel is selected as the electroluminescent display panel, the pixel circuit PC of the sub-pixel SP may be configured to further include various types of compensation circuits in addition to a driving transistor, a storage capacitor, and an organic light emitting diode.

도 3에 도시된 바와 같이, 표시 패널(150)은 표시영역(AA)과 비표시영역(NA)을 갖는 기판(또는 박막 트랜지스터 기판)(150a)과 보호필름(또는 보호기판)(150b)을 포함한다. 표시영역(AA)에는 도 2에서 설명된 회로를 기반으로 픽셀(P)이 형성된다. 표시영역(AA) 상에 배치된 픽셀(P)은 적색(R), 백색(W), 청색(B) 및 녹색(G)의 서브 픽셀을 포함한다. 적색(R), 백색(W), 청색(B) 및 녹색(G)의 서브 픽셀은 기판(150a) 상에 수평 또는 수직하게 배치될 수 있다. 그러나 앞서 설명된 서브 픽셀들의 배치 순서는 하나의 예시일 뿐 표시 패널(150)의 구현 방식에 따라 다양하게 변경될 수 있다. 그러나 픽셀(P)은 적색(R), 청색(B) 및 녹색(G)의 서브 픽셀만 포함할 수도 있다.As shown in FIG. 3 , the display panel 150 includes a substrate (or thin film transistor substrate) 150a having a display area AA and a non-display area NA and a protective film (or protective substrate) 150b. include A pixel P is formed in the display area AA based on the circuit illustrated in FIG. 2 . The pixel P disposed on the display area AA includes red (R), white (W), blue (B), and green (G) sub-pixels. The red (R), white (W), blue (B), and green (G) sub-pixels may be horizontally or vertically disposed on the substrate 150a. However, the arrangement order of the sub-pixels described above is only an example and may be variously changed according to an implementation method of the display panel 150 . However, the pixel P may include only red (R), blue (B), and green (G) sub-pixels.

앞서 설명된 표시장치는 텔레비젼, 영상 플레이어, 개인용 컴퓨터(PC), 홈시어터, 스마트폰, 증강/가상 현실기기 등으로 구현될 수 있다. 표시장치는 앞의 예와 같이 다양한 형태로 구현됨은 물론이고 다양한 크기의 종횡비를 갖는다.The display device described above may be implemented as a TV, an image player, a personal computer (PC), a home theater, a smart phone, an augmented/virtual reality device, and the like. The display device is implemented in various forms as in the previous example and has aspect ratios of various sizes.

이처럼 표시장치는 다양한 형태로 제작되고 있지만, 정작 영상 콘텐츠는 특정 대상의 종횡비에 맞게 생성되고 있다. 예컨대, 영상 콘텐츠는 텔레비전 등과 같은 특정 대상에 적합한 영상 포맷의 한 형태로 표준화되어 있어 홈시어터, 스마트폰, 증강/가상 현실기기 등에 구현시 원본 콘텐츠 대비 종횡비 차이가 발생하게 된다.Although display devices are produced in various forms as described above, video content is actually created to fit the aspect ratio of a specific target. For example, image content is standardized in a form of an image format suitable for a specific target such as a television, so that when implemented in a home theater, smart phone, augmented/virtual reality device, etc., an aspect ratio difference occurs compared to the original content.

이 때문에, 특정 표시장치는 임의의 크기의 영상이 입력되면 장치의 환경에 맞는 영상을 구현하기 위해 원본의 형태를 유지하면 영상의 크기를 변경(resizing)하는 등의 영상 처리를 수행해야 한다. 영상 처리는 영상 처리부나 타이밍 제어부 또는 영상 처리부와 타이밍 제어부의 연동에 의해 이루어질 수 있으나 이에 한정되지 않는다.For this reason, when an image of an arbitrary size is input, the specific display device needs to perform image processing such as resizing the image while maintaining the original shape in order to realize an image suitable for the environment of the device. The image processing may be performed by the image processing unit, the timing control unit, or the image processing unit and the timing control unit, but is not limited thereto.

도 4 (a)의 제1예시와 같이, 가로(16)*세로(9)의 크기로 입력된 입력 영상(Video input)은 가로(18)*세로(9)의 출력 영상(Video output)으로 영상의 크기가 변경될 수 있다. 도 4 (b)의 제2예시와 같이, 가로(18)*세로(9)의 크기로 입력된 입력 영상(Video input)은 가로(16)*세로(9)의 출력 영상(Video output)으로 영상의 크기가 변경될 수 있다.As in the first example of Fig. 4 (a), the input image input in the size of horizontal (16) * vertical (9) (Video input) is horizontal (18) * vertical (9) as an output image (Video output) The size of the image may be changed. As in the second example of FIG. 4 (b), the input image input in the size of horizontal (18) * vertical (9) is a horizontal (16) * vertical (9) output image (Video output) The size of the image may be changed.

도 4에서는 (a) 및 (b)와 같이 입력 영상(Video input)의 어느 한 부분(예와 같이 우측)만 크기를 변경하는 것을 일례로 하였지만, 이는 하나의 예시일 뿐 적어도 어느 한 부분에 해당하는 것으로 이해되어야 한다. 예를 들면, 입력 영상의 상, 하, 좌, 우 중 하나의 크기를 변경하거나 상하, 좌우 또는 상하좌우를 변경할 수도 있다.4, as shown in (a) and (b), changing the size of only one part (right side as in the example) of the video input is an example, but this is only an example and corresponds to at least one part should be understood as For example, the size of one of the top, bottom, left, and right of the input image may be changed, or the size of the input image may be changed up and down, left and right, or up and down, left and right.

이처럼, 영상의 크기를 변경할 때에는 입력된 영상의 종횡비를 재지정(retarget)하는 것은 물론이고 이때 원본의 형태를 최대한 자연스럽게 유지하기 위해 왜곡 등을 방지할 필요가 있다.As such, when changing the size of an image, it is necessary to not only retarget the aspect ratio of the input image, but also to prevent distortion in order to keep the original shape as natural as possible.

이하에서는 실험예에 따른 영상 재지정(video retargeting) 방식을 하나 선택하고 이의 문제점을 연구 및 고찰한 후 실험예로부터 예견 및 발생하고 있는 문제를 개선한 실시예를 설명한다.Hereinafter, after selecting one video retargeting method according to the experimental example and studying and considering its problems, an embodiment in which problems predicted and occurring from the experimental example are improved will be described.

<실험예><Experimental example>

도 5는 실험예에 따른 영상 재지정 방법을 설명하기 위한 도면이다.5 is a diagram for explaining an image reassignment method according to an experimental example.

도 5에 도시된 바와 같이, 실험예에 따른 영상 재지정 방법은 영상 입력 단계(S110), 입력된 영상에 대한 2차원 두드러짐 추정 단계(S120), 정경 단계(S130), 표현 단계(S140) 및 재지정 영상 출력 단계(S150)를 포함한다.As shown in Fig. 5, the image reassignment method according to the experimental example includes an image input step (S110), a two-dimensional prominence estimation step for the input image (S120), a scene step (S130), an expression step (S140), and and outputting the redirected image ( S150 ).

영상 입력 단계(S110)는 외부로부터 임의의 입력 영상(Video input)을 입력받는 단계이다.The video input step S110 is a step of receiving an arbitrary video input from the outside.

2차원 두드러짐 추정(2D saliency estimation) 단계(S120)는 입력 영상 내에서 시각적으로 중요한 부분(눈의 초점 또는 관심도 집중 영역 등으로 정의될 수 있음)을 추정하는 단계이다. 2차원 두드러짐은 각 행과 열의 중요성을 결정하기 위해 수평 및 수직의 1차원 두드러짐 프로파일로 구분되어 돌출된다.The 2D saliency estimation step S120 is a step of estimating a visually important part (which may be defined as a focus of an eye or an area of concentration of interest, etc.) in the input image. The two-dimensional salience is divided into horizontal and vertical one-dimensional salience profiles to determine the importance of each row and column and protrude.

2차원 두드러짐 추정 단계(S120)는 낮은 수준의 두드러짐 맵(low-level saliency map)을 사용하기 위해, 다운 샘플링 단계(S121), 쿼터니언 푸리에 변환 단계(S122) 및 가우시안 필터링 단계(S123)를 포함한다.The two-dimensional saliency estimation step S120 includes a downsampling step S121, a quaternion Fourier transform step S122, and a Gaussian filtering step S123 to use a low-level saliency map. .

다운 샘플링(Down sampling) 단계(S121)는 입력된 영상 내에서 데이터가 많은 쪽을 적게 추출하는 단계이다. 다운 샘플링 단계는 낮은 수준의 두드러짐 맵을 사용하기 위한 전처리 단계로 정의될 수 있다. 다운 샘플링을 하면 이후의 과정에서 수행되는 모든 계산 과정에서 발생할 수 있는 복잡도를 낮출 수 있다.The down sampling step S121 is a step of extracting less data from the input image. The downsampling step can be defined as a preprocessing step to use a low-level saliency map. Downsampling can reduce the complexity that may occur in all calculations performed in subsequent steps.

쿼터니언 푸리에 변환 두드러짐 추정(quaternion fourier transform; QFT saliency) 단계(S122)는 다운 샘플링된 영상 내에서 시각적으로 두드러진 부분을 추정할 수 있도록 영상 시퀀스의 위상 스펙트럼을 얻고 이로부터 추정 결과를 획득하는 단계이다.The quaternion fourier transform saliency estimation (QFT saliency) step S122 is a step of obtaining a phase spectrum of an image sequence and obtaining an estimation result therefrom so as to estimate a visually salient part within the down-sampled image.

예컨대, 움직임을 갖는 RGB 동영상 정보는 쿼터니언 재표현 (4 개의 성분을 갖는 복소수)으로 변환된 후 쿼터니언 푸리에 변환법(이하 QFT)에 따라 주파수 공간으로 변환된다. 주파수 영역에서의 위상 정보는 각 쿼터니온을 크기로 정규화되어 추출된다. 그 결과 두드러진 부분은 부드럽게 흐려진다.For example, RGB video information having motion is transformed into a quaternion representation (a complex number having four components) and then transformed into a frequency space according to a quaternion Fourier transform (hereinafter, QFT). Phase information in the frequency domain is extracted by normalizing each quaternion to a magnitude. As a result, prominent areas are gently blurred.

가우시안 필터링(Gaussian filtering) 단계(S123)는 추정 결과로 획득한 두드러진 부분에서 고주파 잡음을 제거하는 단계이다. 실험예에서는 고주파 잡음을 제거하기 위해 가우시안 필터링 방법을 사용하는 것을 일례로 하였으나 이에 한정되지 않는다. 또한, 필터링 단계는 경우에 따라 생략될 수도 있다.The Gaussian filtering step S123 is a step of removing high-frequency noise from a prominent portion obtained as a result of the estimation. In the experimental example, the Gaussian filtering method is used as an example to remove high-frequency noise, but the present invention is not limited thereto. Also, the filtering step may be omitted in some cases.

정경(Warping) 단계(S130)는 앞서 구한 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 그리드 크기(grid size)를 계산한 후 그리드 맵(grid map)을 생성하는 단계이다.The warping step (S130) is a step of calculating a grid size corresponding to each point of the input image according to the target resolution in consideration of the previously obtained saliency value, and then generating a grid map to be.

정경 단계(S130)는 각 축별로 그리드 크기를 계산하고 이들에 대해 동일한 크기의 그리드 크기를 부여하기 위해, 1차원 두드러짐 계산 단계(S131), 비선형 1차원 스케일 단계(S132), 필터링 단계(S133), 업 샘플링 단계(S134) 및 그리드 생성 단계(S135)를 포함한다.In the canon step (S130), a one-dimensional prominence calculation step (S131), a non-linear one-dimensional scale step (S132), and a filtering step (S133) are performed to calculate the grid size for each axis and to give a grid size of the same size to them. , including an up-sampling step (S134) and a grid generation step (S135).

1차원 두드러짐(1D saliency) 계산 단계(S131)는 수평 및 수직의 1차원 두드러짐 프로파일 각각에 대해 축별 그리드 크기를 계산하는 단계이다. 예컨대, 1차원 두드러짐을 계산할 때에는 수평 1차원 두드러짐 프로파일 및 수직 1차원 두드러짐 프로파일의 일정 영역을 각각 블록화하는 방식으로 일정 단위의 픽셀들을 기준으로 두드러짐 값을 계산(블록 단위 누적 계산)할 수 있으나 이에 한정되지 않는다.The 1D saliency calculation step S131 is a step of calculating the grid size for each axis for each of the horizontal and vertical 1D saliency profiles. For example, when calculating the 1D saliency, the saliency value may be calculated based on pixels of a predetermined unit (accumulated calculation in block units) in a manner that blocks predetermined areas of the horizontal 1D saliency profile and the vertical 1D salience profile, respectively, but limited to this. doesn't happen

비선형 1차원 스케일(Non-linear 1D scale) 단계(S132)는 시각적으로 두드러진 부분과 같이 중요한 영역의 종횡비를 유지하기 위해 수직 방향 및 수평 방향 모두에 대해 비선형적인 스케일 벡터를 계산하는 단계이다. 예컨대, 스케일 벡터 계산 시, 시각적으로 낮거나 없는 중요 영역을 축소할 경우 1 보다 낮은 스케일링 값을 가질 수 있고, 그 반대로 확대할 경우 1 보다 높은 스케일링 값을 가질 수 있다. 이때, 스케일링의 모든 요소의 합 벡터는 영상 재지정(video retargeting)을 고려하기 위해 요구된 목표 크기와 일치해야 한다.Non-linear 1D scale step S132 is a step of calculating a non-linear scale vector for both the vertical and horizontal directions in order to maintain the aspect ratio of an important area, such as a visually prominent part. For example, when a scale vector is calculated, when a visually low or no important area is reduced, a scaling value lower than 1 may be obtained, and vice versa, a scaling value higher than 1 may have a scaling value higher than 1. In this case, the sum vector of all elements of the scaling must match the target size required to consider video retargeting.

필터링(Filtering) 단계(S133)는 비선형 1차원 스케일 계산 후 포스트 필터를 적용하여 정규화를 직접 시행하는 단계이다. 입력 영상은 비선형 1차원 스케일 계산까지의 과정을 통해 두드러진 부분 안에서의 고주파 및 저주파 변동을 거치므로 출력 영상에 대한 시공간적 변동을 가져올 수 있다. 그러므로 포스트 필터를 적용하여 정규화를 직접 시행하면 시공간적 변동에 따른 문제를 해소할 수 있다.The filtering step ( S133 ) is a step of directly performing normalization by applying a post filter after calculating the nonlinear one-dimensional scale. Since the input image undergoes high-frequency and low-frequency fluctuations within the prominent part through the process up to the nonlinear one-dimensional scale calculation, spatiotemporal fluctuations in the output image can be brought about. Therefore, if normalization is directly performed by applying a post filter, the problem caused by spatiotemporal fluctuations can be solved.

예컨대, 필터링 단계(S133)에서는 고주파 성분을 없애기 위해 비인과적 유한 임펄스 응답(acausal finite impulse response; aFIR) 필터를 사용할 수 있고, 저주파 성분을 없애기 위해 무한 임펄스 응답(infinite impulse response; IIR) 필터를 사용할 수 있으나 이에 한정되지 않는다.For example, in the filtering step S133, a non-causal finite impulse response (aFIR) filter may be used to remove the high frequency component, and an infinite impulse response (IIR) filter may be used to remove the low frequency component. may be, but is not limited thereto.

업 샘플링(Up sampling) 단계(S134)는 입력된 영상 내에서 데이터가 적은 쪽을 더 많이 추출하는 단계이다. 앞서와 같은 과정을 통해 마련된 샘플링 그리드를 기반으로 실제 목표 해상도를 달성하기 위해서는 수평 및 수직 스케일링 벡터들을 선형적으로 업 샘플링한 후 다시 샘플링 그리드(resampling grid)를 생성해야 하므로, 이 단계를 거치게 된다.The up-sampling step S134 is a step of extracting more data from less data in the input image. In order to achieve the actual target resolution based on the sampling grid prepared through the above process, it is necessary to linearly upsample the horizontal and vertical scaling vectors and then generate a sampling grid again, so this step is performed.

그리드 생성(Grid generation) 단계(S135)는 다시 마련된 샘플링 그리드를 기반으로 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 그리드 크기(grid size)를 계산한 후 그리드 맵(grid map)을 생성하는 단계이다.In the grid generation step (S135), the grid size corresponding to each point of the input image is calculated according to the target resolution by considering the saliency value based on the re-prepared sampling grid, and then the grid map ( This is the step to create a grid map).

표현(Rendering) 단계(S140)는 이전 단계를 통해 생성된 그리드 맵과 입력 영상을 이용하여 최종적으로 출력할 재지정(retarget) 영상을 표현 및 생성하는 단계이다. 표현 단계(S140)는 타원 가중치 평균(elliptical weighted average; EWA splatting) 방식의 프레임워크(framework) 등을 기반으로 재지정(retarget) 영상을 만들 수 있다. 이때, EWA 프레임 워크는 순방향 매핑을 사용할 수 있고, 최대 해상도 입력 스트림 하에 영상을 다시 샘플링할 수도 있다.The rendering step ( S140 ) is a step of expressing and generating a retarget image to be finally output using the grid map and the input image generated through the previous step. The expression step S140 may create a retargeted image based on a framework of an elliptical weighted average (EWA splatting) method and the like. In this case, the EWA framework may use forward mapping and may resample an image under the maximum resolution input stream.

재지정 영상 출력(Retarget video output) 단계(S150)는 입력된 영상에 대하여 종횡비가 재지정된 재지정 영상을 출력하는 단계이다.The retarget video output step S150 is a step of outputting a retargeted image whose aspect ratio is redefined with respect to the input image.

실험예는 영상의 영역별 중요도를 계산하고, 이를 고려하여 목표로 하는 해상도에 맞게 입력 영상의 각 포인트의 그리드 크기(grid size)를 계산하고, 그리드 맵(grid map)을 생성하고 이를 이용하여 영상을 표현 및 생성하는 영상 재지정(video retargeting) 방식이다.The experimental example calculates the importance of each area of the image, calculates the grid size of each point of the input image according to the target resolution by taking this into account, generates a grid map, and uses this to calculate the grid size It is a video retargeting method that expresses and generates

실험예는 특히 축별로 그리드 크기를 계산 및 동일한 크기의 그리드 크기를 부여하여 입력 영상에서 같은 축 상에 있던 물체가 출력 영상에서 다른 축 상에 존재하는 구조적 뒤틀림(structure twist)과 같은 왜곡을 방지할 수 있는 이점이 있는 것으로 검토된다.In particular, the experimental example calculates the grid size for each axis and gives the grid size of the same size to prevent distortion such as structure twist in which an object on the same axis in the input image is on a different axis in the output image. It is considered to have potential advantages.

그러나 실험예는 움직이는 물체가 존재하는 영상에 적용하기 어려운 것으로 검토된다. 일례로, 움직이는 물체의 그리드 크기를 유지하는 것에 우선순위를 둘 경우, 정적인 배경의 그리드 크기가 물체의 움직임에 따라 달라진다. 다른 예로, 정적인 배경의 그리드 크기를 유지하는 것에 우선순위를 둘 경우, 물체의 이동에 따라 그리드 크기가 달라진다. 이처럼, 실험예는 하나의 축에 움직이는 물체와 정적인 배경이 동시에 존재하기 때문에 어느 한쪽에 우선순위를 둘 경우 다른 한쪽이 영향을 받게 되어 영상의 울렁거림 현상을 유발하기 때문이다.However, the experimental example is considered to be difficult to apply to an image in which a moving object exists. For example, if priority is given to maintaining the grid size of a moving object, the grid size of the static background changes according to the movement of the object. As another example, if priority is given to maintaining the grid size of the static background, the grid size changes according to the movement of the object. As such, in the experimental example, since a moving object and a static background exist on one axis at the same time, if one is given priority, the other will be affected, and this is because the sound of the image is caused.

<실시예><Example>

도 6은 본 발명의 실시예에 따른 영상 재지정 방법을 설명하기 위한 도면이고, 도 7은 도 6의 정경 단계를 구체적으로 나타낸 도면이다.6 is a diagram for explaining an image reassignment method according to an embodiment of the present invention, and FIG. 7 is a diagram specifically illustrating the scene stage of FIG. 6 .

도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 재지정 방법은 영상 입력 단계(S210), 입력된 영상에 대한 2차원 두드러짐 추정 단계(S220), 정경 단계(S230), 표현 단계(S240) 및 재지정 영상 출력 단계(S250)를 포함한다.As shown in FIG. 6 , the image reassignment method according to an embodiment of the present invention includes an image input step (S210), a two-dimensional prominence estimation step (S220) for the input image, a scene step (S230), an expression step ( S240) and a redirected image output step (S250).

영상 입력 단계(S210)는 외부로부터 임의의 입력 영상(Video input)을 입력받는 단계이다.The video input step S210 is a step of receiving an arbitrary video input from the outside.

2차원 두드러짐 추정(2D saliency estimation) 단계(S220)는 입력 영상 내에서 시각적으로 중요한 부분(눈의 초점 또는 관심도 집중 영역 등으로 정의될 수 있음)을 추정하는 단계이다. 2차원 두드러짐은 각 행과 열의 중요성을 결정하기 위해 수평 및 수직의 1차원 두드러짐 프로파일로 구분되어 돌출된다.The 2D saliency estimation step S220 is a step of estimating a visually important part (which may be defined as an eye focus or an area of concentration of interest, etc.) in the input image. The two-dimensional salience is divided into horizontal and vertical one-dimensional salience profiles to determine the importance of each row and column and protrude.

2차원 두드러짐 추정 단계(S220)는 낮은 수준의 두드러짐 맵(low-level saliency map)을 사용하기 위해, 다운 샘플링 단계(S221), 쿼터니언 푸리에 변환 단계(S222) 및 가우시안 필터링 단계(S223)를 포함한다.The two-dimensional saliency estimation step S220 includes a down-sampling step S221, a quaternion Fourier transform step S222, and a Gaussian filtering step S223 to use a low-level saliency map. .

다운 샘플링(Down sampling) 단계(S221)는 입력된 영상 내에서 데이터가 많은 쪽을 적게 추출하는 단계이다. 다운 샘플링 단계는 낮은 수준의 두드러짐 맵을 사용하기 위한 전처리 단계로 정의될 수 있다. 다운 샘플링을 하면 이후의 과정에서 수행되는 모든 계산 과정에서 발생할 수 있는 복잡도를 낮출 수 있다.The down sampling step S221 is a step of extracting less data from the input image. The downsampling step can be defined as a preprocessing step to use a low-level saliency map. Downsampling can reduce the complexity that may occur in all calculations performed in subsequent steps.

쿼터니언 푸리에 변환 두드러짐 추정(quaternion fourier transform; QFT saliency) 단계(S222)는 다운 샘플링된 영상 내에서 시각적으로 두드러진 부분을 추정할 수 있도록 영상 시퀀스의 위상 스펙트럼을 얻고 이로부터 추정 결과를 획득하는 단계이다.The quaternion fourier transform saliency estimation (QFT saliency) step S222 is a step of obtaining a phase spectrum of an image sequence and obtaining an estimation result therefrom so as to estimate a visually salient part in the down-sampled image.

예컨대, 움직임을 갖는 RGB 동영상 정보는 쿼터니언 재표현 (4 개의 성분을 갖는 복소수)으로 변환된 후 쿼터니언 푸리에 변환법(이하 QFT)에 따라 주파수 공간으로 변환된다. 주파수 영역에서의 위상 정보는 각 쿼터니온을 크기로 정규화되어 추출된다. 그 결과 두드러진 부분은 부드럽게 흐려진다.For example, RGB video information having motion is transformed into a quaternion representation (a complex number having four components) and then transformed into a frequency space according to a quaternion Fourier transform (hereinafter, QFT). Phase information in the frequency domain is extracted by normalizing each quaternion to a magnitude. As a result, prominent areas are gently blurred.

가우시안 필터링(Gaussian filtering) 단계(S223)는 추정 결과로 획득한 두드러진 부분에서 고주파 잡음을 제거하는 단계이다. 실시예에서는 고주파 잡음을 제거하기 위해 가우시안 필터링 방법을 사용하는 것을 일례로 하였으나 이에 한정되지 않는다. 또한, 필터링 단계는 경우에 따라 생략될 수도 있다.The Gaussian filtering step S223 is a step of removing high-frequency noise from a prominent portion obtained as a result of the estimation. In the embodiment, the Gaussian filtering method is used as an example to remove high-frequency noise, but the present invention is not limited thereto. Also, the filtering step may be omitted in some cases.

정경(Warping) 단계(S230)는 앞서 구한 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 제1그리드 크기(grid size)를 계산하고, 시간 일관성을 고려한 제2그리드 크기를 계산하고, 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵(grid map)을 생성하는 단계이다.In the warping step (S230), the first grid size corresponding to each point of the input image is calculated according to the target resolution in consideration of the previously obtained saliency value, and the second grid size in consideration of temporal consistency , and a final grid size is calculated based on the first and second grid sizes, and then a grid map is generated.

도 6 및 도 7에 도시된 바와 같이, 정경 단계(S230)는 각 축에서 움직이는 물체와 정적인 배경의 비율을 고려하여 각각 계산된 제1그리드 크기값과 제2그리드 크기값을 선형 결합하는 방식으로 최종 그리드 크기를 계산하기 위해, 제1그리드 계산 단계(S239)와 제2그리드 계산 단계(S236), 최종 그리드 계산 단계(S237), 및 그리드 맵 생성 단계(S238)를 포함한다.6 and 7, in the canon step S230, the first grid size value and the second grid size value calculated in consideration of the ratio of the moving object and the static background on each axis are linearly combined. In order to calculate the final grid size as , a first grid calculation step (S239), a second grid calculation step (S236), a final grid calculation step (S237), and a grid map generation step (S238) are included.

제1그리드 계산 단계(S239)는 앞서 구한 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 입력 영상의 각 포인트에 해당하는 그리드 크기(grid size)를 계산하는 단계이다. 높은 두드러짐 값을 가질수록 원본과 유사한 그리드 크기를 갖게 된다. 일반적으로 움직이는 물체는 높은 두드러짐 값을 갖는다.The first grid calculation step S239 is a step of calculating a grid size corresponding to each point of the input image according to the target resolution in consideration of the previously obtained saliency value. The higher the saliency value, the more similar the grid size to the original. In general, moving objects have a high saliency value.

제1그리드 계산 단계(S239)는 각 축별로 그리드 크기를 계산하고 이들에 대해 동일한 크기의 그리드 크기를 부여하기 위해, 1차원 두드러짐 계산 단계(S231), 비선형 1차원 스케일 단계(S232), 필터링 단계(S233) 및 업 샘플링 단계(S234)를 포함한다.The first grid calculation step (S239) is a one-dimensional prominence calculation step (S231), a non-linear one-dimensional scale step (S232), a filtering step in order to calculate the grid size for each axis and give a grid size of the same size to them. (S233) and an up-sampling step (S234).

1차원 두드러짐(1D saliency) 계산 단계(S231)는 수평 및 수직의 1차원 두드러짐 프로파일 각각에 대해 축별 제1그리드 크기를 계산하는 단계이다. 예컨대, 1차원 두드러짐을 계산할 때에는 수평 1차원 두드러짐 프로파일 및 수직 1차원 두드러짐 프로파일의 일정 영역을 각각 블록화하는 방식으로 일정 단위의 픽셀들을 기준으로 두드러짐 값을 계산(블록 단위 누적 계산)할 수 있으나 이에 한정되지 않는다.The 1D saliency calculation step S231 is a step of calculating the first grid size for each axis for each of the horizontal and vertical 1D saliency profiles. For example, when calculating the 1D saliency, the saliency value may be calculated based on pixels of a predetermined unit (accumulated calculation in block units) in a manner that blocks predetermined areas of the horizontal 1D saliency profile and the vertical 1D salience profile, respectively, but limited to this. doesn't happen

비선형 1차원 스케일(Non-linear 1D scale) 단계(S232)는 시각적으로 두드러진 부분과 같이 중요한 영역의 종횡비를 유지하기 위해 수직 방향 및 수평 방향 모두에 대해 비선형적인 스케일 벡터를 계산하는 단계이다. 스케일 벡터 계산 시, 시각적으로 낮거나 없는 중요 영역을 축소할 경우 1 보다 낮은 스케일링 값을 가질 수 있고, 그 반대로 확대할 경우 1 보다 높은 스케일링 값을 가질 수 있다. 이때, 스케일링의 모든 요소의 합 벡터는 영상 재지정(video retargeting)을 고려하기 위해 요구된 목표 크기와 일치해야 한다. 비선형 1차원 스케일은 하기의 수식에 의해 계산될 수 있다.The non-linear 1D scale step S232 is a step of calculating a non-linear scale vector in both the vertical direction and the horizontal direction in order to maintain the aspect ratio of an important area, such as a visually prominent part. When calculating the scale vector, when a visually low or absent important area is reduced, it may have a scaling value lower than 1, and vice versa, it may have a scaling value higher than 1 when it is enlarged. In this case, the sum vector of all elements of the scaling must match the target size required to consider video retargeting. The nonlinear one-dimensional scale may be calculated by the following equation.

Figure 112017114597278-pat00003
Figure 112017114597278-pat00003

위의 수식에서 GS s Down (k)는 k번째 축에서의 그리드 크기를 나타내고, S h 는 두드러짐 값을 나타내고,In the above formula, GS s Down (k) represents the grid size on the k- th axis, S h represents the salience value,

W' down 은 목표 해상도의 폭의 1/2값을 의미하고, R max 은 그리드 크기의 최대값을 의미하고, R min 은 그리드 크기의 최소값을 의미한다. W' down means 1/2 of the width of the target resolution, R max means the maximum value of the grid size, and R min means the minimum value of the grid size.

필터링(Filtering) 단계(S233)는 비선형 1차원 스케일 계산 후 포스트 필터를 적용하여 정규화를 직접 시행하는 단계이다. 입력 영상은 비선형 1차원 스케일 계산까지의 과정을 통해 두드러진 부분 안에서의 고주파 및 저주파 변동을 거치므로 출력 영상에 대한 시공간적 변동을 가져올 수 있다. 그러므로 포스트 필터를 적용하여 정규화를 직접 시행하면 시공간적 변동에 따른 문제를 해소할 수 있다.The filtering step ( S233 ) is a step of directly performing normalization by applying a post filter after calculating the nonlinear one-dimensional scale. Since the input image undergoes high-frequency and low-frequency fluctuations within the prominent part through the process up to the nonlinear one-dimensional scale calculation, spatiotemporal fluctuations in the output image can be brought about. Therefore, if normalization is directly performed by applying a post filter, the problem caused by spatiotemporal fluctuations can be solved.

예컨대, 필터링 단계(S233)에서는 고주파 성분을 없애기 위해 비인과적 유한 임펄스 응답(acausal finite impulse response; aFIR) 필터를 사용할 수 있고, 저주파 성분을 없애기 위해 무한 임펄스 응답(infinite impulse response; IIR) 필터를 사용할 수 있으나 이에 한정되지 않는다.For example, in the filtering step S233, a non-causal finite impulse response (aFIR) filter may be used to remove the high frequency component, and an infinite impulse response (IIR) filter may be used to remove the low frequency component. may be, but is not limited thereto.

업 샘플링(Up sampling) 단계(S234)는 입력된 영상 내에서 데이터가 적은 쪽을 더 많이 추출하는 단계이다. 앞서와 같은 과정을 통해 마련된 샘플링 그리드를 기반으로 실제 목표 해상도를 달성하기 위해서는 수평 및 수직 스케일링 벡터들을 선형적으로 업 샘플링한 후 다시 샘플링 그리드(resampling grid)를 생성해야 하므로, 이 단계를 거치게 된다.The up-sampling step S234 is a step of extracting more data from less data in the input image. In order to achieve the actual target resolution based on the sampling grid prepared through the above process, it is necessary to linearly upsample the horizontal and vertical scaling vectors and then generate a sampling grid again, so this step is performed.

제2그리드 계산 단계(S236)는 시간 일관성을 고려해서 그리드 크기(grid size)를 계산하기 위해 이전 프레임의 그리드 포인트와 현재 프레임의 그리드 포인트의 위치가 동일해질 수 있도록 그리드 크기를 계산하는 단계이다. 이 단계에서는 이전 프레임의 그리드 포인트와 현재 프레임의 그리드 포인트의 위치가 최대한 동일해지거나 근접해지는 수렴값을 찾는 것이다. 이때, 각 축별 그리드 크기는 하기의 수식에 의해 계산될 수 있다.The second grid calculation step S236 is a step of calculating the grid size so that the positions of the grid points of the previous frame and the grid points of the current frame are the same in order to calculate the grid size in consideration of temporal consistency. In this step, the grid point of the previous frame and the grid point of the current frame are to find a convergence value that is the same as or close to the maximum possible. In this case, the grid size for each axis may be calculated by the following equation.

Figure 112017114597278-pat00004
Figure 112017114597278-pat00004

위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k -1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타낸다. 이 수식을 기반으로 한 그리드 크기의 계산으로 인하여, 정적인 배경의 그리드 포인트의 위치가 유지됨으로써 영상에서 배경이 울렁거리는 현상을 방지할 수 있다.In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k -1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is It represents the grid size considering the temporal coherence ( T ) on the k-th axis. Due to the calculation of the grid size based on this formula, the position of the grid point of the static background is maintained, thereby preventing the background from rumble in the image.

최종 그리드 크기(grid size) 계산 단계(S237)는 앞서 구한 제1그리드 크기와 제2그리드 크기를 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하여 각 축마다 최종 그리드 크기를 계산하는 단계이다. 이때, 최종 그리드 크기는 아래의 수식에 의해 계산될 수 있다.The final grid size calculation step S237 is a step of calculating the final grid size for each axis by considering the ratio of the static background and the moving object of each axis to the previously obtained first and second grid sizes. In this case, the final grid size may be calculated by the following equation.

Figure 112017114597278-pat00005
Figure 112017114597278-pat00005

Figure 112017114597278-pat00006
Figure 112017114597278-pat00006

위의 수식에서 N k dist _pixel k번째 축에서 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀의 수이며, N k tot k번째 축의 픽셀 수를 나타낸다. W S k , W T k 는 각각 k번째 축에서의 GS S k GS T k 에 대한 가중치를 나타낸다. GS k k번째 축에서의 최종 그리드 크기를 나타낸다.In the above formula, N k dist _pixel is the number of pixels on the k-th axis where the difference between the luminance value of the previous frame and the luminance value of the current frame is large (large image change), and N k tot represents the number of pixels on the k-th axis. . W S k and W T k represent weights for GS S k and GS T k on the k- th axis, respectively. GS k represents the final grid size on the k-th axis.

위의 수식에서, 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차이가 많은 픽셀의 수를 예컨대 "20 이상인 픽셀의 수"를 일례로 설정할 수 있으나 이는 하나의 예시일 뿐 픽셀의 수는 실험 결과에 기초하여 최적화될 수 있다.In the above formula, the number of pixels with a large difference between the luminance value of the previous frame and the current frame may be set to, for example, “the number of pixels greater than or equal to 20” as an example, but this is only an example and the number of pixels is an experimental result can be optimized based on

한편, 정적인 배경에서의 그리드 크기의 변화는 움직이는 물체의 그리드 크기의 변화보다 인지하기 쉽다. 따라서, 실시예에서는 정적인 배경의 시간 일관성을 잘 유지하기 위해 그리드 크기의 변화에 대한 경계값을 설정한다. 그리고 설정된 경계값을 넘으면 그리드 크기를 재설정한다. 이때, 그리드 크기의 재설정은 아래의 수식에 의해 계산될 수 있다. On the other hand, a change in the grid size in a static background is easier to recognize than a change in the grid size of a moving object. Therefore, in the embodiment, a boundary value for the change in the grid size is set in order to maintain the temporal consistency of the static background well. And when the set boundary value is exceeded, the grid size is reset. In this case, the reset of the grid size may be calculated by the following equation.

Figure 112017114597278-pat00007
Figure 112017114597278-pat00007

위의 수식에서 GS T k , GS k 는 각각 k번째 축에서의 시간 일관성을 고려한 그리드 크기와 최종 그리드 크기를 나타내며 λ는 최종 그리드 크기가 설정된 경계값보다 너무 크거나 작을 경우의 절삭을 위해 0.1로 설정할 수 있으나 이는 실험 결과에 기초하여 최적화될 수 있다.In the above formula, GS T k and GS k represent the grid size and final grid size considering temporal consistency on the k- th axis, respectively, and λ is 0.1 for cutting when the final grid size is too large or smaller than the set boundary value. can be set, but this can be optimized based on the experimental results.

그리드 맵(Grid map) 생성 단계(S238)는 각 그리드 포인트의 그리드 크기를 누적해서 그리드 맵(grid map)을 생성하는 단계이다. 이때, 그리드 맵은 아래의 수식에 의해 계산될 수 있다.The grid map generating step S238 is a step of generating a grid map by accumulating the grid size of each grid point. In this case, the grid map may be calculated by the following equation.

Figure 112017114597278-pat00008
Figure 112017114597278-pat00008

위의 수식에서 Pos k prev , Pos k - 1 cur 는 각각 이전 프레임과 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며 GS k 는 최종 그리드 크기를 나타낸다.In the above equation, Pos k prev , Pos k - 1 cur denote the position of the k- th axis in the grid map of the previous frame and the current frame, respectively , and GS k denotes the final grid size.

표현(Rendering) 단계(S240)는 이전 단계를 통해 생성된 그리드 맵과 입력 영상을 이용하여 최종적으로 출력할 재지정(retarget) 영상을 표현 및 생성하는 단계이다. 표현 단계(S240)는 타원 가중치 평균(elliptical weighted average; EWA splatting) 방식의 프레임워크(framework) 등을 기반으로 재지정(retarget) 영상을 만들 수 있다. 이때, EWA 프레임 워크는 순방향 매핑을 사용할 수 있고, 최대 해상도 입력 스트림 하에 영상을 다시 샘플링할 수도 있다.The rendering step S240 is a step of expressing and generating a retarget image to be finally output using the grid map and the input image generated through the previous step. The expression step S240 may create a retargeted image based on a framework of an elliptical weighted average (EWA splatting) method or the like. In this case, the EWA framework may use forward mapping and may resample an image under the maximum resolution input stream.

재지정 영상 출력(Retarget video output) 단계(S250)는 입력된 영상에 대하여 종횡비가 재지정된 재지정 영상을 출력하는 단계이다.The retarget video output step S250 is a step of outputting a retargeted video whose aspect ratio is re-specified with respect to the input video.

이상, 본 발명의 실시예는 동일한 축에 동일한 그리드 크기가 부여되기 때문에 입력 영상에서 동일한 축 상에 있던 물체가 출력 영상에서 다른 축 상에 존재하는 구조적 뒤틀림(structure twist)과 같은 왜곡을 방지할 수 있다. 또한, 본 발명의 실시예는 1차원에서 그리드 크기를 계산하기 때문에 계산량이 적다. 또한, 본 발명의 실시예는 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하기 때문에 비중이 높은 물체의 시간적 일관성을 잘 유지 할 수 있다.As described above, in the embodiment of the present invention, since the same grid size is given to the same axis, it is possible to prevent distortion such as a structural twist in which an object on the same axis in the input image exists on a different axis in the output image. have. In addition, since the embodiment of the present invention calculates the grid size in one dimension, the amount of calculation is small. In addition, since the embodiment of the present invention considers the ratio of the static background and the moving object of each axis, it is possible to maintain the temporal consistency of the object with high specific gravity.

본 발명의 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해서 실험예와 실시예를 비교 실험한 결과를 설명하면 다음과 같다.In order to verify the effect of the method considering time consistency according to the embodiment of the present invention, the results of comparative experiments between the experimental examples and the examples will be described as follows.

<제1예시><Example 1>

도 8은 및 도 9는 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제1예시도들이다.8 and 9 are first exemplary views showing results of comparative experiments between the Experimental Example and the Example in order to verify the effect of the method considering time consistency according to the Example.

제1예시에서는 실시예의 방법과 실험예의 방법을 이용하여 가로와 세로의 크기 16:9 영상을 18:9 영상으로 변환하였다. 이때 실시예의 방법에 대한 시간적 일관성을 평가하였다. 실험예는 앞서 설명된 Greisen[1] 방법을 사용하였다.In the first example, a 16:9 image with a horizontal and vertical size was converted into an 18:9 image using the method of the embodiment and the method of the experimental example. At this time, the temporal consistency of the method of the example was evaluated. For the experimental example, the Greisen [1] method described above was used.

그리고 입력 영상으로는 텔레비전 프로그램으로서, 1280*720 해상도를 갖는 "연애의 발견" 영상 800 프레임과 "마리텔(마이 리틀 텔레비전) 영상" 500 프레임을 사용하였다. 제1예시에서는 시간적 일관성을 판단하기 위한 평가 지표로써 Jittery Metric(JM)[2]을 사용했다. Jittery Metric(JM)은 아래의 수식에 의해 계산될 수 있다.And, as input images, 800 frames of "Discovery of Romance" and 500 frames of "Maritel (My Little Television)" were used as television programs with a resolution of 1280*720. In the first example, Jittery Metric (JM) [2] was used as an evaluation index to judge temporal consistency. Jittery Metric (JM) can be calculated by the following formula.

Figure 112017114597278-pat00009
Figure 112017114597278-pat00009

Figure 112017114597278-pat00010
Figure 112017114597278-pat00010

위의 수식에서 S k,j cols 는 현재 프레임의 k번째 축의 그리드 크기를 나타내고, S k,j-1 cols 는 이전 프레임의 k번째 축의 그리드 크기를 나타내며, DS k,j cols 는 현재 프레임과 이전 프레임의 k번째 축의 그리드 크기의 차이를 나타낸다. N은 입력 영상의 너비를 나타내며 JM j 는 현재 프레임과 이전 프레임에 대한 수평 방향으로의 Jittery Metric(JM)을 나타낸다. 이때, DSJM 값이 낮을수록 시간 일관성을 보다 잘 유지한다고 할 수 있다.In the above formula, S k,j cols represents the grid size of the k- th axis of the current frame , S k,j-1 cols represents the grid size of the k- th axis of the previous frame , and DS k,j cols represents the current frame and previous frame. It represents the difference in grid size on the k- th axis of the frame. N represents the width of the input image, and JM j represents the jittery metric (JM) in the horizontal direction for the current frame and the previous frame. In this case, it can be said that the lower the DS and JM values, the better the temporal consistency is maintained.

실험예에 해당하는 Greisen 방법[1]은 P. Greisen이 제안한 것으로서, “Algorithm and VLSI architecture for real-time 1080p60 video retargeting,”와 같이 2012년 ACM SIGGRAPH에 등재된 바 있다.The Greisen method [1] corresponding to the experimental example was proposed by P. Greisen, and was registered in ACM SIGGRAPH in 2012 like “Algorithm and VLSI architecture for real-time 1080p60 video retargeting,”.

평가 지표에 해당하는 Jittery Metric(JM)[2]은 Bo Yan이 제안한 것으로서, “Effective video retargeting with jittery assessment,”와 같이 2014년 IEEE Transactions on multimedia에 등재된 바 있다.Jittery Metric (JM)[2], which is an evaluation index, was proposed by Bo Yan, and has been registered in IEEE Transactions on multimedia in 2014 like “Effective video retargeting with jittery assessment,”.

도 8의 그래프에서 가로축은 컬럼 인덱스(Column index)이고, 세로축은 그리드 크기(DS)이다. 도 9의 그래프에서 가로축은 프레임 넘버(Frame number)이고, 세로축은 Jittery Metric(JM)이다.In the graph of FIG. 8 , a horizontal axis is a column index, and a vertical axis is a grid size DS. In the graph of FIG. 9 , the horizontal axis is the frame number, and the vertical axis is the jittery metric (JM).

제1예시에서는 실험예와 실시예 간의 비교를 위해 동일한 영상의 일부 프레임에서 나타나는 그리드 크기 분포를 발췌하여 도 8의 그래프로 나타낸 것이고, 실험예와 실시예 간의 시간적 일관성의 유무 차이를 판단할 수 있도록 텔레비전 프로그램 2개에 나타나는 Jittery Metric (JM)를 발췌하여 도 9의 그래프로 나타낸 것이다.In the first example, the grid size distribution appearing in some frames of the same image is extracted for comparison between the experimental example and the example and shown as a graph in FIG. 8, so that the difference in temporal consistency between the experimental example and the example can be determined The Jittery Metric (JM) appearing in two television programs is excerpted and shown as a graph in FIG. 9 .

도 8 및 9에 도시된 실험 결과를 통해 알 수 있듯이, 실시예의 방법(Proposed method)이 실험예의 방법(Greisen's method)에 비해 DSJM 값이 전반적으로 낮은 것을 확인할 수 있다.As can be seen from the experimental results shown in FIGS. 8 and 9 , it can be confirmed that the DS and JM values of the Example method (Proposed method) are generally lower than those of the Example method (Greisen's method).

예컨대, 실험예의 방법(Greisen's method)을 따르면, 도 8의 제6프레임(<Frame #6>), 제9프레임(<Frame #9>), 제12프레임(<Frame #12>)에 표시된 바와 같이 특정 영상에서 시간적 일관성을 벗어난 부분(PT)이 발생하는 것을 볼 수 있다. 그러나 실시예의 방법(Proposed method)은 실험예와 동일한 프레임에서도 시간적 일관성을 유지할 수 있어 "PT"와 같은 부분이 발생하지 않음을 알 수 있다.For example, according to the method of the experimental example (Greisen's method), as shown in the 6th frame (<Frame #6>), the ninth frame (<Frame #9>), and the 12th frame (<Frame #12>) of FIG. Similarly, it can be seen that a part (PT) out of temporal coherence occurs in a specific image. However, the method of the embodiment (Proposed method) can maintain temporal consistency even in the same frame as the experimental example, it can be seen that a part such as "PT" does not occur.

<제2예시><2nd example>

도 10은 및 도 11은 실시예에 따라 시간 일관성을 고려한 방식의 효과를 검증하기 위해 실험예와 실시예를 비교 실험한 결과를 나타낸 제2예시도들이다.10 and 11 are second exemplary views showing results of comparative experiments between the Experimental Example and the Example in order to verify the effect of a method considering time consistency according to the Example.

제2예시에서는 제1예시와 동일한 조건으로 실험하되, 평가 지표를 Jittery Metric-II(JM-II)으로 변경하였다. 이 평가 지표는 그리드 크기가 아닌 그리드 포인트(grid point)의 위치를 고려하여 제안된 것이다. Jittery Metric-II(JM-II)는 아래의 수식에 의해 계산될 수 있다.In Example 2, the experiment was performed under the same conditions as in Example 1, but the evaluation index was changed to Jittery Metric-II (JM - II). This evaluation index is proposed considering the location of the grid point, not the size of the grid. Jittery Metric-II (JM - II) can be calculated by the following formula.

Figure 112017114597278-pat00011
Figure 112017114597278-pat00011

Figure 112017114597278-pat00012
Figure 112017114597278-pat00012

위의 수식에서 P k,j cols 는 현재 프레임의 k번째 축의 그리드 포인트의 위치를 나타내고, P k,j - 1 cols 는 이전 프레임의 k번째 축의 그리드 포인트의 위치를 나타내며, PD k,j cols 는 현재 프레임과 이전 프레임의 k번째 축의 그리드 포인트의 위치 차이를 나타낸다. N은 입력 영상의 너비를 나타내며 JM - II j 는 현재 프레임과 이전 프레임에 대한 수평 방향으로의 Jittery Metric(JM-II)을 나타낸다. 이때, 그리드 포인트의 위치와 JM-II 값은 낮을수록 정적인 배경에서 시간 일관성을 보다 잘 유지한다고 할 수 있다.In the above formula, P k,j cols indicates the position of the grid point on the k- th axis of the current frame , P k,j - 1 cols indicates the position of the grid point on the k- th axis of the previous frame , and PD k,j cols is It represents the difference between the positions of the grid points on the k- th axis of the current frame and the previous frame. N represents the width of the input image, and JM - II j represents the jittery metric (JM-II) in the horizontal direction for the current frame and the previous frame. In this case, it can be said that the lower the grid point position and the JM-II value, the better the temporal consistency is maintained in a static background.

도 10의 그래프에서 가로축은 픽셀 넘버(Pixel number)이고, 세로축은 그리드 포인트의 위치(PD)이다. 도 11의 그래프에서 가로축은 프레임 넘버(Frame number)이고, 세로축은 Jittery Metric(JM-II)이다.In the graph of FIG. 10 , the horizontal axis is the pixel number, and the vertical axis is the position PD of the grid point. In the graph of FIG. 11 , the horizontal axis is frame number, and the vertical axis is Jittery Metric (JM-II).

제2예시는 실험예와 실시예 간의 비교를 위해 동일한 영상의 일부 프레임에서 나타나는 그리드 포인트의 위치 분포를 발췌하여 도 10의 그래프로 나타낸 것이고, 실험예와 실시예 간의 시간적 일관성의 유무 차이를 판단할 수 있도록 텔레비전 프로그램 2개에 나타나는 Jittery Metric(JM-II)를 발췌하여 도 11의 그래프로 나타낸 것이다.The second example is a graph of FIG. 10 by extracting the location distribution of grid points appearing in some frames of the same image for comparison between the experimental example and the example, and the difference in temporal consistency between the experimental example and the example can be determined. Jittery Metric (JM-II) appearing in two television programs is extracted and shown as a graph in FIG.

도 10 및 11에 도시된 실험 결과를 통해 알 수 있듯이, 그리드 포인트의 위치 값은 그리드 크기를 누적해서 계산되는 값이기 때문에, 실시예의 방법(Proposed method)과 실험예의 방법(Greisen's method) 간의 JM-II 값의 차이가 큰 것을 확인할 수 있다.As can be seen from the experimental results shown in FIGS. 10 and 11, the position value of the grid point is a value calculated by accumulating the grid size, so JM- It can be seen that the difference in II values is large.

예컨대, 실험예의 방법(Greisen's method)을 따르면, 도 10의 제6프레임(<Frame #6>), 제9프레임(<Frame #9>), 제12프레임(<Frame #12>)에 표시된 바와 같이 특정 영상에서 시간적 일관성을 벗어난 부분(PT)이 발생하는 것을 볼 수 있다. 그러나 실시예의 방법(Proposed method)은 실험예와 동일한 프레임에서도 시간적 일관성을 유지할 수 있어 "PT"와 같은 부분이 발생하지 않음을 알 수 있다.For example, according to the method of the experimental example (Greisen's method), as shown in the 6th frame (<Frame #6>), the ninth frame (<Frame #9>), and the 12th frame (<Frame #12>) of FIG. Similarly, it can be seen that a part (PT) out of temporal coherence occurs in a specific image. However, the method of the embodiment (Proposed method) can maintain temporal consistency even in the same frame as the experimental example, it can be seen that a part such as "PT" does not occur.

HD급 영상에서 그리드 포인트의 위치(PD) 값이 0.1 이상의 값을 지니는 경우 정적인 배경이 울렁거리는 현상을 느낄 수 있다. 도 10을 통해 알 수 있듯이, 실시예의 방법(Proposed method)은 0.1보다 낮은 그리드 포인트의 위치 값을 갖는 반면 실험예의 방법(Greisen's method)은 이보다 훨씬 높은 그리드 포인트의 위치 값을 갖는다. 그러므로 실시예의 방법(Proposed method)은 정적인 배경이 울렁거리는 현상을 방지할 수 있다.When the position (PD) value of the grid point in the HD image has a value of 0.1 or more, the static background may be felt. As can be seen from FIG. 10, the Example method (Proposed method) has a grid point position value lower than 0.1, whereas the Experimental example method (Greisen's method) has a grid point position value much higher than this. Therefore, the Proposed method can prevent the static background from bouncing.

이하, 정지 영상과 인접하여 시각적으로 두드러진 부분에 해당하는 동영상이 프레임마다 다르게 나타나는 영상을 실험예의 방법과 실시예의 방법으로 처리할 때 최종 영상에서 나타나는 변화 양상을 알기 쉽게 도시하면 다음과 같다.Hereinafter, when an image in which a moving image corresponding to a visually prominent part adjacent to a still image is different for each frame is processed by the method of the experimental example and the method of the embodiment, the change pattern appearing in the final image is easily illustrated as follows.

도 12는 실험예의 방법과 실시예의 방법을 사용함에 따라 최종 출력 영상에서 나타나는 변화의 양상을 알기 쉽게 도시한 도면이다. 도 12에서 좌측의 솔리드 패턴이 들어간 타원은 정지 영상(예: 자막이나 배경 등)에 해당하고, 우측의 사선 패턴이 들어간 타원은 동영상(예: 움직이는 물체나 사람 등)에 해당한다.12 is a diagram illustrating in an easy-to-understand manner the aspect of a change appearing in the final output image according to the method of the experimental example and the method of the embodiment. In FIG. 12 , an ellipse having a solid pattern on the left corresponds to a still image (eg, a subtitle or a background, etc.), and an oval containing a diagonal pattern on the right corresponds to a moving image (eg, a moving object or person).

이상적으로는 정지 영상 내에 "t+1과 t+3"과 같은 특정 시간대에 동영상이 존재하더라도 동영상이 존재하지 않았던 "t와 t+2"와 같이 시간적 위치가 변하지 않고 동일하게 유지되어야 한다. 그러나 실험예를 통해 알게 된 바와 같이, 입력된 영상의 크기를 변경할 경우 시간적 위치에 변동이 발생한다.Ideally, even if a moving picture exists in a specific time period such as “t+1 and t+3” in a still image, the temporal position should remain the same as in “t and t+2” where the moving image did not exist. However, as found through the experimental example, when the size of the input image is changed, the temporal position is changed.

도 12의 (a)에 도시된 실험예는 정지 영상과 인접하여 동영상이 프레임마다 다르게 나타날 경우 5번 위치에서 볼 수 있는 바와 같이 시간적 위치변동 폭이 크게 발생함을 알 수 있다.In the experimental example shown in (a) of FIG. 12 , it can be seen that when a moving image is displayed differently for each frame adjacent to a still image, as can be seen from position 5, the temporal position variation width is large.

반면, 도 12의 (b)에 도시된 실시예는 정지 영상과 인접하여 동영상이 프레임마다 다르게 나타날 경우 실험예와 같이 5번 위치에서 시간적 위치변동 폭이 발생하긴 하지만 실험예 대비 시간적 위치 변동 폭이 작게 발생함을 알 수 있다.On the other hand, in the embodiment shown in FIG. 12 (b), when a moving image is displayed differently for each frame adjacent to a still image, although the temporal position fluctuation width occurs at the 5th position as in the experimental example, the temporal position fluctuation width is higher than that of the experimental example. It can be seen that small

이상 본 발명은 영상의 크기 변경(resizing) 시, 구조적 뒤틀림(Structure twist) 현상을 방지하면서 시간 일관성을 유지할 수 있는 영상 처리 방법을 제공하는 효과가 있다. 또한, 본 발명은 움직이는 물체와 정적인 배경이 공존하는 영상의 크기 변경(resizing) 시, 시간 일관성을 고려한 영상 처리 방법으로 원본의 형태를 최대한 자연스럽게 유지하면서 물체의 움직임에 따른 영상의 울렁거림을 최소화하고 고품질의 영상을 표시할 수 있는 표시장치를 제공하는 효과가 있다.As described above, the present invention has an effect of providing an image processing method capable of maintaining temporal consistency while preventing a structural twist phenomenon when resizing an image. In addition, the present invention is an image processing method in consideration of temporal coherence when resizing an image in which a moving object and a static background coexist, while maintaining the original shape as natural as possible while minimizing the noise of the image due to the movement of the object. And there is an effect of providing a display device capable of displaying a high-quality image.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술 분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 한다. 아울러, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어진다. 또한, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, the technical configuration of the present invention can be changed to other specific forms by those skilled in the art to which the present invention pertains without changing the technical spirit or essential features of the present invention. It will be appreciated that this may be practiced. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. In addition, the scope of the present invention is indicated by the claims to be described later rather than the above detailed description. In addition, all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.

110: 영상 처리부 120: 타이밍 제어부
130: 데이터 구동부 140: 스캔 구동부
150: 표시 패널 SP: 서브 픽셀(들)
S110: 영상 입력 단계 S120: 2차원 두드러짐 추정 단계
S130: 정경 단계 S140: 표현 단계
S150: 재지정 영상 출력 단계
110: image processing unit 120: timing control unit
130: data driver 140: scan driver
150: display panel SP: sub-pixel(s)
S110: image input step S120: two-dimensional prominence estimation step
S130: canon stage S140: expression stage
S150: Redirected video output stage

Claims (10)

영상을 표시하는 표시 패널;
상기 표시 패널을 구동하는 구동부; 및
상기 구동부를 제어하고 외부로부터 입력된 영상을 영상 처리하는 제어부를 포함하고,
상기 제어부는 입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 상기 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하고, 상기 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하고, 상기 그리드 맵과 상기 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성하는 표시장치.
a display panel for displaying an image;
a driver driving the display panel; and
A control unit for controlling the driving unit and processing an image input from the outside,
The controller calculates a first grid size corresponding to each point of the input image according to a target resolution in consideration of a saliency value corresponding to a visually important part in the input image, and also calculates a second grid size corresponding to each point of the input image in consideration of temporal consistency. After calculating the grid size, calculating the final grid size based on the first and second grid sizes, generating a grid map, and expressing a redesignated image to be finally output based on the grid map and the input image, and the display it creates.
제1항에 있어서,
상기 제어부는
상기 시간 일관성을 고려하여 상기 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감하는 표시장치.
According to claim 1,
the control unit
A display device for subtracting a position of a grid point of a current frame from a position of a grid point of a previous frame in order to calculate the size of the second grid in consideration of the temporal consistency.
제1항에 있어서,
상기 제어부는
상기 제1그리드 크기와 상기 제2그리드 크기를 각 축의 정적인 배경과 움직이는 물체의 비율을 고려하여 각 축마다 최종 그리드 크기를 계산하는 표시장치.
According to claim 1,
the control unit
A display device for calculating a final grid size for each axis in consideration of a ratio of a static background to a moving object of the first grid size and the second grid size.
제3항에 있어서,
상기 제어부는
상기 최종 그리드 크기를 계산하기 위해 이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여하는 표시장치.
4. The method of claim 3,
the control unit
In order to calculate the final grid size, a weight is given to pixels having a large difference between a luminance value of a previous frame and a luminance value of a current frame (image change is large).
제1항에 있어서,
상기 제어부는
상기 제2그리드 크기는 하기의 수식에 의해 계산되고,
Figure 112017114597278-pat00013

위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타내는 표시장치.
According to claim 1,
the control unit
The second grid size is calculated by the following formula,
Figure 112017114597278-pat00013

In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is A display indicating the grid size considering the temporal coherence ( T ) on the k-th axis.
입력 영상 내에서 시각적으로 중요한 부분에 해당하는 두드러짐 값을 추정하는 단계;
상기 두드러짐 값을 고려해서 목표로 하는 해상도에 맞게 상기 입력 영상의 각 포인트에 해당하는 제1그리드 크기를 계산함과 더불어 시간 일관성을 고려하여 제2그리드 크기를 계산하는 단계;
상기 제1 및 제2그리드 크기를 기반으로 최종 그리드 크기를 계산한 후 그리드 맵을 생성하는 단계; 및
상기 그리드 맵과 상기 입력 영상을 기반으로 최종적으로 출력할 재지정 영상을 표현 및 생성하는 단계를 포함하는 영상 처리 방법.
estimating a saliency value corresponding to a visually important part in the input image;
calculating a first grid size corresponding to each point of the input image according to a target resolution in consideration of the saliency value and calculating a second grid size in consideration of temporal consistency;
generating a grid map after calculating a final grid size based on the first and second grid sizes; and
and expressing and generating a redirected image to be finally output based on the grid map and the input image.
제6항에 있어서,
상기 그리드 크기를 계산하는 단계는
상기 시간 일관성을 고려하여 상기 제2그리드 크기를 계산하기 위해 이전 프레임의 그리드 포인트 위치에서 현재 프레임의 그리드 포인트의 위치를 차감하는 영상 처리 방법.
7. The method of claim 6,
The step of calculating the grid size is
An image processing method of subtracting a position of a grid point of a current frame from a position of a grid point of a previous frame in order to calculate the size of the second grid in consideration of the temporal consistency.
제6항에 있어서,
상기 최종 그리드 크기를 계산하는 단계는
각 축에서 움직이는 물체와 정적인 배경의 비율을 고려하여 각각 계산된 상기 제1그리드 크기값과 상기 제2그리드 크기값을 선형 결합하여 상기 최종 그리드 크기를 계산하는 영상 처리 방법.
7. The method of claim 6,
The step of calculating the final grid size is
An image processing method of calculating the final grid size by linearly combining the first grid size value and the second grid size value calculated in consideration of the ratio of the moving object and the static background on each axis.
제8항에 있어서,
상기 최종 그리드 크기를 계산하는 단계는
이전 프레임의 휘도 값과 현재 프레임의 휘도 값의 차가 많은(영상의 변화가 큰) 픽셀에 가중치를 부여하는 영상 처리 방법.
9. The method of claim 8,
The step of calculating the final grid size is
An image processing method in which a weight is given to pixels with a large difference between the luminance value of the previous frame and the luminance value of the current frame.
제6항에 있어서,
상기 제2그리드 크기는 하기의 수식에 의해 계산되고,
Figure 112017114597278-pat00014

위의 수식에서 Pos k prev 는 이전 프레임의 그리드 맵에서 k번째 축(시간축)의 위치를 의미하고, Pos k - 1 cur 는 현재 프레임의 그리드 맵에서 k번째 축의 위치를 의미하며, GS T k k번째 축에서의 시간 일관성( T )을 고려한 그리드 크기를 나타내는 영상 처리 방법.
7. The method of claim 6,
The second grid size is calculated by the following formula,
Figure 112017114597278-pat00014

In the above formula, Pos k prev means the position of the k-th axis (time axis) in the grid map of the previous frame, Pos k - 1 cur means the position of the k-th axis in the grid map of the current frame, and GS T k is An image processing method representing the grid size considering temporal coherence ( T ) on the k-th axis.
KR1020170154004A 2017-11-17 2017-11-17 Method for Image Processing and Display Device using the same KR102340942B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170154004A KR102340942B1 (en) 2017-11-17 2017-11-17 Method for Image Processing and Display Device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170154004A KR102340942B1 (en) 2017-11-17 2017-11-17 Method for Image Processing and Display Device using the same

Publications (2)

Publication Number Publication Date
KR20190056740A KR20190056740A (en) 2019-05-27
KR102340942B1 true KR102340942B1 (en) 2021-12-17

Family

ID=66678994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170154004A KR102340942B1 (en) 2017-11-17 2017-11-17 Method for Image Processing and Display Device using the same

Country Status (1)

Country Link
KR (1) KR102340942B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7112603B2 (en) * 2019-09-27 2022-08-03 富士フイルム株式会社 Control device, control method, control program, and projection system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006523979A (en) 2003-04-17 2006-10-19 トムソン ライセンシング Data request transmitting apparatus and process and corresponding products
JP2015126238A (en) 2013-12-25 2015-07-06 キヤノン株式会社 Video projector, video projection method and program
JP2016524423A (en) 2013-06-21 2016-08-12 クアルコム,インコーポレイテッド System and method for super-resolution of user-selected regions of interest

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2549754A1 (en) * 2011-07-19 2013-01-23 Thomson Licensing Method and apparatus for reframing and encoding an original video signal
US9196216B2 (en) * 2011-12-07 2015-11-24 Parade Technologies, Ltd. Frame buffer management and self-refresh control in a self-refresh display system
KR101291616B1 (en) * 2011-12-29 2013-08-01 동명대학교산학협력단 Multi image monitering system using the weight value of image variation rates
KR101785027B1 (en) * 2016-01-14 2017-11-06 주식회사 라온텍 Image distortion compensation display device and image distortion compensation method using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006523979A (en) 2003-04-17 2006-10-19 トムソン ライセンシング Data request transmitting apparatus and process and corresponding products
US20060271982A1 (en) 2003-04-17 2006-11-30 Gilles Gallou Data requesting and transmitting devices and processes
JP2016524423A (en) 2013-06-21 2016-08-12 クアルコム,インコーポレイテッド System and method for super-resolution of user-selected regions of interest
JP2015126238A (en) 2013-12-25 2015-07-06 キヤノン株式会社 Video projector, video projection method and program

Also Published As

Publication number Publication date
KR20190056740A (en) 2019-05-27

Similar Documents

Publication Publication Date Title
CN110650368B (en) Video processing method and device and electronic equipment
RU2433477C1 (en) Image dynamic range expansion
CN102789632B (en) Learning apparatus and method, image processing apparatus and method, program, and recording medium
TWI455588B (en) Bi-directional, local and global motion estimation based frame rate conversion
US20100067818A1 (en) System and method for high quality image and video upscaling
JP2009042482A (en) Image processing apparatus and control method thereof
KR20090071624A (en) Image enhancement
KR101987079B1 (en) Method for removing noise of upscaled moving picture with dynamic parameter based on machine learning
EP2161687B1 (en) Video signal processing device, video signal processing method, and video signal processing program
JP4548520B2 (en) Coefficient generation apparatus and method, image generation apparatus and method, and program
JP5051983B2 (en) LCD blur reduction by frame rate control
Niu et al. Warp propagation for video resizing
US8233748B2 (en) Image-resolution-improvement apparatus and method
JP6087612B2 (en) Image processing apparatus and image processing method
WO2015064671A1 (en) Image quality heightening device, image display device, image quality heightening method, and computer program
KR20110041753A (en) Apparatus and method for inter view crosstalk reduction
WO2014008329A1 (en) System and method to enhance and process a digital image
KR102340942B1 (en) Method for Image Processing and Display Device using the same
JPWO2011155258A1 (en) Image processing apparatus and method, image display apparatus and method
CN114514746B (en) System and method for motion adaptive filtering as pre-processing for video encoding
WO2024032331A9 (en) Image processing method and apparatus, electronic device, and storage medium
CN113344820A (en) Image processing method and device, computer readable medium and electronic equipment
US20220215559A1 (en) Display apparatus, virtual reality display system having the same and method of estimating user motion based on input image
CN111696034B (en) Image processing method and device and electronic equipment
US11954867B2 (en) Motion vector generation apparatus, projection image generation apparatus, motion vector generation method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant