KR102317091B1 - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR102317091B1
KR102317091B1 KR1020140179358A KR20140179358A KR102317091B1 KR 102317091 B1 KR102317091 B1 KR 102317091B1 KR 1020140179358 A KR1020140179358 A KR 1020140179358A KR 20140179358 A KR20140179358 A KR 20140179358A KR 102317091 B1 KR102317091 B1 KR 102317091B1
Authority
KR
South Korea
Prior art keywords
frame
area
buffer
information
image processing
Prior art date
Application number
KR1020140179358A
Other languages
English (en)
Other versions
KR20160071787A (ko
Inventor
정주영
이태영
안우람
이재길
함철희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140179358A priority Critical patent/KR102317091B1/ko
Priority to US14/887,440 priority patent/US9824667B2/en
Priority to EP15195024.3A priority patent/EP3032492B1/en
Publication of KR20160071787A publication Critical patent/KR20160071787A/ko
Application granted granted Critical
Publication of KR102317091B1 publication Critical patent/KR102317091B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

제1 프레임을 저장하고 있는 제1 버퍼를 포함하는 복수의 버퍼들, 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 상기 제2 프레임 내 상기 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함하는, 제2 프레임의 프레임 정보를 획득하고, 상기 제1 프레임에서 복사 영역을 검출하고, 상기 제1 버퍼에 저장되어 있는 상기 복사 영역을 상기 복수의 버퍼들 중 제2 버퍼에 복사하고, 상기 프레임 정보에 기초하여 상기 제2 객체를 상기 제2 버퍼에 그리는 제어부를 포함하는 영상 처리 장치가 개시된다.

Description

영상 처리 장치 및 방법{APPARATUS AND METHOD FOR PROCESSING IMAGE}
본 개시는 영상 처리 장치 및 방법에 관한 것이며, 더욱 상세하게는 복수의 버퍼들을 효율적으로 사용할 수 있는 영상 처리 장치 및 방법에 관한 것이다.
영상 처리 장치의 성능이 발전할수록 요구되는 해상도가 점점 높아지고 있다. 해상도가 높아질수록, 영상 처리 장치의 소비 전력이 증가하고, 애니메이션 성능이 저하되고, 메모리 사용량은 증가하는 문제가 생길 수 있다. 영상 처리 장치가 복수의 버퍼들을 포함하는 경우, 복수의 버퍼를 효율적으로 사용함으로써, 성능을 개선할 수 있는 영상 처리 장치 및 방법이 요구된다.
본 개시의 목적은, 복수의 버퍼들을 효율적으로 사용할 수 있는 영상 처리 장치 및 방법을 제공하는 것이다.
일부 실시예에 따른 영상 처리 장치는, 제1 프레임을 저장하고 있는 제1 버퍼를 포함하는 복수의 버퍼들, 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 상기 제2 프레임 내 상기 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함하는, 제2 프레임의 프레임 정보를 획득하고, 상기 제1 프레임에서 복사 영역을 검출하고, 상기 제1 버퍼에 저장되어 있는 상기 복사 영역을 상기 복수의 버퍼들 중 제2 버퍼에 복사하고, 상기 프레임 정보에 기초하여 상기 제2 객체를 상기 제2 버퍼에 그리는 제어부를 포함한다.
상기 제어부는 상기 제1 프레임의 제1 객체 영역을 획득하고, 상기 제1 객체 영역 및 상기 제2 객체 영역을 비교하고, 상기 제2 객체 영역을 제외한 상기 제1 객체 영역을 상기 복사 영역으로 검출할 수 있다.
상기 영상 처리 장치는 상기 제1 프레임의 상기 제1 객체 영역을 지시하는 제1 객체 위치 정보를 저장하는 저장부를 더 포함하고, 상기 제어부는 상기 저장부에 저장되어 있는 상기 제1 객체 위치 정보에 기초하여 상기 제1 객체 영역을 획득하고, 상기 제2 프레임의 상기 제2 객체 위치 정보를 상기 저장부에 업데이트할 수 있다.
상기 제2 프레임의 상기 프레임 정보는 알파 블렌딩을 위한 알파 데이터를 더 포함할 수 있다.
상기 제어부는 상기 제1 프레임의 제1 객체 영역을 획득하고, 상기 제1 객체 영역을 상기 복사 영역으로 검출할 수 있다.
상기 제어부는 상기 알파 데이터에 기초하여 상기 제1 프레임과 혼합된 상기 제2 객체를 상기 제2 버퍼에 그릴 수 있다.
상기 제어부는 상기 제2 프레임의 상기 프레임 정보가 알파 데이터를 포함하면, 상기 제1 프레임의 제1 객체 영역을 상기 복사 영역으로 검출하고, 알파 데이터를 포함하지 않으면, 상기 제2 객체 영역을 제외한 상기 제1 객체 영역을 상기 복사 영역으로 검출할 수 있다.
상기 영상 처리 장치는 상기 제1 프레임을 출력하고, 상기 제어부가 상기 제2 객체를 상기 제2 버퍼에 그리면, 상기 제1 프레임에 후속하는 상기 제2 프레임을 출력하는 디스플레이부를 더 포함할 수 있다.
상기 영상 처리 장치는 사용자로부터 조작 명령을 입력받는 사용자 입력부를 더 포함하고, 상기 제어부는 상기 조작 명령에 기초하여 상기 제2 프레임의 상기 프레임 정보를 획득할 수 있다.
상기 제어부는 상기 제2 버퍼에 저장되어 있는 초기 데이터와 상기 제1 프레임 사이의 차이 영역을 검출하고, 상기 차이 영역 또는 상기 차이 영역의 일부를 상기 복사 영역으로 검출할 수 있다.
일부 실시예에 따른 영상 처리 장치의 동작 방법은, 제1 프레임에 후속하는 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 상기 제2 프레임 내 상기 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함하는, 제2 프레임의 프레임 정보를 획득하는 단계, 상기 제1 프레임에서 복사 영역을 검출하는 단계, 상기 제1 프레임이 저장되어 있는 제1 버퍼의 상기 복사 영역을 제2 버퍼에 복사하는 단계 및 상기 프레임 정보에 기초하여 상기 제2 객체를 상기 제2 버퍼에 그리는 단계를 포함한다.
상기 제1 프레임에서 복사 영역을 검출하는 단계는, 상기 제1 프레임의 제1 객체 영역을 획득하는 단계, 상기 제1 객체 영역 및 상기 제2 객체 영역을 비교하는 단계 및 상기 제2 객체 영역을 제외한 상기 제1 객체 영역을 상기 복사 영역으로 검출하는 단계를 포함할 수 있다.
상기 제1 객체 영역은 저장부에 저장되어 있는 상기 제1 객체 영역을 지시하는 제1 객체 영역 정보에 의해 획득되고, 영상 처리 장치의 동작 방법은 상기 제2 프레임의 상기 제2 객체 위치 정보를 상기 저장부에 업데이트하는 단계를 더 포함할 수 있다.
상기 제2 프레임의 상기 프레임 정보는 알파 블렌딩을 위한 알파 데이터를 더 포함할 수 있다.
상기 제1 프레임에서 복사 영역을 검출하는 단계는, 상기 제1 프레임의 제1 객체 영역을 획득하는 단계 및 상기 제1 객체 영역을 상기 복사 영역으로 검출하는 단계를 포함할 수 있다.
상기 제2 객체를 상기 제2 버퍼에 그리는 단계에서, 상기 알파 데이터에 기초하여 상기 제1 프레임과 혼합되도록 상기 제2 객체를 상기 제2 버퍼에 그릴 수 있다.
상기 제2 프레임의 상기 프레임 정보가 알파 데이터를 포함하면, 상기 제1 프레임의 제1 객체 영역을 상기 복사 영역으로 검출하고, 알파 데이터를 포함하지 않으면, 상기 제2 객체 영역을 제외한 상기 제1 객체 영역을 상기 복사 영역으로 검출할 수 있다.
상기 영상 처리 장치의 동작 방법은, 상기 제1 프레임을 출력하는 단계 및 상기 제2 객체가 상기 제2 버퍼에 그려지면, 상기 제1 프레임에 후속하는 상기 제2 프레임을 출력하는 단계를 더 포함할 수 있다.
상기 영상 처리 장치의 동작 방법은 사용자로부터 조작 명령을 입력받는 단계를 더 포함하고, 상기 조작 명령에 기초하여 상기 제2 프레임의 상기 프레임 정보가 획득될 수 있다.
도 1은 일부 실시예에 따른 영상 처리 장치의 구성을 도시한다.
도 2는 일부 실시예에 따른 연속하는 3개의 프레임의 예시를 도시한다.
도 3은 도 1의 제어부에서 획득하는 제n 프레임의 프레임 정보의 일부 실시예이다.
도 4는 일부 실시예에 따른 제1 버퍼 및 제2 버퍼를 도시한다.
도 5는 도 1의 제어부에서 획득하는 제n+1 프레임의 프레임 정보의 일부 실시예이다.
도 6은 일부 실시예에 따라 도 1의 제어부에서 복사 영역을 검출하는 방법을 도시한다.
도 7은 일부 실시예에 따라 제2 버퍼에 제n+1 프레임을 저장하는 방법을 도시한다.
도 8은 일부 실시예에 따라 도 7에 도시된 동작이 완료된 후의 제1 버퍼 및 제2 버퍼를 도시한다.
도 9는 도 1의 제어부에서 획득하는 제n+2 프레임의 프레임 정보의 일부 실시예이다.
도 10은 일부 실시예에 따라 도 1의 제어부에서 복사 영역을 검출하는 방법을 도시한다.
도 11은 일부 실시예에 따라 제1 버퍼에 제n+2 프레임을 저장하는 방법을 도시한다.
도 12는 일부 실시예에 따라 도 11에 도시된 동작이 완료된 후의 제1 버퍼 및 제2 버퍼를 도시한다.
도 13은 도 1의 제어부에서 획득하는 제n+2 프레임의 프레임 정보의 일부 실시예이다.
도 14는 일부 실시예에 따라 도 1의 제어부에서 복사 영역을 검출하는 방법을 도시한다.
도 15는 일부 실시예에 따라 제1 버퍼에 제n+2 프레임을 저장하는 방법을 도시한다.
도 16은 일부 실시예에 따라 도 15에 도시된 동작이 완료된 후의 제1 버퍼 및 제2 버퍼를 도시한다.
도 17은 일부 실시예에 따른 영상 처리 장치의 구성을 도시한다.
도 18은 도 17의 저장부에 저장되는 객체 위치 정보의 일부 실시예이다.
도 19는 알파 블렌딩을 설명하기 위한 프레임들의 일부 실시예이다.
도 20은 일부 실시예에 따라 제1 버퍼에 제n+2 프레임을 저장하는 방법을 도시한다.
도 21은 일부 실시예에 따라 도 20에 도시된 동작이 완료된 후의 제1 버퍼 및 제2 버퍼를 도시한다.
도 22는 일부 실시에에 따른 영상 처리 장치의 동작 방법을 나타내는 흐름도이다.
도 23은 일부 실시예에 따른 영상 처리 장치가 제1 프레임에서 복사 영역을 검출하는 방법을 나타내는 흐름도이다.
도 24는 일부 실시예에 따른 영상 처리 장치가 제1 프레임에서 복사 영역을 검출하는 방법을 나타내는 흐름도이다.
도 25는 다른 일부 실시예에 따른 영상 처리 장치가 제1 프레임에서 복사 영역을 검출하는 방법을 나타내는 흐름도이다.
도 26은 일부 실시에에 따른 영상 처리 장치의 동작 방법을 나타내는 흐름도이다.
도 27은 일부 실시예와 다르게 영상 처리 장치가 동작하는 방법의 예를 도시한다.
도 28은 일부 실시예와 다르게 영상 처리 장치가 동작하는 방법의 다른 예를 도시한다.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참고하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
도 1은 일부 실시예에 따른 영상 처리 장치(100)의 구성을 도시한다.
도 1을 참고하면, 영상 처리 장치(100)는 제어부(110), 복수의 버퍼들(120), 제1 버퍼(120-1) 내지 제N 버퍼(120-N)를 포함하는 메모리(130)를 포함한다.
영상 처리 장치(100)는 디스플레이 장치에 포함되거나, 디스플레이 장치에 연결될 수 있다. 디스플레이 장치는 영상을 디스플레이할 수 있는 전자 기기이다. 예를 들어, 디스플레이 장치는 TV 장치, 스마트폰 및 태블릿 PC와 같은 스마트 기기 등 다양한 전자 기기일 수 있다.
제어부(110)는 영상 처리 장치(100)의 전반적인 동작을 제어하며, 영상 처리 장치(100)의 동작에 필요한 각종 데이터를 처리할 수 있다. 제어부(110)는 CPU(central processing unit), 마이크로 프로세서, GPU(graphic processing unit) 등을 포함할 수 있다.
제어부(110)는 프레임에 대한 정보인 프레임 정보를 획득할 수 있다. 제어부(110)는 프레임 정보를 외부 기기로부터 전달받거나, 사용자의 입력에 기초하여 획득하거나, 메모리(130)에 저장된 데이터에 기초하여 획득하는 등 다양한 방식으로 획득할 수 있다. 제어부(110)는 프레임을 복수의 버퍼들(120) 중 하나의 버퍼에 할당하여 할당된 버퍼에 프레임이 저장되도록 할 수 있다. 제어부(110)는 버퍼에 저장된 프레임이 디스플레이 장치의 화면에 출력되도록 영상 처리 장치(100)를 제어할 수 있다.
프레임은 이산적인 요소들인 픽셀들 각각에 대한 픽셀값들로 구성된 2차원 디지털 데이터일 수 있다. 픽셀값은 휘도 정보 및 색상 정보 중 적어도 하나를 포함할 수 있다.
영상 처리 장치(100)의 복수의 버퍼들(120) 중 하나의 버퍼에 저장된 프레임이 디스플레이 장치의 화면에 현재 프레임(current frame)으로 출력되는 동안, 영상 처리 장치(100)는 복수의 버퍼들(120) 중 다른 버퍼에 현재 프레임에 후속하는 다음 프레임(next frame)을 저장하는 동작을 수행할 수 있다. 따라서, 연속하는 두 개의 프레임들은 서로 다른 버퍼에 저장될 것이다.
프레임에서 다음 프레임으로 화면이 전환되는 기간은 미리 결정되어 있을 수 있다. 또는, 프레임들이 UI(user interface)에 대한 것인 경우에는, UI를 제공하는 프레임이 출력되고, 사용자로부터 어떤 입력을 받은 후 다음 프레임으로 화면이 전환될 수 있다. 이때, 다음 프레임은 사용자의 입력에 기초하여 구성될 수 있다.
본 개시에서, 제1 프레임 및 제2 프레임은 연속하는 두 개의 프레임이고, 제2 프레임은 제1 프레임의 다음 프레임이다.
제1 버퍼(120-1)는 제1 프레임을 저장하고 있을 수 있다. 제어부(110)는 제2 프레임의 프레임 정보를 획득할 수 있다. 이로 인해, 제1 프레임의 다음 프레임인 제2 프레임이 시작될 수 있다. 제2 프레임의 프레임 정보는 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 제2 프레임 내 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함할 수 있다. 제2 객체 정보는 제2 객체 영역에 제2 객체를 그리기 위해 필요한 정보이다. 제2 객체 정보는 제2 객체 영역에 포함되는 픽셀들 각각에 대한 픽셀값들을 포함할 수 있다. 또는, 제2 객체 정보는 그 픽셀값들을 획득하기 위해 필요한 정보를 포함할 수 있다.
연속하는 두 개의 프레임들은 거의 대부분이 서로 동일한 경우가 많다. 즉, 새로운 프레임은 이전 프레임에서 일부만이 변경되는 경우가 많다. 특히, 프레임들이 UI에 대한 것인 경우 더욱 그러할 것이다. 따라서 제1 프레임의 다음 프레임인 제2 프레임의 프레임 정보는 제1 프레임에서 변경되는 부분인 제2 객체를 그리기 위해 필요한 제2 객체 정보 및 제2 객체 위치 정보를 포함할 수 있다.
제어부(110)는 이전 프레임인 제1 프레임이 저장되어 있는 제1 버퍼(120-1)에서 제1 프레임의 일부인 복사 영역을 검출하여 복사 영역만을 제2 프레임이 할당된 제2 버퍼(120-2)에 복사할 수 있다. 제어부(110)는 제2 버퍼(120-2)에 저장되어 있는 초기 데이터와 제1 프레임 사이 차이 영역을 검출하고, 차이 영역 또는 차이 영역의 일부를 복사 영역으로 검출할 수 있다. 제2 버퍼(120-2)에 저장되어 있는 초기 데이터란 제어부(110)가 복사 영역을 제2 버퍼(120-2)에 저장하기 전의 제2 버퍼(120-2)의 데이터를 의미한다. 만일 영상 처리 장치(100)가 제1 버퍼(120-1) 및 제2 버퍼(120-2)에만 프레임을 할당한다면, 제2 버퍼(120-2)의 초기 데이터는 제1 프레임과 연속하는 제1 프레임의 이전 프레임(previous frame)일 수 있다. 영상 처리 장치(100)가 3개 이상의 버퍼들(130)에 프레임을 할당한다면, 제2 버퍼(120-2)의 초기 데이터는 제1 프레임과 연속하지 않는 제1 프레임보다 이전의 프레임일 수 있다. 예를 들어, 제1 프레임의 전전 프레임일 수 있다. 또는, 제2 버퍼(120-2)에는 초기 데이터가 없을 수도 있다. 즉, 제2 버퍼(120-2)에는 초기에 아무런 데이터도 없을 수도 있다.
제2 버퍼(120-2)에 제1 프레임의 이전 프레임들 중 하나인 제m 프레임이 초기 데이터로 저장되어 있는 경우, 영상 처리 장치는 제m 프레임과 제1 프레임 사이에 차이가 있는 부분을 차이 영역으로 검출할 수 있다. 예를 들어, 차이 영역은 제m 프레임의 CRC(cyclic redundancy check)와 제1 프레임의 CRC를 비교함으로써 검출될 수 있다. 다만, 이에 제한되는 것은 아니다.
제어부(110)는 제2 프레임의 프레임 정보에 기초하여 제2 객체를 제2 버퍼(120-2)에 그릴 수 있다. 제어부(110)가 제2 객체를 제2 버퍼(120-2)에 그린다는 것은 제2 버퍼(120-2)에 제2 객체 영역에 포함되는 픽셀들 각각에 대한 픽셀값들을 기입(write)하는 것을 의미할 수 있다. 제어부(110)가 제2 객체를 제2 버퍼(120-2)에 그리면, 제2 버퍼(120-2)에 제2 프레임이 저장된다.
이와 같이, 일부 실시예에 따르면, 제1 버퍼(120-1)로부터 복사 영역이 제2 버퍼(120-2)에 복사됨으로써, 제2 버퍼(120-2)에는 제1 프레임 또는 제1 프레임의 일부가 저장될 수 있다. 다음, 제2 버퍼(120-2)에 제2 프레임의 제2 객체를 제2 버퍼(120-2)에 그린다. 이를 통해, 영상 처리 장치(100)는 이전 프레임인 제1 프레임 또는 제1 프레임의 일부 위에 제1 프레임에서 변경되는 부분인 제2 객체를 추가함으로써 제2 프레임을 획득할 수 있다. 일부 실시예에 따른 영상 처리 장치(100)는 프레임이 전환될 때마다 새로운 프레임의 모든 부분을 다시 획득하지 않고, 이전 프레임을 재활용하는 부분 업데이트 방식을 이용할 수 있다. 이를 통해, 영상 처리 장치(100)의 처리 속도가 증가될 수 있고, 영상 처리의 오버헤드는 감소시킬 수 있다.
도 2는 일부 실시예에 따른 연속하는 3개의 프레임의 예시를 도시한다.
도 2를 참고하면, 연속하는 3개의 프레임들(FR-n, FR-n+1, FR-n+2)은 순서대로 디스플레이 장치의 화면에 출력될 수 있다.
먼저, 디스플레이 장치는 제n 프레임(FR-n)을 출력할 수 있다. 디스플레이 장치의 화면에는 달 모양의 제1 객체(11)가 디스플레이될 것이다.
다음, 디스플레이 장치는 제n+1 프레임(FR-n+1)을 출력할 수 있다. 디스플레이 장치의 화면에는 제n 프레임(FR-n)에서 추가된 삼각형 모양의 제2 객체(12)가 디스플레이될 것이다.
다음, 디스플레이 장치는 제n+2 프레임(FR-n+2)을 출력할 수 있다. 디스플레이 장치의 화면에는 제n+1 프레임(FR-n+1)에서 추가된 원 모양의 제3 객체(13)가 디스플레이될 것이다.
도 2의 제n 프레임(FR-n) 및 제n+1 프레임(FR-n+1), 또는 제n+1 프레임(FR-n+1) 및 제n+2 프레임(FR-n+2)과 같이, 연속하는 프레임들은 거의 대부분이 서로 동일하고, 이전 프레임에서 일부만이 변경되는 경우가 많다.
이하에서는 일부 실시예에 따라 도 1의 영상 처리 장치(100)가 도 2의 연속하는 프레임들 (FR-n, FR-n+1, FR-n+2)을 순서대로 저장하는 방법을 상술한다. 설명의 편의를 위해, 영상 처리 장치(100)는 2개의 버퍼들인 제1 버퍼(120-1) 및 제2 버퍼(120-2)만을 사용한다고 가정한다. 또한, 제1 버퍼(120-1) 및 제2 버퍼(120-2)는 모두 초기에 어떤 데이터도 저장하지 않는 것으로 가정한다. 즉, 제1 버퍼(120-1) 및 제2 버퍼(120-2) 모두 초기 데이터는 NULL이다.
다시 도 1 및 도 2를 참고하면, 영상 처리 장치(100)의 제어부(110)는 제n 프레임(FR-n)의 프레임 정보를 획득할 수 있다. 제n 프레임(FR-n)의 프레임 정보는 제n 프레임(FR-n)에서 추가되는 제1 객체(11)에 대한 제1 객체 정보 및 제1 프레임 내 제1 객체(11)의 영역인 제1 객체 영역을 지시하는 제1 객체 위치 정보를 포함할 수 있다. 제n 프레임(FR-n)이 이전 프레임과 완전히 다르거나, 이전 프레임이 존재하지 않는 경우에는 제1 객체 영역은 제n 프레임(FR-n)의 전체 영역일 수 있다. 만일 제n 프레임(FR-n)이 이전 프레임으로부터 일부만이 변경되는 경우라면, 객체 영역은 제n 프레임(FR-n)의 일부 영역일 수 있다.
도 3은 도 1의 제어부(110)에서 획득하는 제n 프레임(FR-n)의 프레임 정보(OJ1)의 일부 실시예이다.
도 1 내지 도 3을 참고하면, 제n 프레임(FR-n)의 프레임 정보(OJ1)는 제n 프레임(FR-n)에서 추가되는 제1 객체(11)의 영역인 제1 객체 영역(OA1)의 위치를 지시하는 제1 객체 위치 정보 및 제1 객체(11)를 그리기 위해 필요한 제1 객체 정보를 포함할 수 있다. 제1 객체 영역(OA1)은 블록(BL)을 기본 단위로 할 수 있다. 블록(BL)은 하나의 픽셀 또는 픽셀들의 집합일 수 있다. 예를 들어, 제1 객체 위치 정보는 제n 프레임(FR-n) 내 제1 객체 영역(OA1)에 해당하는 블록의 위치, 블록의 좌표 등을 지시하는 정보일 수 있다.
도 3에서는 제1 객체 영역(OA1)이 제n 프레임(FR-n)의 전체 영역이다. 제n 프레임(FR-n)이 이전 프레임과 완전히 다르거나, 이전 프레임이 존재하지 않는 경우에는 제1 객체 영역(OA1)이 제n 프레임(FR-n)의 전체 영역일 수 있다. 만일 제n 프레임(FR-n)이 이전 프레임으로부터 일부만이 변경되는 경우라면, 제1 객체 영역(OA1)은 도 3과 달리 제n 프레임(FR-n)의 일부 영역일 수 있다.
도 1의 제어부(110)는 제n 프레임(FR-n)을 제1 버퍼(120-1)에 할당할 수 있다. 제어부(110)는 제n 프레임(FR-n)의 프레임 정보(OJ1)에 기초하여 제1 버퍼(120-1)에 제1 객체(11)를 그릴 수 있다.
도 4는 일부 실시예에 따른 제1 버퍼(120-1) 및 제2 버퍼(120-2)를 도시한다. 도 1의 제어부(110)가 제1 버퍼(120-1)에 제1 객체(도 3의 11)를 그리는 것을 완료하면, 도 4와 같이 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장된다. 제2 버퍼(120-2)에는 아무런 데이터도 저장되어 있지 않다. 디스플레이 장치는 제1 버퍼(120-1)에 저장되어 있는 제n 프레임(FR-n)을 출력할 수 있다
다음, 도 1의 영상 처리 장치(100)는 제n+1 프레임(FR-n+1)의 프레임 정보를 획득할 수 있다. 영상 처리 장치(100)가 제n+1 프레임(FR-n+1)의 프레임 정보를 획득하면, 영상 처리 장치(100)는 제n 프레임(FR-n)의 다음 프레임인 제n+1 프레임(FR-n+1)을 출력하기 위한 동작을 시작할 수 있다.
도 5는 도 1의 제어부(110)에서 획득하는 제n+1 프레임(FR-n+1)의 프레임 정보(OJ2)의 일부 실시예이다.
도 1 및 도 5를 참고하면, 제n+1 프레임(FR-n+1)의 프레임 정보(OJ2)는 제n+1 프레임(FR-n+1)에서 추가되는 제2 객체(12)의 영역인 제2 객체 영역(OA2)의 위치를 지시하는 제2 객체 위치 정보 및 제2 객체(12)를 그리기 위해 필요한 제2 객체 정보를 포함할 수 있다. 즉, 제n+1 프레임(FR-n+1)의 프레임 정보(OJ2)는 이전 프레임인 제n 프레임(FR-n)으로부터 업데이트되는 부분에 대한 정보를 포함할 수 있다. 업데이트되는 부분은 제n 프레임(FR-n)에서 추가되는 부분, 삭제되는 부분 또는 변경되는 부분을 의미할 수 있다.
제n 프레임(FR-n)이 제1 버퍼(120-1)에 저장되어 있으므로, 제어부(110)는 제n+1 프레임(FR-n+1)을 제2 버퍼(120-2)에 할당할 수 있다. 제어부(110)는 제n 프레임(FR-n)에서 복사 영역을 검출하고, 제1 버퍼(120-1)에 저장되어 있는 복사 영역을 제2 버퍼(120-2)에 복사할 수 있다. 제2 버퍼(120-2)에 저장되어 있는 초기 데이터(NULL)와 제n 프레임(FR-n) 사이 차이 영역은 제1 객체 영역(OA1)과 동일하다. 제어부(110)는 차이 영역 또는 차이 영역의 일부를 복사 영역으로 검출할 수 있다.
도 6은 일부 실시예에 따라 도 1의 제어부(110)에서 복사 영역(CA1)을 검출하는 방법을 도시한다.
도 1 및 도 6을 참고하면, 제어부(110)는 제n 프레임(FR-n)의 객체 영역(OA1, 도 3 참고)인 제1 객체 영역(OA1) 및 제n+1 프레임(FR-n+1)의 객체 영역(OA2, 도 5 참고)인 제2 객체 영역(OA2)을 비교하여, 제1 객체 영역(OA1)에서 제2 객체 영역(OA2)를 제외한 영역을 복사 영역(CA1)으로 검출할 수 있다. 즉, 제어부(110)는 제1 객체 영역(OA1) 및 제2 객체 영역(OA2) 사이 중첩 영역을 제외한 제1 객체 영역(OA1)을 복사 영역(CA1)으로 검출할 수 있다.
제어부(110)는 제n 프레임(FR-n)의 프레임 정보(도 3의 OJ1)에 기초하여 제1 객체 영역(OA1)을 획득할 수 있다. 또한, 제어부(110)는 제n+1 프레임(FR-n+1)의 프레임 정보(도 5의 OJ2)에 기초하여 제2 객체 영역(OA2)을 획득할 수 있다.
도 7은 일부 실시예에 따라 제2 버퍼(120-2)에 제n+1 프레임(FR-n+1)을 저장하는 방법을 도시한다.
도 1 및 도 7을 참고하면, 초기에 제1 버퍼(120-1) 및 제2 버퍼(120-2)는 도 4와 같다. 즉, 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 아무런 데이터가 저장되어 있지 않다.
제어부(110)는 제n 프레임(FR-n)에서 복사 영역(CA1)을 검출하고, 제1 버퍼(120-1)에 저장되어 있는 복사 영역(CA1)을 제2 버퍼(120-2)에 복사할 수 있다. 제어부(110)는 도 6에서와 같이 제n 프레임(FR-n)에서 복사 영역(CA1)을 검출할 수 있다. 제1 버퍼(120-1) 및 제2 버퍼(120-2) 사이의 복사란, 제어부(110)가 제1 버퍼(120-1)의 복사 영역(CA1)에 저장되어 있는 데이터를 독출하여, 제2 버퍼(120-2)에서 복사 영역(CA1)의 대응하는 영역에 독출된 데이터를 기입하는 과정을 의미할 수 있다.
다음, 제어부(110)는 제n+1 프레임(FR-n+1)의 프레임 정보(도 5의 OJ2)에 기초하여, 제2 버퍼(120-2)에 제2 객체 영역(OA2)을 설정하고, 제2 객체 영역(OA2)에 제2 객체(12)를 그릴 수 있다. 제2 버퍼(120-2)에 제2 객체(12)를 그린다는 것은 제2 객체 영역(OA2)에 포함되는 픽셀들 각각에 대한 픽셀값들을 제2 버퍼(120-2)에 기입(write)하는 것을 의미할 수 있다.
도 8은 일부 실시예에 따라 도 7에 도시된 동작이 완료된 후의 제1 버퍼(120-1) 및 제2 버퍼(120-2)를 도시한다.
도 1 및 도 8을 참고하면, 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 제n+1 프레임(FR-n+1)이 저장된다. 영상 처리 장치(100)를 포함하는 디스플레이 장치 또는 영상 처리 장치(100)에 연결되는 디스플레이 장치는 제2 버퍼(120-2)에 저장된 제n+1 프레임(FR-n+1)을 출력할 수 있다. 이를 통해, 디스플레이 장치의 화면은 제n 프레임(FR-n)에서 제n+1 프레임(FR-n+1)으로 변경될 것이다.
다음, 도 1의 영상 처리 장치(100)는 제n+2 프레임(FR-n+2)의 프레임 정보를 획득할 수 있다.
도 9는 도 1의 제어부(110)에서 획득하는 제n+2 프레임(FR-n+2)의 프레임 정보(OJ3)의 일부 실시예이다.
도 1 및 도 9를 참고하면, 제n+2 프레임(FR-n+2)의 프레임 정보(OJ3)는 제n+2 프레임(FR-n+2)에서 추가되는 제3 객체(13)의 영역인 제3 객체 영역(OA3)의 위치를 지시하는 제3 객체 위치 정보 및 제3 객체(13)를 그리기 위해 필요한 제3 객체 정보를 포함할 수 있다.
도 8과 같이, 제n+1 프레임(FR-n+1)이 제2 버퍼(120-2)에 저장되어 있으므로, 제어부(110)는 제n+2 프레임(FR-n+2)을 제1 버퍼(120-1)에 할당할 수 있다. 제어부(110)는 이전 프레임인 제n+1 프레임(FR-n+1)에서 복사 영역을 검출하고, 제2 버퍼(120-2)에 저장되어 있는 복사 영역을 제1 버퍼(120-1)에 복사할 수 있다. 영상 처리 장치(100)가 제1 버퍼(120-1) 및 제2 버퍼(120-2)만을 사용하는 경우, 제1 버퍼(120-1)의 초기 데이터는 제n 프레임(FR-n)이다. 따라서, 제1 버퍼(120-1)의 초기 데이터[제n 프레임(FR-n)]와 제n+1 프레임(FR-n+1) 사이 차이 영역은 제2 객체 영역(OA2)과 동일하다. 제어부(110)는 차이 영역 또는 차이 영역의 일부를 복사 영역으로 검출할 수 있다.
도 10은 일부 실시예에 따라 도 1의 제어부(110)에서 복사 영역(CA2)을 검출하는 방법을 도시한다.
도 1 및 도 10을 참고하면, 제어부(110)는 제n+1 프레임(FR-n+1)의 객체 영역(OA2, 도 5 참고)인 제2 객체 영역(OA2) 및 제n+2 프레임(FR-n+2)의 객체 영역(OA3, 도 9 참고)인 제3 객체 영역(OA3)을 비교하여, 제2 객체 영역(OA2)에서 제3 객체 영역(OA3)을 제외한 영역을 복사 영역(CA2)으로 검출할 수 있다. 도 10에서는 제2 객체 영역(OA2) 및 제3 객체 영역(OA3) 사이에 중첩되는 부분이 없기 때문에, 복사 영역(CA2)은 제2 객체 영역(OA2)과 동일하다.
도 11은 일부 실시예에 따라 제1 버퍼(120-1)에 제n+2 프레임(FR-n+2)을 저장하는 방법을 도시한다.
도 1 및 도 11을 참고하면, 초기에 제1 버퍼(120-1) 및 제2 버퍼(120-2)는 도 8과 같다. 즉, 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 제n+1 프레임(FR-n+1)이 저장되어 있다.
제어부(110)는 제n+1 프레임(FR-n+1)에서 복사 영역(CA2)을 검출하고, 제2 버퍼(120-2)에 저장되어 있는 복사 영역(CA2)을 제1 버퍼(120-1)에 복사할 수 있다.
다음, 제어부(110)는 제n+2 프레임(FR-n+2)의 프레임 정보(도 9의 OJ3)에 기초하여, 제1 버퍼(120-1)에 제3 객체 영역(OA3)을 설정하고, 제3 객체 영역(OA3)에 제3 객체(13)를 그릴 수 있다.
도 12는 일부 실시예에 따라 도 11에 도시된 동작이 완료된 후의 제1 버퍼(120-1) 및 제2 버퍼(120-2)를 도시한다.
도 1 및 도 12를 참고하면, 제1 버퍼(120-1)에는 제n+2 프레임(FR-n+2)이 저장되고, 제1 버퍼(120-1)에는 제n+1 프레임(FR-n+1)이 저장되어 있다. 영상 처리 장치(100)를 포함하는 디스플레이 장치 또는 영상 처리 장치(100)에 연결되는 디스플레이 장치는 제1 버퍼(120-1)에 저장된 제n+2 프레임(FR-n+2)을 출력할 수 있다. 이를 통해, 디스플레이 장치의 화면은 제n+1 프레임(FR-n+1)에서 제n+2 프레임(FR-n+2)으로 변경될 것이다.
다음 제1 버퍼(120-1) 및 제2 버퍼(120-2)가 도 8과 같은 상황에서, 제n+1 프레임(FR-n+1)의 다음 프레임인 제n+2 프레임(FR-n+2)의 프레임 정보가 도 9와는 다른 경우에 대해 도 13 내지 도 16을 참고하여 설명한다.
도 13은 도 1의 제어부(110)에서 획득하는 제n+2 프레임(FR-n+2)의 프레임 정보(OJ4)의 일부 실시예이다. 도 13은 도 9와는 다른 프레임 정보(OJ4)이다.
도 1 및 도 13을 참고하면, 제n+2 프레임(FR-n+2)의 프레임 정보(OJ4)는 제n+2 프레임(FR-n+2)에서 추가되는 객체(14)의 영역인 객체 영역(OA4)의 위치를 지시하는 객체 위치 정보 및 객체(14)를 그리기 위해 필요한 객체 정보를 포함할 수 있다.
도 14는 일부 실시예에 따라 도 1의 제어부(110)에서 복사 영역(CA3)을 검출하는 방법을 도시한다.
도 1 및 도 14를 참고하면, 제어부(110)는 제n+1 프레임(FR-n+1)의 객체 영역(OA2, 도 5 참고)인 제2 객체 영역(OA2) 및 제n+2 프레임(FR-n+2)의 객체 영역(OA4, 도 13 참고)인 객체 영역(OA4)을 비교하여, 제2 객체 영역(OA2)에서 객체 영역(OA4)을 제외한 영역을 복사 영역(CA3)으로 검출할 수 있다. 도 14에서는 제2 객체 영역(OA2) 및 객체 영역(OA4) 사이에 중첩 영역(OL1)이 제외된, 제2 객체 영역(OA2)의 일부가 복사 영역(CA3)으로 검출될 것이다.
도 15는 일부 실시예에 따라 제1 버퍼(120-1)에 제n+2 프레임(FR-n+2)을 저장하는 방법을 도시한다.
도 1 및 도 15를 참고하면, 초기에 제1 버퍼(120-1) 및 제2 버퍼(120-2)는 도 8과 같다. 즉, 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 제n+1 프레임(FR-n+1)이 저장되어 있다.
제어부(110)는 제n+1 프레임(FR-n+1)에서 복사 영역(CA3)을 검출하고, 제2 버퍼(120-2)에 저장되어 있는 복사 영역(CA3)을 제1 버퍼(120-1)에 복사할 수 있다.
다음, 제어부(110)는 제n+2 프레임(FR-n+2)의 프레임 정보(도 13의 OJ4)에 기초하여, 제1 버퍼(120-1)에 객체 영역(OA4)을 설정하고, 객체 영역(OA4)에 객체(14)를 그릴 수 있다.
도 16은 일부 실시예에 따라 도 15에 도시된 동작이 완료된 후의 제1 버퍼(120-1) 및 제2 버퍼(120-2)를 도시한다.
도 1 및 도 16을 참고하면, 제1 버퍼(120-1)에는 제n+2 프레임(FR-n+2)이 저장되고, 제1 버퍼(120-1)에는 제n+1 프레임(FR-n+1)이 저장되어 있다.
도 17은 일부 실시예에 따른 영상 처리 장치(200)의 구성을 도시한다.
도 17을 참고하면, 영상 처리 장치(200)는 제어부(210), 복수의 버퍼들(220)을 포함하는 메모리(230)를 포함한다. 제어부(210) 및 복수의 버퍼들(220)에는 전술한 내용이 적용될 수 있으므로 중복되는 설명은 생략한다. 영상 처리 장치(200)는 디스플레이부(240) 및 사용자 입력부(250)를 더 포함할 수 있다. 또한, 영상 처리 장치(200)는 통신부(260)를 더 포함할 수 있다. 영상 처리 장치(200)에 포함되는 여러 구성들은 버스(290)를 통해 서로 연결될 수 있다.
디스플레이부(240)는 각 버퍼들(220)에 저장되어 있는 프레임을 화면에 출력할 수 있다. 디스플레이부(240)의 예로서 CRT(Cathode Ray Tube) 디스플레이, LCD(Liquid Crystal Display) 디스플레이, PDP(Plasma Display Panel) 디스플레이, OLED(Organic Light Emitting Diode) 디스플레이, FED(Field Emission Display) 디스플레이, LED Light Emitting Diode) 디스플레이, VFD(Vacuum Fluorescence Display) 디스플레이, DLP(Digital Light Processing) 디스플레이, FPD(Flat Panel Display) 디스플레이, 3D 디스플레이, 투명 디스플레이 등을 포함할 수 있고, 기타 당업자에게 자명한 범위 내에서 다양한 디스플레이 장치들을 포함할 수 있다.
사용자 입력부(250)는 사용자로부터 영상 처리 장치(200)의 조작을 위한 명령을 입력받을 수 있다. 사용자 입력부(250)의 예로는 키보드, 마우스, 터치스크린, 음성 인식기, 지문 인식기, 홍채 인식기 등을 포함할 수 있으며, 기타 당업자에게 자명한 입력 장치를 포함할 수 있다.
디스플레이부(240) 및 사용자 입력부(250)는 사용자에게 영상 처리 장치(200)의 조작을 위한 UI를 제공할 수 있다. 예를 들어, 디스플레이부(240)는 도 2의 제n 프레임(FR-n)을 출력함으로써 사용자에게 UI를 제공할 수 있다. 다음, 사용자 입력부(250)는 사용자로부터 영상 처리 장치(200)의 조작을 위한 조작 명령을 입력받을 수 있다. 그러면, 제어부(210)는 조작 명령에 기초하여 도 5와 같은 제n+1 프레임(FR-n+1)의 프레임 정보(OJ1)를 획득할 수 있다. 제어부(210)는 전술한 동작(도 6 및 도 7 참고)을 통해 복수의 버퍼들(220) 중 하나의 버퍼에 제n+1 프레임(FR-n+1)을 저장할 수 있다. 도 8과 같이 제2 버퍼(120-2)에 제n+1 프레임(FR-n+1)의 저장이 완료되면, 제어부(210)는 디스플레이부(240)가 제n+1 프레임(FR-n+1)을 출력하도록 디스플레이부(240)를 제어할 수 있다.
통신부(260)는 영상 처리 장치(200)가 외부 기기와 통신을 하도록 구성된다. 통신부(260)를 통해, 영상 처리 장치(200)는 프레임 정보(도 3, 도 5 및 도 9 참고)를 외부 기기로부터 전달받을 수도 있다. 통신부(260)는 영상 처리 장치(200)가 외부 기기와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(260)는 근거리 통신 모듈, 유선 통신 모듈, 이동 통신 모듈 등을 포함할 수 있다.
근거리 통신 모듈은 소정 거리 이내의 위치하는 장치와 근거리 통신을 수행하기 위한 모듈을 의미한다. 일부 실시예에 따른 근거리 통신 기술의 예로는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(ZigBee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE(Bluetooth Low Energy), NFC(Near Field Communication) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 유선 통신 기술의 예로는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블 등을 이용한 유선 통신 기술이 포함될 수 있고, 당업자에게 자명한 유선 통신 기술이 포함될 수 있다.
무선 통신 모듈은, 이동 통신망 상에서의 기지국, 외부의 장치, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호의 예로는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
메모리(230)는 복수의 버퍼들(220) 외에도 저장부(225)를 더 포함할 수 있다. 저장부(225)는 제어부(210)에서 획득되는 프레임 정보에 기초한 데이터를 저장할 수 있다. 제어부(210)는 프레임 정보에 포함되는 객체 영역을 지시하는 객체 위치 정보를 저장부(225)에 저장시킬 수 있다. 즉, 제어부(210)는 각 프레임의 프레임 정보를 획득할 때마다 객체 위치 정보를 저장부(225)에 업데이트할 수 있다. 또한, 저장부(225)는 영상 처리 장치(200)의 동작을 위한 각종 정보를 더 저장할 수 있다.
도 18은 도 17의 저장부(225)에 저장되는 객체 위치 정보(TB1)의 일부 실시예이다.
도 18을 참고하면, 객체 위치 정보(TB1)는 프레임을 식별하는 프레임 식별자(FR-n, FR-n+1, FR-n+2)와 그 프레임에서 객체 영역(OA1, OA2, OA3)의 위치를 지시하는 정보를 매핑시킨 테이블 형태의 데이터일 수 있다.
도 17의 제어부(210)는 저장부(225)에 저장되어 있는 객체 위치 정보(TB1)에 기초하여 복사 영역을 검출할 수 있다. 제어부(210)는 객체 위치 정보(TB1)에 기초하여 객체 영역(OA1, OA2, OA3)을 획득할 수 있고, 도 6, 도 10 및 도 14에서 전술한 것과 같이 객체 영역(OA1, OA2, OA3)을 이용하여 복사 영역을 검출할 수 있다.
이하, 프레임 정보가 프레임에 추가되는 객체에 대한 객체 위치 정보 및 객체 정보 외에도 알파 블렌딩(Alpha blending)을 위한 알파 데이터를 더 포함하는 경우에 대해 설명한다. 알파 블렌딩은 이전 프레임 위에 현재 프레임의 객체를 그릴 때 이전 프레임과 객체를 혼합하는 것이다. 객체가 이전 프레임과 혼합되는 비율은 알파 데이터에 기초하여 결정된다.
도 19는 알파 블렌딩을 설명하기 위한 프레임들의 일부 실시예이다.
도 19를 참고하면, 연속하는 3개의 프레임들(FR-n, FR-n+1, FR-n+2) 중 제n 프레임(FR-n)과 제n+1 프레임(FR-n+1)은 도 2와 동일하다. 제n+2 프레임(FR-n+2)은 제n+1 프레임(FR-n+1)에서 원 모양의 객체(14)가 추가된 것이다.
제n+2 프레임(FR-n+2)의 프레임 정보는 도 13과 같이 객체(14)에 대한 객체 위치 정보 및 객체 정보를 포함하고, 알파 데이터를 더 포함할 수 있다. 제n+2 프레임(FR-n+2)의 객체(14)는 알파 블렌딩을 통해 그려지기 때문에, 제n+2 프레임(FR-n+2) 내 객체(14)가 이전 프레임들의 객체들(11, 12)과 중첩되는 부분에서 이전 프레임들의 객체들(11, 12)이 나타날 수 있다.
프레임 정보가 알파 데이터를 포함하는지 여부는 각 프레임마다 다를 수 있다. 제n+1 프레임(FR-n+1)의 프레임 정보는 알파 데이터를 포함하지 않을 것이다. 왜냐하면, 제n+1 프레임(FR-n+1) 내 제2 객체(12)가 이전 프레임의 제1 객체(11)와 중첩되는 부분에서 이전 프레임의 제1 객체(11)는 나타나지 않기 때문이다.
도 20은 일부 실시예에 따라 제1 버퍼(120-1)에 제n+2 프레임(FR-n+2)을 저장하는 방법을 도시한다.
도 1 및 도 20을 참고하면, 초기에 제1 버퍼(120-1) 및 제2 버퍼(120-2)는 도 8과 같다. 즉, 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 제n+1 프레임(FR-n+1)이 저장되어 있다.
제n+2 프레임(FR-n+2)의 프레임 정보는 도 13과 같이 객체(14)에 대한 객체 위치 정보 및 객체 정보 외에도 알파 데이터를 더 포함하기 때문에, 도 1의 제어부(110)는 도 14와는 다르게 복사 영역을 검출할 수 있다. 도 14에서 제어부(110)는 제n+1 프레임(FR-n+1)의 객체 영역인 제2 객체 영역(OA2) 및 제n+2 프레임(FR-n+2)의 객체 영역(OA4)을 비교하여 복사 영역(CA3)을 검출하였다. 그러나, 제n+2 프레임(FR-n+2)의 프레임 정보가 알파 데이터를 포함하는 경우, 도 1의 제어부(110)는 제n+1 프레임(FR-n+1)의 객체 영역인 제2 객체 영역(OA2)을 바로 복사 영역(CA4)으로 검출할 수 있다. 즉, 제어부(110)는 제2 객체 영역(OA2)을 객체 영역(OA4)과 비교할 필요 없이, 제2 객체 영역(OA2)을 복사 영역(CA4)으로 검출할 수 있다.
제어부(110)는 제2 버퍼(120-2)에 저장되어 있는 복사 영역(CA4)을 제1 버퍼(120-1)에 복사할 수 있다. 이를 통해, 제1 버퍼(120-1)는 제2 버퍼(120-2)와 동일하게 제n+1 프레임(FR-n+1)이 저장된다. 제2 버퍼(120-2)에 저장된 데이터의 일부인 복사 영역(CA4)의 복사를 통해, 제1 버퍼(120-1)에 저장된 데이터가 제2 버퍼(120-2)에 저장된 데이터와 동일해질 수 있다.
다음, 제어부(110)는 제n+2 프레임(FR-n+2)의 프레임 정보(도 13 참고)에 기초하여, 제1 버퍼(120-1)에 객체 영역(OA4)을 설정하고, 객체 영역(OA4)에 객체(14)를 그릴 수 있다. 이때, 제어부(210)는 객체(14)를 이전 프레임인 제n+1 프레임(FR-n+1)과 알파 데이터에 기초하여 혼합하여 제n+1 프레임(FR-n+1) 위에 객체(14)를 그릴 수 있다.
도 21은 일부 실시예에 따라 도 20에 도시된 동작이 완료된 후의 제1 버퍼(120-1) 및 제2 버퍼(120-2)를 도시한다.
도 1 및 도 21을 참고하면, 제1 버퍼(120-1)에는 제n+2 프레임(FR-n+2)이 저장되고, 제1 버퍼(120-1)에는 제n+1 프레임(FR-n+1)이 저장되어 있다.
도 22는 일부 실시에에 따른 영상 처리 장치의 동작 방법(S100)을 나타내는 흐름도이다.
도 22를 참고하면, 영상 처리 장치는 제1 프레임에 후속하는 제2 프레임의 프레임 정보를 획득할 수 있다(S110). 프레임 정보는 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 제2 프레임 내 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함할 수 있다.
영상 처리 장치는 제1 프레임에서 복사 영역을 검출할 수 있다(S120). 영상 처리 장치는 제1 버퍼에 저장되어 있는 복사 영역을 제2 버퍼에 복사할 수 있다(S130). 영상 처리 장치는 제2 프레임의 프레임 정보에 기초하여 제2 객체를 제2 버퍼에 그릴 수 있다(S140).
도 23은 일부 실시예에 따른 영상 처리 장치가 제1 프레임에서 복사 영역을 검출하는 방법(S200)을 나타내는 흐름도이다.
도 23을 참고하면, 영상 처리 장치는 제2 프레임의 프레임 정보를 획득한 후, 제2 버퍼에 제2 프레임을 저장하기 위해 제1 프레임에서 복사 영역을 다음과 같이 검출할 수 있다. 영상 처리 장치는 제2 버퍼의 초기 데이터와 제1 프레임 사이 차이 영역을 검출할 수 있다(S210). 영상 처리 장치는 차이 영역 및 제2 객체 영역을 비교하여 차이 영역 및 제2 객체 영역 사이 중첩 영역이 존재하는지 판별할 수 있다(S220). 영상 처리 장치는 제2 프레임의 프레임 정보에 포함되는 제2 객체 위치 정보에 기초하여 제2 객체 영역을 획득할 수 있다.
중첩 영역이 존재한다면, 영상 처리 장치는 중첩 영역을 제외한 차이 영역을 복사 영역으로 검출할 수 있다(S230). 중첩 영역이 존재하지 않는다면, 영상 처리 장치는 차이 영역을 복사 영역으로 검출할 수 있다(S240). 즉, 영상 처리 장치는 제2 객체 영역을 제외한 차이 영역을 복사 영역으로 검출할 수 있다.
도 24는 일부 실시예에 따른 영상 처리 장치가 제1 프레임에서 복사 영역을 검출하는 방법(S300)을 나타내는 흐름도이다.
도 24를 참고하면, 영상 처리 장치는 제1 프레임의 제1 객체 영역을 획득할 수 있다(S310). 영상 처리 장치는 저장부(도 17의 225)에 저장되어 있는 객체 위치 정보(도 18 참고)에 기초하여 제1 프레임의 제1 객체 영역을 획득할 수 있다. 즉, 영상 처리 장치는 제1 프레임의 프레임 정보를 획득하였을 때, 프레임 정보에 포함되는 제1 객체 위치 정보를 저장부(도 17의 225)에 저장할 수 있다. 제1 객체 위치 정보는 제1 프레임에서 추가되는 제1 객체의 영역인 제1 객체 영역을 지시하는 정보이다.
영상 처리 장치는 제1 객체 영역 및 제2 객체 영역을 비교하여 제1 객체 영역 및 제2 객체 영역 사이 중첩 영역이 존재하는지 판별할 수 있다(S320). 영상 처리 장치는 제2 프레임의 프레임 정보에 포함되는 제2 객체 위치 정보에 기초하여 제2 객체 영역을 획득할 수 있다.
중첩 영역이 존재한다면, 영상 처리 장치는 중첩 영역을 제외한 제1 객체 영역을 복사 영역으로 검출할 수 있다(S330). 중첩 영역이 존재하지 않는다면, 영상 처리 장치는 제1 객체 영역을 복사 영역으로 검출할 수 있다(S340). 즉, 영상 처리 장치는 제2 객체 영역을 제외한 제1 객체 영역을 복사 영역으로 검출할 수 있다. 영상 처리 장치는 제2 프레임의 제2 객체 위치 정보를 저장부(도 17의 225)에 업데이트할 수 있다.
그런데, 제2 프레임의 프레임 정보가 알파 블렌딩을 위한 알파 데이터를 더 포함할 수 있다. 이 경우, 영상 처리 장치는 제1 프레임의 제1 객체 영역을 획득하여, 제1 객체 영역을 복사 영역으로 검출할 수 있다. 영상 처리 장치는 제1 버퍼에 저장되어 있는 복사 영역을 제2 버퍼에 복사한 후, 알파 데이터에 기초하여 제1 프레임과 혼합되도록 제2 객체를 제2 버퍼에 그릴 수 있다.
도 25는 다른 일부 실시예에 따른 영상 처리 장치가 제1 프레임에서 복사 영역을 검출하는 방법(S400)을 나타내는 흐름도이다.
도 25를 참고하면, 영상 처리 장치는 제1 프레임의 제1 객체 영역을 획득할 수 있다(S410). 영상 처리 장치는 제2 프레임의 프레임 정보가 알파 데이터를 포함하는지 여부를 판별할 수 있다(S420). 알파 데이터를 포함하지 않는 경우, 영상 처리 장치는 제1 객체 영역 및 제2 객체 영역을 비교하여 제1 객체 영역 및 제2 객체 영역 사이 중첩 영역이 존재하는지 판별할 수 있다(S430). 제2 프레임의 프레임 정보가 알파 데이터를 포함하거나, 제1 객체 영역 및 제2 객체 영역 사이에 중첩 영역이 존재하지 않는다면, 영상 처리 장치는 제1 객체 영역을 복사 영역으로 검출할 수 있다(S440). 중첩 영역이 존재한다면, 영상 처리 장치는 중첩 영역을 제외한 제1 객체 영역을 복사 영역으로 검출할 수 있다(S450).
즉, 영상 처리 장치는 제2 프레임의 프레임 정보가 알파 데이터를 포함하면, 제1 프레임의 제1 객체 영역을 복사 영역으로 검출할 수 있다. 알파 데이터를 포함하지 않으면, 영상 처리 장치는 제2 객체 영역을 제외한 제1 객체 영역을 복사 영역으로 검출할 수 있다.
도 26은 일부 실시에에 따른 영상 처리 장치의 동작 방법(S500)을 나타내는 흐름도이다.
도 26을 참고하면, 영상 처리 장치는 제1 프레임에 후속하는 제2 프레임의 프레임 정보를 획득할 수 있다(S510). 프레임 정보는 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 제2 프레임 내 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함할 수 있다.
영상 처리 장치는 제1 프레임의 제1 객체 영역을 획득할 수 있다(S520). 영상 처리 장치는 저장부(도 17의 225)에 저장되어 있는 객체 위치 정보(도 18 참고)에 기초하여 제1 프레임의 제1 객체 영역을 획득할 수 있다.
영상 처리 장치는 제1 프레임에서 복사 영역을 검출할 수 있다(S530). 제1 프레임에서 복사 영역을 검출하는 방식은 전술하였다.
영상 처리 장치는 제1 버퍼에 저장되어 있는 복사 영역을 제2 버퍼에 복사할 수 있다(S540). 영상 처리 장치는 제2 프레임의 프레임 정보에 기초하여 제2 객체를 제2 버퍼에 그릴 수 있다(S550). 영상 처리 장치는 제2 프레임의 제2 객체 위치 정보를 저장부에 업데이트할 수 있다(S560).
영상 처리 장치는 제2 프레임을 출력할 수 있다(S570). 제1 프레임을 출력하던 영상 처리 장치가 제2 객체를 상기 제2 버퍼에 그리면, 영상 처리 장치는 제1 프레임에 후속하는 제2 프레임을 출력할 수 있다.
도 22 내지 도 26에서 설명한 영상 처리 장치의 동작 방법들은 전술된 도면들의 영상 처리 장치(도 1의 100 또는 도 17의 200)에서 수행될 수 있다. 영상 처리 장치의 동작 방법의 각 단계는 앞서 설명된 방식으로 수행될 수 있다.
도 27은 일부 실시예와 다르게 영상 처리 장치가 동작하는 방법의 예를 도시한다.
도 27을 참고하면, 초기에 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 제n+1 프레임(FR-n+1)이 저장되어 있다. 제n+2 프레임(FR-n+2)은 제1 버퍼(120-1)에 다음과 같이 저장될 수 있다.
제2 버퍼(120-2)에 저장되어 있는 제n+1 프레임(FR-n+1) 전체가 제1 버퍼(120-1)에 복사된다. 다음, 제n+2 프레임(FR-n+2)의 프레임 정보에 기초하여, 제1 버퍼(120-1)에 객체 영역(43)을 설정하고, 객체 영역(43)에 제n+2 프레임(FR-n+2)의 객체(13)를 그린다. 이를 통해, 제1 버퍼(120-1)에 제n+2 프레임(FR-n+2)이 저장된다.
제2 버퍼(120-2)에 저장되어 있는 이전 프레임인 제n+1 프레임(FR-n+1) 전체가 제1 버퍼(120-1)로 복사되는 경우, 제1 버퍼(120-1)에는 이전 프레임인 제n+1 프레임(FR-n+1)이 저장된다. 그런데, 제1 버퍼(120-1)에서 복사 이전과 복사 이후에 동일한 영역과 제n+2 프레임(FR-n+1)의 객체(13)가 추가되는 객체 영역(43) 등 복사할 필요가 없는 영역까지 모두 복사된다는 문제가 있다. 특히, 고해상도 프레임일수록 버퍼 사이 전체 복사는 영사 처리의 오버헤드를 크게 증가시킬 것이다. 따라서 영상 처리 장치의 효율성이 감소될 것이다.
일부 실시예에 따른 도 11과 비교하면, 도 11에서는 복사 영역(CA2)만이 제2 버퍼(120-2)에서 제1 버퍼(120-1)로 복사된다. 즉, 일부 실시예에 따르면 영상 처리의 오버헤드를 감소시켜, 영상 처리 장치의 효율성이 증가될 것이다.
도 28은 일부 실시예와 다르게 영상 처리 장치가 동작하는 방법의 다른 예를 도시한다.
도 28을 참고하면, 초기에 제1 버퍼(120-1)에는 제n 프레임(FR-n)이 저장되어 있고, 제2 버퍼(120-2)에는 제n+1 프레임(FR-n+1)이 저장되어 있다. 제n+2 프레임(FR-n+2)은 제1 버퍼(120-1)에 다음과 같이 저장될 수 있다.
제1 버퍼(120-1)에 저장되어 있는 초기 데이터인 제n 프레임(FR-n)과 제2 버퍼(120-2)에 저장되어 있는 제n+1 프레임(FR-n+1)를 비교하여 차이 영역(42)을 설정한다. 제1 버퍼(120-1)의 차이 영역(42)에 제n 프레임(FR-n)에 없는 객체(12)를 그린다. 다음, 제n+2 프레임(FR-n+2)의 프레임 정보에 기초하여, 제1 버퍼(120-1)에 객체 영역(43)을 설정하고, 객체 영역(43)에 제n+2 프레임(FR-n+2)의 객체(13)를 그린다. 이를 통해, 제1 버퍼(120-1)에 제n+2 프레임(FR-n+2)이 저장된다.
도 28에서는 도 27과 다르게 제2 버퍼(120-2)에 저장되어 있는 데이터를 복사하는 과정이 없다. 대신에 제2 버퍼(120-2)에서 이미 그렸던 제n+1 프레임(FR-n+1)의 객체(12)를 제1 버퍼(120-2)에서 다시 그리는 문제가 있다. 객체(12)가 복잡할수록 다시 그리는 과정의 오버헤드가 증가할 것이다. 객체(12)를 그릴 때 2-PASS 렌더링, 알파 블렌딩, 객체(12)를 그린 후 객체(12)에 특정 필터를 적용하는 등과 같이 추가적인 영상 처리 과정이 필요한 경우, 다시 그리는 복잡도가 증가할 것이다. 따라서 복사하는 경우보다 영상 처리 장치의 오버헤드가 증가할 것이다.
일부 실시예에 따른 도 11과 비교하면, 도 11에서는 객체(12)를 제1 버퍼(120-1)에 다시 그리는 것이 아니라 복사 영역(CA2)이 제2 버퍼(120-2)에서 제1 버퍼(120-1)로 복사된다. 따라서 객체(12)를 다시 그리는 경우보다 영상 처리의 오버헤드가 감소될 것이다.
또한, 제2 버퍼(120-2)에 이미 그렸던 객체(12)를 제1 버퍼(120-1)에 다시 그리기 위해서는 제1 프레임(FR-n+1)의 프레임 정보를 계속 저장하고 있어야 한다. 특히 객체(12)를 다시 그리기 위해 필요한 객체 정보가 메모리에 계속 저장되도록 관리해야 한다. 일부 실시예에 따르는 경우, 도 18과 같이 제1 프레임 정보(FR-n+1)의 프레임 정보 중 객체(12)의 영역을 지시하는 객체 위치 정보만을 저장하면 된다. 반면, 도 28에서는 객체(12)를 다시 그리기 위해 객체 정보를 계속 저장해야 해서 메모리 용량이 부족해지는 문제가 생길 수 있다.
일부 실시예에 따르면, 새로운 프레임인 제2 프레임이 시작되면, 이전 프레임인 제1 프레임이 저장되어 있는 제1 버퍼에서 제1 프레임의 일부인 복사 영역을 검출하여 복사 영역만을 새로운 프레임이 할당된 제2 버퍼에 복사한다. 이를 통해, 복사의 오버헤드가 감소될 것이며, 이미 그렸던 제1 프레임의 객체를 제2 버퍼에 다시 그려야 하는 오버헤드가 없을 것이다. 다음, 제2 프레임의 프레임 정보에 기초하여 제2 버퍼에 제2 프레임의 객체를 그림으로써, 제2 버퍼에 제2 프레임 저장이 완료된다. 이와 같이, 제2 버퍼에 제2 프레임이 저장되는 영상 처리 과정이 크게 복잡하지 않아 영상 처리 장치의 오버헤드가 감소될 수 있다.
이를 통해, 영상 처리 장치의 처리 속도가 증가될 수 있고, 효율성이 증가될 수 있다. 따라서 영상 처리 장치의 전체적인 시스템 성능이 향상될 것이다.
한편, 상술한 일부 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 및 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (20)

  1. 영상 처리 장치에 있어서,
    제1 프레임을 저장하고 있는 제1 버퍼를 포함하는 복수의 버퍼들; 및
    제어부를 포함하고,
    상기 제어부는,
    제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 상기 제2 프레임 내 상기 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함하는, 제2 프레임의 프레임 정보를 획득하고,
    상기 제1 프레임에서 복사 영역을 검출하고, 상기 복사 영역은 상기 제1프레임의 제1객체 영역과 상기 제2프레임의 상기 제2객체 영역 사이의 오버래핑 영역을 제외한 상기 제1객체 영역이며,
    상기 제1 버퍼에 저장되어 있는 상기 복사 영역을 상기 복수의 버퍼들 중 제2 버퍼에 복사하고,
    상기 제2프레임의 프레임 정보에 기초하여 상기 제2 객체를 상기 제2 버퍼에 그리고,
    제3프레임에 부가된 제3객체에 관한 제3객체 정보 및 상기 제3프레임의 상기 제3객체의 제3객체 영역을 나타내는 제3객체 위치 정보를 포함하는, 상기 제3프레임의 프레임 정보를 획득하고,
    상기 제2프레임에서, 상기 제2객체 영역과 상기 제3객체 영역 사이의 오버래핑 영역을 제외한 상기 제2객체 영역인 또다른 복사 영역을 검출하고,
    상기 제2버퍼에 저장되어 있는 상기 또다른 복사 영역을 상기 제1버퍼에 저장된 상기 제1프레임에 복사하고,
    상기 제3프레임의 상기 프레임 정보에 기반하여 상기 제3객체를 상기 제1버퍼에 그리는, 영상 처리 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 제1 프레임의 상기 제1 객체 영역을 지시하는 제1 객체 위치 정보를 저장하는 저장부를 더 포함하고,
    상기 제어부는 상기 저장부에 저장되어 있는 상기 제1 객체 위치 정보에 기초하여 상기 제1 객체 영역을 획득하고, 상기 제2 프레임의 상기 제2 객체 위치 정보를 상기 저장부에 업데이트하는, 영상 처리 장치.
  4. 제1항에 있어서,
    상기 제2 프레임의 상기 프레임 정보는 알파 블렌딩을 위한 알파 데이터를 더 포함하는, 영상 처리 장치.
  5. 삭제
  6. 제4항에 있어서,
    상기 제어부는 상기 알파 데이터에 기초하여 상기 제1 프레임과 혼합된 상기 제2 객체를 상기 제2 버퍼에 그리는, 영상 처리 장치.
  7. 제1항에 있어서,
    상기 제어부는 상기 제2 프레임의 상기 프레임 정보가 알파 데이터를 포함하면, 상기 제1 프레임의 제1 객체 영역을 상기 복사 영역으로 검출하고,
    알파 데이터를 포함하지 않으면, 상기 제2 객체 영역을 제외한 상기 제1 객체 영역을 상기 복사 영역으로 검출하는, 영상 처리 장치.
  8. 제1항에 있어서,
    상기 제1 프레임을 출력하고,
    상기 제어부가 상기 제2 객체를 상기 제2 버퍼에 그리면, 상기 제1 프레임에 후속하는 상기 제2 프레임을 출력하는 디스플레이부를 더 포함하는 영상 처리 장치.
  9. 제8항에 있어서,
    사용자로부터 조작 명령을 입력받는 사용자 입력부를 더 포함하고,
    상기 제어부는 상기 조작 명령에 기초하여 상기 제2 프레임의 상기 프레임 정보를 획득하는, 영상 처리 장치.
  10. 제1항에 있어서,
    상기 제어부는 상기 제2 버퍼에 저장되어 있는 초기 데이터와 상기 제1 프레임 사이의 차이 영역을 검출하고,
    상기 차이 영역 또는 상기 차이 영역의 일부를 상기 복사 영역으로 검출하는, 영상 처리 장치.
  11. 제1 프레임에 후속하는 제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 상기 제2 프레임 내 상기 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함하는, 제2 프레임의 프레임 정보를 획득하는 단계;
    제2 프레임에서 추가되는 제2 객체에 대한 제2 객체 정보 및 상기 제2 프레임 내 상기 제2 객체의 영역인 제2 객체 영역을 지시하는 제2 객체 위치 정보를 포함하는, 제2 프레임의 프레임 정보를 획득하는 단계;
    상기 제1 프레임에서 복사 영역을 검출하는 단계로서, 상기 복사 영역은 상기 제1프레임의 제1객체 영역과 상기 제2프레임의 상기 제2객체 영역 사이의 오버래핑 영역을 제외한 상기 제1객체 영역인, 검출하는 단계;
    제1 버퍼에 저장되어 있는 상기 복사 영역을 복수의 버퍼들 중 제2 버퍼에 복사하는 단계;
    상기 제2프레임의 프레임 정보에 기초하여 상기 제2 객체를 상기 제2 버퍼에 그리는 단계;
    제3프레임에 부가된 제3객체에 관한 제3객체 정보 및 상기 제3프레임의 상기 제3객체의 제3객체 영역을 나타내는 제3객체 위치 정보를 포함하는, 상기 제3프레임의 프레임 정보를 획득하는 단계;
    상기 제2프레임에서, 상기 제2객체 영역과 상기 제3객체 영역 사이의 오버래핑 영역을 제외한 상기 제2객체 영역인 또다른 복사 영역을 검출하는 단계;
    상기 제2버퍼에 저장되어 있는 상기 또다른 복사 영역을 상기 제1버퍼에 저장된 상기 제1프레임에 복사하는 단계; 및
    상기 제3프레임의 상기 프레임 정보에 기반하여 상기 제3객체를 상기 제1버퍼에 그리는 단계를 포함하는, 영상 처리 장치의 동작 방법.
  12. 삭제
  13. 제11항에 있어서,
    상기 제1 객체 영역은 저장부에 저장되어 있는 상기 제1 객체 영역을 지시하는 제1 객체 영역 정보에 의해 획득되고,
    상기 제2 프레임의 상기 제2 객체 위치 정보를 상기 저장부에 업데이트하는 단계를 더 포함하는 영상 처리 장치의 동작 방법.
  14. 제11항에 있어서,
    상기 제2 프레임의 상기 프레임 정보는 알파 블렌딩을 위한 알파 데이터를 더 포함하는, 영상 처리 장치의 동작 방법.
  15. 삭제
  16. 제14항에 있어서,
    상기 제2 객체를 상기 제2 버퍼에 그리는 단계에서, 상기 알파 데이터에 기초하여 상기 제1 프레임과 혼합되도록 상기 제2 객체를 상기 제2 버퍼에 그리는, 영상 처리 장치의 동작 방법.
  17. 제11항에 있어서,
    상기 제2 프레임의 상기 프레임 정보가 알파 데이터를 포함하면, 상기 제1 프레임의 제1 객체 영역을 상기 복사 영역으로 검출하고,
    알파 데이터를 포함하지 않으면, 상기 제2 객체 영역을 제외한 상기 제1 객체 영역을 상기 복사 영역으로 검출하는, 영상 처리 장치의 동작 방법.
  18. 제11항에 있어서,
    상기 제1 프레임을 출력하는 단계; 및
    상기 제2 객체가 상기 제2 버퍼에 그려지면, 상기 제1 프레임에 후속하는 상기 제2 프레임을 출력하는 단계를 더 포함하는 영상 처리 장치의 동작 방법.
  19. 제18항에 있어서,
    사용자로부터 조작 명령을 입력받는 단계를 더 포함하고,
    상기 조작 명령에 기초하여 상기 제2 프레임의 상기 프레임 정보가 획득되는, 영상 처리 장치의 동작 방법.
  20. 제11항, 제13항, 제14항, 제16항 내지 제19항 중 어느 한 항의 영상 처리 장치의 동작 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020140179358A 2014-12-12 2014-12-12 영상 처리 장치 및 방법 KR102317091B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140179358A KR102317091B1 (ko) 2014-12-12 2014-12-12 영상 처리 장치 및 방법
US14/887,440 US9824667B2 (en) 2014-12-12 2015-10-20 Image processing apparatus and method
EP15195024.3A EP3032492B1 (en) 2014-12-12 2015-11-17 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140179358A KR102317091B1 (ko) 2014-12-12 2014-12-12 영상 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160071787A KR20160071787A (ko) 2016-06-22
KR102317091B1 true KR102317091B1 (ko) 2021-10-25

Family

ID=54782413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140179358A KR102317091B1 (ko) 2014-12-12 2014-12-12 영상 처리 장치 및 방법

Country Status (3)

Country Link
US (1) US9824667B2 (ko)
EP (1) EP3032492B1 (ko)
KR (1) KR102317091B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508055B (zh) * 2019-01-30 2023-04-11 华为技术有限公司 渲染方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080094411A1 (en) * 2006-10-24 2008-04-24 Parenteau Alexandre S Transparency Group Computation on a Graphics Processing Unit
US20110199377A1 (en) * 2010-02-12 2011-08-18 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium rendering three-dimensional (3d) graphics

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI70662C (fi) 1984-12-14 1986-09-24 Valtion Teknillinen Videokomprimeringsfoerfarande
GB8724789D0 (en) 1987-10-19 1987-11-25 British Telecomm Signal coding
WO1992001281A1 (en) 1990-07-10 1992-01-23 Athenix Corporation Selective content synchronization of multiple image buffers
KR100292138B1 (ko) 1993-07-12 2002-06-20 이데이 노부유끼 디지탈비디오신호용송신기및수신기
GB2299233A (en) 1995-03-21 1996-09-25 Ibm Video compression method involving conditional replenishment
JP3569661B2 (ja) * 2000-06-05 2004-09-22 株式会社スクウェア・エニックス ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体、ゲーム処理方法およびゲーム処理装置
US7684483B2 (en) 2002-08-29 2010-03-23 Raritan Americas, Inc. Method and apparatus for digitizing and compressing remote video signals
KR20120055102A (ko) 2010-11-23 2012-05-31 삼성전자주식회사 영상처리장치 및 영상처리방법
US8965140B1 (en) * 2011-01-31 2015-02-24 Teradici Corporation Method and apparatus for encoding mixed content image sequences
US9672584B2 (en) 2012-09-06 2017-06-06 Imagination Technologies Limited Systems and methods of partial frame buffer updating

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080094411A1 (en) * 2006-10-24 2008-04-24 Parenteau Alexandre S Transparency Group Computation on a Graphics Processing Unit
US20110199377A1 (en) * 2010-02-12 2011-08-18 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium rendering three-dimensional (3d) graphics

Also Published As

Publication number Publication date
EP3032492B1 (en) 2018-03-28
US20160171957A1 (en) 2016-06-16
EP3032492A1 (en) 2016-06-15
US9824667B2 (en) 2017-11-21
KR20160071787A (ko) 2016-06-22

Similar Documents

Publication Publication Date Title
US9406281B2 (en) Multi-display device and method of controlling thereof
WO2019212575A1 (en) System, apparatus, and method for optimizing viewing experience on an intelligent terminal
US20130135346A1 (en) Image processing apparatus, image processing system, method, and computer program product
WO2018209871A1 (zh) 无线传屏方法及系统
KR20150032066A (ko) 화면 미러링 방법 및 그에 따른 소스 기기
US20120066624A1 (en) Method and apparatus for controlling movement of graphical user interface objects
US20120066640A1 (en) Apparatus for providing multi-mode warping of graphical user interface objects
CN108476306A (zh) 一种图像显示的方法及终端设备
US9513795B2 (en) System and method for graphic object management in a large-display area computing device
US20160378272A1 (en) Systems and methods for providing multi-focus to applications for collaboration
US10768807B2 (en) Display control device and recording medium
US9830056B1 (en) Indicating relationships between windows on a computing device
US20190065047A1 (en) Electronic device and control method thereof
KR20130049293A (ko) 사용자 디바이스에서 스크롤링 방법 및 장치
US10469645B2 (en) Method and apparatus for creating communication group
KR102317091B1 (ko) 영상 처리 장치 및 방법
US20100182331A1 (en) Method and apparatus for drawing image
EP3125091A1 (en) Display device, projector, and display control method
US10725635B2 (en) Information processing apparatus, information processing method and storage medium
KR20210073911A (ko) 전자 장치 및 그 제어 방법
JP5932475B2 (ja) 画像転送装置及びその制御方法
CN112445318B (zh) 一种对象显示方法、装置、电子设备及存储介质
CN113900758B (zh) 内容显示方法、装置、计算机设备和计算机可读存储介质
JP2017092849A (ja) 画像表示システム
KR101476725B1 (ko) 디스플레이장치 및 디스플레이장치를 이용한 양방향 제어방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant