KR102164543B1 - 디스플레이 장치 및 디스플레이 방법 - Google Patents

디스플레이 장치 및 디스플레이 방법 Download PDF

Info

Publication number
KR102164543B1
KR102164543B1 KR1020140140029A KR20140140029A KR102164543B1 KR 102164543 B1 KR102164543 B1 KR 102164543B1 KR 1020140140029 A KR1020140140029 A KR 1020140140029A KR 20140140029 A KR20140140029 A KR 20140140029A KR 102164543 B1 KR102164543 B1 KR 102164543B1
Authority
KR
South Korea
Prior art keywords
image
video image
video
unit
storage unit
Prior art date
Application number
KR1020140140029A
Other languages
English (en)
Other versions
KR20160044922A (ko
Inventor
이정원
김영웅
백광선
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020140140029A priority Critical patent/KR102164543B1/ko
Priority to US14/885,565 priority patent/US9456165B2/en
Publication of KR20160044922A publication Critical patent/KR20160044922A/ko
Application granted granted Critical
Publication of KR102164543B1 publication Critical patent/KR102164543B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/50Tuning indicators; Automatic tuning control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

디스플레이 장치가 개시된다. 본 디스플레이 장치는 제1 영상 이미지를 수신하는 수신부, 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장하는 저장부, 프레임 단위로 제1 영상 이미지와 제2 영상 이미지를 수신하고, 수신된 제1 영상 이미지와 제2 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 영상 처리부, 및, 생성된 최종 영상 이미지를 표시하는 디스플레이부를 포함하고, 영상 처리부는, 제2 영상 이미지 전체가 수신되면, 수신된 제2 영상 이미지에서 제1 영상 이미지와 합성될 영역을 검출하고, 영역이 검출된 다음 프레임부터는, 저장부에 저장된 제2 영상 이미지에 대한 검출된 영역에 대응되는 일부 데이터만을 수신하고, 수신된 일부 데이터와 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성한다.

Description

디스플레이 장치 및 디스플레이 방법{DISPLAY DEVICE AND METHOD FOR DISPLAY THEREOF}
본 발명은 디스플레이 장치 및 디스플레이 방법에 관한 것으로, 보다 상세하게는, 디스플레이에 표시될 데이터만을 읽어들여 처리 속도를 향상할 수 있는 디스플레이 장치 및 디스플레이 방법에 관한 것이다.
디스플레이 장치는 외부에서 제공받은 영상 신호를 표시하는 장치이다. 이러한 디스플레이 장치의 동작 상태의 정보를 제공하거나, 동작 상태를 제어하기 위한 사용자 명령을 입력받기 위하여, 디스플레이 장치는 OSD 영상을 외부에서 수신되는 방송신호와 함께 표시하는 경우가 있다.
구체적으로, 디스플레이 장치는 OSD 영상과 외부에서 수신된 방송신호를 합성하여 디스플레이하는데, 종래에는 OSD 영상이 방송신호에 대응되는 이미지 크기로 영상 처리부에 전달 되어 처리되었다.
하자만 OSD 영상은 디스플레이 화면의 일부 영역만을 차지하나, 실제 데이터 처리를 위한 전달되는 데이터는 화면 전체 크기에 대응된다는 점에서, 디스플레이 장치내의 동작에 부하를 발생하는 문제가 있었다. 특히, 디스플레이의 합성 동작은 프레임 단위로 수행되며, 상술한 이미지의 전달도 프레임 단위로 반복된다는 점에서, 상술한 부하 증가는 가중되었다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 디스플레이에 표시될 데이터만을 읽어들여 처리 속도를 향상할 수 있는 디스플레이 장치 및 디스플레이 방법을 제공하는 것에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 디스플레이 장치는, 제1 영상 이미지를 수신하는 수신부, 상기 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장하는 저장부, 프레임 단위로 상기 제1 영상 이미지와 상기 제2 영상 이미지를 수신하고, 상기 수신된 제1 영상 이미지와 제2 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 영상 처리부, 및, 상기 생성된 최종 영상 이미지를 표시하는 디스플레이부를 포함하고, 상기 영상 처리부는, 제2 영상 이미지 전체가 수신되면, 상기 수신된 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출하고, 상기 영역이 검출된 다음 프레임부터는, 상기 저장부에 저장된 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하고, 상기 수신된 일부 데이터와 상기 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성한다.
이 경우, 상기 제2 영상 이미지는, 상기 제2 영상 이미지의 각각의 픽셀에 대한 투명도 정보를 포함하고, 상기 영상 처리부는, 상기 투명도 정보를 이용하여 상기 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출할 수 있다.
한편, 본 디스플레이 장치는, 상기 검출된 영역에 대한 위치 정보를 저장하는 제2 저장부를 더 포함하고, 상기 영상 처리부는, 상기 제2 저장부에 저장된 위치 정보를 기초로, 상기 저장부에 저장된 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신할 수 있다.
이 경우, 상기 위치 정보는, 상기 제2 영상 이미지 상의 합성 영역에 대한 위치 정보 및 상기 제2 영상 이미지 중 상기 합성 영역에 대응하는 일부 데이터에 대한 어드레스 정보를 포함할 수 있다.
이 경우, 상기 영상 처리부는, 상기 제2 영상 이미지 상의 합성 영역에 대한 위치 정보를, 픽셀 단위, 블록 단위, 수평 라인 단위, 수직 라인 단위, 전체 영상 단위 중 적어도 하나의 단위로 상기 제2 저장부에 저장하고, 상기 검출된 영역에 대응하는 일부 데이터를 상기 저장된 단위로 수신할 수 있다.
한편, 제2 영상 이미지는 OSD 이미지일 수 있다.
한편, 상기 수신부 및 상기 영상 처리부는 SoC(System on chip)로 구현될 수 있다.
한편, 본 실시 예에 따른 디스플레이 방법은, 제1 영상 이미지를 수신하는 단계, 상기 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장하는 단계, 프레임 단위로 상기 제1 영상 이미지와 상기 제2 영상 이미지를 수신하는 단계, 제2 영상 이미지가 전체가 수신되면, 상기 수신된 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출하는 단계, 상기 영역이 검출된 다음 프레임부터, 상기 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하는 단계, 상기 수신된 일부 데이터와 상기 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 단계, 및, 상기 생성된 최종 영상 이미지를 표시하는 단계;를 포함한다.
이 경우, 상기 제2 영상 이미지는, 상기 제2 영상 이미지의 각각의 픽셀에 대한 투명도 정보를 포함하고, 상기 검출하는 단계는, 상기 투명도 정보를 이용하여 상기 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출할 수 있다.
한편, 본 디스플레이 방법은, 상기 검출된 영역에 대한 위치 정보를 저장하는 단계를 더 포함하고, 상기 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하는 단계는, 상기 저장된 위치 정보를 기초로, 상기 저장부에 저장된 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신할 수 있다.
이 경우, 상기 위치 정보는, 상기 제2 영상 이미지 상의 합성 영역에 대한 위치 정보 및 상기 제2 영상 이미지 중 상기 합성 영역에 대응하는 일부 데이터에 대한 어드레스 정보일 수 있다.
이 경우, 상기 위치 정보를 저장하는 단계는, 상기 제2 영상 이미지 상의합성 영역에 대한 위치 정보를, 픽셀 단위, 블록 단위, 수평 라인 단위, 수직 라인 단위, 전체 영상 단위 중 적어도 하나의 단위로 저장하고 상기 검출된 영역에 대응되는 제2 영상 이미지의 데이터만을 수신하는 단계는, 상기 검출된 영역에 대응되는 일부 데이터를 상기 저장된 단위로 수신할 수 있다.
한편, 상기 제2 영상 이미지는 OSD 이미지일 수 있다.
한편, 본 실시 예에 따른 디스플레이 방법을 실행하기 위한 프로그램을 포함하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 디스플레이 방법은, 제1 영상 이미지를 수신하는 단계, 상기 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장하는 단계, 프레임 단위로 상기 제1 영상 이미지와 상기 제2 영상 이미지를 수신하는 단계, 제2 영상 이미지가 전체가 수신되면, 상기 수신된 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출하는 단계, 상기 영역이 검출된 다음 프레임부터, 상기 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하는 단계, 상기 수신된 일부 데이터와 상기 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 단계, 및, 상기 생성된 최종 영상 이미지를 표시하는 단계를 포함할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타낸 블럭도,
도 2a 내지 도 2c는 본 발명의 일 실시 예에 따른 제1 영상 이미지, 제2 영상 이미지 및 최종 영상 이미지를 도시한 도면,
도 3 내지 도 6는 도 1의 영상 처리부에서의 동작을 설명하기 위한 도면,
도 7는 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블록도,
도 8a 및 도 8b는 도 7의 제2 저장부의 위치 정보의 저장 예를 도시한 도면,
도 9은 본 발명의 일 실시 예에 따른 제2 영상 이미지가 변경되는 것을 도시한 도면,
도 10 및 도 11은 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 도면, 그리고,
도 12는 본 발명의 일 실시 예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시 예를 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타낸 블록도이다.
도 1을 참고하면, 디스플레이 장치(100)는 수신부(110), 저장부(120), 영상 처리부(130) 및 디스플레이부(140)을 포함한다. 이러한 디스플레이 장치(100)는, 사용자에게 영상 또는 영상/음성 정보를 제공할 수 있는 장치로, 모니터, 디지털 TV 등 일 수 있다.
수신부(110)는 제1 영상 이미지를 수신한다. 구체적으로, 수신부(110)는 외부 영상 제공장치(예를 들어, 셋탑박스 등)로부터 영상 이미지를 입력받을 수 있다. 여기서, 영상 이미지는 방송국 또는 위성으로부터 유선 또는 무선으로 전달되는 방송 신호일 수 있으며, DVD 플레이어, 블루레이 플레이어 등으로부터 HDMI 케이블, AV 단자 등을 통하여 전달되는 영상 컨텐츠일 수 있다.
저장부(120)은 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장한다. 여기서 제2 영상 이미지는 제1 영상 이미지에 중첩되어 디스플레이부(140)에 표시될 수 있는 것으로, OSD 메뉴, 채널 정보, 볼륨정보, 세팅메뉴 등을 포함할 수 있다.
한편, 제2 영상 이미지는 제1 영상 이미지에 중첩되어 표시되는 것으로 제1 영상 이미지에 대응되는 크기를 가진다. 구체적으로, 제2 영상 이미지는 제2 영상 이미지의 영역 중 제1 영상 이미지에 반영되는 영역뿐만 아니라 제1 영상 이미지에 반영되지 않는 영역을 포함하여 형성될 수 있다.
그리고, 저장부(120)는 제2 영상 이미지를 각각의 픽셀 별로 데이터화하여 저장할 수 있다. 구체적으로, 제2 영상 이미지는 각각의 픽셀에 대하여 RGB값과 투명도를 데이터화 하여 저장할 수 있다.
여기서 투명도란 투과 이미지의 투과 정도를 나타내는 것으로 투명도를 나타내는 변수 α(알파)로 표현할 수 있다. 구체적으로, 변수 α(알파)는 0부터 255 사이의 값을 가지며, 값이 클수록 해당 픽셀의 투과 정도는 낮아지며, 값이 작을수록 해당 픽셀의 투과 정도는 높아진다. 변수 α(알파)가 0인 경우에는 투과 정도가 100프로가 되어 제2 영상 이미지는 제1 영상 이미지에 반영되지 않는다. 예를 들어, 저장부(120)는 특정 픽셀에 대해서 RGB(144, 157, 172)값과 α(0)값을 데이터화하여 저장할 수 있고, 이 픽셀의 α(알파)값은 0이므로 이 픽셀에 대응하는 제2 영상 이미지의 영역은 제1 영상 이미지에 반영되지 않고, 최종 영상에도 영향을 미치지 않는다.
그리고, 저장부(120)는 복수의 제2 영상 이미지를 저장할 수 있다. 예를 들어, 채널 정보에 대한 영상 이미지, 볼륨 정보에 대한 영상 이미지를 하나의 저장부(120)에 저장할 수 있다. 이 경우, 각각의 영상 이미지는 서로 다른 어드레스를 가지는 저장 공간에 저장될 수 있다.
영상 처리부(130)는 프레임 단위로 제1 영상 이미지와 제2 영상 이미지를 수신하고, 수신된 제1 영상 이미지와 제2 영상 이미지를 합성하여 최종 영상 이미지를 생성한다. 구체적으로, 영상 처리부(130)는 수신부(110)로부터 제1 영상 이미지를 프레임별로 수신하고, 각 프레임마다 저장부(120)로부터 제2 영상 이미지를 수신하여 최종 영상 이미지를 생성하여 디스플레이부(140)에 표시할 수 있다.
예를 들어, 영상 처리부(130)는 제1 영상의 제1 프레임에 대응되는 영상 이미지를 수신부(110)로부터 수신하고, 저장부(120)에 제2 영상 이미지를 요청하여 수신할 수 있다. 그리고, 영상 처리부(130)는 제1 영상 이미지와 제2 영상 이미지를 합성하여 제1 프레임의 최종 영상 이미지를 생성할 수 있다. 생성된 이미지는 디스플레이부(140)에 의해 디스플레이 될 수 있다.
그리고 영상 처리부(130)는 제1 영상의 제2 프레임의 이미지를 수신부(110)로부터 수신하고, 저장부(120)에 제2 영상 이미지를 요청하여 수신할 수 있다. 그리고, 영상 처리부(130)는 제1 영상 이미지와 제2 영상 이미지를 합성하여 제2 프레임의 최종 영상 이미지를 생성할 수 있다. 이와 같은 과정에서 생성된 이미지는 디스플레이부(140)에 의해 디스플레이 될 수 있다.
그리고, 영상 처리부(130)는 최초 제2 영상 이미지가 수신되면, 수신된 제2 영상 이미지에서 제1 영상 이미지와 합성될 영역을 검출한다.
구체적으로, 영상 처리부(130)는 저장부(120)에 제2 영상 이미지를 요청하여 제2 영상 이미지에 대한 데이터를 수신할 수 있다. 최초 제2 영상 이미지가 수신되는 경우, 즉, 제1 프레임의 최종 영상 이미지를 생성하는 과정에서는 제2 영상 이미지의 모든 영역에 대응하는 픽셀의 영상 데이터를 저장부(120)로부터 수신할 수 있다. 각 픽셀 별로 RGB값과 α(알파)값이 데이터화되어 저장된 제2 영상 이미지의 데이터가 수신되면 영상 처리부(130)는 α(알파)값을 확인하여 해당 픽셀이 제1 영상 이미지에 반영되는 것인지를 확인할 수 있다.
더욱 구체적으로, α(알파)값이 0인 경우에는 제2 영상 이미지의 투과 정도가 100프로가 되어 제2 영상 이미지는 제1 영상 이미지에 반영되지 않는다. 다만, α(알파)값이 1-255 사이의 값인 경우에는 제2 영상 이미지의 투과 정도가 100프로가 아니므로 제2 영상 이미지는 제1 영상 이미지에 반영된다. 따라서, 영상 처리부(130)는 특정 픽셀이 RGB(144, 157, 172)값과 α(0)값을 가지는 경우, 이 픽셀은 제1 영상 이미지에 반영되지 않는 것으로 판단할 수 있다. 한편, 영상 처리부(130)는 특정 픽셀이 RGB(162, 95, 188)값과 α(30)값을 가지는 경우, 이 픽셀은 제1 영상 이미지에 반영되는 것인바, 이 픽셀에 대응되는 제2 영상 이미지의 영역을 제1 영상 이미지에 합성되는 영역으로 검출할 수 있다.
그리고, 영상 처리부(130)는 상기 영역이 검출된 다음 프레임부터는, 저장부에 저장된 제2 영상 이미지에 대한 검출된 영역에 대응되는 일부 데이터만을 수신한다.
구체적으로, 제1 프레임의 최종 영상 이미지를 생성하는 과정에서는 제2 영상 이미지의 모든 영역에 대한 영상 데이터가 수신되는 반면에, 제2 프레임의 영상부터는 제1 영상 이미지에 합성될 영역에 대한 영상 데이터만을 수신할 수 있다.
더욱 구체적으로, 영상 처리부(130)는, 제1 프레임의 최종 영상 이미지를 생성하는 과정에서 제1 영상 이미지에 합성될 영역이 검출되면, 제2 영상 이미지에 대한 검출된 영역에 대응되는 일부 데이터만을 저장부(120)에 요청하여 수신할 수 있다.
예를 들어, 영상 처리부(130)는 픽셀(5, 5), 픽셀(5, 6), 픽셀(5, 7), 픽셀(5, 8), 픽셀(5, 9), 픽셀(5, 10), 픽셀(6, 5), 픽셀(6, 6), 픽셀(6, 7), 픽셀(6, 8), 픽셀(6, 9), 픽셀(6, 10)의 α(알파)값이 0이 아니어서, 위 픽셀 들에 대응되는 제2 영상 이미지의 영역이 제1 영상 이미지에 합성되는 경우, 위 픽셀 들에 대한 영상 데이터를 저장부(120)에 요청하여 수신할 수 있다. 다만, 영상 처리부(130)는, 위 픽셀 들을 제외한 다른 픽셀 들의 α(알파)값이 0이어서 제1 영상 이미지에 반영되지 않는 경우, 다른 픽셀 들에 대한 영상 데이터를 저장부(120)에 요청하지 않는다.
그리고, 영상 처리부(130)는 수신된 일부 데이터와 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성한다. 구체적으로, 제1 영상 이미지에 반영되는 영역에 대응하는 영상 데이터는 저장부(120)로부터 수신되었다. 즉, 제1 영상 이미지에 반영되는 영역에 대한 영상 데이터는 각 픽셀 별로 RGB 값과 α(알파)값에 대한 정보를 가지는 상태이다. 따라서 영상 처리부(130)는 이 정보에 제1 영상 이미지에 합성되지 않는 영역, 즉, α(알파)값이 0인 영역에 대해서는 이 α(0)에 대한 정보를 추가적으로 이용하여 최종 영상 이미지를 생성할 수 있다.
더욱 구체적으로, 영상 처리부(130)는 제2 영상 이미지 중 제1 영상 이미지에 합성되는 영역에 대해서는 수신된 제2 영상 이미지의 데이터와 제1 영상 이미지를 합성하고, 제2 영상 이미지 중 제1 영상 이미지에 합성되지 않는 영역에 대해서는 α(알파)값이 0인 것을 반영하여 제1 영상 이미지만을 출력할 수 있다.
그리고, 영상 처리부(130)는 제2 영상 이미지 중 제1 영상 이미지에 합성되는 영역에 대한 위치 정보를 제2 저장부(미도시)에 저장하고, 저장된 위치 정보를 기초로 저장부에 저장된 제2 영상 이미지에 대한 검출된 영역에 대응되는 일부 데이터만을 수신할 수 있다.
예를 들어, 영상 처리부(130)는 제2 영상 이미지 중 제1 영상 이미지에 합성되는 영역에 대응하는 픽셀 들에 대한 위치 정보를 제2 저장부(미도시)에 저장할 수 있다. 이 경우, 픽셀의 위치 정보는 픽셀(x,y)의 형태로 저장될 수 있다. 즉, 디스플레이부의 픽셀이 1,024*768인 경우, x값은 1 내지1,024, y값은 1 내지 768의 숫자를 가질 수 있다.
한편, 영상 처리부(130)는 제2 저장부에 저장된 위치 정보를 기초로, 저장부에 저장된 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신할 수 있다.
그리고, 영상 처리부(130)는 제2 영상 이미지 중 합성 영역에 대응하는 일부 데이터에 대한 저장부(120)의 어드레스 정보를 제2 저장부(미도시)에 저장할 수 있다.
구체적으로, 저장부(120)는 복수의 제2 영상 이미지를 저장할 수 있고, 이 경우 각각의 영상 이미지는 서로 다른 어드레스를 가지는 저장 공간에 저장될 수 있다. 이 경우, 영상 처리부(130)는 각각의 영상 이미지가 저장된 저장 공간의 어드레스 중 현재 합성되고 있는 제2 영상 이미지의 어드레스를 위치 정보로써 제2 저장부(미도시)에 저장할 수 있다.
또한, 영상 처리부(130)는 복수의 제2 영상 이미지 중 하나가 제3 저장부(미도시)에 저장되어 있고 현재 합성되고 있는 이미지가 제3 저장부(미도시)에 저장된 이미지인 경우, 제3 저장부에 대한 어드레스를 위치 정보로써 제2 저장부(미도시)에 저장할 수 있다.
이러한 방식으로, 영상 처리부(130)는 제2 영상 이미지 중 합성 영역에 대응하는 일부 데이터에 대한 저장부(120)의 어드레스 정보를 제2 저장부(미도시)에 저장할 수 있다.
그리고, 영상 처리부(130)는 제2 영상 이미지 상의 합성 영역에 대한 위치 정보를, 픽셀 단위, 블록 단위, 수평 라인 단위, 수직 라인 단위, 전체 영상 단위 중 적어도 하나의 단위로 제2 저장부(미도시)에 저장하고, 검출된 영역에 대응되는 일부 데이터를 저장된 단위로 수신할 수 있다.
구체적으로, 영상 처리부(130)는 기 설정된 개수의 픽셀을 블록 단위로 묶어서, 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역을 포함하는 블록에 대한 위치 정보를 제2 저장부(미도시)에 저장할 수 있다.
또한, 영상 처리부(130)는 같은 수평 라인의 픽셀을 묶어서 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역을 포함하는 수평 라인에 대한 위치 정보를 제2 저장부(미도시)에 저장할 수 있다.
또한, 영상 처리부(130)는 같은 수직 라인의 픽셀을 묶어서 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역을 포함하는 수직 라인에 대한 위치 정보를 제2 저장부(미도시)에 저장할 수 있다.
또한, 영상 처리부(130)는 모든 픽셀을 묶어서 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응되는 전체 화면에 대한 위치 정보를 제2 저장부(미도시)에 저장할 수 있다.
또한, 영상 처리부(130)는 영상처리부(130)가 저장부(120)에 영상 데이터를 요청하여 수신할 때에는 저장된 단위 별로 제2 영상 이미지의 데이터를 요청하여 수신할 수 있다. 구체적인 방법에 대해서는 도 6a 내지 도 6d에서 자세히 설명한다.
그리고, 영상 처리부(130)는 기 설정된 이벤트가 발생하면 제2 영상의 이미지가 변경되는 것으로 판단할 수 있다. 구체적으로, 본 디스플레이 장치(100)는 제2 영상 이미지를 생성하는 생성부(미도시)를 포함할 수 있다. 저장부(120)의 1 어드레스에 저장된 제2 영상 이미지가 최종 영상으로 합성되고 있고, 생성부(미도시)에서 저장부(120)의 1어드레스로 새로운 제2 영상 이미지를 송신한 경우, 영상 처리부(130)는 이 영상 이미지 송신 과정을 확인하여 제2 영상의 이미지가 변경되는 것으로 판단할 수 있다.
그리고, 영상 처리부(130)는 제2 영상의 이미지가 변경된 경우, 변경된 제2 영상의 이미지에 대해서 영상 합성을 수행 할 수 있다. 구체적으로, 제2 영상의 이미지가 변경된 경우, 변경된 이미지에 대해서 상술한 모든 과정을 수행하여 제1 영상 이미지와 변경된 제2 영상의 이미지를 합성하여 최종 영상 이미지를 생성하여 디스플레이부(140)에 표시할 수 있다.
예를 들어, 영상 처리부(130)는 프레임 단위로 제1 영상 이미지와 변경된 제2 영상 이미지를 수신하고, 수신된 제1 영상 이미지와 변경된 제2 영상 이미지를 합성하여 최종 영상 이미지를 생성할 수 있다.
또한, 영상 처리부(130)는 변경된 제2 영상 이미지가 수신되면, 수신된 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역을 검출할 수 있다.
또한, 영상 처리부(130)는 상기 영역이 검출된 다음 프레임 부터는, 저장부에 저장된 제2 영상 이미지에 대한 검출된 영역에 대응되는 일부 데이터만을 수신할 수 있다.
또한, 영상 처리부(130)는 수신된 데이터와 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성할 수 있다.
그리고, 제어부(미도시)는 디스플레이되고 있는 제2 영상 이미지를 변경할 것을 결정할 수 있다. 이 경우 영상 처리부(130)는 제어부(미도시)로부터 제2 영상 이미지가 변경된다는 신호를 수신하여 제2 영상 이미지가 변경되는 것을 판단할 수 있다.
또한, 제어부(미도시)는 영상처리부(130)가 수신할 제2 영상 이미지의 저장 어드레스를 변경할 수 있다. 이 경우 영상 처리부(130)는 수신되는 제2 영상 이미지의 저장 어드레스가 변경된 것을 감지하여 제2 영상 이미지가 변경되는 것을 판단할 수 있다.
한편, 디스플레이부(140)는 생성된 최종 영상 이미지를 표시한다. 구체적으로, 제1 영상 이미지와 제2 영상 이미지가 합성된 최종 영상 이미지를 표시할 수 있다. 이러한 디스플레이부(140)는 LCD, PDP, CRT 등과 같은 영상 표시 장치일 수 있다.
한편, 수신부(110), 영상 처리부(130)는 단일 칩의 형태로 구현될 수 있다. 이에 따라 디스플레이 장치(100)는 SoC(System on chip)로 구현될 수 있다.
이상과 같이 본 실시 예에 따른 디스플레이 장치(100)는 영상 데이터의 합성시 모든 영상 데이터를 수신하지 않고, 전체 이미지 데이터 중 표시될 영상 데이만을 수신하는바, 저장부(120)와 영상 처리부(130)간에 불필요한 데이터 전송을 줄일 수 있다. 또한, 저장부(120)와 영상 처리부(130)간에 데이터 전송을 줄임으로써 대역폭을 절약하고 전력 소비를 절감할 수 있다.
한편, 본 실시 예에서는 제2 영상 이미지의 모든 영역에 해당하는 영상 데이터를 수신하여 1프레임의 영상을 생성하는 것으로 설명하였으나 이에 한정되지 않는다. 즉, 제2 영상 이미지의 모든 영역에 해당하는 영상 데이터를 먼저 수신한 후, 1프레임의 영상부터 제1 영상 이미지에 반영될 영역에 대한 영상 데이터만을 수신하여 최종 영상 이미지를 생성하는 방식으로도 구현될 수 있다.
도 2a 내지 도 2c는 본 발명의 일 실시 예에 따른 제1 영상 이미지, 제2 영상 이미지 및 최종 영상 이미지를 도시한 도면이다.
도 2a는, 수신부(110)에 수신된 제1 영상 이미지가 제2 영상 이미지의 합성 없이 표시되는 것을 도시한 도면이다.
도 2b는, 제1 영상 이미지에 합성될 제2 영상 이미지를 도시한 도면이다. 여기서 메뉴 창 내부의 영역은 각 픽셀의 α(알파)값이 1 내지 255 사이의 값인 영역이고, 메뉴 창 외부의 영역은 각 픽셀의 α(알파)값이 0인 영역이다.
도 2c는, 제1 영상 이미지와 제2 영상 이미지를 합성한 최종 영상이 디스플레이부의 화면(141)을 통해 표시된 것을 도시한 도면이다.
여기서 메뉴 창 내부의 영역은 각 픽셀의 α(알파)값이 1 내지 255 사이의 값인 영역으로, 제1 영상 이미지 위에 제2 영상 이미지가 중첩되어 표시된 것을 알 수 있다.
그러나, 메뉴 창 외부의 영역은 각 픽셀의 α(알파)값이 0인 영역으로, 제2 영상 이미지가 제1 영상 이미지에 반영되지 않은 것을 알 수 있다.
즉, 영상 처리부(130)는 최초 제2 영상 이미지가 수신되면, 수신된 제2 영상 이미지로부터 제1 영상 이미지에 합성될 영역을 검출하는데, 제1 프레임의 최종 영상 이미지를 생성하는 단계에서는 제2 영상 이미지의 모든 픽셀에 대한 영상 데이터를 저장부(120)로부터 수신한다.
이 경우, 영상 처리부(130)는 저장부(120)로부터 각 픽셀 별로 RGB값과 α(알파)값이 데이터화되어 저장된 제2 영상 이미지가 수신되면, α(알파)값을 확인하여 해당 픽셀이 제1 영상 이미지에 반영되는 것인지를 확인할 수 있다. 예를 들어, 특정 픽셀이 RGB(144, 157, 172)값과 α(0)값을 가지는 경우, 이 픽셀이 제1 영상 이미지에 합성되지 않는 것으로 판단할 수 있다.
한편, 특정 픽셀이 RGB(162, 95, 188)값과 α(30)값을 가지는 경우, 이 픽셀은 제1 영상 이미지와 합성되는 것으로 이 픽셀에 대응되는 제2 영상 이미지의 영역은 제1 영상 이미지에 합성되는 영역으로 검출될 수 있다.
검출이 완료되면, 영상 처리부(130)는 다음 프레임의 최종 영상 이미지를 생성하는 과정에서 저장부에 저장된 제2 영상 이미지 중 검출된 영역에 대응되는 제2 영상 이미지의 데이터만을 수신할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 도 1의 영상 처리부에서의 동작을 설명하기 위한 도면이다.
도 3을 참고하면, 영상 처리부(130)는 각각의 픽셀의 위치 정보를 픽셀(x, y)의 형태로 제2저장부(미도시)에 저장될 수 있다. 즉, X 축 값이 4, Y 축 값이 4의 값을 가지는 픽셀(202)의 경우 픽셀(4, 4)의 형태로 위치 정보가 저장될 수 있다. 또한, X 축 값이 2, Y 축 값이 1의 값을 가지는 픽셀(203)의 경우에는 픽셀(2, 1)의 형태로 위치 정보가 저장될 수 있다.
한편, 영상 처리부(130)는 저장된 픽셀의 위치 정보를 기초로, 저장부(120)에 저장된 제2 영상 이미지의 데이터 중 저장된 픽셀의 위치에 대응하는 데이터만을 요청하여 수신할 수 있다.
한편, 본 실시 예 에서는 편의상 디스플레이부의 화면(141)이 12*10의 픽셀을 갖는 것으로 설명하였으나, 이에 한정되지 않는다. 예를 들어, 디스플레이부의 픽셀이 1,024*768인 경우, x값은 1 내지1,024, y값은 1 내지 768의 숫자를 가질 수 있다.
도 4는 본 발명의 일 실시 예에 따른 도 1의 영상 처리부에서의 동작을 설명하기 위한 도면이다.
도 4를 참고하면, 영상처리부(130)는 제2 영상 이미지가 제1 영상 이미지에 반영될 영역의 위치 정보를, 복수개의 픽셀을 포함하는 블록 단위로써 저장할 수 있다. 각각의 블록(204, 205, 206)은 기 설정된 개수의 픽셀을 포함하는 하나의 블록일 수 있다.
한편, 영상처리부(130)가 최종 영상을 합성하기 위해서는 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함된 블록(204)에 대응하는 영상 데이터의 수신이 필요하다. 따라서, 영상처리부(130)는 블록(204)에 대한 위치 정보를 블록(4, 5)의 형태로 제2 저장부(미도시)에 저장하고, 이에 대응되는 위치의 픽셀들에 대한 영상 데이터를 저장부(120)에 요청하여 수신할 수 있다.
또한, 영상처리부(130)는 블록(4, 5)에 대응되는 위치의 픽셀들에 대한 제2 영상 이미지의 영상 데이터를 수신한 경우에는 이 영상 데이터를 이용하여 제1 영상 이미지와 합성할 수 있다.
한편, 블록(205)은 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함되지 않는다(즉, 알파 값이 0이다). 따라서, 블록(205)은 최종 영상의 합성을 위해서 영상 데이터의 수신이 필요하지 않다. 이 경우, 영상처리부(130)는 블록(205) 에 대한 영상 데이터를 저장부(120)에 요청할 필요가 없다. 따라서, 영상처리부(130)는 최종 영상을 합성하는 경우, 이 블록(205)에 대한 알파 값이 0이라는 정보만을 이용하여, 이 블록(205)에 대응하는 제2 영상 이미지의 영역을 제1 영상 이미지에 반영하지 않고 최종 영상을 합성할 수 있다.
한편, 블록(206)의 일부 영역은 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)이고, 다른 일부 영역은 제2 영상 이미지가 제1 영상 이미지에 합성되지 않는 영역이다. 이 경우 블록(206) 안에 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)이 존재하는 바, 최종 영상의 합성을 위해서는 이 블록에 대응되는 영역에 대한 영상 데이터의 수신이 필요하다. 따라서, 영상처리부(130)는 블록(206)에 대한 위치 정보를 블록(2, 4)의 형태로 제2 저장부(미도시)에 저장하고, 이에 대응되는 위치의 픽셀들에 대한 영상 데이터를 저장부(120)에 요청하여 수신할 수 있다.
또한, 영상처리부(130)는 블록(2, 4)에 대응되는 위치의 픽셀들에 대한 제2 영상 이미지의 영상 데이터를 저장부(120)로부터 수신한 경우에는 이 영상 데이터를 이용하여 제1 영상 이미지와 합성할 수 있다.
도 5는 도 1의 영상 처리부에서의 동작을 설명하기 위한 도면이다.
도 5를 참고하면, 영상처리부(130)는 제2 영상 이미지에서 제1 영상 이미지와 합성될 영역의 위치 정보를, 복수 개의 픽셀을 포함하는 수평 라인 단위로써 검출하고, 제2 저장부(미도시)에 저장할 수 있다.
구체적으로, 각각의 수평 라인(207, 208)은 해당 수평 라인의 모든 픽셀을 포함한다. 한편, 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)을 포함하는 수평 라인(207)은 최종 영상의 합성을 위해서 영상 데이터의 수신이 필요하다.
따라서, 영상처리부(130)는 수평 라인(207)에 대한 위치 정보를 수평 라인(5)의 형태로 제2 저장부(150)에 저장하고, 이에 대응되는 위치의 픽셀 들에 대한 영상 데이터를 저장부(120)에 요청하여 수신할 수 있다.
또한, 영상처리부(130)는 수평 라인(5)에 대응되는 위치의 픽셀들에 대한 제2 영상 이미지의 영상 데이터를 수신한 경우에는 이 영상 데이터를 이용하여 제1 영상 이미지와 합성할 수 있다.
한편, 수평 라인(208)은 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함되지 않은 것으로(즉, 알파 값이 0이다), 수평 라인(208) 부분은 최종 영상의 합성을 위해서 영상 데이터의 수신이 필요하지 않다.
이 경우, 영상처리부(130)는 수평 라인(208) 부분에 대한 영상 데이터를 저장부(120)에 요청할 필요가 없다. 따라서, 최종 영상을 합성하는 경우 영상처리부(130)는 이 수평 라인(208)에 대한 알파 값이 0이라는 정보만을 이용하여 이 수평 라인(208)에 대응하는 제2 영상 이미지의 영역을 제1 영상 이미지에 반영하지 않고 최종 영상을 합성될 수 있다.
도 6은 도 1의 영상 처리부에서의 동작을 설명하기 위한 도면이다.
도 6을 참고하면, 영상처리부(130)는 복수개의 픽셀을 포함하는 수직 라인 단위로써, 제2 영상 이미지에서 제1 영상 이미지와 합성될 영역의 위치 정보를 검출하고, 제2 저장부(미도시)에 저장할 수 있다.
구체적으로, 각각의 수직 라인(209, 210)은 해당 수직 라인의 모든 픽셀을 포함한다. 한편, 제2 영상 이미지가 제1 영상 이미지에 반영되는 영역(201)을 포함하는 수직 라인(209)은 최종 영상의 합성을 위해서 영상 데이터의 수신이 필요하다.
따라서, 영상처리부(130)는 수직 라인(209)에 대한 위치 정보를 수직 라인(7)의 형태로 제2 저장부(150)에 저장하고, 이에 대응되는 위치의 픽셀들에 대한 영상 데이터를 저장부(120)에 요청하여 수신할 수 있다.
또한, 영상처리부(130)는 수직 라인(7)에 대응되는 위치의 픽셀들에 대한 제2 영상 이미지의 영상 데이터를 수신한 경우에는 이 영상 데이터를 이용하여 제1 영상 이미지와 합성할 수 있다.
한편, 수직 라인(210)은 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함되지 않은 것으로(즉, 알파 값이 0이다), 수직 라인(210) 부분은 최종 영상의 합성을 위해서 영상 데이터의 수신이 필요하지 않다.
이 경우, 영상처리부(130)는 수직 라인(210) 부분에 대한 영상 데이터를 저장부(120)에 요청할 필요가 없다. 따라서, 최종 영상을 합성하는 경우, 영상처리부(130)는 이 수직 라인(210)에 대한 알파 값이 0이라는 정보만을 이용하여 이 수직 라인(210)에 대응하는 제2 영상 이미지의 영역을 제1 영상 이미지에 반영하지 않고 최종 영상을 합성될 수 있다.
한편, 도시되지는 않았으나, 복수개의 픽셀을 포함하는 전체 화면 단위로써, 제2 영상 이미지가 제1 영상 이미지에 합성될 영역의 위치 정보를 저장할 수 있다. 일부 영상 합성 기술에 있어서, 오버레이 영상의 모든 영역이 원 영상에 반영되지 않는 경우, 즉, 오버레이 영상의 모든 픽셀의 알파 값이 0인 경우에도, 저장부로부터 오버레이 영상에 대한 데이터를 수신하여 합성하는 경우가 있다. 이러한 경우, 본 실시 예를 활용하면, 오버레이 영상의 모든 픽셀의 알파 값이 0인 경우에는 제2 영상 이미지에 대한 데이터를 수신할 필요가 없다.
도 7는 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블록도이다.
도 7을 참고하면, 디스플레이 장치(100)의 구성에 제2 저장부가 추가된 것을 알 수 있다.
제2 저장부(150)는 제2 영상 이미지 중 제1 영상 이미지 상의 합성 영역에 대한 위치 정보를 저장할 수 있다. 예를 들어 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응하는 픽셀 들에 대한 위치 정보가 픽셀(x,y)의 형태로 저장될 수 있다. 즉, 디스플레이부의 픽셀이 1,024*768인 경우, x값은 1 내지1,024, y값은 1 내지 768의 숫자를 가질 수 있다.
그리고 제2 저장부(150)는 제2 영상 이미지 중 상기 합성 영역에 대응하는 일부 데이터에 대한 어드레스 정보를 저장할 수 있다.
구체적으로, 제2 저장부(150)는 제2 영상 이미지가 저장된 어드레스에 대한 위치 정보를 저장할 수 있다. 예를 들어 저장부(120)는 복수의 제2 영상 이미지를 저장할 수 있고, 이 경우 각각의 영상 이미지는 서로 다른 어드레스를 가지는 저장 공간에 저장될 수 있다. 이 경우, 제2 저장부(150)에는 각각의 영상 이미지가 저장된 저장 공간의 어드레스 중 현재 합성되고 있는 제2 영상 이미지의 어드레스가 위치 정보로써 저장될 수 있다. 이러한 방식으로, 제2 저장부(150)에는 제2 영상 이미지 중 상기 합성 영역에 대응하는 일부 데이터에 대한 저장부의 어드레스 정보(제2 저장부 중 제1 어드레스, 제2 어드레스)가 저장될 수 있다.
또한, 복수의 제2 영상 이미지 중 하나가 제3 저장부(미도시)에 저장되어있고 현재 합성되고 있는 이미지가 제3 저장부(미도시)에 저장된 이미지인 경우, 제2 저장부(150)에는 제3 저장부에 대한 어드레스가 위치 정보로써 저장할 수 있다. 이러한 방식으로, 제2 저장부(150)에는 제2 영상 이미지 중 상기 합성 영역에 대응하는 일부 데이터에 대한 저장부의 어드레스 정보(제2 저장부, 제3 저장부)가 저장될 수 있다.
그리고 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역의 위치가, 픽셀 단위, 블록 단위, 수평 라인 단위, 수직 라인 단위, 전체 영상 단위 중 적어도 하나의 단위로 저장될 수 있다.
구체적으로, 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응되는 픽셀 각각에 대한 위치 정보가 저장될 수 있다.
또한, 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응되는 블록 각각에 대한 위치 정보가 저장될 수 있다.
또한, 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응되는 수평 라인 각각에 대한 위치 정보가 저장될 수 있다.
또한, 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응되는 수직 라인 각각에 대한 위치 정보가 저장될 수 있다.
또한, 제2 저장부(150)에는 제2 영상 이미지에서 제1 영상 이미지에 합성될 영역에 대응되는 전체 화면에 대한 위치 정보가 저장될 수 있다.
한편, 영상처리부(130)가 제2 영상 이미지 중 제1 영상 이미지에 합성될 영역에 대한 데이터를 저장부(120)로부터 독출 할 때에는, 제2 저장부(150)에 저장된 위치 정보를 독출하여 이를 기초로 저장부(120)로에 데이터를 요청할 수 있다.
또한, 영상처리부(130)는 영상 데이터를 저장된 위치 정보의 단위로 저장부(120)로 요청 할 수 있다.
구체적으로, 영상처리부(130)는 위치 정보가 저장된 단위 내에서 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함되는 화소에 대한 데이터뿐만 아니라, 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함되지 않는 화소에 대한 데이터까지 저장부(120)에 요청할 수 있다.
예를 들어, 수평라인(207) 내에는 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)과 제2 영상 이미지가 제1 영상 이미지에 합성되지 않는 영역이 존재한다. 다만, 위 두 영역 모두 하나의 수평 라인(207) 단위에 포함되어 있다. 따라서, 영상처리부(130)는 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 대한 화소의 데이터뿐만 아니라, 제2 영상 이미지가 제1 영상 이미지에 합성되는 영역(201)에 포함되지 않는 화소에 대한 데이터까지 하나의 수평 라인 단위로써 저장부(120)에 요청하여 수신할 수 있다.
한편, 수신부(110), 영상 처리부(130) 및 제2 저장부(150)는 단일 칩의 형태로 구현될 수 있다. 이에 따라 디스플레이 장치(100)는 SoC(System on chip)로 구현될 수 있다.
도 8a 및 도 8b는 본 발명의 일 실시 예에 따른 제2 영상 이미지가 저장되는 어드레스의 위치 정보를 저장하는 방법을 나타내는 도면이다.
영상 처리부(130)는 제2 영상 이미지가 저장된 어드레스에 대한 위치 정보를 제2 저장부(150)에 저장할 수 있다.
도 8a를 참고하면, 저장부(120)에는 복수의 제2 영상 이미지가 저장되고, 이 경우 각각의 영상 이미지는 서로 다른 어드레스를 가지는 저장 공간에 저장될 수 있다.
이 경우, 영상 처리부(130)는 각각의 영상 이미지가 저장된 저장 공간에 대한 어드레스를 위치 정보로써 제2 저장부(150)에 저장할 수 있다.
예를 들어, 제2 영상의 1이미지가 제1 어드레스에 저장되어 있고, 현재 제2 영상의 1이미지가 제1 영상에 합성되고 있는 경우에는, 제2 영상의 1 이미지가 존재하는 제1 어드레스를 위치정보로써 제2 저장부(150)에 저장할 수 있다.
또한, 제2 영상의 2 이미지가 제2 어드레스에 저장되어 있고, 현재 제2 영상의 2이미지가 제1 영상에 합성되고 있는 경우에는 제2 영상의 2 이미지가 존재하는 제2 어드레스를 위치정보로써 제2 저장부(150)에 저장할 수 있다.
한편, 본 실시 예에서는 저장부(120)에 두 개의 제2 영상의 이미지가 저장되는 것으로 설명하였으나, 이에 한정되지 않는다. 즉, 제2 영상의 이미지들, 예를 들어, OSD 메뉴, 채널 정보, 볼륨정보, 세팅메뉴 등을 나타내는 복수개의 이미지가 저장부(120)에 저장될 수 있다.
도 8b를 참고하면, 디스플레이 장치(100)는 제3 저장부(150)을 더 포함할 수 있고, 복수의 제2 영상 이미지는 서로 다른 저장부, 즉, 저장부(120)와 제3 저장부(160)에 각각 저장될 수 있다.
이 경우, 영상 처리부(130)는 각각의 영상 이미지가 저장된 저장부, 즉, 저장부(120)와 제3 저장부(160)에 대한 어드레스를 위치 정보로써 제2 저장부(150)에 저장할 수 있다.
예를 들어, 제2 영상의 1이미지가 저장부(120)에 저장되어 있고, 현재 제2 영상의 1이미지가 제1 영상에 합성되고 있는 경우에는, 제2 영상의 1 이미지가 존재하는 저장부(120)의 어드레스를 위치정보로써 제2 저장부(150)에 저장할 수 있다.
또한, 제2 영상의 2 이미지가 제3 저장부(160)에 저장되어 있고, 현재 제2 영상의 2이미지가 제1 영상에 합성되고 있는 경우에는 제2 영상의 2 이미지가 존재하는 제3 저장부(160)의 어드레스를 위치정보로써 제2 저장부(150)에 저장할 수 있다.
한편, 본 실시 예에서는 두 개의 저장부에 각각 하나의 제2 영상의 이미지가 저장되는 것으로 설명하였으나, 이에 한정되지 않는다. 즉, 제2 영상의 이미지가 저장되는 저장부의 개수는 세 개 이상일 수도 있다. 또한, 복수개의 저장부가 존재하더라도, 하나의 저장부에 복수개의 제2 영상의 이미지들이 저장될 수 있다.
도 9는 본 발명의 일 실시 예에 따른 제2 영상 이미지가 변경되는 것을 도시한 도면이다.
도 9을 참고하면, 제1 영상 이미지에 반영되어 최종 영상으로 출력되던 제2 영상 이미지(201)가 다른 이미지(301)로 변경되는 것을 알 수 있다.
한편, 영상 처리부(130)는 기설정된 이벤트가 발생하면 제2 영상의 이미지(201)가 다른 이미지(301)로 변경되는 것으로 판단하고, 변경된 제2 영상의 이미지(301)에 대해서 영상 합성을 수행할 수 있다.
구체적으로, 영상 처리부(130)는 제2 영상의 이미지가 변경된 경우, 변경된 이미지(301)에 대해서 변경 전의 이미지(201)에 대해 적용되었던 모든 과정을 수행할 수 있다. 이에 따라, 제1 영상 이미지와 변경된 제2 영상의 이미지(301)를 합성하여 최종 영상 이미지를 생성하여 디스플레이부의 화면(141)에 표시할 수 있다.
예를 들어, 영상 처리부(130)는 프레임 단위로 제1 영상 이미지와 변경된 제2 영상 이미지(301)를 수신하고, 수신된 제1 영상 이미지와 변경된 제2 영상 이미지(301)를 합성하여 최종 영상 이미지를 생성할 수 있다.
또한, 영상 처리부(130)는 변경된 제2 영상 이미지(301) 전체가 수신되면, 수신된 제2 영상 이미지에서 제1 영상 이미지와 합성될 영역을 검출할 수 있다.
또한, 영상 처리부(130)는 다음 프레임의 최종 영상 이미지를 생성하는 과정에서는 변경된 제2 영상 이미지(301) 중 검출된 영역에 대응되는 제2 영상 이미지의 데이터만을 수신할 수 있다.
또한, 영상 처리부(130)는 수신된 데이터와 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성할 수 있다.
도 10은 또다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 도면이다.
도 10을 참고하면, 본 디스플레이 장치(100)은 본 디스플레이 장치의 동작을 전반적으로 제어하는 제어부(170)를 포함할 수 있다.
제어부(170)는 사용자의 조작 등이 있거나, 제2 영상 이미지가 표시되고 있는 시간이 기 설정된 시간을 초과하는 경우 등의 이벤트가 발생하는 경우, 제2 영상 이미지를 다른 이미지로 변경할 것으로 결정할 수 있다.
이 경우, 영상 처리부(130)는 제어부(170)로부터 제2 영상 이미지가 변경된다는 신호를 수신하여 제2 영상 이미지가 변경되는 것으로 판단할 수 있다.
또한, 제어부(170)는 제2 영상의 이미지를 수신할 저장 어드레스를 변경할 수 있고, 이 경우 영상 처리부(130)는 수신되는 제2 영상 이미지의 저장 어드레스가 변경된 것을 감지하여 제2 영상 이미지가 변경되는 것을 판단할 수 있다.
한편, 수신부(110), 영상 처리부(130), 제2 저장부(150) 및 제어부(170)는 단일 칩의 형태로 구현될 수 있다. 이에 따라 디스플레이 장치(100)는 SoC(System on chip)로 구현될 수 있다.
도 11은 또 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 도면이다.
도 11를 참고하면, 본 디스플레이 장치(100)는 제2 영상 이미지를 생성하는 생성부(180)을 포함할 수 있다.
한편, 영상 처리부(130)는, 저장부(120)의 1 어드레스에 저장된 제2 영상 이미지가 영상 처리부(130)로 전송되어 최종 영상으로 합성되는 중 생성부(180)에서 저장부(120)의 1어드레스로 새로운 제2 영상 이미지를 송신한 경우, 이 영상 이미지 송신 과정을 확인하여 제2 영상의 이미지가 변경되는 것으로 판단할 수 있다.
한편, 수신부(110), 영상 처리부(130), 제2 저장부(150), 제어부(170) 및 생성부(180)는 단일 칩의 형태로 구현될 수 있다. 이에 따라 디스플레이 장치(100)는 SoC(System on chip)로 구현될 수 있다.
도 12는 본 발명의 일 실시 예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.
먼저, 제1 영상 이미지를 수신한다(S1210). 구체적으로, 외부에서 입력되는 방송영상을 수신하거나, 또는 사용자가 연결한 VTR 또는 게임기 등의 사용자 장치로부터 입력되는 영상을 수신한다. 이 과정에서 수신부(100)는 셋탑 박스(Set-top Box)와 같은 영상중계장치에 연동할 수 있다.
그리고, 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장한다(S1220). 구체적으로, 제2 영상 이미지는 제1영상 이미지와 중첩하여 디스플레이부에 표시될 수 있는 것으로, OSD 메뉴, 채널 정보, 볼륨정보, 세팅메뉴 등을 포함할 수 있다. 또한, 제2 영상 이미지는 제1 영상 이미지에 중첩되어 표시되는 것으로 제1 영상 이미지에 대응되는 크기를 가진다. 또한, 제2 영상 이미지는 제2 영상 이미지의 영역 중 제1 영상 이미지에 합성되는 영역뿐만 아니라 제1 영상 이미지에 합성되지 않는 영역을 포함하여 제2 영상 이미지를 형성한다.
그리고, 프레임 단위로 제1 영상 이미지와 제2 영상 이미지를 수신한다(S1230). 구체적으로, 영상 처리부(130)는 수신부(110)로부터 제1 영상 이미지를 프레임별로 수신하고, 각 프레임마다 저장부(120)로부터 제2 영상 이미지를 수신하여 최종 영상 이미지를 생성하여 디스플레이부에 표시할 수 있다.
그리고, 제2 영상 이미지 전체가 수신되면, 수신된 제2 영상 이미지에서 제1 영상 이미지와 합성될 영역을 검출한다(S1240). 구체적으로, 최초 제2 영상 이미지가 수신되는 경우, 즉, 제1 프레임의 최종 영상 이미지를 생성하는 단계에서는 제2 영상 이미지의 모든 영역에 대응하는 영상 데이터를 저장부(120)로부터 수신한다. 각 픽셀 별로 RGB값과 α(알파)값이 데이터화되어 저장된 제2 영상 이미지가 수신되면 영상 처리부(130)는 α(알파)값을 확인하여 해당 픽셀이 제1 영상 이미지와 합성되는 것인지를 확인할 수 있다.
그리고, 영역이 검출된 다음 프레임부터, 제2 영상 이미지에 대한 검출된 영역에 대응되는 일부 데이터만을 수신한다(S1250). 구체적으로, 제1 프레임의 최종 영상 이미지를 생성하는 과정에서는 제2 영상 이미지의 모든 영역에 대한 영상 데이터가 수신되는 반면에, 제2 프레임의 영상부터는 제1 영상 이미지에 합성될 영역에 대한 영상 데이터만을 수신할 수 있다.
그리고, 수신된 데이터와 제1 영상 이미지를 합성하여 다음 프레임의 최종 영상 이미지를 생성한다(S1260). 구체적으로, 제1 영상 이미지에 반영되는 영역에 대한 영상 데이터와, 제1 영상 이미지에 반영되지 않는 영역의 α(알파)값에 대한 정보(α(알파)=0)를 이용하여 최종 영상 이미지를 생성한다.
마지막으로, 생성된 최종 영상 이미지를 표시한다(S1270).
따라서, 본 디스플레이 장치(100)는 저장부(120)와 영상 처리부(130)간에 불필요한 데이터 전송을 줄일 수 있다. 또한, 저장부(120)와 영상 처리부(130)간에 데이터 전송을 줄임으로써 대역폭을 절약하고 전력 소비를 절감할 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대해서 도시하고, 설명하였으나, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분양서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것을 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
100 : 디스플레이 장치 110 : 수신부
120 : 저장부 130 : 영상 처리부
140 : 디스플레이부 150 : 제2 저장부
160 : 제3 저장부 170 : 제어부

Claims (14)

  1. 디스플레이 장치에 있어서,
    제1 영상 이미지를 수신하는 수신부;
    상기 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장하는 저장부;
    프레임 단위로 상기 제1 영상 이미지와 상기 제2 영상 이미지를 수신하고, 상기 수신된 제1 영상 이미지와 제2 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 영상 프로세서; 및
    상기 생성된 최종 영상 이미지를 표시하는 디스플레이부;를 포함하고,
    상기 영상 프로세서는,
    제2 영상 이미지 전체를 수신하고, 상기 수신된 제2 영상 이미지를 이용하여 상기 제1 영상 이미지와 합성될 상기 제2 영상 이미지의 영역을 검출하고, 상기 영역이 검출된 다음 프레임부터는, 상기 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하고, 상기 수신된 일부 데이터와 상기 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 디스플레이 장치.
  2. 제 1항에 있어서,
    상기 제2 영상 이미지는,
    상기 제2 영상 이미지의 각각의 픽셀에 대한 투명도 정보를 포함하고,
    상기 영상 프로세서는,
    상기 투명도 정보를 이용하여 상기 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출하는 것을 특징으로 하는 디스플레이 장치.
  3. 제 1항에 있어서,
    상기 검출된 영역에 대한 위치 정보를 저장하는 제2 저장부;를 더 포함하고,
    상기 영상 프로세서는,
    상기 제2 저장부에 저장된 위치 정보를 기초로, 상기 일부 데이터만을 수신하는 것을 특징으로 하는 디스플레이 장치.
  4. 제 3항에 있어서,
    상기 위치 정보는,
    상기 일부 데이터의 주소에 대한 어드레스 정보를 포함하는 것을 특징으로 하는 디스플레이 장치.
  5. 제 4항에 있어서,
    상기 영상 프로세서는,
    상기 검출된 영역에 대한 위치 정보를, 픽셀 단위, 블록 단위, 수평 라인 단위, 수직 라인 단위, 전체 영상 단위 중 적어도 하나의 단위로 상기 제2 저장부에 저장하고,
    상기 일부 데이터는 상기 저장부에 저장되는 것을 특징으로 하는 디스플레이 장치.
  6. 제 1항에 있어서,
    상기 제2 영상 이미지는 OSD(on-screen display) 이미지인 것을 특징으로 하는 디스플레이 장치.
  7. 제 1항에 있어서,
    상기 수신부 및 상기 영상 프로세서는 SoC(System on chip)로 구현되는 것을 특징으로 하는 디스플레이 장치.
  8. 디스플레이 방법에 있어서,
    프레임 단위로 제1 영상 이미지와 상기 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 수신하는 단계;
    제2 영상 이미지가 전체가 수신되면, 상기 수신된 제2 영상 이미지를 이용하여 상기 제1 영상 이미지와 합성될 상기 제2 영상 이미지의 영역을 검출하는 단계;
    상기 영역이 검출된 다음 프레임부터, 상기 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하는 단계;
    하드웨어 프로세서에 의해, 최종 영상 이미지를 생성하기 위해, 상기 수신된 일부 데이터와 상기 제1 영상 이미지를 합성하는 단계; 및
    상기 생성된 최종 영상 이미지를 표시하는 단계;를 포함하는 디스플레이 방법.
  9. 제 8항에 있어서,
    상기 제2 영상 이미지는,
    상기 제2 영상 이미지의 각각의 픽셀에 대한 투명도 정보를 포함하고,
    상기 검출하는 단계는,
    상기 투명도 정보를 이용하여 상기 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출하는 것을 특징으로 하는 디스플레이 방법.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 디스플레이 방법을 실행하기 위한 프로그램을 포함하는 비일시적 컴퓨터 판독 가능 매체에 있어서,
    상기 디스플레이 방법은,
    제1 영상 이미지를 수신하는 단계;
    상기 제1 영상 이미지에 대응되는 크기의 제2 영상 이미지를 저장하는 단계;
    프레임 단위로 상기 제1 영상 이미지와 상기 제2 영상 이미지를 수신하는 단계;
    제2 영상 이미지가 전체가 수신되면, 상기 수신된 제2 영상 이미지에서 상기 제1 영상 이미지와 합성될 영역을 검출하는 단계;
    상기 영역이 검출된 다음 프레임부터, 상기 제2 영상 이미지에 대한 상기 검출된 영역에 대응되는 일부 데이터만을 수신하는 단계;
    상기 수신된 일부 데이터와 상기 제1 영상 이미지를 합성하여 최종 영상 이미지를 생성하는 단계; 및
    상기 생성된 최종 영상 이미지를 표시하는 단계;를 포함하는 비일시적 컴퓨터 판독 가능 매체.


KR1020140140029A 2014-10-16 2014-10-16 디스플레이 장치 및 디스플레이 방법 KR102164543B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140140029A KR102164543B1 (ko) 2014-10-16 2014-10-16 디스플레이 장치 및 디스플레이 방법
US14/885,565 US9456165B2 (en) 2014-10-16 2015-10-16 Display apparatus and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140140029A KR102164543B1 (ko) 2014-10-16 2014-10-16 디스플레이 장치 및 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20160044922A KR20160044922A (ko) 2016-04-26
KR102164543B1 true KR102164543B1 (ko) 2020-10-12

Family

ID=55750089

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140140029A KR102164543B1 (ko) 2014-10-16 2014-10-16 디스플레이 장치 및 디스플레이 방법

Country Status (2)

Country Link
US (1) US9456165B2 (ko)
KR (1) KR102164543B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102442625B1 (ko) 2017-07-05 2022-09-13 삼성전자주식회사 영상 처리 장치 및 상기 영상 처리 장치의 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003170630A (ja) 2001-12-06 2003-06-17 Presstek Inc 最適化されたイメージ処理の方法及び装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100737974B1 (ko) * 2005-07-15 2007-07-13 황후 이미지 분리 합성 장치 및 방법, 그리고 그것을 이용한이미지 검색방법
US8280115B2 (en) * 2007-10-30 2012-10-02 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9218782B2 (en) * 2011-11-16 2015-12-22 Stmicroelectronics International N.V. Video window detection
KR101948692B1 (ko) * 2012-10-09 2019-04-25 삼성전자주식회사 촬영 장치 및 이미지 합성 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003170630A (ja) 2001-12-06 2003-06-17 Presstek Inc 最適化されたイメージ処理の方法及び装置

Also Published As

Publication number Publication date
US9456165B2 (en) 2016-09-27
US20160112669A1 (en) 2016-04-21
KR20160044922A (ko) 2016-04-26

Similar Documents

Publication Publication Date Title
US20170053622A1 (en) Method and apparatus for setting transparency of screen menu, and audio and video playing device
KR101796603B1 (ko) 픽처-인-픽처 비디오 생성에서의 메모리 저감을 위한 메커니즘
CN105657485A (zh) 一种音视频播放设备
JP4427599B1 (ja) 画像処理装置、受信装置および表示装置
WO2014141425A1 (ja) 映像表示システム、ソース機器、シンク機器及び映像表示方法
US9666159B2 (en) Display, display system and data processing method
US9830880B1 (en) Method and system for adjusting the refresh rate of a display device based on a video content rate
US20120105448A1 (en) Display apparatus and method for providing graphic image
US9774821B2 (en) Display apparatus and control method thereof
KR102164543B1 (ko) 디스플레이 장치 및 디스플레이 방법
CN109791755B (zh) 图像处理装置、显示装置及其控制方法
CN109214977B (zh) 图像处理装置及其控制方法
JP2023093406A (ja) 仮想現実機器のための画像処理方法、装置及び仮想現実機器
KR102295970B1 (ko) 영상표시장치,
US20100321578A1 (en) Scaling Process System, Video Output Apparatus and Replay Apparatus
KR20140004490A (ko) 디스플레이장치 및 그 제어방법
WO2020071467A1 (ja) 映像処理装置、表示装置、および映像処理方法
KR20210142393A (ko) 영상표시장치 및 그의 동작방법
CN105657490A (zh) 音视频播放设备
US11899854B2 (en) Image display device and method of operating the same
JP4960433B2 (ja) 画像処理装置、受信装置および表示装置
US20140139516A1 (en) Image processing apparatus with transmission formats and control method thereof
JP2011142410A (ja) 画像処理装置
JP5496043B2 (ja) 表示制御装置および表示制御方法
US9439016B2 (en) Information display method, information display device, and display apparatus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant