KR20080004311A - 멀티미디어 컨텐츠 재생 장치 및 방법 - Google Patents

멀티미디어 컨텐츠 재생 장치 및 방법 Download PDF

Info

Publication number
KR20080004311A
KR20080004311A KR1020060063153A KR20060063153A KR20080004311A KR 20080004311 A KR20080004311 A KR 20080004311A KR 1020060063153 A KR1020060063153 A KR 1020060063153A KR 20060063153 A KR20060063153 A KR 20060063153A KR 20080004311 A KR20080004311 A KR 20080004311A
Authority
KR
South Korea
Prior art keywords
image
voice
sub
display area
channel
Prior art date
Application number
KR1020060063153A
Other languages
English (en)
Other versions
KR100860964B1 (ko
Inventor
류희섭
박민규
이상국
이종호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060063153A priority Critical patent/KR100860964B1/ko
Priority to US11/655,823 priority patent/US20080007654A1/en
Publication of KR20080004311A publication Critical patent/KR20080004311A/ko
Application granted granted Critical
Publication of KR100860964B1 publication Critical patent/KR100860964B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/607Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for more than one sound signal, e.g. stereo, multilanguages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereophonic System (AREA)

Abstract

멀티미디어 컨텐츠 재생시, 사용자에 의해 선택된 영역을 중심으로 영상의 디스플레이 위치 및 음성의 각 채널을 보정하는 멀티미디어 컨텐츠 재생 장치 및 방법이 제공된다.
본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 장치는, 복수의 서브 영역으로 분할된 디스플레이 영역을 가지며, 상기 디스플레이 영역을 통해 영상을 디스플레이하는 디스플레이부, 상기 디스플레이되는 영상에 대응하는 음성을 복수의 채널로 분리하여 출력하는 음성 출력부, 사용자에 의해 선택된 서브 영역을 기준으로 상기 영상의 스케일 및 상기 음성의 채널을 보정하기 위한 보정값을 계산하는 계산부 및, 상기 계산된 보정값을 근거로 하여 상기 영상의 스케일 및 상기 음성의 채널을 보정하는 신호 처리부를 포함한다.
멀티미디어, 영상, 입체음향

Description

멀티미디어 컨텐츠 재생 장치 및 방법{Apparatus and method for playback multimedia contents}
도 1은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 재생 시스템을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 적용된 다이렉트 포인팅 디바이스의 구성을 도시한 블록도이다.
도 3a 내지 도 3c는 도 2의 다이렉트 포인팅 디바이스에 의한 화면 좌표 검출 과정을 설명하기 위한 도면들이다.
도 4는 도 1에 도시된 멀티미디어 컨텐츠 재생 장치의 구성을 도시한 블록도이다.
도 5는 본 발명의 실시예에 따른 디스플레이 영역의 분할 모습을 예시한 예시도이다.
도 6은 본 발명의 실시예에 따른 매핑 테이블을 예시한 예시도이다.
도 7은 본 발명의 실시예에 따른 보정값 산출 방법을 설명하기 위한 도면이다.
도 8a 및 도 8c는 도 4의 멀티미디어 컨텐츠 재생 장치의 디스플레이 영역을 통해 디스플레이되는 영상을 예시한 예시도이다.
도 9는 본 발명의 실시예에 따른 멀티미디어 재생 방법을 도시한 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
11, 12, 13, 14: 적외선 LED 200: 다이렉트 포인팅 디바이스
210: 영상 입력부 220: 좌표 검출부
400: 멀티미디어 컨텐츠 재생 장치 445: 음성 신호 처리부
455: 영상 신호 처리부 490: 영역 검출부
495: 계산부 500: 디스플레이 영역
600: 매핑 테이블
본 발명은 멀티미디어 컨텐츠 재생 장치 및 방법에 관한 것으로, 보다 상세하게는 멀티미디어 컨텐츠 재생시 사용자에 의해 선택된 영역을 중심으로 영상의 디스플레이 위치 및 음성의 각 채널을 보정하여 제공하는 멀티미디어 컨텐츠 재생 장치 및 방법에 관한 것이다.
최근 집에서도 영화관에서와 같이 멀티미디어 컨텐츠를 감상하려는 사람들이 늘어나고 있다. 이러한 추세에 부흥하여, 사용자들이 멀티미디어 컨텐츠를 즐길 때, 보다 현장감 있고 원음에 가까운 음향을 즐길 수 있도록 하는 입체음향 기술에 대한 연구가 활발히 이루어지고 있으며, 홈씨어터와 같이, 입체음향 기술이 적용된 멀티미디어 컨텐츠 재생 장치의 보급이 점차 확산되고 있다.
알려진 바와 같이, 사람의 귀는 음의 세기의 차이, 도달 시간의 차이에 따라 음원의 방향 및 위치를 감지할 수 있는데, 입체음향 기술이란, 이러한 점을 이용하여 현장감 있고 원음에 가까운 소리를 표현하는 기술을 말한다.
그러나 종래 멀티미디어 컨텐츠 재생 장치는 사전에 제작자에 의해 제작된 멀티미디어 컨텐츠를 재생하는데 불과하며, 미리 정해진 음향 시스템의 영역에서만 최적의 음향을 제공하는데 초점을 맞추고 있을 뿐, 멀티미디어 재생시, 사용자가 관심을 갖고 있는 영상 영역을 중심으로 영상 및 음향을 제공하고 있지는 못하다.
본 발명은 상기한 문제점을 개선하기 위해 안출된 것으로, 멀티미디어 컨텐츠 재생시, 사용자에 의해 선택된 영역을 중심으로 영상의 디스플레이 위치 및 음성의 각 채널을 보정하는 멀티미디어 컨텐츠 재생 장치 및 방법을 제공하는데 그 목적이 있다.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 장치는, 복수의 서브 영역으로 분할된 디스플레이 영역을 가지며, 상기 디스플레이 영역을 통해 영상을 디스플레이하는 디스플레이부, 상기 디스플레이되는 영 상에 대응하는 음성을 복수의 채널로 분리하여 출력하는 음성 출력부, 사용자에 의해 선택된 서브 영역을 기준으로 상기 영상의 스케일 및 상기 음성의 채널을 보정하기 위한 보정값을 계산하는 계산부 및, 상기 계산된 보정값을 근거로 하여 상기 영상의 스케일 및 상기 음성의 채널을 보정하는 신호 처리부를 포함한다.
또한, 상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 방법은, 복수의 서브 영역으로 분할된 디스플레이 영역을 통해 영상을 디스플레이하는 단계, 상기 디스플레이되는 영상에 대응하는 음성을 복수의 채널로 분리하여 출력하는 단계, 사용자에 의해 선택된 서브 영역을 기준으로 상기 영상의 스케일 및 상기 음성의 채널을 보정하기 위한 보정값을 계산하는 단계 및, 상기 계산된 보정값을 근거로 하여 상기 영상의 스케일 및 상기 음성의 채널을 보정하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있으며, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의하여 멀티미디어 컨텐츠 재생 장치 및 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 1은 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 시스템의 구성을 도시한 도면이다. 도시된 멀티미디어 컨텐츠 재생 시스템은 포인팅 장치(200) 및 멀티미디어 컨텐츠 재생 장치(400)를 포함하여 구성된다.
포인팅 장치(200)는, 사용자가 멀티미디어 컨텐츠 재생 장치(400)를 통해 재생되는 영상 내에서 주의를 기울여 시청하고자 하는 지점을 포인팅하는데 사용된다. 이러한 포인팅 장치(200)로서, 마우스와 같은 간접 포인팅 디바이스나 다이렉트 포인팅 디바이스가 사용될 수 있다. 이하, 본 발명의 실시예에서는 포인팅 장치(200)로서, 다이렉트 포인트 디바이스를 예로 들어 설명하기로 한다.
본 발명의 실시예에 따른 다이렉트 포인팅 디바이스(200)는 사용자의 명령을 멀티미디어 컨텐츠 재생 장치로 송신한다. 또한, 다이렉트 포인팅 디바이스(200)는 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500) 및 상기 디스플레이 영역 내에서의 포인팅 지점의 좌표를 검출한다. 좀 더 구체적인 설명을 위해 도 2 내지 도 3c를 참조하기로 한다. 여기서, 도 2는 도 1의 다이렉트 포인팅 디바이스(200)의 구성을 도시한 블록도이고, 도 3a 내지 도 3c는 도 2의 다이렉트 포인팅 디바이스(200)로 입력되는 화면을 예시한 것이다.
먼저, 도 2를 참조하면, 다이렉트 포인팅 디바이스(200)는 키입력부(240), 영상 입력부(210), 좌표 검출부(220), 제어부(230) 및 송신부(250)를 포함하여 구성된다.
키입력부(240)는 멀티미디어 컨텐츠 재생 장치의 동작을 제어하기 위한 다수의 기능키를 구비할 수 있다. 예를 들면, 전원키(미도시), 선택키(미도시), 다수의 숫자키(미도시) 등을 구비할 수 있다. 키입력부(240)에 구비된 키들은 사용자에 의해 인가되는 경우, 소정 키신호를 발생시킨다. 키입력부(240)에서 발생된 키신호는 후술될 제어부(230)로 제공된다.
제어부(230)는 다이렉트 포인팅 디바이스(200) 내의 각 구성요소를 연결하고, 사용자의 명령에 따라 각 구성 요소를 제어하는 역할을 한다. 예를 들면, 제어부(230)는 키입력부(240)에서 제공된 키신호에 대응하는 명령 코드를 생성한다. 그리고 이 명령 코드를 후술될 송신부(250)로 제공한다.
영상 입력부(210)는 다이렉트 포인팅 디바이스(200)가 가리키는 방향의 영상을 입력받는 역할을 한다. 이러한 영상 입력부(210)는 예를 들어, 카메라와 같은 촬영 장치로 구성될 수 있다.
좌표 검출부(220)는 영상 입력부(210)를 통해 입력된 영상 데이터로부터 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출한다. 이 때, 좌표 검출부(220)는 다양한 방법으로 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출할 수 있다.
일 예로, 좌표 검출부(220)는 영상 입력부(210)를 통해 입력된 영상 데이터에서 휘도 차이를 이용하여 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출할 수 있다. 좀 더 구체적으로, 영상이 디스플레이되고 있는 디스플레이 영역(500)은 주변보다 밝기가 높다. 그러므로, 영상 입력부(210)를 통해 입력된 영상 데이터에서 밝기가 높은 부분의 에지를 검출하면, 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출할 수 있다.
또는 카메라에 쉽게 인식될 수 있는 표식을 사용함으로써 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출할 수도 있다. 좀 더 구체적으로, 멀티미디어 컨텐츠 재생 장치(400)에서 디스플레이 영역(500)의 각 꼭지점에 발광 소자 예를 들면, 적외선 LED를 설치한다. 그리고, 영상 입력부(210)를 통해 입력된 영상 데이터(25)에서 밝기가 높은 부분 즉, 적외선 LED를 검출하면, 적외선 LED의 위치는 화면의 각 꼭지점의 위치이므로, 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출할 수 있다. 예를 들어, 영상 입력부(210)를 통해 입력되는 영상(25)이 도 3a와 같다면, 좌표 검출부(220)는 도 3b와 같이, 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출한다.
이와 같은 방법으로 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500)을 검출한 다음, 좌표 검출부(220)는 사용자가 현재 가리키고 있는 포인팅 지점이 검출된 디스플레이 영역(500) 내에서 어떤 위치에 있는지를 검출한다. 즉, 좌표 검출부(220)는 검출된 디스플레이 영역(500) 내에서 포인팅 지점의 좌표를 계산한다. 이 때, 좌표 검출부(220)는 다양한 방법으로 포인팅 지점의 좌표를 검출 할 수 있다.
일 예로, 영상 입력부(210)를 통해 입력된 영상(25)의 중심(20)이 사용자가 다이렉트 포인팅 디바이스(200)를 이용하여 현재 가리키고 있는 포인팅 지점이라는 점을 이용할 수 있다. 이 경우, 좌표 검출부(220)는 먼저, 영상 입력부(210)로 입력된 영상(25)의 중심점(20)을 검출한다. 그리고, 좌표 검출부(220)는 도 3c와 같이, 검출된 중심점(20)이 미리 검출된 디스플레이 영역(500) 내에서 차지하는 위치를 검출하므로써, 검출된 디스플레이 영역(500) 내에서 포인팅 지점에 대한 좌표를 검출한다. 좌표 검출부(220)는 검출된 좌표를 송신부(250)로 제공한다.
송신부(250)는 제어부(230)에서 제공된 명령 코드 및 좌표 검출부(220)에서 검출된 데이터, 즉 포인팅 지점에 대한 좌표를 소정의 무선 신호 예를 들면, 적외선 신호로 변조하여 멀티미디어 컨텐츠 재생 장치(400)로 송신한다.
한편, 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 장치(400)는 다이렉트 포인트 디바이스로부터 사용자에 의해 포인팅되는 포인팅 지점의 좌표를 수신하고, 포인팅 지점을 포함하는 영역을 기준으로 영상의 디스플레이 위치 및 음성의 각 채널을 보정한다. 이러한 멀티미디어 컨텐츠 재생 장치(400)는 디지털 장치로 구성될 수 있다. 여기서 디지털 장치란, 디지털 데이터를 처리하는 디지털 회로를 가진 장치로서, 휴대 전화, 컴퓨터, 모니터, 디지털 카메라, 디지털 가전기기, 디지털 전화, 디지털 비디오 레코더, 개인용 디지털 단말기(PDA) 및 디지털 TV 등을 예로 들 수 있다. 이하의 설명에서는 멀티미디어 컨텐츠 재생 장치(400)가 디지털 TV로 구현되는 경우를 예로 들어 설명하기로 한다.
멀티미디어 컨텐츠 재생 장치(400)에 대한 보다 구체적인 설명을 위해 도 4 내지 도 8c를 참조하기로 한다.
도 4는 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 장치(400)의 구조를 도시한 블록도이다. 도 4에 도시된 멀티미디어 컨텐츠 재생 장치(400)는 튜너(410), 복조부(420), 역다중화부(430), 비디오 디코더(450), 디스플레이부(457), 오디오 디코더(440), 신호 처리부(451), 음성 출력부(447), 저장부(480), 수신부(470), 영역 검출부(490), 계산부(495) 및 제어부(460)를 포함하여 구성된다.
튜너(410)는 사용자가 선택한 채널의 수신 대역에 동조하고, 수신한 신호파를 중간 주파수(Intermediate Frequency; IF)신호로 변환하여 복조부(420)에 제공한다.
복조부(420)는 튜너(410)에서 제공된 디지털 신호를 복조하여 MPEG-2 전송 스트림 형식의 데이터를 역다중화부(430)에 공급한다.
역다중화부(430)는 입력된 MPEG-2 전송 스트림으로부터, 압축된 음성 데이터 및 압축된 영상 데이터를 분리하여, 각각 오디오 디코더(440) 및 비디오 디코더(450)에 공급한다.
비디오 디코더(450)는 입력된 영상 데이터를 디코딩한다. 디코딩된 영상 데이터는 후술될 영상 신호 처리부(455)로 공급된 후, 디스프레이부를 통해 디스플레이된다.
디스플레이부(457)는 후술될 영상 신호 처리부(455)를 통해 처리된 영상 신호를 디스플레이한다. 디스플레이부(457)는 영상 신호가 디스플레이되는 디스플레 이 영역(500)을 포함하며, 디스플레이 영역(500)은 하나 또는 그 이상의 픽셀에 의해 이루어지는 복수의 서브 영역으로 분할될 수 있다. 예를 들면, 디스플레이 영역(500)은 도 5와 같이 복수의 서브 영역으로 분할될 수 있다. 도 5는 디스플레이 영역(500)이 균등하게 분할된 경우를 예시하고 있지만, 디스플레이 영역(500)은 각 서브 영역이 서로 불균등하게 분할될 수도 있다.
오디오 디코더(440)는 입력된 음성 데이터를 디코딩한다. 디코딩된 음성 데이터는 음성 신호 처리부(445)로 공급되어 소정 음성 처리가 가해진 후, 음성 출력부(447)를 통해 출력된다.
음성 출력부(447)는 디스플레이부(457)를 통해 디스플레이되는 영상에 대응하는 음성을 복수의 채널로 분리하여 출력한다. 이를 위해 음성 출력부(447)는 복수의 스피커(41, 42)로 구현될 수 있다. 이 때, 복수의 스피커는 멀티미디어 컨텐츠 재생 장치(400)를 중심으로 사전에 정의된 위치에 배치될 수 있다.
제어부(460)는 멀티미디어 컨텐츠 재생 장치(400) 내의 구성요소들을 서로 연결하고 관리한다.
저장부(480)는 멀티미디어 컨텐츠 재생시, 사용자에 의해 선택된 서브 영역을 기준으로 영상의 스케일 및 음성의 채널을 보정하는데 필요한 알고리즘을 저장한다. 또한, 저장부(480)는 도 6에 도시된 바와 같이, 복수의 서브 영역에 대한 식별 정보, 각 서브 영역에 대응하는 좌표값 정보 및 각 서브 영역의 중심점 좌표 정보를 포함하는 매핑 테이블(600)을 저장한다. 이러한 저장부(480)는 롬(Read Only Memory: ROM), 피롬(Programable ROM: PROM), 이피롬(Erasable Programmable ROM: EPROM), 이이피롬(Electrically Erasable Programmable ROM: EEPROM), 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 램(Random Access Memory: RAM)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive; HDD)와 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
수신부(470)는 다이렉트 포인팅 디바이스에서 송신된 원격제어신호 및 포인팅 지점의 좌표를 수신한다. 수신된 포인팅 지점의 좌표는 후술될 검출부로 제공된다.
영역 검출부(490)는, 저장부(480)에 저장되어 있는 매핑 테이블(600)을 참조하여, 포인팅 지점의 좌표가 포함되는 서브 영역을 검출한다. 검출된 서브 영역에 대한 정보는 후술될 계산부(495)로 제공된다.
계산부(495)는 검출된 서브 영역에 대한 정보를 근거로 하여, 영상의 스케일 및 음성의 채널을 보정하기 위한 보정값을 계산한다. 우선, 계산부(495)는 영상의 스케일을 보정하기 위한 보정값을 계산한다. 구체적으로, 계산부(495)는 검출된 서브 영역의 중심과 디스플레이 영역(500)의 중심 간의 거리를 산출한다. 산출된 거리값은 후술될 영상 신호 처리부(455)로 제공된다. 또한, 계산부(495)는 음성 출력부(447)를 통해 출력되는 음성의 채널을 보정하기 위한 보정값을 계산한다. 구체적으로, 계산부(495)는 음성 출력부(447)에서 출력되는 각 채널간의 출력 이득 및 위상차를 계산한다. 이에 대한 보다 구체적인 설명을 위해 도 7을 참조하기로 한다.
도 7은 본 발명의 실시예에 따른 보정값 산출 방법을 설명하기 위한 도면으로서, 특히, 음성 출력부(447)를 통해 출력되는 각 채널간의 출력 이득 및 위상차를 계산하는 방법을 설명하기 위한 도면이다.
우선, 계산부(495)는 도 7에 도시된 바와 같이, 포인팅 지점과 마주보는 위치에 가상 사용자를 위치시킨다. 그리고 계산부(495)는 포인팅 지점과 가상 사용자를 연결하는 선분 및 가상 사용자와 디스플레이 영역(500)의 중심점을 연결하는 선분 사이의 각도(θ)를 산출한다. 이 때, 두 선분 사이의 각도(θ)는 사전 실험에 의해 형성된 데이터베이스를 통해 산출될 수 있다. 구체적으로, 포인팅 지점을 디스플레이 영역(500)의 X축을 따라 변경시키면서 θ를 측정하고, 측정 결과를 저장부(480)에 저장한다. 그리고, 기저장된 데이터베이스를 검색함으로써, 두 선분 사이의 각도(θ)를 산출할 수도 있다.
두 선분 사이의 각도(θ)가 산출되면, 계산부(495)는 산출된 각도(θ), 디스플레이 영역(500)의 좌측에 위치한 제1 스피커(41)와 디스플레이 영역(500)의 우측에 위치한 제2 스피커(42) 간의 거리 정보(2d), 및 중심점에서 가상 사용자까지의 거리 정보(r)를 근거로 하여, 가상 사용자와 제1 스피커(41) 간의 거리(rL) 및 가상 사용자와 제2 스피커(42) 간의 거리(rR)를 계산한다.
구체적으로, 두 선분 사이의 각도를 θ라 하고, 제1 스피커(41)와 제2 스피커(42) 간의 거리 정보를 2d라 하며, 중심점에서 가상 사용자까지의 거리를 r이라고 했을 때, 가상 사용자와 제1 스피커(41) 간의 거리 rL은 (수학식1)과 같이 표현 될 수 있으며, 가상 사용자와 제2 스피커(42) 간의 거리 rR은 (수학식2)와 같이 표현될 수 있다.
Figure 112006048381352-PAT00001
Figure 112006048381352-PAT00002
(수학식1) 및 (수학식2)에서, 제1 스피커(41)와 제2 스피커(42) 간의 거리 정보(2d)는 통상적인 값으로 사전에 미리 지정되는 것이 바람직하다. 또한, 중심점과 가상 사용자 간의 거리(r) 역시, 통상적인 값으로 사전에 미리 지정되는 것이 바람직하다. 예를 들면, 중심점과 가상 사용자 간의 거리(r)는 통상 3m로 지정될 수 있다.
(수학식1) 및 (수학식2)에 의해 가상 사용자와 제1 스피커(41) 간의 거리(rL) 및 가상 사용자와 제2 스피커(42) 간의 거리(rR)가 산출되면, 계산부(495)는 산출된 거리값(rL 및 rR)을 근거로 하여, 각 스피커를 통해 출력되는 채널 간 출력 이득(g) 및 위상차(Δ)를 계산한다. 이 때, 각 채널 간 출력 이득(g)은 (수학식3)과 같이 표현될 수 있으며, 각 채널 간 위상차(Δ)는 (수학식4)와 같이 표현될 수 있다.
Figure 112006048381352-PAT00003
Figure 112006048381352-PAT00004
(수학식3) 및 (수학식4)에 의해 산출된 출력 이득(g) 정보 및 위상차(Δ) 정보는 후술될 음성 신호 처리부(445)로 제공된다. 여기서, (수학식3)에 의한 출력 이득(g)은 음성 출력부(447)를 통해 출력되는 채널별 음성의 크기 즉, 볼륨을 조절하는데 사용된다. 그리고, (수학식4)에 의한 위상차(Δ)는 음성 출력부(447)를 통해 채널별로 음성을 출력할 때, 각 채널의 음성을 얼마만큼의 시간지연을 준 후 출력할 것인지를 결정하는데 사용된다.
다시 도 4를 참조하면, 신호 처리부(451)는 디코딩된 영상 신호, 디코딩된 음성 신호 및 부가 데이터 중 적어도 하나를 처리하는 역할을 한다. 이를 위해 신호 처리부(451)는 음성 신호 처리부(445) 및 영상 신호 처리부(495)를 포함하여 구성될 수 있다.
음성 신호 처리부(445)는 계산부(495)에서 제공된 출력 이득(g) 정보 및 위상차(Δ) 정보를 근거로, 제1 스피커(41) 및 제2 스피커(42)를 통해 각각 출력될 음성을 보정한다. 일 예로, 도 7과 같이 포인팅 지점이 제1 스피커(41)와 가까운 경우, 음성 신호 처리부(445)는 제1 스피커(41)를 통해 출력될 음성을 (수학식5)와 같이 보정한다. 이에 비해, 제2 스피커(42)를 통해 출력될 음성은 (수학식6)과 같 이 보정한다.
Figure 112006048381352-PAT00005
Figure 112006048381352-PAT00006
(수학식5)에서 xL은 현재 제1 스피커(41)를 통해 출력되는 음성을 의미하고, n은 현재 제1 스피커(41)를 통해 출력되는 현재 제1 스피커(41)를 통해 출력되는 음성의 위상을 의미한다고 할 때, 제1 스피커(41)를 통해 출력될 음성(yL)의 볼륨은 현재 제1 스피커(41)를 통해 출력되고 있는 음성(xL)의 볼륨에 비해 계산된 출력 이득(g)만큼 증가된 것을 알 수 있다. 또한, 제1 스피커(41)를 통해 출력될 음성(yL)의 위상은 현재 제1 스피커(41)를 통해 출력되고 있는 음성(xL)의 위상(n)에 비해 계산된 위상차(Δ)만큼 감소된 것을 알 수 있다.
마찬가지로, (수학식6)에서 xR은 현재 제2 스피커(42)를 통해 출력되는 음성을 의미하고, n은 현재 제2 스피커(42)를 통해 출력되는 음성의 위상을 의미한다고 할 때, 제2 스피커(42)를 통해 출력될 음성(yR)의 볼륨 및 위상은 현재 제2 스피커(42)를 통해 출력되고 있는 음성의 볼륨 및 위상과 동일한 것을 알 수 있다.
다른 예로서, 음성 신호 처리부(445)는 제1 스피커(41)를 통해 출력될 음성 을 (수학식7)과 같이 보정하고, 제2 스피커(42)를 통해 출력될 음성을 (수학식8)과 같이 보정할 수도 있다.
Figure 112006048381352-PAT00007
Figure 112006048381352-PAT00008
즉, 음성 신호 처리부(445)는 제1 스피커(41)로 출력될 음성(yL)의 위상은 현재 제1 스피커(41)를 통해 출력되는 음성의 위상(n)과 동일하게 유지한 채, 제1 스피커(41)로 출력될 음성(yL)의 볼륨만을 출력 이득(g)만큼 증가시킬 수 있다. 그리고, 음성 신호 처리부(445)는 제2 스피커(42)로 출력될 음성(yR)의 볼륨은 현재 제2 스피커(42)로 출력되는 음성(xR)의 볼륨과 동일하게 유지한 채, 위상만을 위상차(Δ)만큼 증가시킬 수 있다.
전술한 방법과 같이 음성 신호 처리부(445)에 의해 각 채널별로 보정된 음성은 각 채널에 대응하는 스피커를 통해 출력된다.
한편, 영상 신호 처리부(455)는 계산부(495)에서 제공된 거리값을 근거로 하여, 비디오 디코더(450)에서 제공된 영상이 디스플레이되는 위치를 보정한다. 구체적으로, 영상 신호 처리부(455)는 포인팅 지점이 포함되는 서브 영역의 중심이 디스플레이 영역(500)의 중심과 일치하도록 영상이 디스플레이되는 위치를 보정한 다. 예를 들어, 도 8a와 같이 사용자에 의해 포인팅된 포인팅 지점이 제1 서브 영역(510)에 포함되는 경우, 영상 신호 처리부(455)는 도 8b와 같이 제1 서브 영역(510)의 중심점과 디스플레이 영역(500)의 중심점이 일치하도록 영상이 디스플레이되는 위치를 보정한다.
이 때, 영상 신호 처리부(455)는 포인팅 지점을 포함하는 서브 영역을 중심으로 영상의 스케일을 보정할 수도 있다. 예를 들면, 도 8c와 같이, 포인팅 지점을 포함하는 서브 영역을 중심으로 영상을 확대시킬 수 있다. 여기서, 영상 확대 비율은 각 서브 영역에 모두 동일한 확대 비율이 적용되거나, 서로 다른 확대 비율이 적용될 수 있다. 구체적으로, 도 5를 참조하면, 디스플레이 영역(500)을 통해 디스플레이되는 영상 중, 제7 서브 영역(570), 제8 서브 영역(580) 및 제9 서브 영역(590)에는 일반적으로 사용자와 거리가 가장 가까운 물체를 포함하는 영상이 디스플레이된다. 이에 비해, 제1 서브 영역(510), 제2 서브 영역(520) 및 제3 서브 영역(530)에는 사용자와의 거리가 비교적 먼 물체에 대한 영상이 디스플레이된다. 이 경우, 상측에 위치한 서브 영역일수록 확대 비율을 크게 적용시킬 수 있다. 예를 들면, 제7 서브 영역(570), 제8 서브 영역(580) 및 제9 서브 영역(590)에 대해서는 확대 비율을 1로 설정하고, 제4 서브 영역(540), 제5 서브 영역(550) 및 제6 서브 영역(560)에 대해서는 확대 비율을 1.5로 설정하고, 제1 서브 영역(510), 제2 서브 영역(520) 및 제3 서브 영역(530)에 대해서는 확대 비율을 2로 설정할 수 있다. 이와 같이, 각 서브 영역에 대한 확대 비율 정보는 전술한 매핑 테이블(600)에 저장될 수 있다.
다음으로, 도 8a 내지 도 9를 참조하여 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 방법을 설명하기로 한다. 여기서, 도 9는 본 발명의 실시예에 따른 멀티미디어 컨텐츠 재생 방법을 도시한 흐름도이다.
먼저, 사용자가 특정 채널을 선택하면, 멀티미디어 컨텐츠 재생 장치(400)의 튜너(410)는 사용자가 선택한 채널의 수신 대역에 동조한다. 그리고, 튜너(410)는 수신한 신호파를 중간 주파수 신호로 변환하여 복조부(420)에 제공한다.
복조부(420)는 튜너(410)에서 제공된 디지털 신호를 복조하여 MPEG-2 전송 스트림 형식의 데이터를 역다중화부(430)에 공급한다(S910).
역다중화부(430)는 입력된 MPEG-2 전송 스트림으로부터, 압축된 음성 데이터 및 압축된 영상 데이터를 분리하여, 각각 오디오 디코더(440) 및 비디오 디코더(450)에 공급한다(S920).
오디오 디코더(440)는 역다중화부(430)에서 제공된 음성 데이터를 디코딩하여 디코딩된 음성 데이터를 음성 신호 처리부(445)에 공급한다. 음성 신호 처리부(445)는 오디오 디코더(440) 에서 제공된 음성 데이터에 소정의 음성 신호 처리를 한 후, 음성 출력부(447)를 통하여 음성을 출력한다(S930).
한편, 비디오 디코더(450)는 역다중화부(430)에서 제공된 영상 데이터를 디코딩하여 디코딩된 영상 데이터를 영상 신호 처리부(455)에 공급한다. 영상 신호 처리부(455)는 비디오 디코더(450)에서 제공된 영상 데이터를 디스플레이부(457)를 통해 표시한다(S930).
이와 같이 디스플레이부(457)를 통해 영상이 디스플레이되고 있는 상태에서, 도 8a와 같이, 사용자에 의해 특정 지점이 포인팅되는 경우, 다이렉트 포인팅 디바이스(200)는 사용자에 의해 포인팅되는 포인팅 지점이 멀티미디어 컨텐츠 재생 장치(400)의 디스플레이 영역(500) 내에서 어떤 위치에 있는지를 검출한다. 즉, 좌표 검출부(220)는 검출된 디스플레이 영역(500) 내에서 포인팅 지점의 좌표를 계산한다. 이 때, 좌표 검출부(220)는, 앞서 도 3a 내지 도 3c에서 설명한 바와 같은 방법으로 포인팅 지점의 좌표를 검출할 수 있다.
검출된 포인팅 지점의 좌표는 소정 무선 신호 예를 들면, 적외선 신호로 변조되어 멀티미디어 컨텐츠 재생 장치(400)로 송신된다.
한편, 멀티미디어 컨텐츠 장치의 수신부(470)는 다이렉트 포인팅 디바이스로부터 포인팅 지점의 좌표를 수신한다(S940). 이 후, 영역 검출부(490)는 저장부(480)에 저장되어 있는 매핑 테이블(600)을 참조하여, 포인팅 지점을 포함하는 서브 영역을 검출한다(S950). 예를 들어, 매핑 테이블(600)이 도 6에 예시된 바와 같고, 포인팅 지점의 좌표가 (X1, Y1)인 경우, 영역 검출부(490)는 포인팅 지점을 포함하는 서브 영역으로써, 제1 서브 영역(510)을 검출한다(S950). 검출된 제1 서브 영역(510)에 대한 정보 즉, 제1 서브 영역(510)의 중심점의 좌표에 대한 정보는 계산부(495)로 제공된다.
계산부(495)는 검출된 제1 서브 영역(510)에 대한 정보를 근거로 하여, 영상의 스케일 및 음성이 채널을 보정하기 위한 보정값을 각각 계산한다(S960). 구체적으로, 계산부(495)는 제1 서브 영역(510)을 중심으로 영상의 스케일을 보정하기 위한 보정값을 계산한다. 다시 말해, 계산부(495)는 제1 서브 영역(510)의 중심과 디스플레이 영역(500)의 중심 간의 거리를 산출한다.
그 다음, 계산부(495)는 음성 출력부(447)를 통해 출력되는 음성의 채널을 보정하기 위한 보정값을 계산한다. 다시 말해, 계산부(495)는 음성 출력부(447)에서 출력되는 각 채널간의 출력 이득 및 위상차를 계산한다. 이를 위해 계산부(495)는 도 7과 같이, 포인팅 지점과 마주보는 위치에 가상 사용자를 위치시킨다. 그 다음, 계산부(495)는 기저장된 데이터베이스를 참조하여, 포인팅 지점과 가상 사용자를 연결하는 선분 및 가상 사용자와 디스플레이 영역(500)의 중심점을 연결하는 선분 사이의 각도(θ)를 산출한다.
이 후, 계산부(495)는 산출된 각도(θ), 디스플레이 영역(500)의 중심점과 제1 스피커(41) 간의 거리(d) 및, 중심점과 가상 사용자 간의 거리 정보(r)를 근거로 하여, 가상 사용자와 제1 스피커(41) 간의 거리(rL) 및 가상 사용자와 제2 스피커(42) 간의 거리(rR)를 계산한다. 이 때, 가상 사용자와 제1 스피커(41) 간의 거리(rL)는 앞서 언급된 (수학식1)에 의해 산출될 수 있으며, 가상 사용자와 제2 스피커(42) 간의 거리(rR)는 앞서 언급된 (수학식2)에 의해 산출될 수 있다.
(수학식1) 및 (수학식2)에 의해 가상 사용자와 제1 스피커(41) 간의 거리(rL) 및 가상 사용자와 제2 스피커(42) 간의 거리(rR)가 산출되면, 계산부(495)는 산출된 거리값(rL 및 rR)을 근거로 하여, 각 스피커를 통해 출력되는 채널 간 출력 이득(g) 및 위상차(Δ)를 계산한다. 이 때, 각 채널 간 출력 이득(g)은 앞서 언급된 바와 같이 (수학식3)에 의해 산출될 수 있으며, 각 채널 간 위상차(Δ)는 (수학식4)에 의해 산출될 수 있다.
이와 같이, 계산부(495)에 의해 보정값이 산출되면, 영상 신호 처리부(455) 및 음성 신호 처리부(445)는 산출된 보정값에 근거하여, 영상의 디스플레이 위치 및 음성 출력부(447)를 통해 출력되는 음성의 각 채널을 보정한다(S970).
먼저, 영상 신호 처리부(455)는 계산부(495)에 의해 산출된 보정값 중 포인팅 지점과 디스플레이 영역(500)의 중심점 간의 거리 정보를 근거로 하여 비디오 디코더(450)에서 제공된 영상이 디스플레이되는 위치를 보정한다. 예를 들면, 신호 처리부는 도 8b와 같이, 제1 서브 영역(510)의 중심이 디스플레이 영역(500)의 중심과 일치하도록 영상이 디스플레이되는 위치를 보정한다(S970). 이 때, 영상 신호 처리부(455)는 제1 서브 영역(510)을 중심으로 영상의 스케일을 보정할 수도 있다. 예를 들면, 도 8c와 같이, 제1 서브 영역(510)을 중심으로 영상을 확대할 수 있다. 이 때, 영상 확대 비율은 각 서브 영역별로 모두 동일하게 적용되거나, 서브 영역의 위치에 따라 서로 다른 확대 비율이 적용될 수도 있다. 예를 들면, 디스플레이 영역(500)이 상측에 위치한 서브 영역일수록 큰 확대 비율이 적용될 수도 있다. 이와 같이, 영상 신호 처리부(455)에 의해 보정된 영상은 디스플레이부(457)를 통해 디스플레이된다(S980).
한편, 음성 신호 처리부(445)는 계산부(495)에 의해 산출된 보정값 중 출력 이득(g) 및 위상차(Δ)를 근거로 하여, 음성의 각 채널을 보정한다. 예를 들면, 음성 신호 처리부(445)는 제1 스피커(41)를 통해 출력되는 음성을 (수학식5)와 같이 보정하고, 제2 스피커(42)를 통해 출력되는 음성을 (수학식6)과 같이 보정한다. 다른 예로써, 음성 신호 처리부(445)는 제1 스피커(41)를 통해 출력되는 음성을 (수학식7)과 같이 보정하고, 제2 스피커(42)를 통해 출력되는 음성을 (수학식8)과 같이 보정할 수도 있다. 이와 같이, 음성 신호 처리부(445)에 의해 보정된 채널들은 각 채널에 대응하는 스피커를 통해 출력된다(S980).
전술한 멀티미디어 컨텐츠 재생 장치(400)는, 디스플레이 영역(500)이 소정 포인팅 수단에 의해 포인팅되는 경우를 예로 들어 설명하였지만, 본 발명은 별도의 포인팅 장치를 구비하지 않은 경우에도 적용될 수 있다. 예를 들면, 사용자의 시선 또는 음성을 감지하여 사용자가 주의 깊게 시청하려는 서브 영역을 검출할 수도 있다.
이상과 같이 예시된 도면을 참조로 하여, 본 발명에 따른 멀티미디어 컨텐츠 재생 장치 및 방법에 대해여 설명하였으나, 본 발명은 본 명세서에 개시된 실시예와 도면에 의해 한정되지 않으며, 그 발명의 기술사상 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.
상기한 바와 같이 본 발명에 의한 멀티미디어 컨텐츠 재생 장치 및 방법에 따르면 멀티미디어 감상시, 사용자가 관심을 갖는 영역을 중심으로 영상 및 음성을 보정함으로써, 사용자로 하여금 몰입감을 느낄 수 있도록 할 수 있다는 장점이 있다.

Claims (10)

  1. 복수의 서브 영역으로 분할된 디스플레이 영역을 가지며, 상기 디스플레이 영역을 통해 영상을 디스플레이하는 디스플레이부;
    상기 디스플레이되는 영상에 대응하는 음성을 복수의 채널로 분리하여 출력하는 음성 출력부;
    사용자에 의해 선택된 서브 영역을 기준으로 상기 영상의 디스플레이 위치 및 상기 음성의 채널을 보정하기 위한 보정값을 계산하는 계산부; 및
    상기 계산된 보정값을 근거로 하여 상기 영상의 디스플레이 위치 및 상기 음성의 채널을 보정하는 신호 처리부를 포함하는 멀티미디어 컨텐츠 재생 장치.
  2. 제 1 항에 있어서,
    상기 신호 처리부는, 상기 선택된 서브 영역을 기준으로 상기 영상을 확대하는 멀티미디어 컨텐츠 재생 장치.
  3. 제 1 항에 있어서,
    상기 신호 처리부는, 상기 선택된 서브 영역의 영상을 상기 디스플레이 영역의 중심으로 이동시키는 멀티미디어 컨텐츠 재생 장치.
  4. 제 1 항에 있어서,
    상기 영상에 대한 상기 보정값은 상기 선택된 서브 영역의 중심과 상기 디스플레이 영역의 중심 간의 거리인 멀티미디어 컨텐츠 재생 장치.
  5. 제 1 항에 있어서,
    상기 음성에 대한 상기 보정값은 상기 음성 출력부에서 출력되는 각 채널간의 출력 이득 및 위상차인 멀티미디어 컨텐츠 재생 장치.
  6. 복수의 서브 영역으로 분할된 디스플레이 영역을 통해 영상을 디스플레이하는 단계;
    상기 디스플레이되는 영상에 대응하는 음성을 복수의 채널로 분리하여 출력하는 단계;
    사용자에 의해 선택된 서브 영역을 기준으로 상기 영상의 디스플레이 위치 및 상기 음성의 채널을 보정하기 위한 보정값을 계산하는 단계; 및
    상기 계산된 보정값을 근거로 하여 상기 영상의 디스플레이 위치 및 상기 음성의 채널을 보정하는 단계를 포함하는 멀티미디어 컨텐츠 재생 방법.
  7. 제 6 항에 있어서,
    상기 보정하는 단계는, 상기 선택된 서브 영역을 기준으로 상기 영상을 확대하는 단계를 포함하는 멀티미디어 컨텐츠 재생 방법.
  8. 제 6 항에 있어서,
    상기 보정하는 단계는, 상기 선택된 서브 영역의 영상을 상기 디스플레이 영역의 중심으로 이동시키는 멀티미디어 컨텐츠 재생 방법.
  9. 제 6 항에 있어서,
    상기 영상에 대한 상기 보정값은, 상기 선택된 서브 영역의 중심과 상기 디스플레이 영역의 중심 간의 거리인 멀티미디어 컨텐츠 재생 방법.
  10. 제 6 항에 있어서,
    상기 음성에 대한 상기 보정값은, 상기 음성 출력부에서 출력되는 각 채널 간의 출력 이득 및 위상차인 멀티미디어 컨텐츠 재생 방법.
KR1020060063153A 2006-07-05 2006-07-05 멀티미디어 컨텐츠 재생 장치 및 방법 KR100860964B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060063153A KR100860964B1 (ko) 2006-07-05 2006-07-05 멀티미디어 컨텐츠 재생 장치 및 방법
US11/655,823 US20080007654A1 (en) 2006-07-05 2007-01-22 System, method and medium reproducing multimedia content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060063153A KR100860964B1 (ko) 2006-07-05 2006-07-05 멀티미디어 컨텐츠 재생 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20080004311A true KR20080004311A (ko) 2008-01-09
KR100860964B1 KR100860964B1 (ko) 2008-09-30

Family

ID=38918784

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060063153A KR100860964B1 (ko) 2006-07-05 2006-07-05 멀티미디어 컨텐츠 재생 장치 및 방법

Country Status (2)

Country Link
US (1) US20080007654A1 (ko)
KR (1) KR100860964B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8817190B2 (en) * 2007-11-28 2014-08-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer program
US8400322B2 (en) * 2009-03-17 2013-03-19 International Business Machines Corporation Apparatus, system, and method for scalable media output
EP2751988A1 (en) * 2011-04-21 2014-07-09 Sony Mobile Communications AB Method and system for providing an improved audio experience for viewers of video
US9402095B2 (en) * 2013-11-19 2016-07-26 Nokia Technologies Oy Method and apparatus for calibrating an audio playback system
KR102582543B1 (ko) * 2016-03-10 2023-09-25 삼성전자주식회사 무선 전력 전송 장치 및 무선 전력 전송 장치의 동작 방법
JP7299213B2 (ja) * 2018-04-25 2023-06-27 株式会社Nttドコモ 情報処理装置
EP3847821A4 (en) * 2018-09-04 2022-05-25 Draftkings, Inc. SYSTEMS AND METHODS FOR DYNAMIC ADJUSTMENT OF DISPLAY CONTENT AND PARAMETERS ON A DISPLAY DEVICE

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69321575T3 (de) * 1993-03-22 2005-05-25 Sony Deutschland Gmbh Rundfunksignalempfänger
TW412732B (en) * 1998-01-16 2000-11-21 Hitachi Ltd Video apparatus with zoom-in magnifying functionand zoom location displaying method
KR100284768B1 (ko) * 1998-04-06 2001-03-15 윤종용 다화면비디오디스플레이시스템에서의오디오데이타처리장치
US20020033837A1 (en) * 2000-01-10 2002-03-21 Munro James A. Multiple-image viewer
JP2002077526A (ja) * 2000-08-23 2002-03-15 Fuji Photo Film Co Ltd 画像形成装置
JP2003304515A (ja) 2002-04-10 2003-10-24 Sumitomo Electric Ind Ltd 音声出力方法、端末装置及び双方向対話型システム
JP4521671B2 (ja) * 2002-11-20 2010-08-11 小野里 春彦 音源映像の表示領域からその音声を出力させる映像音声再生方法
US9009595B2 (en) * 2003-02-05 2015-04-14 Joseph P. Catanese User manipulation of video feed to computer screen regions
KR100971920B1 (ko) * 2003-06-02 2010-07-22 디즈니엔터프라이지즈,인크. 소비자용 비디오 플레이어를 위한 프로그램된 윈도우 제어시스템 및 방법
JP4208726B2 (ja) * 2004-01-14 2009-01-14 キヤノン株式会社 画像表示装置、画像表示方法および画像表示プログラム
JP4513357B2 (ja) * 2004-03-02 2010-07-28 セイコーエプソン株式会社 画像の出力に用いる出力装置に適した画像データの生成
JP4586389B2 (ja) * 2004-03-22 2010-11-24 セイコーエプソン株式会社 マルチ画面映像再生装置およびマルチ画面映像再生装置における映像再生方法
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
JP4637725B2 (ja) * 2005-11-11 2011-02-23 ソニー株式会社 音声信号処理装置、音声信号処理方法、プログラム
US20070282750A1 (en) * 2006-05-31 2007-12-06 Homiller Daniel P Distributing quasi-unique codes through a broadcast medium

Also Published As

Publication number Publication date
KR100860964B1 (ko) 2008-09-30
US20080007654A1 (en) 2008-01-10

Similar Documents

Publication Publication Date Title
KR100848597B1 (ko) 표시신호 제어장치, 및 표시신호 제어방법
KR100860964B1 (ko) 멀티미디어 컨텐츠 재생 장치 및 방법
US8761420B2 (en) Image processing apparatus and method and a recording medium
WO2011118838A1 (ja) 表示装置、制御装置、テレビジョン受像機、表示装置の制御方法、プログラム及び記録媒体
US8730405B2 (en) Display apparatus, remote controller, display control method, and control method
JP2007311942A (ja) コンテンツ表示装置
US20120301030A1 (en) Image processing apparatus, image processing method and recording medium
US20180241925A1 (en) Reception device, reception method, and program
JPWO2005122558A1 (ja) 画質制御装置、その方法、画質処理装置、それらのプログラム、および、そのプログラムを記録した記録媒体
US20180048846A1 (en) Image display apparatus
EP3468171B1 (en) Display apparatus and recording medium
JP2006005418A (ja) 情報受信・再生装置、情報受信・再生方法、情報受信・再生プログラム及びプログラム記録媒体
KR102505024B1 (ko) 디스플레이 장치
JP5071040B2 (ja) 情報処理装置、情報処理方法、プログラム並びに記録媒体
CN113689810B (zh) 图像显示设备及其方法
JP5157320B2 (ja) 番組同時視聴システム
JP2010258776A (ja) 音声信号処理装置
JP5037060B2 (ja) 子画面表示装置
JP2008278199A (ja) テレビジョン受信装置
JP2009027430A (ja) 動画再生装置
US20100164988A1 (en) Image Display Device and Image Display Method
WO2011013669A1 (ja) 表示装置、プログラム及びプログラムが記録されたコンピュータ読み取り可能な記憶媒体
KR101920640B1 (ko) 화상회의장치, 및 그 동작방법
JP2009092728A (ja) 画像表示装置、画像表示方法、及びプログラム
KR20090075252A (ko) 텔레비전의 음향 처리 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120830

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130829

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140828

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150828

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160830

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee