KR20140060682A - Multimedia device connected to at least one network interface and method for processing data in multimedia device - Google Patents

Multimedia device connected to at least one network interface and method for processing data in multimedia device Download PDF

Info

Publication number
KR20140060682A
KR20140060682A KR1020120127275A KR20120127275A KR20140060682A KR 20140060682 A KR20140060682 A KR 20140060682A KR 1020120127275 A KR1020120127275 A KR 1020120127275A KR 20120127275 A KR20120127275 A KR 20120127275A KR 20140060682 A KR20140060682 A KR 20140060682A
Authority
KR
South Korea
Prior art keywords
data
multimedia device
specific
module
user
Prior art date
Application number
KR1020120127275A
Other languages
Korean (ko)
Other versions
KR101992193B1 (en
Inventor
구본준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120127275A priority Critical patent/KR101992193B1/en
Publication of KR20140060682A publication Critical patent/KR20140060682A/en
Application granted granted Critical
Publication of KR101992193B1 publication Critical patent/KR101992193B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Abstract

A multimedia device and a control method thereof are disclosed in the present specification. According to an embodiment of the present invention, the multimedia device connected to at least one network interfaces comprises a first network interface module for receiving a broadcasting signal in which audio data and video data are multiplexed; a video processor for processing video data within the multiplexed broadcasting signal; an audio processor for processing the audio data within the multiplexed broadcasting signal; a display module for outputting the processed video data; a speaker for outputting the processed audio data; a detecting module for detecting the predetermined-specific event; a list generation module for generating a list including at least one stopped image data in which the predetermined-specific data is connected to the video data of the detected point; a controller for storing the integrated data in which the specific-stopped image data and random information are mapped within the list in a memory; and a second network interface module for transmitting the integrated data stored in the memory to an external device.

Description

적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스 및 그 제어 방법{MULTIMEDIA DEVICE CONNECTED TO AT LEAST ONE NETWORK INTERFACE AND METHOD FOR PROCESSING DATA IN MULTIMEDIA DEVICE}TECHNICAL FIELD [0001] The present invention relates to a multimedia device connected via at least one network interface and a control method thereof. [0002] MULTIMEDIA DEVICE CONNECTED TO AT LEAST ONE NETWORK INTERFACE AND METHOD FOR PROCESSING DATA IN MULTIMEDIA DEVICE [

본 발명은 멀티미디어 디바이스(예를 들어, TV, DTV, IPTV, 네트워크 TV, 스마트 TV 등)에 관한 것으로서, 보다 상세하게는 적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스 및 그 제어 방법의 구체적인 솔루션에 대한 것이다.The present invention relates to a multimedia device (for example, a TV, a DTV, an IPTV, a network TV, a smart TV, etc.), and more particularly to a specific solution of a multimedia device and a control method thereof connected to at least one network interface .

최근 멀티미디어 디바이스의 기술 발전에 따라, 여러개의 다양한 네트워크와 동시에 연결된 멀티미디어 디바이스가 등장하고 있다. 또한, 기존 멀티미디어 디바이스는 방송국으로부터 수신된 방송 데이터를 처리하는 기능 정도만을 탑재하고 있었으나, 현재 복수개의 소스로부터 수신한 데이터를 실시간으로 함께 처리하는 기술에 대한 논의도 활발히 진행되고 있다.Recently, with the development of multimedia devices, a variety of multimedia devices connected to various networks have emerged. In addition, existing multimedia devices have only the function of processing broadcast data received from a broadcasting station, but currently there is a growing discussion about a technique for processing data received from a plurality of sources together in real time.

본 발명의 일실시예가 이루고자 하는 기술적 과제는, 외부 소스로부터 수신된 비디오 데이터와 임의로 입력된 정보를 맵핑하여 신속히 메모리에 저장하는 인터페이스를 제공하는 것이다.An embodiment of the present invention is to provide an interface for mapping video data received from an external source and arbitrarily input information and storing them in a memory in a short time.

또한, 본 발명의 다른 일실시예가 이루고자 하는 기술적 과제는, 하나의 통합 데이터를 생성하는 과정에서 다양한 메쏘드(method)를 통해 유저가 원하는 정보를 비디오 데이터와 맵핑하는 솔루션을 제공하는 것이다.According to another aspect of the present invention, there is provided a solution for mapping desired information to video data through various methods in the process of generating one integrated data.

나아가, 본 발명의 또 다른 일실시예가 이루고자 하는 기술적 과제는, 상기 하나의 통합 데이터를 편집하는 과정에서, 유저에게 보다 편리하고 신속한 GUI(Graphic User Interface) 기술을 제공하는 것이다.Further, another object of the present invention is to provide a GUI (Graphic User Interface) technique that is more convenient and quick for a user in editing the one integrated data.

그리고, 본 발명의 또 다른 일실시예가 이루고자 하는 기술적 과제는, 새롭게 생성된 상기 하나의 통합 데이터를 특정 디바이스 또는 그룹에게 실시간으로 전달하는 방법을 제공하는 것이다.According to another aspect of the present invention, there is provided a method for delivering newly created integrated data to a specific device or group in real time.

본 발명의 일실시예에 의한 적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스는, 오디오 데이터 및 비디오 데이터가 멀티플렉싱 되어 있는 방송 신호를 수신하는 제1네트워크 인터페이스 모듈과, 상기 멀티플렉싱 되어 있는 방송 신호내 비디오 데이터를 처리하는 비디오 프로세서와, 상기 멀티플렉싱 되어 있는 방송 신호내 오디오 데이터를 처리하는 오디오 프로세서와, 상기 처리된 비디오 데이터를 출력하는 디스플레이 모듈과, 상기 처리된 오디오 데이터를 출력하는 스피커와, 기설정된 특정 이벤트를 디텍트 하는 디텍팅 모듈과, 상기 기설정된 특정 이벤트가 디텍트된 시점의 비디오 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터를 포함하는 리스트를 생성하는 리스트 생성 모듈과, 상기 리스트내 특정 정지영상 데이터와 임의의 정보를 맵핑한 상태의 통합 데이터를, 메모리에 저장시키는 컨트롤러와, 그리고 상기 메모리에 저장되어 있는 통합 데이터를, 외부 디바이스로 전송하는 제2네트워크 인터페이스 모듈을 포함한다.A multimedia device connected to at least one network interface according to an embodiment of the present invention includes a first network interface module for receiving a broadcast signal in which audio data and video data are multiplexed and a second network interface module for receiving video data in the multiplexed broadcast signal A speaker for outputting the processed audio data; a display module for outputting the processed video data; a speaker for outputting the processed audio data; A list generating module for generating a list including at least one still image data associated with the video data at a time point at which the preset specific event is detected; The image data and any state data integration of the mapping information, and the controller for storage in the memory, and a second network interface module for transmitting the integrated data stored in the memory, to the external device.

그리고, 본 발명의 일실시예에 의한 적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스의 제어 방법은, 제1네트워크 인터페이스를 통해, 외부로부터 수신된 동영상 데이터를 디스플레이 하는 단계와, 기설정된 특정 이벤트를 디텍트하는 단계와, 상기 동영상 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터를 포함하는 리스트를 출력하는 단계와, 상기 리스트내 특정 정지영상 데이터와 임의의 정보를 맵핑한 상태의 통합 데이터를, 메모리에 저장시키는 단계와, 그리고 상기 메모리에 저장되어 있는 통합 데이터를, 제2네트워크 인터페이스를 통해 외부 디바이스로 전송하는 단계를 포함한다.A method of controlling a multimedia device connected to at least one network interface according to an exemplary embodiment of the present invention includes displaying video data received from an external device through a first network interface, Outputting a list including at least one still image data associated with the moving image data; and storing integrated data in a state in which specific still image data in the list is mapped with arbitrary information, in a memory And transmitting the integrated data stored in the memory to an external device via a second network interface.

본 발명의 일실시예에 의하면, 외부 소스로부터 수신된 비디오 데이터와 임의로 입력된 정보를 맵핑하여 신속히 메모리에 저장하는 인터페이스를 제공한다.According to an embodiment of the present invention, there is provided an interface for mapping video data received from an external source and arbitrarily inputted information and storing them in a memory in a short time.

또한, 본 발명의 다른 일실시예에 의하면, 하나의 통합 데이터를 생성하는 과정에서 다양한 메쏘드(method)를 통해 유저가 원하는 정보를 비디오 데이터와 맵핑하는 솔루션을 제공한다.According to another embodiment of the present invention, there is provided a solution for mapping desired information to video data through various methods in the process of generating one integrated data.

나아가, 본 발명의 또 다른 일실시예에 의하면, 상기 하나의 통합 데이터를 편집하는 과정에서, 유저에게 보다 편리하고 신속한 GUI(Graphic User Interface) 기술을 제공한다.Further, according to another embodiment of the present invention, a graphical user interface (GUI) technique is provided to the user in a process of editing the integrated data.

그리고, 본 발명의 또 다른 일실시예에 의하면, 새롭게 생성된 상기 하나의 통합 데이터를 특정 디바이스 또는 그룹에게 실시간으로 전달하는 방법을 제공한다.According to another embodiment of the present invention, there is provided a method for delivering newly created integrated data to a specific device or group in real time.

도 1은 본 발명의 일실시예에 의한 멀티미디어 디바이스의 구성요소들을 상세히 도시한 블록도이다.
도 2는 도 1에 도시된 제어부를 보다 상세히 도시한 블록도이다.
도 3은 본 발명의 일실시예에 의한 리모트 컨트롤러의 외관을 간략히 도시한 도면이다.
도 4는 도 3에 도시된 리모트 컨트롤러의 구성요소들을 상세히 도시한 블록도이다.
도 5는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스의 구성요소들을 상세히 도시한 블록도이다.
도 6은 도 5에 도시된 디텍팅 모듈을 보다 상세히 도시한 블록도이다.
도 7은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 유저로부터 파생되는 보이스 시그널을 디텍트 하는 과정을 도시한 도면이다.
도 8은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 유저의 특정 제스쳐를 디텍트 하는 과정을 도시한 도면이다.
도 9는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 리모트 컨트롤로부터 전송되는 특정 커맨드를 디텍트 하는 과정을 도시한 도면이다.
도 10은 도 7 내지 도 9에 도시된 실시예에 따라 특정 커맨드가 디텍트된 경우, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 출력하는 스크린을 도시하고 있다.
도 11은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 제공하는 캡쳐된 이미지의 리스트를 설명하기 위한 도면이다.
도 12는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 제공하는 메모 영역을 적어도 2개 이상으로 분할하는 프로세스를 설명하기 위한 도면이다.
도 13은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 입력하는 일예를 설명하기 위한 프로세스 도면이다.
도 14는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 입력하는 다른 일예를 설명하기 위한 프로세스 도면이다.
도 15는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 입력하는 또 다른 일예를 설명하기 위한 프로세스 도면이다.
도 16은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지를 에디팅(Editing) 하는 프로세스를 설명하기 위한 도면이다.
도 17은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 보이스 시그널을 입력하는 일예를 설명하는 도면이다.
도 18은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지를 포함하는 통합 데이터를, 임의의 메모리에 저장하는 프로세스를 설명하기 위한 도면이다.
도 19는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지를 포함하는 통합 데이터를, 임의의 디바이스 또는 그룹에 전송하는 프로세스를 설명하기 위한 도면이다.
도 20은 멀티미디어 디바이스를 제어하는 일실시예를 설명하기 위한 플로우 차트이다.
도 21은 도 20에 도시된 S2030 단계를 보다 상세히 기술하는 플로우 차트이다.
그리고, 도 22는 멀티미디어 디바이스를 제어하는 다른 일실시예를 설명하기 위한 플로우 차트이다.
1 is a detailed block diagram of components of a multimedia device according to an exemplary embodiment of the present invention.
FIG. 2 is a block diagram showing the control unit shown in FIG. 1 in more detail.
3 is a view schematically showing an appearance of a remote controller according to an embodiment of the present invention.
4 is a detailed block diagram of the components of the remote controller shown in FIG.
FIG. 5 is a detailed block diagram of components of a multimedia device according to another embodiment of the present invention. Referring to FIG.
6 is a block diagram showing the detec- tion module shown in Fig. 5 in more detail.
7 is a diagram illustrating a process of detecting a voice signal derived from a user by a multimedia device according to another embodiment of the present invention.
8 is a diagram illustrating a process of detecting a specific gesture of a user by the multimedia device according to another embodiment of the present invention.
9 is a diagram illustrating a process in which a multimedia device according to another embodiment of the present invention detects a specific command transmitted from a remote control.
FIG. 10 shows a screen output by the multimedia device according to another embodiment of the present invention when a specific command is detected according to the embodiment shown in FIG. 7 to FIG.
11 is a view for explaining a list of captured images provided by a multimedia device according to another embodiment of the present invention.
12 is a view for explaining a process of dividing a memo area provided by a multimedia device into at least two or more memo areas according to another embodiment of the present invention.
13 is a process diagram for explaining an example in which a multimedia device according to another embodiment of the present invention inputs text data for mapping with a captured image.
14 is a process diagram for explaining another example in which a multimedia device according to another embodiment of the present invention inputs text data for mapping with a captured image.
15 is a process diagram for explaining another example in which a multimedia device according to another embodiment of the present invention inputs text data for mapping with a captured image.
16 is a diagram for explaining a process of editing a captured image by a multimedia device according to another embodiment of the present invention.
17 is a view for explaining an example of inputting a voice signal for mapping a captured image with a multimedia device according to another embodiment of the present invention.
18 is a diagram for explaining a process of storing the integrated data including the captured image in a random memory according to another embodiment of the present invention.
FIG. 19 is a diagram for explaining a process in which a multimedia device according to another embodiment of the present invention transmits integrated data including a captured image to an arbitrary device or group. FIG.
20 is a flowchart for explaining an embodiment for controlling a multimedia device.
FIG. 21 is a flowchart detailing step S2030 shown in FIG.
22 is a flowchart for explaining another embodiment for controlling the multimedia device.

이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for ease of description, and the" module "and" part "

한편, 본 명세서에서 기술되는 멀티미디어 디바이스는, 예컨대 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 전자 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린, 터치 패드 또는 공간 리모컨 등보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.Meanwhile, the multimedia device described in this specification is an intelligent electronic device that adds a computer support function to a broadcast reception function, for example, and is equipped with an Internet function while being faithful to a broadcast reception function, A pad or a space remote controller. With the support of wired or wireless internet function, it can be connected to internet and computer and can perform functions such as e-mail, web browsing, banking or game. A standardized general-purpose OS can be used for these various functions.

따라서, 본 발명에서 기술되는 멀티미디어 디바이스는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 멀티미디어 디바이스는, 보다 구체적으로 예를 들면, 인터넷 TV, IPTV, 네트워크 TV, HBBTV, 스마트 TV 및 오픈하이브리드TV(OHTV) 등이 될 수 있으며, 경우에 따라 스마트폰, PC 및 가전기기에도 적용 가능하다.Accordingly, the multimedia device described in the present invention can perform various user-friendly functions because various applications can be freely added or deleted on a general-purpose OS kernel, for example. More specifically, the multimedia device may be, for example, an Internet TV, an IPTV, a network TV, an HBBTV, a smart TV, and an open hybrid TV (OHTV), and may be applied to a smart phone, a PC, Do.

나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.As used herein, terms used in the present invention are selected from general terms that are widely used in the present invention while taking into account the functions of the present invention, but these may vary depending on the intention or custom of a person skilled in the art or the emergence of new technologies. In addition, in certain cases, there may be a term arbitrarily selected by the applicant, in which case the meaning thereof will be described in the description of the corresponding invention. Therefore, it is intended that the terminology used herein should be interpreted based on the meaning of the term rather than on the name of the term, and on the entire contents of the specification.

도 1은 본 발명의 일실시예에 의한 멀티미디어 디바이스의 구성요소들을 상세히 도시한 블록도이다.1 is a detailed block diagram of components of a multimedia device according to an exemplary embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일실시예에 의한 멀티미디어 디바이스(100)는, 방송 수신 모듈(101), 복조부(102), 네트워크 인터페이스(103), 외부 장치 인터페이스(104), 메모리(105), 제어부(106), 비디오 출력부(107), 오디오 출력부(108), 전원 공급부(109) 그리고 사용자 인터페이스(111) 등을 포함하여 이루어 진다. 한편, 상기 멀티미디어 디바이스(100)는, 리모트 컨트롤러(110)와 데이터 통신이 이루어 지도록 설계되어 있으며, 상기 리모트 컨트롤러(110)에 대해서는 도 3 및 도 4를 참조하여 상세히 후술하도록 하겠다.1, a multimedia device 100 according to an exemplary embodiment of the present invention includes a broadcast receiving module 101, a demodulator 102, a network interface 103, an external device interface 104, A control unit 106, a video output unit 107, an audio output unit 108, a power supply unit 109, a user interface 111, and the like. Meanwhile, the multimedia device 100 is designed to perform data communication with the remote controller 110, and the remote controller 110 will be described later in detail with reference to FIG. 3 and FIG.

상기 방송 수신 모듈(101)은, 예컨대 RF 튜너로 설계할 수도 있고 또는 STB 등 외부 디바이스로부터 방송 데이터를 수신하는 인터페이스로 설계 가능하다.The broadcast receiving module 101 can be designed, for example, as an RF tuner or an interface for receiving broadcast data from an external device such as a STB.

상기 방송 수신 모듈(101)은, 예를 들어 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.The broadcast receiving module 101 may receive an RF broadcast signal of a single carrier according to an Advanced Television System Committee (ATSC) scheme or an RF broadcast signal of a plurality of carriers according to a DVB (Digital Video Broadcasting) scheme.

상기 복조부(102)는, 방송 수신 모듈(101)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.The demodulator 102 receives the digital IF signal DIF converted by the broadcast receiving module 101 and performs a demodulation operation.

예를 들어, 방송 수신 모듈(101)에서 출력되는 디지털 IF 신호가 ATSC 방식인경우, 복조부(102)는 예컨대, 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(102)는 채널 복호화를 수행할 수도 있다. For example, when the digital IF signal output from the broadcast receiving module 101 is of the ATSC scheme, the demodulator 102 performs 8-VSB (8-Vestigal Side Band) demodulation, for example. Also, the demodulator 102 may perform channel decoding.

외부장치 인터페이스(104)는 외부 장치와 멀티미디어 디바이스(100)간 데이터 통신이 가능하게 하는 인터페이스이다. 외부장치 인터페이스(104)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), STB 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스(104)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 제어부(106)로 전달한다. 또한, 제어부(206)에서 처리된 영상, 음성 또는 데이터신호를, 외부 장치로 출력할 수 있다.The external device interface 104 is an interface that enables data communication between the external device and the multimedia device 100. The external device interface 104 can be connected to an external device such as a DVD (Digital Versatile Disk), a Blu ray, a game device, a camera, a camcorder, a computer (notebook) The external device interface 104 transmits external video, audio, or data signals to the control unit 106 through a connected external device. Also, the control unit 206 can output the video, audio, or data signal processed by the control unit 206 to an external device.

상기 외부 장치 인터페이스(104)는, 예를 들어 USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.The external device interface 104 may include a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), a DVI (Digital Visual Interface) terminal, Terminal, an RGB terminal, a D-SUB terminal, and the like.

네트워크 인터페이스(103)는, 멀티미디어 디바이스(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스(103)는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.The network interface 103 provides an interface for connecting the multimedia device 100 to a wired / wireless network including the Internet network. The network interface 103 may include an Ethernet terminal or the like for connection to a wired network and may be a WLAN (Wireless LAN) (Wi-Fi ), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access) communication standards.

네트워크 인터페이스(103)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. The network interface 103 can transmit or receive data to another user or other electronic device via the network to which it is connected or another network linked to the connected network.

메모리(105)는, 제어부(106) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다. 또한, 메모리(105)는 외부장치 인터페이스(104) 또는 네트워크 인터페이스(103)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 메모리(105)는, 예를 들어 다양한 OS, 미들웨어 및 플랫폼을 저장하고 있다.The memory 105 may store a program for each signal processing and control in the control unit 106, and may store signal-processed video, audio, or data signals. The memory 105 may also function for temporary storage of video, audio, or data signals input from the external device interface 104 or the network interface 103. [ The memory 105 also stores various OSs, middleware, and platforms, for example.

사용자 인터페이스(111)는, 사용자가 입력한 신호를 제어부(106)로 전달하거나, 제어부(106)로부터의 신호를 외부 디바이스(예를 들어, 리모트 컨트롤러(110))로 전송한다. 예를 들어, 사용자 인터페이스(111)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 리모트 컨트롤러(110)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(106)로부터의 제어 신호를 리모트 컨트롤러(110)로 송신하도록 설계되어 있다.The user interface 111 transmits a signal input by the user to the control unit 106 or transmits a signal from the control unit 106 to an external device (for example, the remote controller 110). For example, the user interface 111 may be provided with various functions such as power on / off, channel selection, screen setting, and the like from the remote controller 110 according to various communication methods such as a radio frequency (RF) communication method and an infrared And is designed to receive and process a control signal or transmit a control signal from the control unit 106 to the remote controller 110. [

상기 제어부(106)는, 방송 수신 모듈(101), 복조부(102), 네트워크 인터페이스(103) 또는 외부장치 인터페이스(104)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. 상기 제어부(106)에 대해서는 도 2를 참조하여 보다 상세히 후술하도록 하겠다.The control unit 106 demultiplexes the input stream or processes the demultiplexed signals through the broadcast receiving module 101, the demodulating unit 102, the network interface 103, or the external device interface 104 , And can generate and output signals for video or audio output. The control unit 106 will be described later in detail with reference to FIG.

상기 비디오 출력부(107)는, 제어부(106)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스(104)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성한다. 상기 비디오 출력부(107)는, PDP, LCD, OLED, 플렉시블 디스플레이 (flexible display), 3차원 디스플레이(3D display) 등이 가능하다.The video output unit 107 converts a video signal, a data signal, an OSD signal processed by the control unit 106, a video signal and a data signal received from the external device interface 104 into R, G, and B signals, respectively Thereby generating a driving signal. The video output unit 107 may be a PDP, an LCD, an OLED, a flexible display, a 3D display, or the like.

상기 오디오 출력부(108)는, 제어부(106)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1채널 신호 또는 5.1채널 신호를 입력받아 음성으로 출력한다. 음성 출력부(108)는 다양한 형태의 스피커로 구현될 수 있다.The audio output unit 108 receives a signal processed by the control unit 106, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs the audio signal. The audio output unit 108 may be implemented by various types of speakers.

그리고, 전원 공급부(109)는, 멀티미디어 디바이스(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip, SOC)의 형태로 구현될 수 있는 제어부(106)와, 영상 표시를 위한 비디오 출력부(107) 및 오디오 출력을 위한 오디오 출력부(108)에 전원을 공급할 수 있다.The power supply unit 109 supplies corresponding power to the multimedia device 100. In particular, a control unit 106 that can be implemented in the form of a system-on-chip (SOC), a video output unit 107 for video display, and an audio output unit 108 for audio output .

특히, 본 발명의 실시예와 관련하여 설명하면 다음과 같다.Particularly, the following description will be given in connection with the embodiment of the present invention.

제어부(106)의 제어에 따라, 네트워크 인터페이스(103)는 특정 서버에 접속한다. 나아가, 상기 특정 서버로부터 수신한 IR 코드값들은 메모리(105)에 저장되도록 설계한다. 한편, 상기 IR 코드값들은, 외부 장치 인터페이스(104)로 연결된 전자 디바이스를 컨트롤 하기 위해 필요한 값들이다.Under the control of the control unit 106, the network interface 103 connects to a specific server. Further, the IR code values received from the specific server are designed to be stored in the memory 105. On the other hand, the IR code values are values necessary for controlling the electronic device connected to the external device interface 104.

마지막으로, 리모트 컨트롤러(110)의 요청에 따라, 특정 전자 디바이스의 특정 기능에 대응하는 IR 코드값은, 상기 사용자 인터페이스(111)를 통해 상기 리모트 컨트롤러(110)로 전송된다. 전술하여 설명한 바와 같이, 이 때 블루투스 통신 방식이 채용될 수 있다.Lastly, the IR code value corresponding to the specific function of the specific electronic device is transmitted to the remote controller 110 through the user interface 111 at the request of the remote controller 110. As described above, the Bluetooth communication method can be employed at this time.

도 2는 도 1에 도시된 제어부를 보다 상세히 도시한 블록도이다.FIG. 2 is a block diagram showing the control unit shown in FIG. 1 in more detail.

도 2에 도시된 바와 같이, 멀티미디어 디바이스의 제어부(206)는, 역다중화부(210), 영상처리부(220), OSD 생성부(240), 믹서(250), 프레임 레이트 변환부(255) 그리고 포맷터(260) 등을 포함한다. 또한, 음성 처리부(미도시), 데이터 처리부(미도시)를 더 포함하도록 설계하는 것도 본 발명의 권리범위에 속한다.2, the control unit 206 of the multimedia device includes a demultiplexing unit 210, an image processing unit 220, an OSD generating unit 240, a mixer 250, a frame rate converting unit 255, A formatter 260, and the like. It is also within the scope of the present invention to further design a voice processing unit (not shown) and a data processing unit (not shown).

상기 역다중화부(210)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. The demultiplexer 210 demultiplexes the input stream. For example, when an MPEG-2 TS is input, it can be demultiplexed into video, audio, and data signals, respectively.

영상 처리부(220)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(220)는, 영상 디코더(225) 및 스케일러(235)를 구비할 수 있다. 상기 영상 디코더(225)는, 역다중화된 영상신호를 복호화하며, 상기 스케일러(235)는, 복호화된 영상신호의 해상도를 비디오 출력부에서 출력 가능하도록 스케일링(scaling)을 수행한다. 그리고, 영상 처리부(220)에서 복호화된 영상 신호는, 믹서(250)로 입력된다.The image processing unit 220 may perform image processing of the demultiplexed image signal. To this end, the image processing unit 220 may include a video decoder 225 and a scaler 235. The video decoder 225 decodes the demultiplexed video signal, and the scaler 235 performs scaling so that the resolution of the decoded video signal can be output from the video output unit. The video signal decoded by the video processing unit 220 is input to the mixer 250.

OSD 생성부(240)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 따라서, 믹서(250)는, OSD 생성부(240)에서 생성된 OSD 신호와 영상처리부(220)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다.The OSD generation unit 240 generates an OSD signal according to a user input or by itself. Accordingly, the mixer 250 can mix the OSD signal generated by the OSD generator 240 and the decoded video signal processed by the image processor 220. [

믹싱된 신호는 포맷터(260)에 제공된다. 복호화된 방송 영상 신호 또는 외부 입력 신호와 OSD 신호가 믹싱됨으로 인하여, 방송 영상 또는 외부 입력 영상 상에 OSD 가 오버레이 되어 표시될 수 있게 된다.The mixed signal is provided to formatter 260. Since the decoded broadcast video signal or the external input signal and the OSD signal are mixed, the OSD can be overlaid on the broadcast image or the external input image.

프레임 레이트 변환부(Frame Rate Conveter; FRC)(255)는, 입력되는 영상의 프레임 레이트를 변환할 수 있다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz로 변환한다. A frame rate converter (FRC) 255 can convert a frame rate of an input image. For example, a frame rate of 60 Hz is converted to 120 Hz or 240 Hz.

그리고, 포맷터(260)는, 프레임 레이트 변환부(255)의 출력 신호를 입력받아, 비디오 출력부에 적합하도록 신호의 포맷을 변경하여 출력한다. 예를 들어, R, G, B 데이터 신호를 출력할 수 있으며, 이러한 R, G, B 데이터 신호는, 낮은 전압 차분 신호(Low voltage differential signaling, LVDS) 또는 mini-LVDS로 출력될 수 있다.The formatter 260 receives the output signal of the frame rate conversion unit 255, changes the format of the signal so as to be suitable for the video output unit, and outputs the signal. For example, the R, G, and B data signals may be output as low voltage differential signaling (LVDS) signals or mini-LVDS signals.

본 발명의 일실시예에 의한 리모트 컨트롤러가 컨트롤 하고자 하는 전자 디바이스 및 기능을 선택하기 위한 OSD 는, 전술한 OSD 생성부(240)에서 생성된다. 그리고, 일반 방송 화면과 상기 OSD 가 오버레이된 형태를 만들기 위하여, 전술한 믹서(250)를 추가 설계한다.An OSD for selecting an electronic device and a function to be controlled by a remote controller according to an embodiment of the present invention is generated by the OSD generation unit 240 described above. Further, the mixer 250 described above is additionally designed to make the general broadcast screen and the OSD overlaid.

도 3은 본 발명의 일실시예에 의한 리모트 컨트롤러의 외관을 간략히 도시한 도면이다.3 is a view schematically showing an appearance of a remote controller according to an embodiment of the present invention.

도 3의 (a)에 도시된 바와 같이, 멀티미디어 디바이스(300)의 스크린 상에, 리모트 컨트롤러(310)의 움직임에 대응하는 포인터(301)가 표시된다. 사용자는 리모트 컨트롤러(310)를 좌우(도 3의 (b)), 상하(도 3의 (c))로 움직이거나 회전할 수 있다. 이와 같은 리모트 컨트롤러(310)는, 3D 공간상의 움직임에 따라 해당 포인터(301)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수도 있다.A pointer 301 corresponding to the movement of the remote controller 310 is displayed on the screen of the multimedia device 300 as shown in FIG. The user can move or rotate the remote controller 310 left and right (FIG. 3 (b)) or up and down (FIG. 3 (c)). In such a remote controller 310, since the pointer 301 is moved and displayed according to the movement in the 3D space, it may be called a space remote controller.

도 3의 (b)에 도시된 바와 같이, 사용자가 리모트 컨트롤러(310)를 왼쪽으로 이동 시키면, 멀티미디어 디바이스(300)의 스크린 상에 표시된 포인터(301)도 왼쪽으로 이동한다. 한편, 리모트 컨트롤러(310)의 센서를 통하여 감지된 리모트 컨트롤러(310)의 움직임에 관한 정보는 멀티미디어 디바이스(300)로 전송된다. 상기 멀티미디어 디바이스(300)는, 리모트 컨트롤러(310)의 움직임에 관한 정보로부터 포인터(301)의 좌표를 산출할 수 있다. 상기 멀티미디어 디바이스(300)는, 산출한 좌표에 대응하도록 포인터(301)를 표시할 수 있다.3 (b), when the user moves the remote controller 310 to the left, the pointer 301 displayed on the screen of the multimedia device 300 also moves to the left. Information on the movement of the remote controller 310 sensed through the sensor of the remote controller 310 is transmitted to the multimedia device 300. The multimedia device 300 can calculate the coordinates of the pointer 301 from the information on the motion of the remote controller 310. [ The multimedia device 300 may display the pointer 301 so as to correspond to the calculated coordinates.

한편, 도 3의 (c)에 도시된 바와 같이, 사용자가 리모트 컨트롤러(310)를 아래쪽으로 이동 시키면, 멀티미디어 디바이스(300)의 스크린 상에 표시된 포인터(301)도 아래쪽으로 이동한다. 3 (c), when the user moves the remote controller 310 downward, the pointer 301 displayed on the screen of the multimedia device 300 also moves downward.

따라서, 본 발명의 일실시예에 의한 리모트 컨트롤러(310)를 이용하여, 상기 멀티미디어 디바이스(300)의 스크린내 특정 영역을 신속하게 선택하는 것이 가능하다.Therefore, it is possible to quickly select a specific area on the screen of the multimedia device 300 using the remote controller 310 according to an embodiment of the present invention.

도 4는 도 3에 도시된 리모트 컨트롤러의 구성요소들을 상세히 도시한 블록도이다.4 is a detailed block diagram of the components of the remote controller shown in FIG.

도 4에 도시된 바와 같이, 리모트 컨트롤러(410)는, 무선통신부(414), 사용자 입력부(415), 센서부(417), 출력부(416), 전원공급부(411), 저장부(412), 그리고 제어부(413) 등을 포함한다.4, the remote controller 410 includes a wireless communication unit 414, a user input unit 415, a sensor unit 417, an output unit 416, a power supply unit 411, a storage unit 412, And a control unit 413, and the like.

무선통신부(414)는 임의의 외부 장치와 통신 가능하도록 설계된다. 특히, 본 발명의 일실시예에 의하면, RF 모듈(414a)은 멀티미디어 디바이스(400)와 데이터 통신이 이루어 지도록 설계하고, IR 모듈(414b)은 외부 전자 장치(예를 들어 STB)와 적외선 통신이 이루어 지도록 설계한다.The wireless communication unit 414 is designed to be capable of communicating with any external device. In particular, according to an embodiment of the present invention, the RF module 414a is designed to perform data communication with the multimedia device 400, and the IR module 414b is configured to communicate with an external electronic device (e.g., STB) .

따라서, 멀티미디어 디바이스(400)로부터 수신한 IR 적외선 코드값을, STB로 포워딩 하는 중계기 역할을 수행하도록, 리모트 컨트롤러(410)를 구현하는 것이 가능하다.Accordingly, it is possible to implement the remote controller 410 to perform the role of a repeater for forwarding the IR infrared code value received from the multimedia device 400 to the STB.

나아가, 본 발명의 일실시예에 의하면, 리모트 컨트롤러(410)는, 멀티미디어 디바이스(400)로, 리모트 컨트롤러(410)의 움직임 등에 관한 정보가 담긴 신호를 RF 모듈(414a)을 통하여 전송한다.In addition, according to one embodiment of the present invention, the remote controller 410 transmits a signal containing information on the motion of the remote controller 410 to the multimedia device 400 through the RF module 414a.

또한, 리모트 컨트롤러(410)는, 멀티미디어 디바이스(400)가 전송한 신호를 RF 모듈(414a)을 통하여 수신할 수 있다. 또한, 리모트 컨트롤러(410)는 필요에 따라 IR 모듈(414b)을 통하여 멀티미디어 디바이스(400)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.In addition, the remote controller 410 can receive the signal transmitted by the multimedia device 400 through the RF module 414a. In addition, the remote controller 410 can transmit commands to the multimedia device 400 via the IR module 414b, such as power on / off, channel change, volume change, and the like, if necessary.

사용자 입력부(415)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. The user input unit 415 may include a keypad, a button, a touch pad, or a touch screen.

센서부(417)는 자이로 센서(417a) 또는 가속도 센서(417b)를 구비할 수 있다. 자이로 센서(417a)는 리모트 컨트롤러(410)의 움직임에 관한 정보를 센싱할 수 있다. 일례로, 자이로 센서(417a)는 리모트 컨트롤러(410)의 동작에 관한 정보를 x, y, z 축을 기준으로 센싱할 수 있다. 가속도 센서(417b)는 리모트 컨트롤러(410)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리측정센서를 더 구비할 수 있으며, 이에 의해, 멀티미디어 디바이스(400)와의 거리를 센싱할 수 있다.The sensor unit 417 may include a gyro sensor 417a or an acceleration sensor 417b. The gyro sensor 417a can sense information about the motion of the remote controller 410. [ For example, the gyro sensor 417a can sense information about the operation of the remote controller 410 on the basis of the x, y, and z axes. The acceleration sensor 417b can sense information on the moving speed of the remote controller 410 and the like. Meanwhile, a distance measuring sensor may be additionally provided, so that the distance to the multimedia device 400 can be sensed.

출력부(416)는 사용자 입력부(415)의 조작에 대응하거나 멀티미디어 디바이스(400)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 일례로, 출력부(416)는 사용자 입력부(415)가 조작되거나 무선 통신부(414)를 통하여 멀티미디어 디바이스(400)와 신호가 송수신 되면 점등되는 LED 모듈(416a), 진동을 발생하는 진동 모듈(416b), 음향을 출력하는 음향 출력 모듈(416c), 또는 영상을 출력하는 디스플레이 모듈(416d)을 구비할 수 있다.The output unit 416 may output an image or voice signal corresponding to an operation of the user input unit 415 or a signal transmitted from the multimedia device 400. [ For example, the output unit 416 includes an LED module 416a that is turned on when a user input unit 415 is operated or a signal is transmitted to or received from the multimedia device 400 through the wireless communication unit 414, a vibration module 416b An audio output module 416c for outputting sound, or a display module 416d for outputting an image.

전원공급부(411)는 리모트 컨트롤러(410)의 각 구성요소에 전원을 공급한다. 전원공급부(411)는 리모트 컨트롤러(410)가 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. The power supply unit 411 supplies power to each component of the remote controller 410. The power supply unit 411 can reduce the power waste by interrupting the power supply when the remote controller 410 has not moved for a predetermined time.

저장부(412)는 리모트 컨트롤러(410)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 그리고, 제어부(413)는 리모트 컨트롤러(410)의 제어에 관련된 제반사항을 제어한다. 예를 들어, 상기 제어부(413)는, 사용자 입력부(415)의 소정 키 조작에 대응하는 신호 또는 센서부(417)에서 센싱한 리모트 컨트롤러(410)의 움직임에 대응하는 신호를 무선 통신부(414)를 통하여 멀티미디어 디바이스(400) 또는 STB로 전송할 수 있다.The storage unit 412 may store various types of programs, application data, and the like necessary for the control or operation of the remote controller 410. The control unit 413 controls various matters related to the control of the remote controller 410. For example, the control unit 413 transmits a signal corresponding to a predetermined key operation of the user input unit 415 or a signal corresponding to the motion of the remote controller 410 sensed by the sensor unit 417 to the radio communication unit 414, To the multimedia device 400 or to the STB.

도 5는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스의 구성요소들을 상세히 도시한 블록도이다. 이전 도 1 내지 도 4에서 설명한 실시예들을 참고하여, 도 5에 도시된 멀티미디어 디바이스의 일부 구성요소를 삭제하거나 추가하는 것도 본 발명의 권리범위에 속한다.FIG. 5 is a detailed block diagram of components of a multimedia device according to another embodiment of the present invention. Referring to FIG. It is also within the scope of the present invention to delete or add some components of the multimedia device shown in Fig. 5, with reference to the embodiments described in Figs. 1 to 4 above.

우선, 도 5에 도시된 바와 같이, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스는, 제1네트워크 인터페이스 모듈(510), 디스플레이 모듈(520), 비디오 프로세서(530), 오디오 프로세서(540), 스피커(550), 컨트롤러(560), 제2네트워크 인터페이스 모듈(570), 디텍팅 모듈(580), 리스트 생성 모듈(590) 그리고 메모리(500)등을 포함하여 이루어 진다. 나아가, 상기 컨트롤러(560)는 OCR(Optical Character Recognition) 모듈(561)을 추가적으로 포함하도록 설계할 수도 있다.5, a multimedia device according to another embodiment of the present invention includes a first network interface module 510, a display module 520, a video processor 530, an audio processor 540, A speaker 550, a controller 560, a second network interface module 570, a detection module 580, a list generation module 590, a memory 500, and the like. Further, the controller 560 may be designed to additionally include an OCR (Optical Character Recognition) module 561.

도 1에 도시된 적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스의 상기 제1네트워크 인터페이스 모듈(510)은, 오디오 데이터 및 비디오 데이터가 멀티플렉싱 되어 있는 방송 신호를 수신한다.The first network interface module 510 of the multimedia device connected to at least one network interface shown in FIG. 1 receives a broadcast signal in which audio data and video data are multiplexed.

상기 비디오 프로세서(530)는, 상기 멀티플렉싱 되어 있는 방송 신호내 비디오 데이터를 처리하고, 상기 오디오 프로세서(540)는 상기 멀티플렉싱 되어 있는 방송 신호내 오디오 데이터를 처리한다.The video processor 530 processes the video data in the multiplexed broadcast signal, and the audio processor 540 processes the audio data in the multiplexed broadcast signal.

상기 디스플레이 모듈(520)은, 상기 처리된 비디오 데이터를 출력하고, 상기 스피커(550)는 상기 처리된 오디오 데이터를 출력한다.The display module 520 outputs the processed video data, and the speaker 550 outputs the processed audio data.

상기 디텍팅 모듈(580)은, 기설정된 특정 이벤트를 디텍트 하도록 설계되며, 상기 디텍팅 모듈(580)의 구체적인 구현 방법 및 실시예 등에 대해서는, 이하 도 6 내지 도 9를 참조하여 보다 상세히 후술하도록 하겠다.The detec- ting module 580 is designed to detect a preset specific event, and a concrete implementation method and an embodiment of the detec- tion module 580 will be described later in detail with reference to Figs. 6 to 9 would.

상기 리스트 생성 모듈(590)은, 상기 기설정된 특정 이벤트가 디텍트된 시점의 비디오 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터를 포함하는 리스트를 생성한다. 상기 리스트를 구현하는 방법에 대해서는, 이하 도 11을 참조하여 보다 상세히 후술하도록 하겠다.The list generation module 590 generates a list including at least one still image data associated with the video data at the time when the preset specific event is detected. A method of implementing the list will be described later in detail with reference to FIG.

상기 컨트롤러(560)는, 상기 리스트내 특정 정지영상 데이터와 임의의 정보를 맵핑한 상태의 통합 데이터를, 상기 메모리(500)에 저장시키는 역할을 수행한다. 그리고, 상기 제2네트워크 인터페이스 모듈(570)은 상기 메모리(500)에 저장되어 있는 통합 데이터를, 외부 디바이스로 전송하도록 설계된다. 상기 메모리(500)의 동작 프로세스에 대해서는 이하 도 18에서 보다 상세히 후술하며, 상기 제2네트워크 인터페이스 모듈(570)의 동작 프로세스에 대해서는 이하 도 19에서 보다 상세히 후술하도록 하겠다.The controller 560 stores the integrated data in a state in which specific still image data in the list is mapped to arbitrary information in the memory 500. The second network interface module 570 is designed to transmit the integrated data stored in the memory 500 to an external device. The operation process of the memory 500 will be described later in more detail with reference to FIG. 18, and the operation process of the second network interface module 570 will be described later in more detail with reference to FIG.

나아가, 본 발명의 또 다른 일실시예에 의하면, 상기 기설정된 특정 이벤트가 디텍트된 경우, 상기 컨트롤러(560)는, 상기 스피커(550)를 제어하여 상기 처리된 오디오 데이터의 출력은 유지하고, 상기 디스플레이 모듈(520)을 제어하여 상기 처리된 비디오 데이터의 출력을 중지하고, 상기 비디오 데이터를 상기 메모리(500)에 저장하도록 설계된다. 이와 같이 설계함으로써, 유저가 기존에 시청하던 채널의 방송 데이터 또는 외부 소스로부터의 데이터 중 오디오 데이터를 지속적으로 끊김없이 확인할 수 있는 장점이 있다.In addition, according to another embodiment of the present invention, when the preset specific event is detected, the controller 560 controls the speaker 550 to maintain the output of the processed audio data, Is designed to control the display module 520 to stop outputting the processed video data, and to store the video data in the memory 500. By designing in this way, there is an advantage that the user can continuously and continuously check the broadcast data of the channel that the user has watched or the audio data of the data from the external source.

또한, 본 발명의 또 다른 일실시예에 의하면, 상기 기설정된 특정 이벤트가 디텍트된 경우, 상기 컨트롤러(560)는, 상기 멀티미디어 디바이스의 스크린을 적어도 2개 이상의 영역으로 분할하고, 인디케이터가 정지영상을 포함하는 제1영역에 위치한 경우, 상기 인디케이터를 제1그래픽 이미지로 변환하고, 인디케이터가 편집 툴을 포함하는 제2영역에 위치한 경우에는, 상기 인디케이터를 제2그래픽 이미지로 변환하도록 설계한다. 전술한 실시예와 관련하여, 이하 도 12를 참조하여 보다 상세히 후술하도록 하겠다.According to another embodiment of the present invention, when the preset specific event is detected, the controller 560 divides the screen of the multimedia device into at least two areas, The indicator is designed to be converted into a first graphic image, and when the indicator is located in a second area including an editing tool, the indicator is designed to be converted into a second graphic image. With reference to the above-described embodiment, it will be described later in detail with reference to FIG.

상기 OCR 모듈(561)은, 상기 특정 정지영상 데이터내에 포함된 텍스트를 자동으로 추출하도록 설계한다. 따라서, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 유저가 직접 입력할 필요가 없는 장점이 있다.The OCR module 561 is designed to automatically extract the text included in the specific still image data. Therefore, there is an advantage that the user does not need to directly input the text data for mapping with the captured image.

그리고, 본 발명의 또 다른 일실시예에 의한 멀티미디어 디바이스는, 상기 특정 정지영상 데이터와 맵핑하기 위한 임의의 정보를 입력하는 유저 인터페이스를 더 포함하고 있다. 상기 임의의 정보는, 텍스트, 오디오 데이터 또는 그래픽 이미지 중 적어도 하나 이상을 포함한다.In addition, the multimedia device according to another embodiment of the present invention further includes a user interface for inputting arbitrary information for mapping with the specific still image data. The arbitrary information includes at least one of text, audio data, and graphic images.

한편, 비디오 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터는, 상기 특정 이벤트가 디텍트된 시점으로부터 기설정된 과거 기간을 소급하여 캡쳐된 적어도 하나 이상의 이미지에 대응한다. 이와 관련하여, 이하 도 11을 참조하여 후술하도록 하겠다.The at least one still image data associated with the video data corresponds to at least one or more images captured retroactively from a point in time when the specific event is detected, retrospectively. Hereinafter, this will be described below with reference to FIG.

더욱이, 상기 컨트롤러(560)는, 상기 디스플레이 모듈(520)을 제어하여, 외부 디바이스를 특정하기 위한 적어도 하나 이상의 옵션을 디스플레이 하도록 설계된다. 이와 관련하여, 이하 도 19를 참조하여 후술하도록 하겠다.Furthermore, the controller 560 is designed to control the display module 520 to display at least one or more options for specifying an external device. In this regard, it will be described later with reference to FIG.

상기 기설정된 특정 이벤트는, 예를 들어 상기 멀티미디어 디바이스를 사용하는 유저의 제스쳐, 보이스 또는 리모트 컨트롤러에 의해 발생하는 특정 커맨드 중 적어도 하나 이상에 대응한다. 이와 관련하여, 이하 도 7 내지 도 9를 참조하여 후술하도록 하겠다.The preset specific event corresponds to at least one of a gesture of a user using the multimedia device, a voice, or a specific command generated by a remote controller, for example. In this regard, it will be described later with reference to FIG. 7 to FIG.

도 6은 도 5에 도시된 디텍팅 모듈을 보다 상세히 도시한 블록도이다. 이하, 도 6을 참조하여, 특정 스크린을 캡쳐하는 프로세스 및 임의의 데이터를 맵핑하여 저장하는 프로세스 등을 최초 실행하기 위한 커맨드 디텍트 방법을 설명하도록 하겠다.6 is a block diagram showing the detec- tion module shown in Fig. 5 in more detail. Hereinafter, with reference to FIG. 6, a command detection method for initially executing a process of capturing a specific screen, a process of mapping and storing arbitrary data, and the like will be described.

우선, 도 6에 도시된 디텍팅 모듈(680)은 도 5에 도시된 디텍팅 모듈(580)에 대응할 수 있으며, 도 6에 도시된 컨트롤러(660)는 도 5에 도시된 컨트롤러(560)에 대응할 수도 있다.6 may correspond to the detec- tion module 580 shown in Fig. 5, and the controller 660 shown in Fig. 6 may correspond to the controller 560 shown in Fig. 5 It may respond.

예컨대, 유저의 보이스 시그널(voice signal)을 수신하는 마이크(683)를 통해 임의의 보이스 시그널이 디텍트된 경우, 보이스 인식 모듈(684)는 상기 디텍트된 보이스 시그널이 기설정된 특정 보이스 시그널에 해당하는지 여부를 판단한다. 만약 기설정된 특정 보이스 시그널(예를 들어, "캡쳐", "capture", "정지", "stop" 등)에 해당하는 경우, 컨트롤러(660)의 제어에 따라 현재 스크린을 캡쳐하도록 설계한다. 관련하여, 이하 도 7을 참조하여 보충 설명하도록 하겠다.For example, when an arbitrary voice signal is detected through a microphone 683 receiving a voice signal of a user, the voice recognition module 684 determines that the detected voice signal corresponds to a predetermined specific voice signal Or not. If it corresponds to a predetermined specific voice signal (for example, "capture "," capture ", "stop "," stop ", etc.), it is designed to capture the current screen under the control of the controller 660. Hereinafter, a supplementary explanation will be given with reference to FIG.

다른 한편, 유저의 제스쳐(gesture)를 포함하는 이미지를 촬영하는 카메라를 통해 임의의 손 동작이 촬영된 경우, 제스쳐 인식 모듈(682)은 상기 촬영된 손 동작이 기설정된 특정 제스쳐에 해당하는지 여부를 판단한다. 만약 기설정된 특정 제스쳐에 해당하는 경우, 컨트롤러(660)의 제어에 따라 현재 스크린을 캡쳐하도록 설계한다. 관련하여, 이하 도 8을 참조하여 보충 설명하도록 하겠다.On the other hand, when an arbitrary hand motion is photographed through a camera that captures an image including a user's gesture, the gesture recognition module 682 determines whether the photographed hand motion corresponds to a predetermined gesture . If the predetermined gesture corresponds to the preset gesture, the controller 660 controls to capture the current screen. With reference to FIG. 8, a supplementary explanation will be given below.

그리고 또 다른 한편, 도 3 내지 도 4에서 전술한 리모트 컨트롤러로부터 IR 신호 등을 수신하는 리모컨 커맨드 수신 모듈(685)은, 특정 커맨드가 수신되었는지 여부를 판단한다. 만약 기설정된 특정 커맨드에 해당하는 경우, 컨트롤러(660)의 제어에 따라 현재 스크린을 캡쳐하도록 설계한다. 관련하여, 이하 도 9를 참조하여 보충 설명하도록 하겠다.On the other hand, the remote controller command receiving module 685 for receiving an IR signal or the like from the above-described remote controller in FIGS. 3 to 4 determines whether or not a specific command has been received. If it is determined that the command is a predetermined command, the controller 660 controls the screen to capture the current screen. With reference to FIG. 9, a supplementary explanation will be given below.

도 7은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 유저로부터 파생되는 보이스 시그널을 디텍트 하는 과정을 도시한 도면이다. 이하, 도 7을 참조하여, 유저의 특정 보이스에 따라 현재 스크린을 캡쳐하는 과정을 설명하도록 하겠다.7 is a diagram illustrating a process of detecting a voice signal derived from a user by a multimedia device according to another embodiment of the present invention. Hereinafter, a process of capturing a current screen according to a specific voice of a user will be described with reference to FIG.

전술하여 설명한 바와 같이, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스(700)는 음성 인식 엔진을 탑재하고 있다. 따라서, 도 7에 도시된 바와 같이, 상기 멀티미디어 디바이스(700) 인근에 위치한 유저(730)가 특정 보이스(731)를 발화한 경우, 상기 멀티미디어 디바이스(700)에 장착된 마이크(720)를 통해 해당 특정 보이스(731) 관련 시그널이 수신된다.As described above, the multimedia device 700 according to another embodiment of the present invention includes a speech recognition engine. 7, when the user 730 located near the multimedia device 700 has uttered a specific voice 731, the corresponding voice 730 is transmitted through the microphone 720 mounted on the multimedia device 700, A signal related to a particular voice 731 is received.

나아가, 수신된 특정 보이스(731)가 기설정된 특정 커맨드에 해당하는 경우, 상기 멀티미디어 디바이스(700)는 현재 화면(방송 화면 또는 기타 외부 소스로부터의 비디오 데이터) 등을 자동으로 캡쳐하도록 설계된다.In addition, when the received specific voice 731 corresponds to a predetermined command, the multimedia device 700 is designed to automatically capture a current screen (video data from a broadcast screen or other external source) and the like.

한편, 음성 인식 엔진으로 어떤 타입의 알고리즘도 사용될 수 있으며, 특정 알고리즘만으로 본 발명의 권리범위가 제한되는 것은 아니다.On the other hand, any type of algorithm can be used as the speech recognition engine, and the specific algorithm does not limit the scope of the present invention.

예컨대, 동적 적합법(Dynamic time warping:DTW) 알고리즘은 대표 패턴과 주어진 입력(input) 패턴을 비교하여 유사성을 판별하는 방법이다. 즉, 같은 단어를 발성할 경우라도 화자, 감정, 주변환경에 따라 각기 다른 지속시간을 가지므로, 이러한 지속길이의 불일치를 비선형적으로 최적화하는 방법으로 부분최적화에 기반을 두어 전체적인 최적화를 수행하는 특성을 가진다. 상기 동적 적합법 알고리즘은 인식 대상 어휘가 작은 고립단어인식에 주로 이용되며, 기준 패턴을 쉽게 만들 수 있기 때문에 음성인식 시스템의 업무 내용을 용이하게 변경할 수 있는 장점이 있다.For example, a dynamic time warping (DTW) algorithm is a method of determining similarity by comparing a representative pattern with a given input pattern. In other words, even if the same word is uttered, it has a different duration depending on the speaker, emotion, and surrounding environment. Thus, nonlinear optimization of the discrepancy of the continuous length is performed based on the partial optimization, . The dynamic fit method algorithm has an advantage that the task contents of the speech recognition system can be easily changed since the recognition target vocabulary is mainly used for small isolated word recognition and can easily generate the reference pattern.

다른 한편, 은닉 마코프모델(Hidden Markov Model:HMM) 알고리즘은,높은 인식율과 편리한 학습성으로 음성인식에 가장 널리 쓰이는 방법 중 하나이다. 음성의 시간적 변화를 모델링하는 천이확률과 스펙트럼(spectrum)변화를 모델링하는 출력확률로 구성된다. 입력패턴과 출력패턴간의 유사도를 이용하기보다는 주어진 모델과의 확률적인 추정값을 사용하여 모델의 유사도를 계산한다. 따라서, 상대적으로 긴 문장의 어휘, 보이스 등을 분석하는데 유리하다.On the other hand, the Hidden Markov Model (HMM) algorithm is one of the most widely used methods for speech recognition due to its high recognition rate and convenient learning performance. It is composed of transition probability modeling the temporal change of speech and output probability modeling the spectrum change. Rather than using the similarity between the input pattern and the output pattern, the similarity of the model is calculated by using a probabilistic estimate with a given model. Therefore, it is advantageous to analyze the vocabulary and voice of a relatively long sentence.

도 8은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 유저의 특정 제스쳐를 디텍트 하는 과정을 도시한 도면이다. 이하, 도 8을 참조하여, 유저의 특정 제스쳐에 따라 현재 스크린을 캡쳐하는 과정을 설명하도록 하겠다.8 is a diagram illustrating a process of detecting a specific gesture of a user by the multimedia device according to another embodiment of the present invention. Hereinafter, a process of capturing a current screen according to a specific gesture of a user will be described with reference to FIG.

전술하여 설명한 바와 같이, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스(800)는 제스쳐 인식/분석 모듈을 탑재하고 있다. 따라서, 도 8에 도시된 바와 같이, 상기 멀티미디어 디바이스(800) 인근에 위치한 유저(830)가 특정 제스쳐(831)를 취한 경우, 상기 멀티미디어 디바이스(800)에 장착된 카메라(820)를 통해 해당 특정 제스쳐(831) 관련 시그널이 수신된다.As described above, the multimedia device 800 according to another embodiment of the present invention includes a gesture recognition / analysis module. 8, when the user 830 located near the multimedia device 800 takes a specific gesture 831, the camera 820 mounted on the multimedia device 800 may receive the specific gesture 831, A gesture 831 related signal is received.

나아가, 수신된 특정 제스쳐(831)가 기설정된 특정 커맨드에 해당하는 경우, 상기 멀티미디어 디바이스(800)는 현재 화면(방송 화면 또는 기타 외부 소스로부터의 비디오 데이터) 등을 자동으로 캡쳐하도록 설계된다.Further, when the received specific gesture 831 corresponds to a predetermined command, the multimedia device 800 is designed to automatically capture a current screen (video data from a broadcast screen or other external source) and the like.

한편, 전술한 카메라 및 제스쳐 인식/분석 모듈로 어떤 타입의 알고리즘도 사용될 수 있으며, 특정 알고리즘만으로 본 발명의 권리범위가 제한되는 것은 아니다.On the other hand, any type of algorithm can be used as the camera and gesture recognition / analysis module described above, and the specific algorithm does not limit the scope of the present invention.

제스쳐 인식 방법으로 크게 2가지로 분류하여 고려할 수가 있다. 하나는 카메라 영상 기반 2D 인식이고 다른 하나는 3D 기반 제스쳐 인식 방법이다.There are two types of gesture recognition methods. One is camera image based 2D recognition and the other is 3D based gesture recognition method.

전자의 카메라 영상 기반 제스쳐 인식은 카메라로 유저의 영상을 획득한 후 의미 있는 제스쳐만을 검출하고 제스쳐를 계속 추적하면서 제스쳐의 의미를 분석하여 인식하는 과정을 포함한다.The former camera image-based gesture recognition includes a process of acquiring a user's image with a camera, detecting only a meaningful gesture, and analyzing and recognizing the meaning of the gesture while continuously tracking the gesture.

반면, 후자의 3D 기반 인식 방법은 전자의 방식에 하나의 요소(element)를 추가하여, 즉 depth(깊이) 정보까지 이용하여, 유저의 제스쳐를 보다 입체적으로 분석할 수가 있다.On the other hand, the latter 3D-based recognition method can analyze a user's gesture more stereoscopically by adding an element to the former method, that is, using depth (depth) information.

따라서, 2D 카메라 또는 3D 카메라 등을 이용하여 촬영된 유저의 양손 모양이 네모 형태의 직사각형 형태를 갖추고 있는 경우, 본 발명에 따른 캡쳐 기능을 실행하라는 명령으로 인식하도록 설계한다.Therefore, when the user's hands captured by using a 2D camera or a 3D camera have a rectangle shape of a square shape, they are designed to be recognized as an instruction to execute the capture function according to the present invention.

도 9는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 리모트 컨트롤로부터 전송되는 특정 커맨드를 디텍트 하는 과정을 도시한 도면이다. 이하, 도 9를 참조하여, 리모트 컨트롤러로부터 수신된 특정 시그널에 따라 현재 스크린을 캡쳐하는 과정을 설명하도록 하겠다.9 is a diagram illustrating a process in which a multimedia device according to another embodiment of the present invention detects a specific command transmitted from a remote control. Hereinafter, a process of capturing a current screen according to a specific signal received from the remote controller will be described with reference to FIG.

전술하여 설명한 바와 같이, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스(900)를 제어하기 위한 리모트 컨트롤러가 사용될 수도 있다. 따라서, 도 9에 도시된 바와 같이, 상기 멀티미디어 디바이스(900)와 데이터 통신을 할 수 있는 거리내에 위치한 리모트 컨트롤러(931)를 이용하여 유저(930)는 특정 핫키(932)를 선택한다. 이 때, 상기 멀티미디어 디바이스(900)에 장착된 IR 신호 수신부(920)를 통해 해당 특정 IR 신호가 수신된다.As described above, a remote controller for controlling the multimedia device 900 according to another embodiment of the present invention may be used. 9, the user 930 selects a specific hotkey 932 by using a remote controller 931 located within a distance capable of data communication with the multimedia device 900. As shown in FIG. At this time, the specific IR signal is received through the IR signal receiving unit 920 mounted in the multimedia device 900.

나아가, 수신된 특정 IR 신호가 기설정된 특정 커맨드에 해당하는 경우, 상기 멀티미디어 디바이스(900)는 현재 화면(방송 화면 또는 기타 외부 소스로부터의 비디오 데이터) 등을 자동으로 캡쳐하도록 설계된다.Further, when the received specific IR signal corresponds to a predetermined command, the multimedia device 900 is designed to automatically capture a current screen (video data from a broadcast screen or other external source) and the like.

한편, 도 9에서는 유저(930)가 리모트 컨트롤러(931)의 특정 핫키(932)를 선택하는 경우를 가정하여 설명하였으나, 이와 같은 내용만으로 본 발명의 권리범위가 제한되는 것은 아니다.9, it is assumed that the user 930 selects a specific hotkey 932 of the remote controller 931. However, the scope of the present invention is not limited by the above description.

예를 들어, 도 4에서 전술한 바와 같이 상기 리모트 컨트롤러(931)는 위치 감지 센서를 탑재하고 있으므로, 상기 리모트 컨트롤러(931)가 특정 모션을 취한 경우를 인식 가능하다. 또는 상기 리모트 컨트롤러(931)에 탑재된 터치 감지 센서를 통해 유저의 터치가 감지된 경우, 상기 특정 핫키(932)가 선택되었을 때와 동일한 IR 신호가 전송되도록 설계하는 것도 본 발명의 권리범위에 속한다고 할 것이다.For example, as described above with reference to FIG. 4, since the remote controller 931 is equipped with the position sensor, it is possible to recognize the case where the remote controller 931 takes a specific motion. Or if the touch of the user is detected through the touch sensor mounted on the remote controller 931, designing to transmit the same IR signal as that when the specific hot key 932 is selected is also within the scope of the present invention I will say.

도 10은 도 7 내지 도 9에 도시된 실시예에 따라 특정 커맨드가 디텍트된 경우, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 출력하는 스크린을 도시하고 있다.FIG. 10 shows a screen output by the multimedia device according to another embodiment of the present invention when a specific command is detected according to the embodiment shown in FIG. 7 to FIG.

전술하여 설명한 도 7 내지 도 9에 도시된 실시예에 따라, 유저로부터 현재 스크린을 캡쳐하라는 명령을 수신한 멀티미디어 디바이스는, 도 10에 도시된 편집 가능 스크린을 제공한다. 도 10에 도시된 각각의 아이템들은 독자적인 권리범위로 해석될 수도 있는 바, 이하 상세히 설명하도록 하겠다.According to the embodiment shown in Figs. 7 to 9 described above, the multimedia device receiving the instruction to capture the current screen from the user provides the editable screen shown in Fig. Each of the items shown in FIG. 10 may be interpreted as an independent scope of rights, and will be described in detail below.

예컨대, 특정 채널의 방송국으로부터 전송되는 비디오 데이터를 출력하거나 또는 다른 외부 소스(ex : BD 플레이어, STB, 홈씨어터 등)로부터 전송되는 비디오 데이터를 출력하다가, 캡쳐 명령이 디텍트된 경우 동영상이 아닌 정지된 이미지를 일영역(b)에 디스플레이 한다.For example, when video data transmitted from a broadcasting station of a specific channel is output or video data transmitted from another external source (ex: BD player, STB, home theater, etc.) is output, And displays the image in one area (b).

또한, 캡쳐된 이미지를 편집하기 위한 다양한 아이템들(1010, 1020, 2030, 1040, 1050, 1060, 1070)을 포함하는 툴 박스가 화면의 다른 일영역(a)에 디스플레이 된다. 나아가, 전술한 툴 박스로 인하여 캡쳐된 이미지가 일부 겹쳐지는 문제점을 해결하기 위하여, 숨김/펼침 옵션(1080)이 함께 디스플레이 된다.Also, a tool box containing various items 1010, 1020, 2030, 1040, 1050, 1060, 1070 for editing the captured image is displayed in another area (a) of the screen. Further, in order to solve the problem that the captured image is partially overlapped due to the above-described toolbox, the hide / unfold option 1080 is displayed together.

한편, 본 발명의 일특징 중 하나는, 캡쳐된 이미지가 디스플레이되는 일영역(b)과 툴 박스가 디스플레이되는 다른 일영역(a)에서, 인디케이터의 그래픽 이미지가 각각 다르도록 설계한다. 예컨대, 도 10에 도시된 바와 같이, 캡쳐된 이미지가 디스플레이되는 일영역에서의 인디케이터(1092)는 제1 그래픽 이미지를 가지도록 설계하며, 툴 박스가 디스플레이되는 다른 일영역에서의 인디케이터(1091)는 제2 그래픽 이미지를 가지도록 설계한다. 따라서, 유저에게 도 10의 b 영역에서만 판서 등이 가능하며, 도 10의 a 영역에서는 아이템들을 선택하는 것만 가능하다는 정보를 신속하게 제공할 수 있는 기술적 효과가 있다.On the other hand, one of the features of the present invention is that the graphic image of the indicator is designed to be different in one area (b) where the captured image is displayed and in another area (a) in which the tool box is displayed. For example, as shown in Fig. 10, an indicator 1092 in one area where the captured image is displayed has a first graphic image, and an indicator 1091 in another area in which the tool box is displayed So as to have a second graphic image. Therefore, there is a technical effect that it is possible to provide the user with a form only in the area b in FIG. 10, and to quickly provide information that the items can be selected only in the area a in FIG.

나아가, 도 10의 화면 하단에 도시된 바와 같이, 캡쳐된 이미지의 출처를 표시하는 워터마크(1090)가 자동으로 생성되도록 설계한다. 물론, 메모리에 저장된 워터마크(1090)를 유저가 임의로 편집 가능하도록 설계하는 것도 본 발명의 권리범위에 속한다.Furthermore, as shown at the bottom of the screen of Fig. 10, a watermark 1090 indicating the source of the captured image is designed to be automatically generated. Of course, it is also within the scope of the present invention to design the watermark 1090 stored in the memory to be arbitrarily editable by the user.

마지막으로, 도 10에 도시된 툴 박스 영역(a)에 배열된 각각의 아이템들의 기능에 대하여 보다 상세히 설명하도록 하겠다.Finally, the function of each item arranged in the toolbox area (a) shown in Fig. 10 will be described in more detail.

본 발명의 일실시예에 따라 현재 화면이 캡쳐된 이후, 유저는 캡쳐된 이미지와 맵핑하기 위한 임의의 데이터를 다양한 메쏘드로 입력할 수 있도록 설계하는 것이 당해 기술의 장점 중 하나이다.It is one of the advantages of the technique to design the user to input any data for mapping with the captured image into various methods after the current screen is captured according to an embodiment of the present invention.

예컨대, 제1아이템(1020)이 선택된 경우, 음성 인식 엔진이 자동으로 실행되며 유저가 발화하는 보이스 시그널을 현재 캡쳐된 스크린 이미지와 맵핑하여 메모리에 저장한다. 이와 관련하여, 이하 도 17을 참조하여 보다 상세히 후술하도록 하겠다.For example, when the first item 1020 is selected, the speech recognition engine is automatically executed and the voice signal that the user utters is mapped to the currently captured screen image and stored in memory. In this regard, it will be described later in detail with reference to FIG.

제2아이템(1030)이 선택된 경우, 현재 캡쳐된 스크린 이미지 위에 오버레이된 형태로 그래픽 이미지를 추가할 수가 있으며, 또는 전체 스크린 이미지내에서 일부 영역만 크롭(crop) 하는 편집도 가능하다. 반면, 제3아이템(1040)이 선택된 경우, 상기 제2아이템에 의해 추가된 그래픽 이미지를 다시 삭제하는 기능을 수행한다.When the second item 1030 is selected, a graphic image may be added in an overlaid form on the currently captured screen image, or an edit may be performed to crop only a portion of the entire screen image. On the other hand, when the third item 1040 is selected, the function of deleting the graphic image added by the second item is performed again.

제4아이템(1050)이 선택된 경우, 캡쳐 이미지 및 임의의 텍스트 데이터 등이 맵핑된 형태의 통합 데이터(또는 메모 데이터)를 다른 외부 디바이스로 전송하는 기능을 수행한다. 이와 관련하여, 이하 도 19를 참조하여 보다 상세히 후술하도록 하겠다.When the fourth item 1050 is selected, the integrated data (or memo data) in the form of a captured image and arbitrary text data or the like is mapped to another external device. In this regard, it will be described later in detail with reference to FIG.

제5아이템(1060)이 선택된 경우, 캡쳐 이미지 및 임의의 텍스트 데이터 등이 맵핑된 형태의 통합 데이터(또는 메모 데이터)를 메모리에 저장하는 기능을 수행한다. 이와 관련하여, 이하 도 18을 참조하여 보다 상세히 후술하도록 하겠다.When the fifth item 1060 is selected, the integrated data (or memo data) in the form of a captured image and arbitrary text data is stored in a memory. In this regard, it will be described in more detail below with reference to FIG.

제6아이템(1070)이 선택된 경우, 현재 화면 대신 직전에 실행하고 있던 화면으로 복귀하는 명령을 수행한다. 따라서, 유저가 의도하지 않은 그래픽 이미지가 실수로 추가된 경우, 상기 제3아이템(1040)을 이용하지 않고 한번에 본래(original) 화면으로 신속히 복귀하는 장점이 있다.When the sixth item 1070 is selected, an instruction to return to the screen that was executed immediately before the current screen is executed. Accordingly, when an unintended graphic image is added by mistake, the user can quickly return to the original screen at once without using the third item 1040.

제7아이템(1010)이 선택된 경우, 적어도 2개 이상의 배경 화면 내지는 캡쳐 이미지가 디스플레이 된다. 이와 같은 옵션을 추가 설계한 이유는, 유저가 캡쳐 명령을 발한 시점과 실질적으로 캡쳐되는 시점간에는 다소의 시간 간격이 발생할 수 있음을 고려하였기 때문이다. 특히, 화면 전체가 전혀 다른 화면으로 변경된 경우, 당해 제7아이템(1010)의 유용성이 클 것으로 기대된다. 관련하여, 이하 도 11을 참조하여 보다 상세히 후술하도록 하겠다.When the seventh item 1010 is selected, at least two background images or captured images are displayed. The reason for designing such an option is that some time interval may occur between when the user issues a capture command and when the captured image is actually captured. Particularly, when the whole screen is changed to a totally different screen, it is expected that the seventh item 1010 is useful. With reference to FIG. 11, a detailed description will be given later.

도 11은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 제공하는 캡쳐된 이미지의 리스트를 설명하기 위한 도면이다.11 is a view for explaining a list of captured images provided by a multimedia device according to another embodiment of the present invention.

도 10에서도 전술하여 설명한 바와 같이, 리모트 컨트롤러의 제어에 따라 위치가 변화하는 인디케이터(1150)를 이용하여 캡쳐된 스크린 이미지에 부가적인 그래픽 이미지(1160)를 추가하는 것이 가능하다.10, it is possible to add an additional graphic image 1160 to the screen image captured using the indicator 1150 whose position changes according to the control of the remote controller.

다만, 유저가 캡쳐 명령을 입력한 시점과 캡쳐된 시점간에는 적지 않은 시간적 갭이 존재할 수 있으므로, 유저가 원하지 않는 캡쳐 스크린 이미지만 제공될 가능성을 배제할 수 없다.However, since there may be a small amount of time gap between the time when the user inputs the capture command and the time when the captured image is captured, it is not possible to exclude the possibility that only a captured screen image desired by the user is provided.

따라서, 본 발명의 실시예에에 의한 멀티미디어 디바이스는, 버퍼 또는 메모리에 일정 시간 동안의 비디오 데이터를 지속적으로 저장하도록 설계한다. 또한, 상기 일정 시간이 지나면, 이전 시간 동안의 비디오 데이터는 버퍼 또는 메모리에서 삭제함으로써, 메모리 처리 효율성을 종래에 비해 개선할 수 있는 기술적 효과도 있다.Accordingly, the multimedia device according to the embodiment of the present invention is designed to continuously store video data for a predetermined time in a buffer or a memory. Also, after the predetermined time has elapsed, the video data for the previous time is deleted from the buffer or the memory, thereby improving the memory processing efficiency compared to the conventional art.

즉, 도 10의 좌측 영역에 도시된 제1캡쳐 이미지(1110)는 캡쳐된 시점으로부터 0.25초전 정지 영상 프레임을 표시하고, 제2캡쳐 이미지(1120)는 캡쳐된 시점으로부터 0.5초전 정지 영상 프레임을 표시하고, 제3캡쳐 이미지(1130)는 캡쳐된 시점으로부터 0.75초전 정지 영상 프레임을 표시하고, 그리고 제4캡쳐 이미지(1140)는 캡쳐된 시점으로부터 1초전 정지 영상 프레임을 표시한다. 즉, 캡쳐된 이미지의 시점을 기준으로 0.25초 간격으로 4장의 히스토리 리스트를 추가적으로 제공함으로써, 유저가 원하는 캡쳐 이미지가 선택될 가능성을 보다 높이는 장점이 있다고 할 것이다.That is, the first captured image 1110 shown in the left area of FIG. 10 displays a still image frame of 0.25 seconds before the captured image, and the second captured image 1120 displays a still image frame of 0.5 seconds before the captured image The third captured image 1130 displays a 0.75-second previous still image frame from the captured time point, and the fourth captured image 1140 displays a one-second previous still image frame from the captured time point. That is, it is advantageous to further increase the possibility that the user selects a desired captured image by additionally providing four history lists at intervals of 0.25 seconds based on the viewpoint of the captured image.

물론, 전술한 구체적인 시간 단위는 당업자의 설계 또는 유저의 선택에 따라 변경 가능하도록 설계하는 것도 본 발명의 권리범위에 속한다.Of course, it is also within the scope of the present invention to design the specific time unit described above so as to be changeable according to the design of the person skilled in the art or the choice of the user.

도 11의 메모지(1170)를 선택하면, 도 12에 도시된 바와 같이, 유저가 입력할 수 있는 메모창이 확대된다. 이와 같이 설계하는 이유는, 캡쳐된 이미지와 글씨색을 유저가 구별하기 어려운 경우를 해결하기 위함이다.When the memo pad 1170 of FIG. 11 is selected, the memo window that the user can input is enlarged as shown in FIG. The reason for designing in this way is to solve the case where it is difficult for the user to distinguish the captured image from the text color.

또한, 도 12에 도시된 메모창에 대한 편집을 유저가 종료한 경우, 도 11의 메모지(1170)는 삭제되거나 또는 그대로 유지될 수도 있으며, 모두 본 발명의 권리범위에 속한다.When the user finishes editing the memo window shown in Fig. 12, the memo 1170 of Fig. 11 may be deleted or retained, and all belong to the scope of the present invention.

도 12는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가 제공하는 메모 영역을 적어도 2개 이상으로 분할하는 프로세스를 설명하기 위한 도면이다.12 is a view for explaining a process of dividing a memo area provided by a multimedia device into at least two or more memo areas according to another embodiment of the present invention.

도 12에 도시된 바와 같이, 유저가 텍스트 등을 입력하기 위한 영역(b)에서는 인디케이터 또는 포인터가 제1그래픽 이미지(1231)를 유지한다. 반면, 전술하여 설명한 바와 같이, 유저가 툴 박스내 임의의 아이템을 선택하기 위한 영역(a)에서는 인디케이터 또는 포인터가 제2그래픽 이미지(1232)로 변경된다. 나아가, 상기 툴 박스의 숨김/펼침 옵션(1210)을 이용하여, 툴 박스가 화면 상에서 완전히 사라지도록 함으로써, 텍스트 입력 영역을 필요에 따라 확장시킬 수도 있다고 할 것이다.As shown in FIG. 12, in the area (b) for the user to input text or the like, an indicator or pointer holds the first graphic image 1231. On the other hand, as described above, in the area (a) for the user to select any item in the toolbox, the indicator or pointer is changed to the second graphic image 1232. Further, the toolbox may be completely hidden on the screen by using the hidden / unfolded option 1210 of the toolbox, thereby expanding the text input area as needed.

따라서, 유저는 도 12에 도시된 b 영역 상에서 인디케이터(1230)를 이용하여 특정 영역(1220)내에 임의의 텍스트를 입력하는 것이 가능하다. 나아가, 상기 b 영역내에 가상(virtual) 쿼티 자판이 디스플레이 되도록 설계하는 것도 본 발명의 권리범위에 속한다.Accordingly, the user can input any text in the specific area 1220 using the indicator 1230 on the area b shown in Fig. Furthermore, it is also within the scope of the present invention to design a virtual QWERTY keyboard to be displayed in the area b.

나아가, 본 발명의 또 다른 일실시예에 의하면, 유저가 메모 작성 시간을 일일이 입력하지 않아도 디바이스에 내장된 타이머를 이용하여 메모가 작성된 시간(도 12에서는 2012년 9월 10일 오후 3시간 49분으로 예시함)을 자동으로 디스플레이 하고 메모리에 저장한다. 따라서, 추후 시간대별로 메모의 현황을 파악할 수 있는 장점이 있다.In addition, according to another embodiment of the present invention, even if the user does not input the memo-creating time, the user can use the timer built in the device to set the time at which the memo was created ) Is automatically displayed and stored in the memory. Therefore, there is an advantage that the status of the memo can be grasped by the time zone in the future.

도 13은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 입력하는 일예를 설명하기 위한 프로세스 도면이다.13 is a process diagram for explaining an example in which a multimedia device according to another embodiment of the present invention inputs text data for mapping with a captured image.

우선, 도 13의 (a)에 도시된 바와 같이, 멀티미디어 디바이스(1300)는 방송국 또는 외부 소스로부터 입력되는 비디오 데이터를 출력하고 있다. 이 때, 전술하여 설명한 실시예들 중 하나에 따라(예를 들어, 유저의 특정 제스쳐 또는 음성 등), 현재 출력되고 있는 비디오 데이터가 캡쳐되어 정지 영상만 출력되는 것으로 가정한다.First, as shown in FIG. 13A, the multimedia device 1300 outputs video data input from a broadcasting station or an external source. At this time, it is assumed that, in accordance with one of the above-described embodiments (for example, the user's specific gesture or voice, etc.), the currently output video data is captured and only the still image is output.

나아가, 예를 들어 리모트 컨트롤러에 부착된 특정 핫키(예컨대, "Quick Memo" 버튼)가 선택된 경우, 도 13의 (b)에 도시된 바와 같이 텍스트 등을 입력할 수 있는 제1영역(1320) 및 캡쳐된 이미지를 편집할 수 있는 툴이 제공되는 제2영역(1310)이 동시에 디스플레이 된다.Furthermore, for example, when a specific hot key (e.g., a "Quick Memo" button) attached to the remote controller is selected, a first area 1320 in which text or the like can be input as shown in FIG. A second area 1310 is provided which simultaneously provides a tool for editing the captured image.

따라서, 유저는 간단히 상기 제1영역(1320)에 원하는 텍스트를 입력하는 작업만 하면, 멀티미디어 디바이스는 현재 캡쳐된 이미지와 입력된 텍스트가 맵핑된 통합 데이터를 생성하게 된다.Accordingly, when the user merely inputs a desired text into the first area 1320, the multimedia device generates integrated data in which the captured image and the input text are mapped.

도 14는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 입력하는 다른 일예를 설명하기 위한 프로세스 도면이다. 14 is a process diagram for explaining another example in which a multimedia device according to another embodiment of the present invention inputs text data for mapping with a captured image.

우선, 도 14의 (a)에 도시된 바와 같이, 멀티미디어 디바이스는 방송국 또는 외부 소스로부터 입력되는 비디오 데이터를 출력하고 있다. 이 때, 전술하여 설명한 실시예들 중 하나에 따라(예를 들어, 유저의 특정 제스쳐 또는 음성 등), 현재 출력되고 있는 비디오 데이터가 캡쳐되어 정지 영상만 출력되는 것으로 가정하도록 하겠다.First, as shown in Fig. 14A, the multimedia device outputs video data input from a broadcasting station or an external source. At this time, it is assumed that the currently output video data is captured according to one of the above-described embodiments (for example, the user's specific gesture or voice), and only the still image is output.

또한, 도 13에서 설명한 실시예와 달리, 퀵메모를 선택할 수 있는 아이콘(1411)을 포함하는 기저장된 아이콘 리스트(1410)가 도 14의 (a)에 도시된 바와 같이 화면 하단에 출력된다.13, a pre-stored icon list 1410 including an icon 1411 for selecting a quick memo is output at the bottom of the screen as shown in FIG. 14 (a).

이 때, 예를 들어 리모트 컨트롤러를 이용하여 상기 퀵메모 관련 아이콘(1411)이 선택된 경우, 도 14의 (b)에 도시된 바와 같이 텍스트 등을 입력할 수 있는 제1영역(1430) 및 캡쳐된 이미지를 편집할 수 있는 툴이 제공되는 제2영역(1420)이 동시에 디스플레이 된다.In this case, when the quick memo-related icon 1411 is selected using the remote controller, for example, as shown in FIG. 14 (b), a first area 1430 for inputting text or the like, A second area 1420 is provided which is provided with a tool for editing images.

따라서, 유저는 간단히 상기 제1영역(1430)에 원하는 텍스트를 입력하는 작업만 하면, 멀티미디어 디바이스는 현재 캡쳐된 이미지와 입력된 텍스트가 맵핑된 통합 데이터를 생성하게 된다.Accordingly, when the user merely inputs a desired text into the first area 1430, the multimedia device generates integrated data in which the captured image and the input text are mapped.

도 15는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 텍스트 데이터를 입력하는 또 다른 일예를 설명하기 위한 프로세스 도면이다. 이전 도 13 및 도 14에서는 방송국 내지는 CP(Content Provider)로부터 수신한 비디오 데이터를 출력하고 있는 실시예를 가정한 반면, 이하 설명할 도 15에서는 멀티미디어 디바이스에 장착 또는 연결된 카메라를 통해 이미지를 촬영하는 경우를 가정하여 설명하도록 하겠다.15 is a process diagram for explaining another example in which a multimedia device according to another embodiment of the present invention inputs text data for mapping with a captured image. 13 and 14, it is assumed that the embodiment of the present invention outputs video data received from a broadcasting station or a CP (Content Provider). On the other hand, in the case of taking an image through a camera mounted on or connected to a multimedia device .

우선, 도 15의 (a)에 도시된 바와 같이, 멀티미디어 디바이스는 카메라를 통해 상기 멀티미디어 디바이스 주변의 유저, 사물 등을 촬영하고 해당 비디오 데이터(1510)가 스크린 상에서 디스플레이 된다. 이 때, 카메라 설정 등과 관련된 옵션들을 포함하는 메뉴(1520)가 출력되고, 유저가 특정 옵션(1521)을 선택하는 순간, 비디오 데이터 대신 캡쳐된 이미지가 디스플레이 된다.First, as shown in FIG. 15A, a multimedia device captures a user, objects, etc. around the multimedia device through a camera and corresponding video data 1510 is displayed on the screen. At this time, a menu 1520 including options related to camera settings and the like is output, and the moment the user selects the specific option 1521, the captured image is displayed instead of the video data.

나아가, 상기 유저는 전술하여 설명한 실시예들 중 하나를 통해(예를 들어, 제스쳐, 보이스 또는 리모트 컨트롤러의 핫키 버튼) 메모를 입력할 수 있는 커맨드를 입력한다.Further, the user enters a command to enter a note through one of the above-described embodiments (e.g., a gesture, voice, or hotkey button on the remote controller).

따라서, 도 15의 (b)에 도시된 바와 같이, 텍스트 등을 입력할 수 있는 영역(1540)이 기설정된 위치에 디스플레이 되고, 캡쳐된 이미지를 편집할 수 있는 아이템들을 포함한 툴 박스(1530) 역시 동시에 출력된다. 물론, 당업자의 필요에 따라 상기 두개의 영역들(1530, 1540)을 순차적으로 또는 역순으로 디스플레이 하도록 설계하는 것도 본 발명의 권리범위에 속한다.Therefore, as shown in FIG. 15B, an area 1540 in which a text or the like can be input is displayed at a predetermined position, and a tool box 1530 including items for editing the captured image Simultaneously. Of course, it is also within the scope of the present invention to design the two areas 1530 and 1540 to display sequentially or in reverse order according to the needs of those skilled in the art.

도 16은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지를 에디팅(Editing) 하는 프로세스를 설명하기 위한 도면이다.16 is a diagram for explaining a process of editing a captured image by a multimedia device according to another embodiment of the present invention.

우선, 도 16의 (a)에 도시된 바와 같이, 캡쳐된 이미지가 제1영역에 디스플레이 되고, 상기 캡쳐된 이미지를 편집할 수 있는 아이템들을 포함하는 툴 박스가 제2영역(1610)에 함께 디스플레이 된다. 이 때, 상기 제1영역 및 상기 제2영역(1610) 중 일부가 오버레이된 형태로 출력될 수도 있으며, 또는 투명도를 가지도록 설계함으로써, 유저에게 최대한 다양한 옵션을 제공한다.First, as shown in FIG. 16A, a captured image is displayed in a first area, and a tool box including items capable of editing the captured image is displayed together with a second area 1610 do. At this time, some of the first area and the second area 1610 may be output in an overlaid form, or may be designed to have transparency to provide the user with various options as much as possible.

나아가, 리모트 컨트롤러의 제어에 따라 위치가 변화하는 인디케이터(1611)가, 도 16의 (a)에 도시된 툴 박스(1610) 중 특정 아이템(1612)을 선택한 경우, 도 16의 (b)에 도시된 스크린으로 전환된다. 전술하여 설명한 바와 같이, 도 16의 (a)에 도시된 인디케이터(1611)와 도 16의 (b)에 도시된 인디케이터(1630)의 그래픽 이미지를 다르게 설정한다.Further, when the indicator 1611 whose position changes according to the control of the remote controller selects the specific item 1612 of the tool box 1610 shown in FIG. 16A, Screen. As described above, the graphic images of the indicator 1611 shown in FIG. 16A and the indicator 1630 shown in FIG. 16B are set differently.

따라서, 상기 변경된 그래픽 이미지의 인디케이터(1630)를 이용하여 현재 캡쳐된 이미지를 편집하는 모양(1620)을 추가하는 것이 가능하다. 또는 선택된 모양(1620) 부분만 크롭(crop)하여 메모리에 저장하거나, 캡쳐된 이미지 전체를 축소/확대하는 것도 본 발명의 권리범위에 속한다.Accordingly, it is possible to add the shape 1620 of editing the currently captured image using the changed graphical image indicator 1630. [ It is also within the scope of the present invention that only the portion of the selected shape 1620 is cropped and stored in the memory or that the entire captured image is reduced / enlarged.

도 17은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지와 맵핑하기 위한 보이스 시그널을 입력하는 일예를 설명하는 도면이다.17 is a view for explaining an example of inputting a voice signal for mapping a captured image with a multimedia device according to another embodiment of the present invention.

전술하여 설명한 바와 같이, 본 발명의 일실시예에 의하면 텍스트를 입력하거나 캡쳐된 이미지를 편집하는 방식 대신, 유저의 보이스를 캡쳐된 이미지와 맵핑하여 메모리에 저장하도록 설계할 수 있다.As described above, according to the embodiment of the present invention, the user's voice can be designed to be mapped to the captured image and stored in the memory instead of the text inputting method or the captured image editing method.

예를 들어, 도 17에 도시된 바와 같이, 캡쳐된 이미지를 편집하기 위한 아이템들을 포함하는 툴 박스(1710)내에서, 유저는 특정 아이템(1712)을 선택하는 것이 가능하다. 상기 선택 방법으로서, 상기 유저는 리모트 컨트롤러를 이용하여 인디케이터(1711)를 상기 특정 아이템(1712)내에 위치시킨다. 이때부터 멀티미디어 디바이스에 장착된 음성 인식 엔진이 작동하도록 설계한다. 따라서, 불필요한 음성 인식 데이터 처리 과정을 진행할 필요가 없는 장점이 있다.For example, as shown in FIG. 17, in a toolbox 1710 that includes items for editing a captured image, the user is able to select a particular item 1712. As the selection method, the user places the indicator 1711 in the specific item 1712 using the remote controller. From this point on, the speech recognition engine installed in the multimedia device is designed to operate. Accordingly, there is an advantage that unnecessary speech recognition data processing steps need not be performed.

도 17에 도시된 바와 같이, 유저(1720)는 상기 캡쳐된 이미지와 맵핑하여 저장하고저 하는 임의의 정보를 보이스 형태(예를 들어, "내일 만나자."(1721))로 코멘트하기만 하면, 현재 캡쳐된 이미지와 해당 보이스 시그널이 메모리에 자동으로 저장된다. 물론, 유저의 보이스 시그널을 인식한 멀티미디어 디바이스가, 다시 텍스트 형태로 변환하도록 설계하는 것도 본 발명의 권리범위에 속한다.As shown in FIG. 17, the user 1720 only has to comment on any information that he maps and stores with the captured image in a voice form (e.g., "Let's meet tomorrow" 1721) The currently captured image and corresponding voice signal are automatically stored in memory. Of course, it is also within the scope of the present invention to design a multimedia device that recognizes a user's voice signal to be converted into a text form again.

도 18은 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지를 포함하는 통합 데이터를, 임의의 메모리에 저장하는 프로세스를 설명하기 위한 도면이다. 당해 명세서에서 표현하는 통합 데이터는, 예컨대 캡쳐된 이미지와 부가 정보가 결합된 형태의 새로운 메모 데이터를 의미할 수 있다. 특히, 상기 부가 정보는 예컨대 텍스트 뿐만 아니라 음성 또는 그래픽 이미지 중 적어도 하나 이상을 포함하고 있다.18 is a diagram for explaining a process of storing the integrated data including the captured image in a random memory according to another embodiment of the present invention. The integrated data represented in the present specification may mean, for example, new memo data in the form of a combination of the captured image and the additional information. In particular, the additional information includes at least one of text, as well as voice or graphic images.

이하, 도 18에서는, 이전에 설명한 통합 데이터(캡쳐 이미지와 부가 정보가 맵핑되어 있는 단일 데이터)를 유저가 원하는 특정 메모리에 저장하기 위한 옵션들에 대해 설명하도록 하겠다.Hereinafter, in FIG. 18, the options for storing the previously-described integrated data (single data in which the captured image and the additional information are mapped) are stored in a specific memory desired by the user will be described.

우선, 비디오 데이터에 대한 캡쳐 및 부가 정보(텍스트) 입력 등이 완료되어 통합 데이터가 생성된 경우, 도 18의 (a)에 도시된 바와 같이 편집을 위한 툴 박스(1810)가 디스플레이 된다. 이 때, 인디케이터(또는 포인터)(1811)를 이용하여 상기 툴 박스(1810)내 특정 아이템(1812)을 선택한다. 상기 특정 아이템(1812)은 새롭게 생성된 통합 데이터를 저장하는 기능을 수행한다.First, when capturing and inputting additional information (text) for video data is completed and integrated data is generated, a tool box 1810 for editing is displayed as shown in FIG. 18 (a). At this time, an indicator (or pointer) 1811 is used to select a specific item 1812 in the tool box 1810. The specific item 1812 performs a function of storing newly generated integrated data.

예컨대, 도 18의 (b)에 도시된 바와 같이, 저장할 메모리를 선택하기 위한 옵션 그래픽 이미지(1820)가 디스플레이 된다. 디폴트 값으로 멀티미디어 디바이스내 메모리(ex : TV 내부 메모리)가 설정되어 있으나, 상기 멀티미디어 디바이스와 연결된 외부의 메모리(ex : X-TICK 2)를 선택하는 옵션도 제공되어진다. 따라서, 유저는 상기 통합 데이터를 멀티미디어 디바이스의 내부 메모리 뿐만 아니라 외부 메모리에도 신속하게 저장할 수 있는 장점이 있다.For example, as shown in Fig. 18 (b), an optional graphic image 1820 for selecting a memory to be stored is displayed. A memory (ex: TV internal memory) in the multimedia device is set as a default value, but an option to select an external memory (ex: X-TICK 2) connected to the multimedia device is also provided. Therefore, the user can quickly store the integrated data in the external memory as well as the internal memory of the multimedia device.

마지막으로 특정 메모리에 저장이 완료된 경우, 도 18의 (c)에 도시된 바와 같이 저장이 성공적으로 완료되었음을 안내하는 메시지(1830)가 기설정된 위치의 특정 영역 상에서 출력된다.Finally, when the storage in the specific memory is completed, a message 1830 indicating that the storage has been successfully completed is output on the specific area of the predetermined position as shown in FIG. 18C.

한편, 도 18에서는 새롭게 생성된 통합 데이터를 메모리에 단순 저장하는 프로세스를 설명하였으나, 유저는 통합 데이터(이를 퀵 메모로 지칭할 수도 있음)를 외부의 특정 디바이스에 신속하게 전송 내지는 공유하고저 하는 경우가 발생할 수가 있다. 이와 관련하여, 이하 도 19를 참조하여 후술하도록 하겠다.18, a process of simply storing newly generated integrated data in a memory has been described. However, in the case where a user quickly transfers or transmits integrated data (which may be referred to as quick memo) to an external specific device . In this regard, it will be described later with reference to FIG.

도 19는 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스가, 캡쳐된 이미지를 포함하는 통합 데이터를, 임의의 디바이스 또는 그룹에 전송하는 프로세스를 설명하기 위한 도면이다.FIG. 19 is a diagram for explaining a process in which a multimedia device according to another embodiment of the present invention transmits integrated data including a captured image to an arbitrary device or group. FIG.

이하, 도 19에서는, 이전에 설명한 통합 데이터(캡쳐 이미지와 부가 정보가 맵핑되어 있는 단일 데이터)를 유저가 원하는 특정 디바이스 또는 서버 등에 공유하기 위한 옵션들에 대해 설명하도록 하겠다.Hereinafter, in Fig. 19, options for sharing the previously described integrated data (single data in which the captured image and the additional information are mapped) are shared by a specific device or server desired by the user will be described.

우선, 비디오 데이터에 대한 캡쳐 및 부가 정보(텍스트) 입력 등이 완료되어 통합 데이터가 생성된 경우, 도 19의 (a)에 도시된 바와 같이 편집을 위한 툴 박스(1910)가 디스플레이 된다. 이 때, 인디케이터(또는 포인터)(1911)를 이용하여 상기 툴 박스(1910)내 특정 아이템(1912)을 선택한다. 상기 특정 아이템(1912)은 새롭게 생성된 통합 데이터를 임의의 디바이스 또는 서버 등에 전송하는 기능을 수행한다.First, when capturing and inputting additional information (text) for video data is completed and integrated data is generated, a tool box 1910 for editing is displayed as shown in FIG. 19 (a). At this time, a specific item 1912 in the tool box 1910 is selected by using an indicator (or pointer) 1911. The specific item 1912 carries out a function of transmitting the newly generated integrated data to an arbitrary device, a server, or the like.

예컨대, 도 19의 (b)에 도시된 바와 같이, 새롭게 생성된 통합 데이터를 전송하기 위한 옵션 그래픽 이미지(1920)가 디스플레이 된다. 따라서, 유저는 이메일/SNS(Social Network Service)/MMS 등의 메쏘드를 편의에 따라 선택할 수 있으며, 또는 캡쳐 기능 실행에 앞서 전송되고저 하는 디바이스 또는 서버 등을 미리 설정해 두는 것도 본 발명의 권리범위에 속한다.For example, as shown in FIG. 19 (b), an optional graphic image 1920 for transmitting newly generated integrated data is displayed. Accordingly, the user can conveniently select a method such as e-mail / SNS (Social Network Service) / MMS, or preset a device or a server to be transmitted and executed prior to the execution of the capture function. Belongs.

특히, 미리 설정해 두도록 설계하는 경우, 유저는 자신이 보고 있던 화면에 맵핑된 임의의 부가 정보를 다른 사람들에게 보다 신속하게 전달할 수 있는 효과가 있다.Particularly, in the case of designing to be set in advance, the user has the effect that the additional information mapped on the screen that he / she is viewing can be transmitted to other people more quickly.

도 20은 멀티미디어 디바이스를 제어하는 일실시예를 설명하기 위한 플로우 차트이다. 한편, 이전 도 1 내지 도 19에서 전술한 실시예들을 참조하여, 도 20을 보충 해석하는 것도 본 발명의 권리범위에 속한다.20 is a flowchart for explaining an embodiment for controlling a multimedia device. It is also within the scope of the present invention to supplement the analysis of FIG. 20 with reference to the embodiments described above in FIGS. 1 to 19 above.

본 발명의 일실시예에 의한 적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스의 제어 방법은, 제1네트워크 인터페이스를 통해, 외부로부터 수신된 동영상 데이터를 디스플레이 하는 단계를 포함한다(S2010).The method of controlling a multimedia device connected to at least one network interface according to an exemplary embodiment of the present invention includes displaying moving image data received from an external device through a first network interface (S2010).

나아가, 상기 멀티미디어 디바이스는 기설정된 특정 이벤트를 디텍트하고(S2020), 상기 동영상 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터를 포함하는 리스트를 출력한다(S2030).In addition, the multimedia device detects predetermined events (S2020), and outputs a list including at least one still image data associated with the moving image data (S2030).

또한, 상기 멀티미디어 디바이스는 상기 리스트내 특정 정지영상 데이터와 임의의 정보를 맵핑한 상태의 통합 데이터를, 메모리에 저장시키고(S2040), 그리고 상기 메모리에 저장되어 있는 통합 데이터를, 제2네트워크 인터페이스를 통해 외부 디바이스로 전송한다(S2050).In addition, the multimedia device stores the integrated data in a state in which the specific still image data in the list is mapped to any information in the memory (S2040), and transmits the integrated data stored in the memory to the second network interface To the external device (S2050).

상기 기설정된 특정 이벤트는, 예를 들어 상기 멀티미디어 디바이스를 사용하는 유저의 제스쳐, 보이스 또는 리모트 컨트롤러에 의해 발생하는 특정 커맨드 중 적어도 하나 이상에 대응한다. 그리고, 상기 외부로부터 수신된 동영상 데이터는, 예컨대 방송국으로부터 수신된 방송 신호 또는 상기 멀티미디어 디바이스의 카메라에 의해 촬영된 비디오 데이터 중 어느 하나에 대응한다.The preset specific event corresponds to at least one of a gesture of a user using the multimedia device, a voice, or a specific command generated by a remote controller, for example. The moving picture data received from the outside corresponds to any one of a broadcast signal received from a broadcasting station or video data photographed by a camera of the multimedia device.

도 21은 도 20에 도시된 S2030 단계를 보다 상세히 기술하는 플로우 차트이다.FIG. 21 is a flowchart detailing step S2030 shown in FIG.

기설정된 특정 이벤트가 디텍트된 경우, 도 20에 도시된 상기 리스트를 출력하는 단계(S2030)는, 도 21에 도시된 바와 같이, 상기 멀티미디어 디바이스의 스크린을 적어도 2개 이상의 영역으로 분할하는 단계(S2031), 인디케이터의 위치를 판단하는 단계(S2032), 상기 인디케이터가 정지영상을 포함하는 제1영역에 위치한 경우, 상기 인디케이터를 제1그래픽 이미지로 변환하는 단계(S2033) 그리고 상기 인디케이터가 편집 툴을 포함하는 제2영역에 위치한 경우에는, 상기 인디케이터를 제2그래픽 이미지로 변환하는 단계(S2034)를 포함한다.If the preset specific event is detected, the step of outputting the list shown in FIG. 20 (S2030) may include dividing the screen of the multimedia device into at least two areas (S2033), determining the position of the indicator (S2032), converting the indicator into the first graphic image (S2033) when the indicator is located in the first area including the still image (S2033) And converting the indicator into a second graphic image (S2034) if the indicator is located in the second area including the second graphic image.

나아가, 도 20 및 도 21에 도시하지는 않았으나, 본 발명의 다른 일실시예에 의한 상기 특정 정지영상 데이터와 맵핑하기 위한 임의의 정보를 수신하는 단계를 더 포함한다. 상기 임의의 정보는, 예를 들어 텍스트, 오디오 데이터 또는 그래픽 이미지 중 적어도 하나 이상을 포함한다. 또한, 동영상 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터는, 예를 들어 상기 특정 이벤트가 디텍트된 시점으로부터 기설정된 과거 기간을 소급하여 캡쳐된 적어도 하나 이상의 이미지에 대응한다.Further, although not shown in FIGS. 20 and 21, the method further includes receiving arbitrary information for mapping the specific still image data according to another embodiment of the present invention. The arbitrary information includes at least one of, for example, text, audio data, or graphic image. Also, at least one or more still image data associated with the moving image data corresponds to at least one or more images captured retroactively, for example, from a point in time when the specific event is detected, retrospectively.

그리고, 도 20 및 도 21에 도시하지는 않았으나, 본 발명의 또 다른 일실시예에 의하면, 외부 디바이스를 특정하기 위한 적어도 하나 이상의 옵션을 디스플레이 하는 단계를 더 포함하도록 설계한다.20 and 21, according to another embodiment of the present invention, it is designed to further include displaying at least one or more options for specifying an external device.

도 22는 멀티미디어 디바이스를 제어하는 다른 일실시예를 설명하기 위한 플로우 차트이다. 한편, 이전 도 1 내지 도 19에서 전술한 실시예들을 참조하여, 도 20을 보충 해석하는 것도 본 발명의 권리범위에 속한다.22 is a flowchart for explaining another embodiment for controlling the multimedia device. It is also within the scope of the present invention to supplement the analysis of FIG. 20 with reference to the embodiments described above in FIGS. 1 to 19 above.

우선, 본 발명의 다른 일실시예에 의한 멀티미디어 디바이스는, 퀵메모를 실행하기 위한 입력 명령을 수신하고(S2210), 현재 출력 중인 동영상 비디오 데이터를 캡쳐한다(S2220).First, the multimedia device according to another embodiment of the present invention receives an input command for executing a quick memo (S2210), and captures moving image video data currently being output (S2220).

현재 캡쳐된 스크린 이미지가 선택되었는지 여부를 판단하고(S2230), 선택되지 아니한 경우 캡쳐된 시점 이전의 적어도 하나 이상의 스냅샷 등을 디스플레이 한다(S2240). 상기 적어도 하나 이상의 스냅샷 중 특정 스냅샷이 선택된다(S2250).In step S2230, it is determined whether the currently captured screen image is selected. If not, at least one snapshot or the like prior to the captured time is displayed in step S2240. A specific snapshot of the at least one snapshot is selected (S2250).

한편, 상기 판단 결과 선택된 경우에는, 편집 툴을 제공하고(S2260), 전체 캡쳐 화면 중에서 특정 영역만 선택된다(S2270). 물론, 유저에게 리사이징 기능을 제공하지 않고 캡쳐된 화면 그대로 저장하도록 설계하는 것도 본 발명의 권리범위에 속한다.On the other hand, if the determination result is selected, an editing tool is provided (S2260), and only a specific region is selected from the entire captured screen (S2270). Of course, it is also within the scope of the present invention that the user is not provided with a resizing function but is designed to store the captured screen as it is.

메모를 위한 부가 정보(예를 들어, 텍스트, 음성 등)가 입력된 다음(S2280), 캡쳐된 이미지와 맵핑된 상기 부가 정보를 모두 포함하는 통합 데이터를 기설정된 이메일, MMS 또는 SNS 포맷으로 전송한다(S2290).(E.g., text, voice, etc.) for the memo (S2280), and then transmits the integrated data including all of the additional information mapped to the captured image in the predetermined e-mail, MMS or SNS format (S2290).

본 발명의 일실시예에 따른 장치 및 제어 방법은, 전술한 도면과 도면을 결합하여, 또는 당업자에게 자명한 사항을 결합하여 다른 실시예를 구현할 수도 있으며, 이 역시 본 발명의 권리범위에 속한다.The apparatus and the control method according to an embodiment of the present invention may implement other embodiments by combining the above-described drawings and the drawings or by combining matters obvious to those skilled in the art, which also falls within the scope of the present invention.

한편, 본 발명의 전자 장치의 동작방법은 전자 장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the method of operating the electronic device of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by the processor included in the electronic device. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

500 : 메모리
510 : 제1네트워크 인터페이스 모듈
520 : 디스플레이 모듈
530 : 비디오 프로세서
540 : 오디오 프로세서
550 : 스피커
560 : 컨트롤러
570 : 제2네트워크 인터페이스 모듈
580 : 디텍팅 모듈
590 : 리스트 생성 모듈
500: Memory
510: first network interface module
520: display module
530: Video processor
540: Audio Processor
550: Speaker
560: Controller
570: second network interface module
580: Detecting module
590: List generation module

Claims (19)

적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스에 있어서,
오디오 데이터 및 비디오 데이터가 멀티플렉싱 되어 있는 방송 신호를 수신하는 제1네트워크 인터페이스 모듈;
상기 멀티플렉싱 되어 있는 방송 신호내 비디오 데이터를 처리하는 비디오 프로세서;
상기 멀티플렉싱 되어 있는 방송 신호내 오디오 데이터를 처리하는 오디오 프로세서;
상기 처리된 비디오 데이터를 출력하는 디스플레이 모듈;
상기 처리된 오디오 데이터를 출력하는 스피커;
기설정된 특정 이벤트를 디텍트 하는 디텍팅 모듈;
상기 기설정된 특정 이벤트가 디텍트된 시점의 비디오 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터를 포함하는 리스트를 생성하는 리스트 생성 모듈;
상기 리스트내 특정 정지영상 데이터와 임의의 정보를 맵핑한 상태의 통합 데이터를, 메모리에 저장시키는 컨트롤러; 그리고
상기 메모리에 저장되어 있는 통합 데이터를, 외부 디바이스로 전송하는 제2네트워크 인터페이스 모듈
을 포함하는 멀티미디어 디바이스.
A multimedia device connected via at least one or more network interfaces,
A first network interface module for receiving a broadcast signal in which audio data and video data are multiplexed;
A video processor for processing video data in the multiplexed broadcast signal;
An audio processor for processing audio data in the multiplexed broadcast signal;
A display module for outputting the processed video data;
A speaker for outputting the processed audio data;
A detecting module for detecting a predetermined event;
A list generating module for generating a list including at least one still image data associated with the video data at a point in time when the preset specific event is detected;
A controller for storing the integrated data in a state in which the specific still image data in the list and the arbitrary information are mapped; And
A second network interface module for transmitting the integrated data stored in the memory to an external device,
Lt; / RTI >
제1항에 있어서,
상기 기설정된 특정 이벤트가 디텍트된 경우,
상기 컨트롤러는,
상기 스피커를 제어하여 상기 처리된 오디오 데이터의 출력은 유지하고,
상기 디스플레이 모듈을 제어하여 상기 처리된 비디오 데이터의 출력을 중지하고, 상기 비디오 데이터를 상기 메모리에 저장하도록 설계된 멀티미디어 디바이스.
The method according to claim 1,
When the preset specific event is detected,
The controller comprising:
Controls the speaker to maintain the output of the processed audio data,
And to control the display module to stop outputting the processed video data, and to store the video data in the memory.
제1항에 있어서,
상기 기설정된 특정 이벤트가 디텍트된 경우,
상기 컨트롤러는,
상기 멀티미디어 디바이스의 스크린을 적어도 2개 이상의 영역으로 분할하고,
인디케이터가 정지영상을 포함하는 제1영역에 위치한 경우, 상기 인디케이터를 제1그래픽 이미지로 변환하고,
인디케이터가 편집 툴을 포함하는 제2영역에 위치한 경우에는, 상기 인디케이터를 제2그래픽 이미지로 변환하도록 설계된 멀티미디어 디바이스.
The method according to claim 1,
When the preset specific event is detected,
The controller comprising:
Dividing the screen of the multimedia device into at least two areas,
If the indicator is located in a first area containing a still image, converting the indicator into a first graphic image,
The multimedia device being designed to convert the indicator to a second graphic image if the indicator is located in a second area including an editing tool.
제1항에 있어서,
상기 특정 정지영상 데이터내에 포함된 텍스트를 추출하는 OCR(Optical Character Recognition) 모듈
을 더 포함하는 멀티미디어 디바이스.
The method according to claim 1,
An OCR (Optical Character Recognition) module for extracting text included in the specific still image data
Lt; / RTI >
제1항에 있어서,
상기 특정 정지영상 데이터와 맵핑하기 위한 임의의 정보를 입력하는 유저 인터페이스
를 더 포함하는 멀티미디어 디바이스.
The method according to claim 1,
A user interface for inputting arbitrary information for mapping the specific still image data,
Lt; / RTI >
제5항에 있어서,
상기 임의의 정보는,
텍스트, 오디오 데이터 또는 그래픽 이미지 중 적어도 하나 이상을 포함하는 멀티미디어 디바이스.
6. The method of claim 5,
The above-
Wherein the multimedia device comprises at least one of text, audio data, or graphic images.
제1항에 있어서,
비디오 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터는,
상기 특정 이벤트가 디텍트된 시점으로부터 기설정된 과거 기간을 소급하여 캡쳐된 적어도 하나 이상의 이미지에 대응하는 멀티미디어 디바이스.
The method according to claim 1,
The at least one still image data associated with the video data,
Wherein the predetermined event corresponds to at least one image captured retroactively from a point in time when the specific event is detected.
제1항에 있어서,
상기 컨트롤러는,
상기 디스플레이 모듈을 제어하여, 외부 디바이스를 특정하기 위한 적어도 하나 이상의 옵션을 디스플레이하도록 설계된 멀티미디어 디바이스.
The method according to claim 1,
The controller comprising:
The multimedia device being designed to control the display module to display at least one or more options for specifying an external device.
제1항에 있어서,
상기 기설정된 특정 이벤트는,
상기 멀티미디어 디바이스를 사용하는 유저의 제스쳐, 보이스 또는 리모트 컨트롤러에 의해 발생하는 특정 커맨드 중 적어도 하나 이상에 대응하는 멀티미디어 디바이스.
The method according to claim 1,
The predetermined specific event is a predetermined event,
Wherein the multimedia device corresponds to at least one of a gesture of a user using the multimedia device, a voice, or a specific command generated by a remote controller.
제1항에 있어서,
상기 멀티미디어 디바이스는,
방송 수신기, DTV, 네트워크 TV, 인터넷 TV 또는 스마트 TV 중 어느 하나에 대응하는 멀티미디어 디바이스.
The method according to claim 1,
The multimedia device comprising:
A multimedia receiver, a DTV, a network TV, an Internet TV, or a smart TV.
적어도 하나 이상의 네트워크 인터페이스로 연결된 멀티미디어 디바이스의 제어 방법에 있어서,
제1네트워크 인터페이스를 통해, 외부로부터 수신된 동영상 데이터를 디스플레이 하는 단계;
기설정된 특정 이벤트를 디텍트하는 단계;
상기 동영상 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터를 포함하는 리스트를 출력하는 단계;
상기 리스트내 특정 정지영상 데이터와 임의의 정보를 맵핑한 상태의 통합 데이터를, 메모리에 저장시키는 단계; 그리고
상기 메모리에 저장되어 있는 통합 데이터를, 제2네트워크 인터페이스를 통해 외부 디바이스로 전송하는 단계
를 포함하는 멀티미디어 디바이스의 제어 방법.
A method of controlling a multimedia device connected to at least one or more network interfaces,
Displaying moving picture data received from outside via a first network interface;
Detecting a preset specific event;
Outputting a list including at least one still image data associated with the moving image data;
Storing integrated data in a state in which specific still image data in the list is mapped to arbitrary information in a memory; And
Transmitting the integrated data stored in the memory to an external device via a second network interface
Gt; a < / RTI >
제11항에 있어서,
상기 기설정된 특정 이벤트가 디텍트된 경우,
상기 리스트를 출력하는 단계는,
상기 멀티미디어 디바이스의 스크린을 적어도 2개 이상의 영역으로 분할하는 단계;
인디케이터가 정지영상을 포함하는 제1영역에 위치한 경우, 상기 인디케이터를 제1그래픽 이미지로 변환하는 단계; 그리고
인디케이터가 편집 툴을 포함하는 제2영역에 위치한 경우에는, 상기 인디케이터를 제2그래픽 이미지로 변환하는 단계
를 포함하는 멀티미디어 디바이스의 제어 방법.
12. The method of claim 11,
When the preset specific event is detected,
The step of outputting the list may include:
Dividing the screen of the multimedia device into at least two areas;
Converting the indicator to a first graphic image if the indicator is located in a first area containing a still image; And
If the indicator is located in a second area including an editing tool, converting the indicator to a second graphic image
Gt; a < / RTI >
제11항에 있어서,
상기 특정 정지영상 데이터와 맵핑하기 위한 임의의 정보를 수신하는 단계
를 더 포함하는 멀티미디어 디바이스의 제어 방법.
12. The method of claim 11,
Receiving the arbitrary information for mapping with the specific still image data
Further comprising the steps of:
제13항에 있어서,
상기 임의의 정보는,
텍스트, 오디오 데이터 또는 그래픽 이미지 중 적어도 하나 이상을 포함하는 멀티미디어 디바이스의 제어 방법.
14. The method of claim 13,
The above-
Wherein the multimedia data comprises at least one of text, audio data, or graphic images.
제11항에 있어서,
동영상 데이터와 연계되어 있는 적어도 하나 이상의 정지영상 데이터는,
상기 특정 이벤트가 디텍트된 시점으로부터 기설정된 과거 기간을 소급하여 캡쳐된 적어도 하나 이상의 이미지에 대응하는 멀티미디어 디바이스의 제어 방법.
12. The method of claim 11,
The at least one still image data associated with the moving image data,
Wherein at least one image captured after retreating the predetermined past period from the point at which the specific event is detected corresponds to the captured image.
제11항에 있어서,
외부 디바이스를 특정하기 위한 적어도 하나 이상의 옵션을 디스플레이 하는 단계
를 더 포함하는 멀티미디어 디바이스의 제어 방법.
12. The method of claim 11,
Displaying at least one or more options for specifying an external device
Further comprising the steps of:
제11항에 있어서,
상기 기설정된 특정 이벤트는,
상기 멀티미디어 디바이스를 사용하는 유저의 제스쳐, 보이스 또는 리모트 컨트롤러에 의해 발생하는 특정 커맨드 중 적어도 하나 이상에 대응하는 멀티미디어 디바이스의 제어 방법.
12. The method of claim 11,
The predetermined specific event is a predetermined event,
Wherein the multimedia device corresponds to at least one of a gesture of a user using the multimedia device, a voice, or a specific command generated by a remote controller.
제11항에 있어서,
상기 외부로부터 수신된 동영상 데이터는,
방송국으로부터 수신된 방송 신호 또는 상기 멀티미디어 디바이스의 카메라에 의해 촬영된 비디오 데이터 중 어느 하나에 대응하는 멀티미디어 디바이스의 제어 방법.
12. The method of claim 11,
The moving picture data received from the outside includes:
Wherein the multimedia device corresponds to any one of a broadcast signal received from a broadcasting station or video data photographed by a camera of the multimedia device.
제11항 내지 제18항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 11 to 18.
KR1020120127275A 2012-11-12 2012-11-12 Multimedia device connected to at least one network interface and method for processing data in multimedia device KR101992193B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120127275A KR101992193B1 (en) 2012-11-12 2012-11-12 Multimedia device connected to at least one network interface and method for processing data in multimedia device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120127275A KR101992193B1 (en) 2012-11-12 2012-11-12 Multimedia device connected to at least one network interface and method for processing data in multimedia device

Publications (2)

Publication Number Publication Date
KR20140060682A true KR20140060682A (en) 2014-05-21
KR101992193B1 KR101992193B1 (en) 2019-06-24

Family

ID=50889899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120127275A KR101992193B1 (en) 2012-11-12 2012-11-12 Multimedia device connected to at least one network interface and method for processing data in multimedia device

Country Status (1)

Country Link
KR (1) KR101992193B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784615A (en) * 2016-03-25 2020-10-16 北京三星通信技术研究有限公司 Method and device for processing multimedia information

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582539B1 (en) 2022-07-26 2023-09-26 (재)예수병원유지재단 Television signal switching apparatus using MS-Excel

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120089972A (en) * 2011-01-11 2012-08-16 엘지전자 주식회사 Method for processing multiple contents in network tv and the network tv
KR20120099328A (en) * 2011-01-18 2012-09-10 엘지전자 주식회사 Method for bookmarking at least one of item in network tv and the network tv

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120089972A (en) * 2011-01-11 2012-08-16 엘지전자 주식회사 Method for processing multiple contents in network tv and the network tv
KR20120099328A (en) * 2011-01-18 2012-09-10 엘지전자 주식회사 Method for bookmarking at least one of item in network tv and the network tv

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784615A (en) * 2016-03-25 2020-10-16 北京三星通信技术研究有限公司 Method and device for processing multimedia information

Also Published As

Publication number Publication date
KR101992193B1 (en) 2019-06-24

Similar Documents

Publication Publication Date Title
CN109618206B (en) Method and display device for presenting user interface
KR102179958B1 (en) Large format display apparatus and control method thereof
CN112511882B (en) Display device and voice call-out method
CN113763958B (en) Voice wakeup method, voice wakeup device, electronic equipment and storage medium
KR20160091628A (en) Method for controlling source device at sink device and apparatus for the same
EP3179735A1 (en) Display device and method for controlling the same
KR102155129B1 (en) Display apparatus, controlling metheod thereof and display system
US20120301030A1 (en) Image processing apparatus, image processing method and recording medium
US11960674B2 (en) Display method and display apparatus for operation prompt information of input control
CN111970549B (en) Menu display method and display device
CN112188249B (en) Electronic specification-based playing method and display device
CN111556350B (en) Intelligent terminal and man-machine interaction method
US20230018502A1 (en) Display apparatus and method for person recognition and presentation
CN111818378A (en) Display device and person identification display method
KR101992193B1 (en) Multimedia device connected to at least one network interface and method for processing data in multimedia device
CN112055245B (en) Color subtitle realization method and display device
WO2021196433A1 (en) Interface display method and display device
CN113347413A (en) Window position detection method and display device
CN112799576A (en) Virtual mouse moving method and display device
CN111669662A (en) Display device, video call method and server
CN112199560A (en) Setting item searching method and display device
KR102004264B1 (en) Multimedia device for having intergrated searching function and method for controlling the same
CN112053688A (en) Voice interaction method, interaction equipment and server
CN111931692A (en) Display device and image recognition method
KR20130071148A (en) Method for operating an image display apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant