KR20200069936A - Apparatus for providing information contained in media and method for the same - Google Patents

Apparatus for providing information contained in media and method for the same Download PDF

Info

Publication number
KR20200069936A
KR20200069936A KR1020180157519A KR20180157519A KR20200069936A KR 20200069936 A KR20200069936 A KR 20200069936A KR 1020180157519 A KR1020180157519 A KR 1020180157519A KR 20180157519 A KR20180157519 A KR 20180157519A KR 20200069936 A KR20200069936 A KR 20200069936A
Authority
KR
South Korea
Prior art keywords
data
query
processor
user
unit
Prior art date
Application number
KR1020180157519A
Other languages
Korean (ko)
Other versions
KR102613623B1 (en
Inventor
이철수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180157519A priority Critical patent/KR102613623B1/en
Publication of KR20200069936A publication Critical patent/KR20200069936A/en
Application granted granted Critical
Publication of KR102613623B1 publication Critical patent/KR102613623B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • G10L15/265
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

According to an embodiment of the present invention, provided is a display device which provides information included in media. The display device comprises: a processor converting sound data extracted from media content into character string data, obtaining first meaning information indicating meaning of query data corresponding to queries of a user and second meaning information indicating meaning of the character string data, and generating response data corresponding the query data based on the character string data using the meaning information; and an output unit outputting the generated response data.

Description

미디어에 포함된 정보를 제공하는 장치 및 그 방법 {APPARATUS FOR PROVIDING INFORMATION CONTAINED IN MEDIA AND METHOD FOR THE SAME}Device and method for providing information contained in media {APPARATUS FOR PROVIDING INFORMATION CONTAINED IN MEDIA AND METHOD FOR THE SAME}

본 발명은 미디어에 포함된 정보 제공 장치 및 그 방법에 관한 것이다. 구체적으로, 방송 또는 스트리밍 콘텐츠를 감상하는 단말기에 적용되어 콘텐츠에서 재생되는 음성 정보를 기반으로 사용자가 요청하는 정보를 검출하고 제공하는 방법에 관한 것이다.The present invention relates to an information providing apparatus and a method included in the media. Specifically, the present invention relates to a method of detecting and providing information requested by a user based on voice information played in a content applied to a terminal for viewing broadcast or streaming content.

유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있다. 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서는 제공할 수 없었던 다양한 서비스를 제공할 수 있다.Digital TV services using wired or wireless communication networks are becoming common. The digital TV service can provide various services that could not be provided by the existing analog broadcasting service.

예를 들어 디지털 TV 서비스의 종류인 IPTV(Internet Protocol Television), smart TV 서비스의 경우 사용자로 하여금 시청 프로그램의 종류, 시청 시간 등을 능동적으로 선택할 수 있도록 하는 양방향성을 제공한다. IPTV, smart TV서비스는 이러한 양방향성을 기반으로 하여 다양한 부가 서비스, 예컨대 인터넷 검색, 홈쇼핑, 온라인 게임 등을 제공할 수도 있다.For example, IPTV (Internet Protocol Television), a type of digital TV service, and smart TV service provide bi-directionality that allows a user to actively select the type of viewing program, viewing time, and the like. IPTV and smart TV services may provide various additional services, such as Internet search, home shopping, online games, etc., based on this bi-directionality.

기존에는 만약 미디어를 감상하다 미디어에서 제공된 정보를 다시 확인하고자 하더라도, 해당 미디어가 실시간 스트리밍인 경우에는 사용자가 해당 미디어 재생 장치로부터 직접 정보를 획득할 방법은 제한적으로 제공되는 EPG(Electronic Program Guide)를 확인하거나 버퍼에 저장된 최근 영상을 되감아서 다시 확인하는 방법, 또는 외부의 정보 제공 서비스 업체로부터 미디어 정보를 획득하는 방법밖에 없다. In the past, even if you want to check the information provided by the media while watching the media, if the media is real-time streaming, the method for the user to obtain information directly from the media playback device is limited to the provided Electronic Program Guide (EPG). There is only a method of checking or rewinding the latest image stored in the buffer to check again, or a method of obtaining media information from an external information provider.

하지만, EPG는 해당 미디어의 전반적인 정보만을 담을 뿐, 미디어의 내용에 포함된 정보를 담지 못하는 경우가 많으며, 버퍼에 저장된 데이터를 확인하는 경우 번거롭고 기기의 복잡도가 증가하며, 외부의 정보 제공 서비스 업체로부터 미디어 정보를 요청하는 경우에는 캡쳐된 영상이 외부로 반출됨에 따라 저작권 침해의 문제가 발생할 우려가 있으며 비효율적이다.However, the EPG only contains the overall information of the media, and often does not contain the information contained in the contents of the media. When checking the data stored in the buffer, it is cumbersome and increases the complexity of the device, and the external information provider In the case of requesting media information, there is a possibility that a problem of copyright infringement may occur as the captured image is exported to the outside, and it is inefficient.

또한, 특허 공개번호 10-2010-0072972에 따르면 미디어 콘텐츠를 감상할 때 콘텐츠에 포함된 음성 정보를 인식하여 자막을 생성하여 제공할 수 있다. 하지만, 이는 단순히 콘텐츠의 음성 정보를 자막으로 생성하는 것에 불과할 뿐, 사용자의 질의에 따라 미디어 콘텐츠에 포함된 정보 중에서 적합한 정보를 선택하여 제공하고 있지 않다.In addition, according to Patent Publication No. 10-2010-0072972, when viewing media content, voice information included in the content may be recognized to generate and provide subtitles. However, this is merely to generate the audio information of the content as subtitles, and does not select and provide suitable information among information included in the media content according to a user's query.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-mentioned background art is technical information acquired by the inventor for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a known technology disclosed to the general public prior to the filing of the present invention.

국내 공개특허공보 10-2010-0072972Domestic Patent Publication 10-2010-0072972

본 발명은 사용자에게 미디어 콘텐츠를 제공하면서 미디어 콘텐츠 안에 포함된 소리로 출력되는 정보 중에서 사용자의 질의에 상응하는 정보를 추출하여 사용자에게 제공하는, 미디어에 포함된 정보를 제공하는 장치 및 그 방법을 제공하고자 한다.The present invention provides an apparatus and method for providing information contained in media that extracts information corresponding to a user's query from information output as sounds included in the media content and provides it to the user while providing media content to the user I want to.

또한, 본 발명은 사용자의 질의에 상응하는 응답 데이터를 생성하는데 이용되는 적어도 하나 이상의 엔진들을 업데이트하여 관리하는, 미디어에 포함된 정보를 제공하는 장치 및 그 방법을 제공하고자 한다.In addition, the present invention is to provide an apparatus and a method for providing information included in media, updating and managing at least one or more engines used to generate response data corresponding to a user's query.

또한, 본 발명은 미디어 콘텐츠에 상응하는 문자열 데이터의 쿼리 범위를 선택하고, 선택된 쿼리 범위 이내에서 질의에 상응하는 응답 데이터를 생성하는, 미디어에 포함된 정보를 제공하는 장치 및 그 방법을 제공하고자 한다.In addition, the present invention is to provide an apparatus and method for providing information included in media, which selects a query range of string data corresponding to media content and generates response data corresponding to a query within a selected query range. .

본 발명의 일 실시 예는, 사용자에게 제공하는 미디어 콘텐츠에 포함된 소리로 출력되는 정보를 문자열 데이터로 변환하고, 문자열 데이터에 상응하는 의미 정보와 사용자의 질의에 상응하는 의미 정보를 생성하고, 생성된 의미 정보들을 서로 비교하여 문자열 데이터에서 사용자의 질의에 상응하는 정보를 추출하고, 추출된 정보를 기반으로 응답 데이터를 생성하여 사용자에게 제공한다.According to an embodiment of the present invention, information output as sound included in media content provided to a user is converted into string data, and semantic information corresponding to string data and semantic information corresponding to a user's query are generated and generated. By comparing the semantic information with each other, information corresponding to the user's query is extracted from the string data, and response data is generated based on the extracted information and provided to the user.

또한, 본 발명의 일 실시 예는, 유무선 통신을 통하여 연결된 관리 서버로부터 응답 데이터를 생성하는데 사용하는 적어도 하나 이상의 엔진들에 대한 업데이트 데이터를 수신하여 엔진들을 업데이트한다. In addition, an embodiment of the present invention updates engines by receiving update data for at least one engine used to generate response data from a management server connected through wired/wireless communication.

또한, 본 발명의 일 실시 예는, 사용자의 상호작용 또는 미디어 콘텐츠에 상응하는 EPG 정보 중에서 적어도 하나 이상을 이용하여 문자열 데이터에 대한 질의 범위를 구분하고, 구분된 질의 범위들 중에서 사용자의 질의에 상응하는 질의 범위를 결정하고, 결정된 질의 범위에 기반하여 응답 데이터를 생성한다.In addition, an embodiment of the present invention classifies a query range for string data using at least one or more of EPG information corresponding to a user's interaction or media content, and corresponds to a user's query among the divided query ranges Determines the range of queries to be made, and generates response data based on the determined range of queries.

본 발명의 다양한 실시 예에 따르면, 사용자가 미디어 콘텐츠를 시청하면서 다시 확인하고 싶은 정보를 간단한 방법으로 재확인이 가능하여 사용자의 정보 검색의 편의성을 도모할 수 있다.According to various embodiments of the present invention, it is possible to reconfirm the information that the user wants to check again while watching the media content in a simple manner, thereby facilitating the user's information search convenience.

또한, 본 발명의 다양한 실시 예에 따르면, 응답 데이터를 생성하는데 이용되는 다양한 엔진들을 꾸준히 업데이트하여 관리하므로, 응답 데이터의 정확도를 높임과 동시에 다양한 언어에 대하여도 폭넓게 지원하여 응답 데이터를 생성할 수 있다.In addition, according to various embodiments of the present invention, since various engines used to generate response data are constantly updated and managed, response data can be generated by increasing the accuracy of response data and supporting a wide range of languages. .

또한, 본 발명의 다양한 실시 예에 따르면, 사용자의 상호작용 또는 EPG 데이터 중에서 적어도 하나 이상에 기반하여 사용자 질의에 대한 쿼리 범위를 결정하므로, 쿼리 범위를 사용자가 인지하는 질의 범위와 높은 정확도로 일치시킬 수 있다. 나아가, 쿼리 범위 내에서 응답 데이터를 생성하므로 연산의 속도를 높일 수 있다.In addition, according to various embodiments of the present invention, since a query range for a user query is determined based on at least one of user interaction or EPG data, the query range is matched with a query range recognized by the user with high accuracy. Can be. Furthermore, since response data is generated within the query range, the operation speed can be increased.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 시스템의 구성을 나타낸 블록도이다.
도 6은 도 5에 도시된 미디어에 포함된 정보를 제공하는 장치의 일 예를 나타낸 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
도 8은 도 7에 도시된 응답 데이터를 생성하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 9는 도 8에 도시된 문자열 데이터의 쿼리 범위를 결정하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 10 내지 12는 본 발명의 일 실시 예의 사용 태양을 나타낸 도면이다.
1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention.
2 is a block diagram of a remote control device according to an embodiment of the present invention.
Figure 3 shows an actual configuration example of a remote control device according to an embodiment of the present invention.
4 shows an example of using a remote control device according to an embodiment of the present invention.
5 is a block diagram showing the configuration of a system for providing information included in media according to an embodiment of the present invention.
6 is a block diagram showing an example of an apparatus for providing information included in the media shown in FIG. 5.
7 is an operation flowchart illustrating a method for providing information included in media according to an embodiment of the present invention.
8 is an operation flowchart illustrating an example of the step of generating the response data shown in FIG. 7.
9 is an operation flowchart illustrating an example of a step of determining a query range of character string data shown in FIG. 8.
10 to 12 are views showing an aspect of use of an embodiment of the present invention.

이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, embodiments related to the present invention will be described in more detail with reference to the drawings. The suffixes "modules" and "parts" for components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves.

본 발명의 실시 예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.The display device according to an exemplary embodiment of the present invention is, for example, an intelligent display device in which a computer support function is added to a broadcast reception function, and while being faithful to the broadcast reception function, an Internet function, etc. is added, a handwritten input device, a touch screen Alternatively, a more convenient interface such as a space remote control may be provided. And, with the support of wired or wireless Internet functions, it is possible to perform functions such as email, web browsing, banking, or games by accessing the Internet and computers. A standardized general-purpose OS can be used for these various functions.

따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.Thus, the display device described in the present invention, for example, on a general-purpose OS kernel, since various applications can be freely added or deleted, various user-friendly functions can be performed. The display device may be more specifically, for example, a network TV, HBBTV, smart TV, LED TV, OLED TV, and the like, and is also applicable to a smartphone in some cases.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention.

도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 무선 통신부(173), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다. Referring to FIG. 1, the display device 100 includes a broadcast receiving unit 130, an external device interface unit 135, a storage unit 140, a user input interface unit 150, a control unit 170, and a wireless communication unit 173. , A display unit 180, an audio output unit 185, and a power supply unit 190.

방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다. The broadcast reception unit 130 may include a tuner 131, a demodulation unit 132, and a network interface unit 133.

튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.The tuner 131 may select a specific broadcast channel according to a channel selection command. The tuner 131 may receive a broadcast signal for a selected specific broadcast channel.

복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.The demodulator 132 may separate the received broadcast signal into a video signal, an audio signal, and a data signal related to a broadcast program, and restore the separated video signal, audio signal, and data signal to a form capable of output.

외부장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.The external device interface unit 135 may receive an application or a list of applications in an adjacent external device and transmit it to the control unit 170 or the storage unit 140.

외부장치 인터페이스부(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스부(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부장치 인터페이스부(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다. The external device interface unit 135 may provide a connection path between the display device 100 and the external device. The external device interface unit 135 may receive one or more of video and audio output from an external device connected to the display device 100 wirelessly or wiredly, and transmit them to the control unit 170. The external device interface unit 135 may include a plurality of external input terminals. The plurality of external input terminals may include an RGB terminal, one or more High Definition Multimedia Interface (HDMI) terminals, and a component terminal.

외부장치 인터페이스부(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이부(180)를 통해 출력될 수 있다. 외부장치 인터페이스부(135)를 통해 입력된 외부장치의 음성 신호는 오디오 출력부(185)를 통해 출력될 수 있다. The image signal of the external device input through the external device interface unit 135 may be output through the display unit 180. The audio signal of the external device input through the external device interface unit 135 may be output through the audio output unit 185.

외부장치 인터페이스부(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.The external device connectable to the external device interface unit 135 may be any one of a set-top box, a Blu-ray player, a DVD player, a game machine, a sound bar, a smartphone, a PC, a USB memory, and a home theater, but this is only an example. .

네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. The network interface unit 133 may provide an interface for connecting the display device 100 to a wired/wireless network including an Internet network. The network interface unit 133 may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network.

또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.In addition, some content data stored in the display device 100 may be transmitted to a selected user or a selected electronic device among other users or other electronic devices registered in advance in the display device 100.

네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.The network interface unit 133 may access a predetermined web page through a connected network or another network linked to the connected network. That is, it is possible to connect to a predetermined web page through a network, and transmit or receive data with the corresponding server.

그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.In addition, the network interface unit 133 may receive content or data provided by a content provider or a network operator. That is, the network interface unit 133 may receive content such as a movie, advertisement, game, VOD, broadcast signal, and related information provided by a content provider or a network provider through a network.

또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.Further, the network interface unit 133 may receive update information and update files of firmware provided by the network operator, and may transmit data to the Internet or a content provider or a network operator.

네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다. The network interface unit 133 may select and receive a desired application from among applications that are open to the public through a network.

저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.The storage unit 140 may store a program for processing and controlling each signal in the control unit 170 and store a signal-processed image, audio, or data signal.

또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.In addition, the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit 135 or the network interface unit 133, and is predetermined through a channel memory function. You can also store information about the image.

저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.The storage unit 140 may store an application or a list of applications input from the external device interface unit 135 or the network interface unit 133.

디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.The display device 100 may play and provide content files (video files, still image files, music files, document files, application files, etc.) stored in the storage unit 140 to the user.

사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.The user input interface unit 150 may transmit a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user. For example, the user input interface unit 150 may be in accordance with various communication methods, such as Bluetooth, WB (Ultra Wideband), ZigBee, RF (Radio Frequency) communication, or infrared (IR) communication, A control signal such as power on/off, channel selection, screen setting, and the like may be received from the remote control device 200, or may be processed to transmit a control signal from the control unit 170 to the remote control device 200.

또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.In addition, the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the control unit 170.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.The image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the corresponding image signal. Also, the image signal processed by the control unit 170 may be input to the external output device through the external device interface unit 135.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다. The audio signal processed by the control unit 170 may be audio output to the audio output unit 185. Also, the audio signal processed by the control unit 170 may be input to the external output device through the external device interface unit 135.

그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다. In addition, the control unit 170 may control the overall operation in the display device 100.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.In addition, the control unit 170 may control the display device 100 by a user command or an internal program input through the user input interface unit 150, and access the network to display a list of applications or applications desired by the user. You can make it downloadable within (100).

제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.The control unit 170 allows the channel information or the like selected by the user to be output through the display unit 180 or the audio output unit 185 together with the processed image or audio signal.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.In addition, the control unit 170 according to the external device image playback command received through the user input interface unit 150, from an external device input through the external device interface unit 135, for example, a camera or a camcorder, The video signal or the audio signal can be output through the display unit 180 or the audio output unit 185.

한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.Meanwhile, the control unit 170 may control the display unit 180 to display an image, for example, a broadcast image input through the tuner 131, or an external input input through the external device interface unit 135 The image or an image input through the network interface unit or an image stored in the storage unit 140 may be controlled to be displayed on the display unit 180. In this case, the image displayed on the display unit 180 may be a still image or a video, and may be a 2D image or a 3D image.

또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.In addition, the control unit 170 may control the content stored in the display device 100 or the received broadcast content or external input content input from the outside to be played, and the content may include a broadcast video, an external input video, and an audio file. , Still images, connected web screens, and document files.

무선 통신부(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신부(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신부(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신부(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The wireless communication unit 173 may communicate with external devices through wired or wireless communication. The wireless communication unit 173 may perform short range communication with an external device. To this end, the wireless communication unit 173 is Bluetooth (Bluetooth™), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi By using at least one of (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology, short-range communication can be supported. The wireless communication unit 173 may be provided between the display device 100 and the wireless communication system, between the display device 100 and another display device 100, or through the display device 100 through wireless area networks. A wireless communication between networks in which the display device 100 or an external server is located may be supported. The wireless local area network may be wireless personal area networks.

여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신부(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신부(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. Here, the other display device 100 is a wearable device capable of exchanging data with the display device 100 according to the present invention (or interoperable), for example, a smart watch, a smart watch, and smart glasses (smart glass), HMD (head mounted display), can be a mobile terminal such as a smart phone. The wireless communication unit 173 may detect (or recognize) a wearable device capable of communication around the display apparatus 100. Furthermore, when the detected wearable device is a device authenticated to communicate with the display apparatus 100 according to the present invention, the control unit 170 may transmit at least a portion of data processed by the display apparatus 100 to the wireless communication unit 173. It can be transmitted to the wearable device. Therefore, a user of the wearable device can use data processed by the display device 100 through the wearable device.

디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성할 수 있다.The display unit 180 converts the image signal, data signal, OSD signal, or image signal received from the external device interface unit 135 processed by the control unit 170 into R, G, and B signals, respectively, and then drives them. You can generate a signal.

한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일 실시 예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.Meanwhile, the display device 100 illustrated in FIG. 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted depending on the specifications of the display device 100 that is actually implemented.

즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시 예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.That is, if necessary, two or more components may be combined into one component, or one component may be divided into two or more components. In addition, the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.

본 발명의 또 다른 실시 예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.According to another embodiment of the present invention, unlike the display device 100 shown in FIG. 1, without a tuner 131 and a demodulator 132, the network interface unit 133 or the external device interface unit ( 135) to receive and reproduce the video.

예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.For example, the display device 100 is divided into an image processing device such as a set-top box for receiving broadcast signals or contents according to various network services, and a content playback device for playing content input from the image processing device. Can be implemented.

이 경우, 이하에서 설명할 본 발명의 실시 예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.In this case, the operation method of the display device according to an embodiment of the present invention will be described below, as well as the display device 100 as described with reference to FIG. 1, the image processing device or display unit such as the separated set-top box ( 180) and an audio output unit 185.

다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.Next, a remote control device according to an embodiment of the present invention will be described with reference to FIGS. 2 to 3.

도 2는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.2 is a block diagram of a remote control device according to an embodiment of the present invention, and FIG. 3 shows an actual configuration example of a remote control device 200 according to an embodiment of the present invention.

먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280), 음성 획득부(290)를 포함할 수 있다. First, referring to FIG. 2, the remote control device 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, and a power supply unit 260. ), a storage unit 270, a control unit 280, and a voice acquisition unit 290.

도 2를 참조하면, 무선통신부(225)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.Referring to FIG. 2, the wireless communication unit 225 transmits and receives a signal to any one of the display devices according to the embodiments of the present invention described above.

원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.The remote control device 200 includes an RF module 221 capable of transmitting and receiving signals to and from the display device 100 according to RF communication standards, and capable of transmitting and receiving signals to and from the display device 100 according to IR communication standards. An IR module 223 may be provided. In addition, the remote control device 200 may include a Bluetooth module 225 capable of transmitting and receiving signals to and from the display device 100 according to the Bluetooth communication standard. In addition, the remote control device 200 is provided with an NFC module 227 capable of transmitting and receiving signals with the display device 100 according to NFC (Near Field Communication) communication standards, and displays according to WLAN (Wireless LAN) communication standards. A WLAN module 229 capable of transmitting and receiving signals to and from the device 100 may be provided.

또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선 통신부(220)를 통해 전송한다. In addition, the remote control device 200 transmits a signal including information on the movement of the remote control device 200 to the display device 100 through the wireless communication unit 220.

한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다. Meanwhile, the remote control device 200 may receive a signal transmitted from the display device 100 through the RF module 221, and power on/off the display device 100 through the IR module 223 as necessary. Commands for off, channel change, volume change, and the like can be transmitted.

사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.The user input unit 230 may include a keypad, a button, a touch pad, or a touch screen. The user may input a command related to the display device 100 to the remote control device 200 by operating the user input unit 230. When the user input unit 230 includes a hard key button, the user may input a command related to the display device 100 to the remote control device 200 through a push operation of the hard key button. This will be described with reference to FIG. 3.

도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.Referring to FIG. 3, the remote control device 200 may include a plurality of buttons. The plurality of buttons are fingerprint recognition button 212, power button 231, home button 232, live button 233, external input button 234, volume control button 235, voice recognition button 236, It may include a channel change button 237, a confirmation button 238 and a back button 239.

지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시 예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. 전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다. 홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다. 라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다. 외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다. 음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다. 음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다. 채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다. 확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.The fingerprint recognition button 212 may be a button for recognizing a user's fingerprint. In one embodiment, the fingerprint recognition button 212 may perform a push operation, and may receive a push operation and a fingerprint recognition operation. The power button 231 may be a button for turning on/off the power of the display device 100. The home button 232 may be a button for moving to the home screen of the display device 100. The live button 233 may be a button for displaying a real-time broadcast program. The external input button 234 may be a button for receiving an external input connected to the display device 100. The volume control button 235 may be a button for adjusting the volume of the volume output by the display device 100. The voice recognition button 236 may be a button for receiving a user's voice and recognizing the received voice. The channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel. The confirmation button 238 may be a button for selecting a specific function, and the back button 239 may be a button for returning to a previous screen.

다시 도 2를 설명한다. 2 will be described again.

사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.When the user input unit 230 includes a touch screen, the user may input a command related to the display device 100 to the remote control device 200 by touching a soft key of the touch screen. In addition, the user input unit 230 may include various types of input means that can be operated by a user, such as a scroll key or a jog key, and this embodiment does not limit the scope of the present invention.

센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다. The sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243, and the gyro sensor 241 may sense information on the movement of the remote control device 200.

예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.For example, the gyro sensor 241 may sense information on the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 may move the speed of the remote control device 200. Information about the back can be sensed. Meanwhile, the remote control device 200 may further include a distance measurement sensor, and sense a distance from the display unit 180 of the display device 100.

출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다. The output unit 250 may output an image or audio signal corresponding to the operation of the user input unit 235 or a signal transmitted from the display device 100. The user may recognize whether the user input unit 235 is operated or whether the display device 100 is controlled through the output unit 250.

예를 들어, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다. For example, the output unit 250 includes a LED module 251 that lights when the user input unit 235 is operated or a signal is transmitted and received through the wireless communication unit 225, and a vibration module generating vibration ( 253), an audio output module 255 for outputting sound, or a display module 257 for outputting an image.

또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.In addition, the power supply unit 260 supplies power to the remote control device 200, and when the remote control device 200 has not been moved for a predetermined time, power supply is stopped to reduce power waste. The power supply unit 260 may resume power supply when a predetermined key provided in the remote control device 200 is operated.

저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 디스플레이 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.The storage unit 270 may store various types of programs and application data required for control or operation of the remote control device 200. If the remote control device 200 transmits and receives signals wirelessly through the display device 100 and the RF module 221, the remote control device 200 and the display device 100 transmit and receive signals through a predetermined frequency band. .

원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.The control unit 280 of the remote control device 200 stores and references information on a frequency band capable of wirelessly transmitting and receiving signals to and from the display device 100 paired with the remote control device 200 in the storage unit 270 for reference. can do.

제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.The control unit 280 controls all matters related to the control of the remote control device 200. The control unit 280 may display a signal corresponding to a predetermined key manipulation of the user input unit 235 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor unit 240 through the wireless communication unit 225 ( 100).

또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.Also, the voice acquisition unit 290 of the remote control device 200 may acquire voice.

음성 획득부(290)는 적어도 하나 이상의 마이크(291)을 포함할 수 있고, 마이크(291)를 통해 음성을 획득할 수 있다.The voice acquisition unit 290 may include at least one microphone 291, and may acquire voice through the microphone 291.

다음으로 도 4를 설명한다.Next, FIG. 4 will be described.

도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.4 shows an example of using a remote control device according to an embodiment of the present invention.

도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이부(180)에 표시되는 것을 예시한다.4A illustrates that a pointer 205 corresponding to the remote control device 200 is displayed on the display unit 180.

사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다. The user may move or rotate the remote control device 200 up, down, left, and right. The pointer 205 displayed on the display unit 180 of the display device 100 corresponds to the movement of the remote control device 200. The remote control device 200 may be referred to as a spatial remote controller because the corresponding pointer 205 is moved and displayed according to the movement on the 3D space, as shown in the drawing.

도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다. 4B illustrates that when the user moves the remote control device 200 to the left, the pointer 205 displayed on the display unit 180 of the display device 100 also moves to the left correspondingly.

원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.Information on the movement of the remote control device 200 detected through the sensor of the remote control device 200 is transmitted to the display device 100. The display device 100 may calculate the coordinates of the pointer 205 from information related to the movement of the remote control device 200. The display device 100 may display the pointer 205 to correspond to the calculated coordinates.

도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.4C illustrates a case in which a user moves the remote control device 200 away from the display unit 180 while pressing a specific button in the remote control device 200. Accordingly, the selected area in the display unit 180 corresponding to the pointer 205 may be zoomed in and enlarged.

이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.Conversely, when the user moves the remote control device 200 to be closer to the display unit 180, the selected area in the display unit 180 corresponding to the pointer 205 may be zoomed out and reduced.

한편, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.On the other hand, when the remote control device 200 moves away from the display unit 180, the selection area is zoomed out, and when the remote control device 200 approaches the display unit 180, the selection area may be zoomed in.

또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다. In addition, recognition of up, down, left, and right movements may be excluded while a specific button in the remote control device 200 is pressed. That is, when the remote control device 200 moves to move away from or approach the display unit 180, the up, down, left, and right movements are not recognized, and only the forward and backward movements can be recognized. When a specific button in the remote control device 200 is not pressed, only the pointer 205 moves according to the up, down, left, and right movements of the remote control device 200.

한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.Meanwhile, the moving speed or the moving direction of the pointer 205 may correspond to the moving speed or the moving direction of the remote control device 200.

한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.Meanwhile, the pointer in the present specification means an object displayed on the display unit 180 in response to the operation of the remote control device 200. Therefore, objects of various shapes are possible with the pointer 205 in addition to the arrow shape shown in the drawing. For example, it may be a concept including points, cursors, prompts, and thick outlines. In addition, the pointer 205 may be displayed corresponding to any one point of the horizontal axis and the vertical axis on the display unit 180, as well as a plurality of points such as a line and a surface. Do.

다음으로, 도 5를 참조하여, 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 설명한다.Next, with reference to FIG. 5, an operation method of a system according to an embodiment of the present invention will be described.

도 5는 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 시스템(5)의 구성을 나타낸 블록도이다.5 is a block diagram showing the configuration of a system 5 for providing information contained in media according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 시스템(5)은 미디어에 포함된 정보를 제공하는 장치(500), 사용자 단말기(51), 디스플레이 장치(52) 및 관리 서버(53)를 포함할 수 있다. Referring to FIG. 5, a system 5 for providing information included in media according to an embodiment of the present invention includes a device 500 for providing information included in media, a user terminal 51, and a display device 52 ) And the management server 53.

일 실시 예에서, 미디어에 포함된 정보를 제공하는 시스템(5)은 사용자 단말기(51), 디스플레이 장치(52) 및 관리 서버(53) 중에서 적어도 하나 이상을 포함하지 않고도 구성될 수 있다.In one embodiment, the system 5 for providing information contained in the media may be configured without including at least one of the user terminal 51, the display device 52 and the management server 53.

다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 시스템(5)은 미디어에 포함된 정보를 제공하는 장치(500)만으로 구성될 수 있다.In another embodiment, the system 5 for providing information contained in the media may consist only of the device 500 for providing information contained in the media.

미디어에 포함된 정보를 제공하는 장치(500)는 미디어 콘텐츠로부터 소리 데이터를 추출하고, 소리 데이터를 문자열 데이터로 변환하고, 사용자(미도시)의 질의에 상응하는 질의 데이터와 문자열 데이터 각각의 의미에 상응하는 의미 정보를 획득하고, 의미 정보를 이용하여 문자열 데이터에 기반한 사용자 질의에 상응하는 응답 데이터를 생성하고, 응답 데이터를 제공한다. The apparatus 500 for providing information included in the media extracts sound data from the media content, converts sound data into string data, and converts the sound data into string data. Acquire the corresponding semantic information, and use the semantic information to generate response data corresponding to a user query based on string data, and provide response data.

여기서, 미디어에 포함된 정보를 제공하는 장치(500)는 텔레비전(TV), 프로젝터, 스마트폰, 태블릿, 셋톱박스(STB), DMB 수신기, 라디오 등으로 구현될 수 있다.Here, the apparatus 500 for providing information included in the media may be implemented as a television (TV), a projector, a smartphone, a tablet, a set-top box (STB), a DMB receiver, a radio, and the like.

이때, 사용자 질의는 발화를 통한 질의 음성 음성 또는 미리 질의 내용이 설정된 버튼과의 상호작용을 통한 질의 등이 포함될 수 있다.In this case, the user query may include a query voice voice through utterance or a query through interaction with a button in which query contents are set in advance.

이때, 미디어에 포함된 정보를 제공하는 장치(500)는 도 1에 도시된 디스플레이 장치(100)를 의미할 수 있다. 이 경우, 미디어에 포함된 정보를 제공하는 장치(500)는 튜너(131)를 통하여 수신하는 방송 신호를 미디어 콘텐츠로 이용할 수 있다.In this case, the apparatus 500 that provides information included in the media may refer to the display apparatus 100 illustrated in FIG. 1. In this case, the apparatus 500 that provides information included in the media may use the broadcast signal received through the tuner 131 as media content.

이때, 미디어에 포함된 정보를 제공하는 장치(500)는 미디어 콘텐츠를 다른 장치로부터 유무선 통신을 통하여 수신하여 이용할 수도 있지만, 도 6의 메모리(520)에 저장된 미디어 콘텐츠를 이용할 수도 있다.At this time, the device 500 that provides information included in the media may receive and use the media content from another device through wired or wireless communication, but may also use the media content stored in the memory 520 of FIG. 6.

사용자 단말기(51)는 미디어에 포함된 정보를 제공하는 장치(500)와 유선 또는 무선 통신 기능을 통하여 서로 신호를 송수신할 수 있는 장치이며, 미디어에 포함된 정보를 제공하는 장치(500)의 기능을 제어하는데 이용하는 단말기를 의미한다. 여기서, 사용자 단말기(51)는 리모컨, 스마트폰 등을 의미할 수 있다.The user terminal 51 is a device 500 that provides information contained in the media and a device capable of transmitting and receiving signals to each other through a wired or wireless communication function, and the function of the device 500 that provides information contained in the media It means a terminal used to control. Here, the user terminal 51 may mean a remote control, a smart phone, or the like.

이때, 사용자 단말기(51)는 도 2에 도시된 원격제어장치(200)를 의미할 수 있다.At this time, the user terminal 51 may refer to the remote control device 200 shown in FIG. 2.

이때, 사용자 단말기(51)는 사용자의 음성을 입력 받을 수 있는 마이크를 포함하여 구성될 수 있고, 이러한 경우에 사용자의 음성을 입력 받아 미디어에 포함된 정보를 제공하는 장치(500)로 전송할 수 있다.In this case, the user terminal 51 may be configured to include a microphone capable of receiving the user's voice, and in this case, the user's voice may be input and transmitted to the device 500 that provides information included in the media. .

이때, 사용자 단말기(51)는 소리를 출력할 수 있는 스피커를 포함하여 구성될 수 있고, 이러한 경우에 미디어에 포함된 정보를 제공하는 장치(500)로부터 수신한 소리 데이터를 소리로 출력할 수 있다.At this time, the user terminal 51 may be configured to include a speaker capable of outputting sound, and in this case, sound data received from the device 500 providing information included in the media may be output as sound. .

이때, 사용자 단말기(51)는 화상 정보를 출력할 수 있는 디스플레이부를 포함하여 구성될 수 있고, 이러한 경우에 미디어에 포함된 정보를 제공하는 장치(500)로부터 수신한 화상 데이터를 화상으로 출력할 수 있다.At this time, the user terminal 51 may be configured to include a display unit capable of outputting image information, and in this case, the image data received from the device 500 providing information included in the media can be output as an image. have.

이때, 사용자는 사용자 단말기(51)의 메뉴 또는 버튼 통해서 질의할 수도 있다. 따라서, 사용자 단말기(51)는 마이크를 포함한 리모콘, 메뉴를 동작할 수 있도록 하는 단말기의 리모콘, 그리고, 스마트폰으로 구현되는 리모콘 앱 등을 통칭한다.At this time, the user may query through the menu or button of the user terminal 51. Accordingly, the user terminal 51 collectively refers to a remote control including a microphone, a remote control of a terminal that can operate a menu, and a remote control app implemented with a smartphone.

디스플레이 장치(52)는 화상 데이터를 화상으로 출력하는 장치로, 화상 정보를 출력하는 디스플레이부를 포함하여 구성된다. 특히, 디스플레이 장치(52)는 소리를 출력할 수 있는 스피커를 추가적으로 포함하여 구성될 수 있다. 여기서, 디스플레이 장치(52)는 텔레비전(TV), 모니터, 프로젝터, 태블릿, 스마트폰, 노트북 등을 의미할 수 있다.The display device 52 is a device that outputs image data as an image, and includes a display unit that outputs image information. In particular, the display device 52 may be configured to additionally include a speaker capable of outputting sound. Here, the display device 52 may mean a television (TV), a monitor, a projector, a tablet, a smartphone, or a laptop.

이때, 디스플레이 장치(52)는 도 1에 도시된 디스플레이 장치(100)을 의미할 수 있다.In this case, the display device 52 may mean the display device 100 illustrated in FIG. 1.

이때, 디스플레이 장치(52)는 미디어에 포함된 정보를 제공하는 장치(500)에서 미디어 콘텐츠를 수신하여 이를 출력할 수 있다. 또한, 디스플레이 장치(52)는 미디어에 포함된 정보를 제공하는 장치(500)에서 사용자 질의에 상응하는 응답 데이터를 수신하여 이를 출력할 수 있다.At this time, the display device 52 may receive the media content from the device 500 providing information included in the media and output it. In addition, the display device 52 may receive response data corresponding to a user query from the device 500 providing information included in the media and output it.

관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)와 유선 또는 무선 통신을 통하여 연결되어, 미디어에 포함된 정보를 제공하는 장치(500)에 저장된 소프트웨어 또는 데이터를 관리하는 외부의 서버이다.The management server 53 is connected to the device 500 providing information contained in the media through wired or wireless communication, and externally managing software or data stored in the device 500 providing information contained in the media. It is a server.

이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 STT(Speech To Text) 엔진의 업데이트 데이터를 제공할 수 있다.At this time, the management server 53 may provide update data of the Speech To Text (STT) engine to the device 500 that provides information included in the media.

이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 의미 분석 엔진의 업데이트 데이터를 제공할 수 있다.In this case, the management server 53 may provide update data of the semantic analysis engine to the device 500 that provides information included in the media.

이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)의 요청에 의하여 업데이트 데이터를 미디어에 포함된 정보를 제공하는 장치(500)에 제공할 수 있으며, 미디어에 포함된 정보를 제공하는 장치(500)는 주기적으로 혹은 사용자의 요청에 의하여 관리 서버(53)에 업데이트 데이터를 요청할 수 있다.At this time, the management server 53 may provide update data to the device 500 providing information included in the media at the request of the device 500 providing information contained in the media, and the information included in the media The device 500 providing the request data may be requested from the management server 53 periodically or at the request of the user.

이때, 관리 서버(53)가 STT 엔진 또는 의미 분석 엔진에 대한 새로운 업데이트가 있을 경우, 미디어에 포함된 정보를 제공하는 장치(500)에 자동으로 해당 업데이트 데이터를 전송할 수도 있다.At this time, when there is a new update for the STT engine or the semantic analysis engine, the management server 53 may automatically transmit the corresponding update data to the device 500 providing the information included in the media.

이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 STT 엔진 또는 의미 분석 엔진 중에서 적어도 하나에 대하여 엔진의 정확도를 향상시키는 업데이트 데이터를 전송할 수 있다. STT 엔진은 음성 정보로부터 문자열 데이터를 생성하기 때문에 음성 정보를 얼마나 정확히 인식할 수 있는지가 정확도가 될 수 있다. 의미 분석 엔진은 문자열 데이터의 의미를 분석하기 때문에 문자열 데이터의 의미를 얼마나 정확히 파악할 수 있는지가 정확도가 될 수 있다.At this time, the management server 53 may transmit update data that improves the accuracy of the engine to at least one of the STT engine or the semantic analysis engine to the device 500 that provides information included in the media. Since the STT engine generates character string data from the voice information, how accurately it can recognize the voice information can be accurate. Since the semantic analysis engine analyzes the meaning of the string data, how accurate it is to understand the meaning of the string data can be accurate.

이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 STT 엔진 또는 의미 분석 엔진 중에서 적어도 하나에 대하여 엔진의 지원 언어를 수정하는 업데이트 데이터를 제공할 수 있다. 즉, 기존의 STT 엔진이나 의미 분석 엔진이 영어만을 지원하더라도, 엔진 업데이트를 통하여 한국어를 추가적으로 지원하게 할 수 있다. At this time, the management server 53 may provide update data for modifying the support language of the engine for at least one of the STT engine or the semantic analysis engine to the device 500 that provides the information included in the media. That is, even if the existing STT engine or the semantic analysis engine supports only English, it is possible to additionally support Korean through an engine update.

이때, 엔진의 지원 언어의 수정은 새로운 지원 언어를 추가/활성화하거나, 기존의 지원 언어를 삭제/비활성화하는 것을 포함할 수 있다. 예컨대, 특정 언어에 대한 지원을 기간제로 운용하는 경우에는 해당 기간이 만료되었을 때 업데이트 데이터를 통하여 해당 지원 언어를 삭제 또는 비활성화할 수 있다.At this time, the modification of the support language of the engine may include adding/activating a new support language or deleting/deactivating an existing support language. For example, when the support for a specific language is operated on a fixed-term basis, the corresponding support language may be deleted or deactivated through update data when the corresponding period expires.

이에 따라, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)를 이용하면 사용자는 미디어를 시청하면서 들었던 정보 중에서 재차 확인하고 싶은 정보를 손쉽게 확인할 수 있다. 예컨대, 라디오를 청취하면서 노래를 틀어줄 때, DJ가 알려주었던 노래의 정보를 손쉽게 다시 확인할 수 있다. Accordingly, when using the apparatus 500 for providing information included in the media according to an embodiment of the present invention, the user can easily check the information he/she wants to check again from among the information heard while watching the media. For example, when playing a song while listening to the radio, it is possible to easily check the information of the song that the DJ provided.

특히, 별도의 정보 검색을 위한 서버 없이도 재생하고자 하는 미디어 콘텐츠 자체에서 질의에 따른 응답 데이터를 생성하므로, 단일한 제조업체의 관점에서 독자적으로 미디어에 포함된 정보를 제공하는 장치를 제조하고 서비스를 제공할 수 있다. 그리고, 설령 별도의 정보 검색을 통한 추가 정보를 제공하지 않더라도 사용자에게 기억을 환기시킴으로써 충분한 만족감을 제공할 수 있다.In particular, since the media content itself to be played is generated without a server for retrieving information, response data according to a query is generated, so a device that provides information contained in the media independently from a single manufacturer's point of view is manufactured and service is provided. Can be. And, even if additional information is not provided through a separate information search, sufficient satisfaction can be provided by awakening the memory to the user.

도 6은 도 5에 도시된 미디어에 포함된 정보를 제공하는 장치(500)의 일 예를 나타낸 블록도이다.6 is a block diagram illustrating an example of an apparatus 500 that provides information included in the media shown in FIG. 5.

도 6을 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)는 프로세서(510), 메모리(520), 통신부(530), 마이크(540) 및 출력부(550) 등을 포함한다.Referring to FIG. 6, an apparatus 500 for providing information included in media according to an embodiment of the present invention includes a processor 510, a memory 520, a communication unit 530, a microphone 540, and an output unit ( 550).

이때, 프로세서(510)는 소리 데이터 추출부(511), 음성 데이터 추출부(512), 문자열 데이터 변환부(513), 질의 데이터 수신부(514), 응답 데이터 생성부(515) 및 엔진 관리부(516) 등을 포함할 수 있다.At this time, the processor 510 includes a sound data extraction unit 511, a voice data extraction unit 512, a character string data conversion unit 513, a query data reception unit 514, a response data generation unit 515, and an engine management unit 516. ) And the like.

상세히, 프로세서(510)는 일종의 중앙처리장치로서 음성 인식에 기반하여 미디어에 포함된 정보를 제공하는 전체 과정을 제어한다. 즉, 메모리(520)에 저장된 STT 엔진 또는 의미 분석 엔진을 구동하고, 통신부(530), 마이크(540), 출력부(550), 소리 데이터 추출부(511), 음성 데이터 추출부(512), 문자열 데이터 변환부(513), 질의 데이터 수신부(514), 응답 데이터 생성부(515) 및 엔진 관리부(516) 등을 제어하여 다양한 기능을 제공할 수 있다.In detail, the processor 510 is a kind of central processing unit and controls the entire process of providing information included in the media based on speech recognition. That is, the STT engine or the semantic analysis engine stored in the memory 520 is driven, and the communication unit 530, the microphone 540, the output unit 550, the sound data extraction unit 511, the voice data extraction unit 512, Various functions may be provided by controlling the character string data conversion unit 513, the query data reception unit 514, the response data generation unit 515, and the engine management unit 516.

여기서, 프로세서(510)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the processor 510 may include any kind of device capable of processing data. Here, the'processor (processor)', for example, may mean a data processing device embedded in hardware having physically structured circuits to perform functions represented by codes or instructions included in a program. As an example of such a data processing device embedded in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, and an application-specific integrated ASIC circuit), a field programmable gate array (FPGA), and the like, but the scope of the present invention is not limited thereto.

여기서, 프로세서(510)는 도 1의 제어부(170)을 의미할 수 있다.Here, the processor 510 may refer to the control unit 170 of FIG. 1.

소리 데이터 추출부(511)는 미디어 콘텐츠로부터 소리 데이터를 추출한다. The sound data extraction unit 511 extracts sound data from media content.

이때, 미디어 콘텐츠는 다른 장치로부터 통신부(530)를 통하여 수신한 것일 수도 있고, 메모리(520)에 저장된 것일 수도 있다. In this case, the media content may be received from another device through the communication unit 530 or may be stored in the memory 520.

음성 데이터 추출부(512)는 소리 데이터에서 음성 데이터를 추출한다. The voice data extraction unit 512 extracts voice data from sound data.

문자열 데이터 변환부(513)는 음성 데이터를 문자열 데이터로 변환한다. The character string data conversion unit 513 converts voice data into character string data.

질의 데이터 수신부(514)는 사용자의 질의에 상응하는 질의 데이터를 수신한다. The query data receiving unit 514 receives query data corresponding to the user's query.

이때, 사용자의 질의는 발화에 의한 질의 또는 사용자 단말기(51)의 버튼이나 메뉴와의 상호작용을 통한 질의를 포함할 수 있다.At this time, the user's query may include a query through utterance or through interaction with a button or menu of the user terminal 51.

이때, 질의 데이터 수신부(514)는 마이크(540)를 통하여 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다.At this time, the query data receiving unit 514 may receive query data corresponding to the user's query voice through the microphone 540.

이때, 질의 데이터 수신부(514)는 통신부(530)를 통해 사용자 단말기(51)로부터 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다.In this case, the query data receiving unit 514 may receive query data corresponding to the user's query voice from the user terminal 51 through the communication unit 530.

응답 데이터 생성부(515)는 의미 분석 엔진을 이용하여 질의 데이터의 의미에 상응하는 의미 정보를 획득한다. 그리고, 문자열 데이터에 상응하는 의미 정보를 획득하지 않은 경우에는 의미 분석 엔진을 이용하여 문자열 데이터의 의미에 상응하는 의미 정보를 획득한다. 그리고, 의미 정보를 이용하여 문자열 데이터에 기초한 질의 데이터에 상응하는 응답 데이터를 생성한다. The response data generating unit 515 acquires semantic information corresponding to the meaning of the query data using a semantic analysis engine. And, if the semantic information corresponding to the string data is not obtained, semantic information corresponding to the meaning of the string data is acquired using a semantic analysis engine. Then, response data corresponding to the query data based on the string data is generated using the semantic information.

엔진 관리부(516)는 STT 엔진 또는 의미 분석 엔진 중에서 적어도 하나 이상을 업데이트한다.The engine manager 516 updates at least one of the STT engine or the semantic analysis engine.

이때, 엔진 관리부(516)는 유무선 통신을 통하여 연결된 관리 서버(53)로부터 업데이트 데이터를 수신하여 STT 엔진 또는 의미 분석 엔진을 업데이트할 수 있다.At this time, the engine management unit 516 may update the STT engine or the semantic analysis engine by receiving update data from the management server 53 connected through wired/wireless communication.

이때, 엔진 관리부(516)는 STT 엔진 또는 의미 분석 엔진의 정확도를 향상시키는 업데이트를 수행할 수 있다.At this time, the engine management unit 516 may perform an update that improves the accuracy of the STT engine or the semantic analysis engine.

이때, 엔진 관리부(516)는 STT 엔진 또는 의미 분석 엔진이 지원하는 언어를 변경하는 업데이트를 수행할 수 있다. 예컨대, 기존에 STT 엔진 및 의미 분석 엔진이 영어만 지원하는 경우에 새로운 지원 언어로 한국어를 추가하는 업데이트를 수행할 수 있다.At this time, the engine management unit 516 may perform an update for changing the language supported by the STT engine or the semantic analysis engine. For example, when the STT engine and the semantic analysis engine only support English, an update that adds Korean as a new support language may be performed.

이때, 엔진 관리부(516)는 주기적으로 혹은 사용자의 요청이 있을 경우에 관리 서버(53)에 업데이트가 가능한지 여부를 확인하여 업데이트를 진행할 수 있다.At this time, the engine management unit 516 may check whether the update is possible to the management server 53 periodically or when a user requests the update.

이때, 엔진 관리부(516)는 관리 서버(53)로부터 새로운 업데이트가 가능하다는 신호를 수신하면, 자동으로 혹은 사용자의 요청에 의하여 관리 서버(53)로부터 업데이트 데이터를 수신하여 업데이트를 진행할 수 있다.At this time, when the engine management unit 516 receives a signal that a new update is possible from the management server 53, the engine management unit 516 may receive the update data from the management server 53 automatically or at the request of the user to proceed with the update.

메모리(520)는 프로세서(510)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(520)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory 520 temporarily or permanently stores data processed by the processor 510. Here, the memory 520 may include a magnetic storage media or a flash storage media, but the scope of the present invention is not limited thereto.

이때, 메모리(520)는 도 1의 저장부(140)를 의미할 수 있다.In this case, the memory 520 may refer to the storage 140 of FIG. 1.

통신부(530)는 미디어에 포함된 정보를 제공하는 장치(500)와 사용자 단말기(51), 디스플레이 장치(52) 및 관리 서버(53) 간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다.The communication unit 530 provides a communication interface required to transmit and receive signals between the device 500 that provides information included in the media, the user terminal 51, the display device 52, and the management server 53.

여기서, 통신부(530)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the communication unit 530 may be a device including hardware and software necessary for transmitting and receiving a signal such as a control signal or a data signal through a wired or wireless connection with another network device.

이때, 통신부(530)는 도 1의 방송 수신부(130), 외부장치 인터페이스부(135) 및 무선 통신부(173)을 포괄하여 의미할 수 있다.In this case, the communication unit 530 may refer to the broadcast receiving unit 130 of FIG. 1, the external device interface unit 135, and the wireless communication unit 173.

이때, 통신부(530)는 미디어 콘텐츠를 송수신할 수 있다. 예컨대, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)가 셋톱박스(STB)인 경우에는 미디어 콘텐츠로서 방송 신호를 수신하고, 수신한 미디어 콘텐츠를 그대로 혹은 처리과정을 거쳐 디스플레이 장치에 전송할 수 있다.At this time, the communication unit 530 may transmit and receive media content. For example, when the apparatus 500 for providing information contained in media according to an embodiment of the present invention is a set-top box (STB), a broadcast signal is received as media content, and the received media content is processed as it is or the process is performed. It can then be transferred to a display device.

이때, 통신부(530)는 미디어 콘텐츠를 받는 경로인 RF 안테나와의 인터페이스, 인터넷 콘텐츠에 접속할 수 있는 인터페이스, 케이블/위성/인터넷 서비스용 셋톱박스(STB)와의 인터페이스 중 하나를 포함할 수 있다. At this time, the communication unit 530 may include one of an interface with an RF antenna, a path for receiving media content, an interface for accessing Internet content, and an interface with a cable/satellite/set-top box for Internet services (STB).

또한, 통신부(530)는 기능의 확장을 위해서 추가적인 계산능력(computation power)이나 저장소가 필요한 경우 이를 위한 외부 장치(미도시)를 연결할 수 있는 인터페이스를 더 포함할 수 있으며, 이 경우 연결된 외부 장치는 미디어에 포함된 정보를 제공하는 장치(500)의 확장판으로서 제어를 받는 종속적인 장치가 된다.In addition, the communication unit 530 may further include an interface for connecting an external device (not shown) for this if additional computational power or storage is required to expand the function. In this case, the connected external device As an extension of the device 500 that provides information contained in the media, it becomes a dependent device under control.

마이크(540)는 입력된 음파를 전기 신호로 변환한다.The microphone 540 converts the input sound wave into an electrical signal.

출력부(550)는 프로세서(510)에 의하여 생성된 응답 데이터를 출력한다.The output unit 550 outputs response data generated by the processor 510.

이때, 출력부(550)는 오디오 출력부(551) 및 디스플레이부(552) 등을 포함할 수 있다.In this case, the output unit 550 may include an audio output unit 551 and a display unit 552.

오디오 출력부(551)는 소리 데이터를 음파로 변환하여 출력한다. 여기서, 오디오 출력부(551)는 스피커를 의미할 수 있다.The audio output unit 551 converts sound data into sound waves and outputs the sound data. Here, the audio output unit 551 may mean a speaker.

이때, 오디오 출력부(551)는 도 1의 오디오 출력부(185)를 의미할 수 있다.In this case, the audio output unit 551 may refer to the audio output unit 185 of FIG. 1.

디스플레이부(552)는 영상 데이터를 시각화하여 출력한다. 여기서, 디스플레이부(552)는 디스플레이 패널, 프로젝터 등을 의미할 수 있다.The display unit 552 visualizes and outputs image data. Here, the display unit 552 may mean a display panel, a projector, or the like.

이때, 디스플레이부(552)는 도 1의 디스플레이부(180)을 의미할 수 있다.In this case, the display unit 552 may refer to the display unit 180 of FIG. 1.

이때, 출력부(550)는 통신부(530)를 통하여 응답 데이터를 사용자 단말기(51)나 디스플레이 장치(52)에 전송할 수 있다. 이때, 출력부(550)는 응답 데이터를 시각화하거나 청각화하여 제공할 수 있다. At this time, the output unit 550 may transmit response data to the user terminal 51 or the display device 52 through the communication unit 530. At this time, the output unit 550 may provide response data by visualizing or hearing it.

만약, 통신부(530)가 다른 장치로 응답 데이터를 전송하는 경우에는 통신부(530)가 출력부(550)의 기능을 한다고 볼 수 있다. If the communication unit 530 transmits response data to another device, it can be seen that the communication unit 530 functions as an output unit 550.

도 7은 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법을 나타낸 동작 흐름도이다.7 is an operation flowchart illustrating a method for providing information included in media according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법은 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 미디어 콘텐츠로부터 소리 데이터를 추출한다(S701). Referring to FIG. 7, in a method of providing information contained in media according to an embodiment of the present invention, a processor 510 of a device 500 providing information contained in media extracts sound data from media content. (S701).

이때, 미디어 콘텐츠는 비디오 데이터 또는 오디오 데이터 중 하나 이상을 포함할 수 있다.At this time, the media content may include one or more of video data or audio data.

이때, 미디어 콘텐츠는 튜너(131)를 통하여 수신하는 방송 신호, 다른 장치로부터 통신부(530)를 통하여 수신한 미디어 콘텐츠 또는 메모리(520)에 저장된 미디어 콘텐츠를 의미할 수 있다.In this case, the media content may refer to a broadcast signal received through the tuner 131, media content received through the communication unit 530 from another device, or media content stored in the memory 520.

여기서, 다른 장치는 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)와 유무선 통신을 통하여 연결된 별도의 장치를 의미한다. 다른 장치에는 셋톱박스, 컴퓨터 및 이동식 저장소 등이 포함될 수 있다.Here, the other device means a separate device connected to the device 500 providing information included in the media according to an embodiment of the present invention through wired or wireless communication. Other devices may include set-top boxes, computers and removable storage.

예컨대, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)가 셋톱박스(STB)인 경우에는 미디어 콘텐츠로서 방송 신호를 수신하고, 수신한 미디어 콘텐츠를 그대로 혹은 처리 과정을 거쳐 디스플레이 장치(52)에 전송할 수 있다.For example, when the apparatus 500 for providing information contained in media according to an embodiment of the present invention is a set-top box (STB), a broadcast signal is received as media content, and the received media content is processed as it is or the processing process is performed. After that, it can be transmitted to the display device 52.

이때, 프로세서(510)는 미디어 콘텐츠로부터 영상 데이터, 소리 데이터 및 기타 데이터를 분리하여 소리 데이터를 추출할 수 있다. 만약 분리된 데이터가 압축된 경우 각각의 디코더를 통해서 데이터를 복원한다. 압축되지 않은 데이터가 HDMI를 통해 들어오는 경우, 디코더는 동작하지 않을 수 있다.In this case, the processor 510 may extract sound data by separating video data, sound data, and other data from the media content. If the separated data is compressed, data is restored through each decoder. If uncompressed data comes through HDMI, the decoder may not work.

이때, 프로세서(510)는 미디어 콘텐츠가 소리 데이터와 다른 데이터가 구분되어 있는 경우에는 별도의 분리 작업을 수행하지 않고 소리 데이터를 추출할 수 있다. At this time, the processor 510 may extract sound data without performing a separate separation operation when the media content is different from sound data.

이때, 프로세서(510)는 미디어 콘텐츠가 소리 데이터가 따로 구분되어있지 않은 경우에는 소리 데이터와 다른 데이터를 구분하는 분리 작업을 수행하여 소리 데이터를 추출할 수 있다.At this time, the processor 510 may extract sound data by performing a separation operation that separates sound data from other data when the media content is not separately classified.

이때, 프로세서(510)는 재생중인 미디어 콘텐츠에 대하여 실시간으로 소리 데이터를 추출할 수 있다.At this time, the processor 510 may extract sound data in real time with respect to the media content being played.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 소리 데이터를 음성 데이터와 비음성 데이터로 분리한다(S703). The processor 510 of the apparatus 500 that provides information included in the media separates sound data into voice data and non-voice data (S703).

일반적인 미디어 콘텐츠에 포함된 소리 데이터는 다양한 종류의 데이터를 포함한다. 예를 들어, 연주회 콘텐츠에서의 음악, 영화에서의 효과음, 뉴스에서의 아나운서의 음성 등이 있으며, 보통 사용자가 원하는 정보는 음성 정보이다. 물론, 음성이 아닌 정보에 대해서는 유용할 수 있으며, 이에 대하여도 본 발명을 적용할 수 있다.The sound data included in general media content includes various types of data. For example, there are music in concert content, sound effects in a movie, voice of an announcer in news, etc., and information desired by a user is usually voice information. Of course, it can be useful for non-speech information, and the present invention can also be applied to this.

이때, 프로세서(510)는 음성과 비음성(백그라운드 소리)를 구분하고, 비음성을 상쇄시키는 방식으로 음성 데이터만을 추출할 수 있다. 즉, 잡음 제거 기술을 통하여 음성 데이터만을 추출할 수 있다.At this time, the processor 510 can extract only voice data in a manner that distinguishes voice from non-voice (background sound) and cancels non-voice. That is, only voice data can be extracted through a noise reduction technique.

이때, 프로세서(510)는 음성 데이터에 대하여 음성의 주파수 대역과 그 이외의 주파수 대역을 구분하여 음성만을 강조하도록 이퀄라이저를 조절할 수 있다. 현재 시장에서 판매되고 있는 TV등에는 오디오중 음성을 포함하는지 여부를 검출하고, 그 결과에 따라 오디오 처리를 다르게 하는 기술들이 탑재되어 있다. 이러한 기술을 사용하면 소리 데이터에서 음성 신호의 포함 여부를 검출하고, 그중에서 음성 신호를 강조할 수 있다.At this time, the processor 510 may adjust the equalizer so as to emphasize only the voice by separating the frequency band of the voice from the other frequency band for the voice data. TVs currently sold in the market are equipped with technologies for detecting whether audio is included in audio, and differently processing audio according to the result. Using such a technique, it is possible to detect whether an audio signal is included in the sound data, and highlight the audio signal.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 음성 데이터를 문자열 데이터로 변환한다(S705). The processor 510 of the apparatus 500 that provides information included in the media converts voice data into character string data (S705).

이때, 생성된 문자열 데이터는 텍스트 형식이며, 대본과 같은 형식으로 기록될 수 있다. At this time, the generated string data is in text format and can be recorded in a script-like format.

이때, 프로세서(510)는 STT 엔진을 이용하여 음성 데이터를 문자열 데이터로 변환할 수 있다.At this time, the processor 510 may convert voice data into string data using the STT engine.

이때, STT 엔진은 구현 방법에 제한이 없으며, 기계 학습(머신 러닝; Machine Learning)이나 딥 러닝(Deep Learning) 등을 통하여 학습하는 엔진일 수 있다.In this case, the STT engine is not limited in the implementation method, and may be an engine that learns through machine learning or deep learning.

이때, STT 엔진은 하나 이상의 언어가 섞여있는 음성 데이터에 대하여도 문자열 데이터로 변환할 수 있다. At this time, the STT engine may convert voice data in which one or more languages are mixed into string data.

이때, STT 엔진은 메모리(520)에 저장될 수도 있으나, 별도의 외부 저장소(미도시)에 저장될 수도 있다. At this time, the STT engine may be stored in the memory 520, but may also be stored in a separate external storage (not shown).

이때, STT 엔진에 설정된 기본 언어에 관련된 데이터는 메모리(520)에 저장되고, STT 엔진의 추가 언어에 관련된 데이터는 별도의 외부 저장소(미도시)에 저장될 수 있다.At this time, data related to the basic language set in the STT engine may be stored in the memory 520, and data related to the additional language of the STT engine may be stored in a separate external storage (not shown).

이때, 프로세서(510)는 변환된 문자열 데이터를 메모리(520)에 저장할 수 있다.At this time, the processor 510 may store the converted string data in the memory 520.

이때, 프로세서(510)는 변환된 문자열 데이터를 별도의 외부 저장소(미도시)에 암호화하여 저장할 수 있다.At this time, the processor 510 may encrypt and store the converted string data in a separate external storage (not shown).

이때, 생성된 문자열 데이터는 시간 정보를 함께 포함할 수 있다. At this time, the generated string data may include time information.

예컨대, 13:32분에 "배고파"라는 음성이 출력되는 경우, 문자열 데이터는 "(13:32) 배고파"와 같은 형식으로 저장될 수 있다. For example, when a voice of "hungry" is output at 13:32 minutes, the string data may be stored in a format such as "(13:32) hungry".

이때, 생성된 문자열 데이터는 날짜 정보를 함께 포함할 수 있다.At this time, the generated string data may include date information together.

이때, 문자열 데이터에 저장되는 날짜 정보 또는 시간 정보는 미디어 콘텐츠가 재생되는 실제 시점 정보를 의미할 수도 있고, 해당 미디어 콘텐츠 내에서의 시점 정보를 의미할 수도 있다.In this case, the date information or time information stored in the string data may mean actual time point information in which the media content is played, or time point information in the corresponding media content.

이때, 프로세서(510)는 실시간으로 혹은 일정 주기마다 의미 분석 엔진을 이용하여 문자열 데이터의 의미에 상응하는 의미 정보를 생성하여 저장할 수 있다. At this time, the processor 510 may generate and store semantic information corresponding to the meaning of the string data in real time or by using a semantic analysis engine at regular intervals.

이때, 프로세서(510)는 문자열 데이터에서 의미를 나타내는 하나 이상의 키워드를 추출하고, 추출한 키워드를 기반으로 의미 정보를 생성할 수 있다.At this time, the processor 510 may extract one or more keywords indicating meaning from the string data, and generate meaning information based on the extracted keywords.

예컨대, 프로세서(510)는 미디어 콘텐츠에 "내일은 에펠탑에 갈거야"라는 음성이 포함되는 경우, 이를 문자열 데이터로 변환하면서 그 의미를 나타내는 키워드로서 "내일", "에펠탑" 및 "가다"를 추출할 수 있다.For example, when the media content includes a voice saying "I'm going to the Eiffel Tower tomorrow", the media content is converted to string data, and "Tomorrow", "Eiffel Tower", and "Go" are used as keywords. Can be extracted.

이때, 프로세서(510)는 각 키워드들을 다양한 태그를 통해서 구분할 수 있다. At this time, the processor 510 may distinguish each keyword through various tags.

예컨대, 프로세서(510)는 "내일", "에펠탑", "가다”라는 키워드들을 "시점-내일", "장소-에펠탑" 및 "동작-가다"와 같은 형식으로 태그를 통해서 구분할 수 있다.For example, the processor 510 may classify the keywords "tomorrow", "eiffel tower", and "go" through tags in the following formats: "start-tomorrow", "place-eiffel tower" and "action-go". .

이때, 프로세서(510)는 소리 데이터에 음악이 포함된 경우, 음악 검색 기능을 이용하여 해당 음악에 대한 정보를 문자열 데이터로 변환할 수 있다. At this time, when the music is included in the sound data, the processor 510 may convert information about the music into string data using a music search function.

이때, 음악에 대한 정보는 제목, 아티스트 및 앨범 등에 상응하는 정보를 포함할 수 있다.At this time, the information about the music may include information corresponding to the title, artist and album.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 사용자의 질의에 상응하는 질의 데이터를 수신한다(S707). The processor 510 of the apparatus 500 providing information included in the media receives query data corresponding to the user's query (S707).

이때, 사용자의 질의는 사용자에게 제공되는 미디어 콘텐츠에 포함된 정보를 검색하는 질의이다.At this time, the user's query is a query that searches information included in the media content provided to the user.

이때, 사용자 질의는 사용자 단말기(52)에 구비된 버튼이나 메뉴에 미리 설정된 질의와 사용자의 발화에 의한 질의 음성을 포함할 수 있다.At this time, the user query may include a query set in advance on a button or menu provided in the user terminal 52 and a query voice by the user's speech.

예컨대, 사용자의 질의는 "방금 전에 어디에 간다고 했지?"와 같은 미디어 콘텐츠 내의 정보를 검색하는 것일 수 있다.For example, the user's query may be to search for information in media content such as "Where did you just go?"

이때, 사용자의 질의는 미디어 콘텐츠에 포함된 장소 정보, 인물 정보, 음악 정보 등을 포함하는 다양한 정보를 검색하는 질의를 의미할 수 있다.In this case, the user's query may refer to a query for searching for various information including place information, person information, music information, etc. included in the media content.

이때, 미디어에 포함된 정보를 제공하는 장치(500)의 마이크(540)가 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다.At this time, the microphone 540 of the device 500 providing information included in the media may receive query data corresponding to the user's query voice.

이때, 통신부(530)는 사용자 단말기(52)로부터 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다. 이 경우, 사용자 단말기(52)의 마이크가 사용자의 질의 음성을 수신할 수 있다. At this time, the communication unit 530 may receive query data corresponding to the user's query voice from the user terminal 52. In this case, the microphone of the user terminal 52 may receive the query voice of the user.

이때, 통신부(530)는 사용자 단말기(52)로부터 사용자의 질의에 상응하는 질의 데이터를 수신할 수 있다. 이 경우, 사용자 단말기(52)의 버튼 또는 메뉴가 사용자의 입력에 상응하는 질의 데이터를 생성할 수 있다.At this time, the communication unit 530 may receive query data corresponding to the user's query from the user terminal 52. In this case, the button or menu of the user terminal 52 may generate query data corresponding to the user's input.

이때, 프로세서(510)는 질의 데이터를 STT 엔진을 이용하여 문자열로 변환할 수 있다. At this time, the processor 510 may convert the query data into a string using the STT engine.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 의미 분석 엔진을 이용하여 문자열 데이터와 질의 데이터 각각의 의미에 상응하는 의미 정보를 획득한다(S709). The processor 510 of the apparatus 500 that provides information included in the media acquires semantic information corresponding to the meaning of each of the string data and the query data using the semantic analysis engine (S709).

여기서, 질의 데이터의 의미에 상응하는 의미 정보를 제1 의미 정보라 칭하고, 문자열 데이터의 의미에 상응하는 의미 정보를 제2 의미 정보라 칭할 수 있다.Here, semantic information corresponding to the meaning of the query data may be referred to as first semantic information, and semantic information corresponding to the meaning of the string data may be referred to as second semantic information.

이때, 의미 분석 엔진은 구현 방법에 제한이 없으며, 기계 학습(머신 러닝; Machine Learning)이나 딥 러닝(Deep Learning) 등을 통하여 학습하는 엔진일 수 있다.At this time, the semantic analysis engine is not limited in the implementation method, and may be an engine that learns through machine learning or deep learning.

이때, 의미 분석 엔진은 하나 이상의 언어가 섞여있는 문자열 데이터에 대하여도 그 의미에 상응하는 의미 정보(제2 의미 정보)를 획득할 수 있다. In this case, the semantic analysis engine may acquire semantic information (second semantic information) corresponding to the semantic even for string data in which one or more languages are mixed.

이때, 의미 분석 엔진은 메모리(520)에 저장될 수도 있으나, 별도의 외부 저장소(미도시)에 저장될 수도 있다. In this case, the semantic analysis engine may be stored in the memory 520, or may be stored in a separate external storage (not shown).

이때, 의미 분석 엔진에 설정된 기본 언어에 관련된 데이터는 메모리(520)에 저장되고, 의미 분석 엔진의 추가 언어에 관련된 데이터는 별도의 외부 저장소(미도시)에 저장될 수 있다.At this time, data related to the basic language set in the semantic analysis engine may be stored in the memory 520, and data related to the additional language of the semantic analysis engine may be stored in a separate external storage (not shown).

이때, 의미 분석 엔진은 문자열 데이터와 질의 데이터 각각에 대하여 하나 이상의 키워드들을 추출하고, 추출한 키워드들을 기반으로 의미 정보를 생성할 수 있다.At this time, the semantic analysis engine may extract one or more keywords for each of the string data and the query data, and generate semantic information based on the extracted keywords.

예컨대, "아까 어디에 간다고 했지?"라는 사용자의 질의 음성에서는 "아까", "어디" 및 "간다"라는 키워드를 추출할 수 있다. 그리고, 추출한 키워드들인 "아까", "어디" 및 "간다"를 제1 의미 정보에 추가할 수 있다.For example, in the query voice of the user, "Where did you say you were going?", the keywords "previous", "where" and "go" can be extracted. Then, the extracted keywords, “previous”, “where”, and “go” can be added to the first semantic information.

이때, 프로세서(510)는 각 키워드를 태그를 통하여 구분할 수 있다. At this time, the processor 510 may identify each keyword through a tag.

예컨대, "아까", "어디" 및 "간다"라는 키워드를 "시점-아까", "장소-어디" 및 "행동-간다"와 같이 구분할 수 있다.For example, the keywords “previous”, “where” and “go” can be classified as “start-up”, “place-where” and “behavior-go”.

이때, 이용 가능한 태그에는 제한이 없다.At this time, there are no restrictions on the available tags.

예컨대, 프로세서(510)는 육하원칙(5W1H)에 입각한 누가(who), 언제(when), 어디서(where), 무엇을(what), 어떻게(how) 및 왜(why)에 상응하는 태그들을 이용하여 각 키워드들을 구분할 수 있다.For example, the processor 510 uses tags corresponding to who, when, where, what, how, and why based on the subordinate principle 5W1H. You can distinguish each keyword.

이와 같이, 프로세서(510)가 키워드를 추출하고 이를 기반으로 의미 정보를 생성하게 되면, 문자열 데이터에 상응하는 키워드와 사용자의 질의 데이터에 상응하는 키워드를 비교함으로써 용이하게 질의에 적합한 정보를 찾아 응답 데이터를 생성할 수 있다.As described above, when the processor 510 extracts a keyword and generates semantic information based on the keyword, the keyword data corresponding to the string data and the keyword corresponding to the user's query data are compared to easily find information suitable for the query and response data Can generate

미디어에 포함된 정보를 제공하는 장치(500)는 프로세서(510)가, 의미 정보를 이용하여 문자열 데이터에서 질의 데이터에 상응하는 정보를 추출하여 응답 데이터를 생성한다(S711). In the apparatus 500 that provides information included in the media, the processor 510 extracts information corresponding to the query data from the string data using the semantic information to generate response data (S711).

이때, 프로세서(510)는 통신부(530)를 통해 유선 또는 무선으로 연결된 네트워크에서 문자열 데이터에서 추출한 정보에 상응하는 추가 정보를 수신하여 응답 데이터에 추가할 수 있다. At this time, the processor 510 may receive additional information corresponding to the information extracted from the string data in a network connected through a communication unit 530 by wire or wirelessly and add it to the response data.

예컨대, 프로세서(510)가 문자열 데이터에서 사용자의 질의에 상응하는 정보로서 "에펠탑"을 추출하여 응답 데이터를 생성하는 경우, 에펠탑에 대한 추가 정보를 획득하여 응답 데이터에 "에펠탑(프랑스 파리)" 등과 같은 형태로 추가할 수 있다.For example, when the processor 510 generates response data by extracting "Eiffel Tower" as information corresponding to a user's query from the string data, additional information about the Eiffel Tower is acquired and the response data is displayed as "Eiffel Tower (Paris, France, )".

이때, 추가 정보는 추출된 정보에 관련된 텍스트, 이미지 및 상세 정보를 제공하기 위한 링크 정보 등을 포함할 수 있다.At this time, the additional information may include text, images, and link information for providing detailed information related to the extracted information.

이때, 프로세서(510)는 문자열 데이터에 포함된 각 정보에 대하여 질의 데이터와의 정확도 또는 연관도를 계산하고, 계산된 정확도 또는 연관도를 기반으로 문자열 데이터에서 질의 데이터에 상응하는 정보를 추출하여 응답 데이터를 생성할 수 있다.At this time, the processor 510 calculates the accuracy or association with the query data for each information included in the string data, and extracts and responds to information corresponding to the query data from the string data based on the calculated accuracy or association. Data can be generated.

이때, 프로세서(510)는 사용자의 질의에 상응하는 응답 데이터를 생성하기 위한 문자열 데이터의 쿼리 범위를 결정하고, 결정된 쿼리 범위 이내에서 사용자의 질의에 상응하는 정보를 검색하여 응답 데이터를 생성할 수 있다.At this time, the processor 510 may determine a query range of string data for generating response data corresponding to the user's query, and search for information corresponding to the user's query within the determined query range to generate response data. .

또한, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법은 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 생성된 응답 데이터를 제공한다(S713). In addition, in the method of providing information included in the media according to an embodiment of the present invention, the processor 510 of the apparatus 500 providing information included in the media provides the generated response data (S713).

이때, 프로세서(510)는 생성된 응답 데이터를 디스플레이부(552)를 통해 시각화하여 표시할 수 있다.At this time, the processor 510 may visualize and display the generated response data through the display unit 552.

이때, 프로세서(510)는 생성된 응답 데이터를 오디오 출력부(551)를 통해 소리로 출력할 수 있다.At this time, the processor 510 may output the generated response data as sound through the audio output unit 551.

이때, 프로세서(510)는 생성된 응답 데이터를 통신부(530)를 통해 디스플레이 장치(52)로 전송할 수 있다.At this time, the processor 510 may transmit the generated response data to the display device 52 through the communication unit 530.

이때, 프로세서(510)는 생성된 응답 데이터를 통신부(530)를 통해 사용자 단말기 장치(51)로 전송할 수 있다. 이 경우, 사용자 단말 장치(51)는 수신한 응답 데이터를 디스플레이부(552)를 통해 시각화하여 표시할 수도 있고, 오디오 출력부(551)를 통해 소리로 출력할 수도 있다.At this time, the processor 510 may transmit the generated response data to the user terminal device 51 through the communication unit 530. In this case, the user terminal device 51 may visualize and display the received response data through the display unit 552 or output the sound through the audio output unit 551.

이에 따라, 사용자는 질의에 따른 응답을 시각화된 정보 또는 청각화된 정보로 확인할 수 있다.Accordingly, the user can check the response according to the query as visualized information or auditory information.

이때, 프로세서(510)는 TTS(Text To Speech) 엔진을 이용하여 응답 데이터를 소리 데이터로 변환할 수 있다. At this time, the processor 510 may convert response data into sound data using a text to speech (TTS) engine.

이때, 프로세서(510)는 응답 데이터의 시각화 또는 청각화 여부를 사용자의 선택에 의한 설정에 따를 수 있다.At this time, the processor 510 may follow the setting by the user's selection whether to visualize or audit the response data.

선택적 실시 예에서, 미디어 콘텐츠로부터 문자열 데이터를 생성하는 단계들(S701, S703 및 S705)은 사용자의 질의 데이터를 수신하는 단계(S707)와 병렬적으로 이루어질 수 있다.In an optional embodiment, the steps (S701, S703 and S705) of generating character string data from the media content may be performed in parallel with the step of receiving user query data (S707 ).

특히, 도 7은 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법을 단순화하여 한 사이클로 나타낸 것이며, 상기한 단계들(S701, S703, S705, S707, S709, S711 및 S703)이 반복적으로 수행될 수 있다.Particularly, FIG. 7 is a simplified view of a method for providing information included in media according to an embodiment of the present invention, and the above steps (S701, S703, S705, S707, S709, S711, and S703) It can be performed repeatedly.

도 8은 도 7에 도시된 응답 데이터를 생성하는 단계(S711)의 일 예를 나타낸 동작 흐름도이다.8 is an operation flowchart illustrating an example of step S711 of generating the response data shown in FIG. 7.

도 8을 참조하면, 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 문자열 데이터의 쿼리 범위를 결정한다(S801). Referring to FIG. 8, the processor 510 of the apparatus 500 that provides information included in the media determines a query range of character string data (S801) .

이때, 쿼리 범위는 사용자의 질의에 상응하는 미디어 콘텐츠 내의 정보를 추출(검색)하기 위한 범위를 의미할 수 있다.In this case, the query range may refer to a range for extracting (searching) information in media content corresponding to a user's query.

예컨대, 사용자가 채널을 10번에서 11번으로 변경하여 시청중인 경우, 프로세서(510)는 채널 변경 시점 기준으로 문자열 데이터의 쿼리 범위를 구분할 수 있다. 만약, 사용자가 "이전 채널에서 어디에 간다고 했지?"라는 형식으로 질문을 하면, 프로세서(510)는 10번 채널에 상응하는 문자열 데이터에서 쿼리를 수행하여 응답 데이터를 생성할 수 있다.For example, when a user changes and views a channel from 10 to 11, the processor 510 may classify a query range of character string data based on a channel change time point. If the user asks a question in the form of "where did you go from the previous channel?", the processor 510 may generate response data by performing a query on string data corresponding to channel 10.

또한, 사용자가 채널을 10번을 계속하여 시청하고 있지만 방영하는 미디어(프로그램)이 바뀐 경우, 프로세서(510)는 미디어의 변경 시점을 기준으로 문자열 데이터의 쿼리 범위를 구분할 수 있다. 만약, 사용자가 "이전 프로그램에서 어디에 간다고 했지?"라는 형식으로 질문을 하면, 프로세서(510)는 이전 미디어(프로그램)에 상응하는 문자열 데이터에서 쿼리를 수행하여 응답 데이터를 생성할 수 있다.In addition, when the user continues to watch the channel 10 times, but the media (program) to be broadcast changes, the processor 510 may classify the query range of the string data based on the change point of the media. If the user asks a question in the form of "where did you go from the previous program?", the processor 510 may generate response data by performing a query on string data corresponding to the previous media (program).

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 문자열 데이터의 쿼리 범위 이내에 포함된 각 정보마다 질의 데이터와의 연관도를 계산한다(S803).The processor 510 of the apparatus 500 that provides the information included in the media calculates the degree of association with the query data for each information included within the query range of the string data (S803) .

이때, 프로세서(510)는 연관도를 수치화하여 계산할 수 있다.In this case, the processor 510 may calculate the association degree by digitizing.

이때, 프로세서(510)는 문자열 데이터에 포함된 각 정보에 상응하는 키워드들과 질의 데이터에 포함된 키워드들을 비교하고, 서로 매칭된 키워드들의 개수를 기반으로 각 정보의 질의 데이터와의 연관도를 계산할 수 있다.At this time, the processor 510 compares keywords corresponding to each information included in the string data with keywords included in the query data, and calculates the degree of association with the query data of each information based on the number of keywords matched with each other. Can be.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 문자열 데이터에 포함된 정보 중에서 질의 데이터와 연관도가 높은 순서대로 기설정된 개수만큼 선정하여 응답 데이터를 생성한다(S805). The processor 510 of the apparatus 500 that provides the information included in the media selects a predetermined number in order of high association with the query data from the information included in the string data to generate response data (S805).

예컨대, 프로세서(510)가 사용자의 질의에 대한 응답으로, 문자열 데이터에 포함된 정보 중에서 질의 데이터와의 연관도가 높은 순서대로 3개의 정보를 선정(추출)하여 응답 데이터를 생성할 수 있다.For example, in response to a user's query, the processor 510 may select (extract) three pieces of information from the information included in the string data in order of high association with the query data to generate response data.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 각 선정된 정보에 대하여 외부 장치에서 추가 정보를 획득하여 응답 데이터에 추가한다(S807). The processor 510 of the device 500 providing information included in the media acquires additional information from the external device for each selected information and adds it to the response data (S807).

이때, 외부 장치는 미디어에 포함된 정보를 제공하는 장치(500)와 유무선 통신을 통해 연결된 네트워크, 클라이언트 또는 서버 등을 의미할 수 있다. In this case, the external device may mean a network, a client or a server connected to the device 500 providing information included in the media through wired or wireless communication.

예컨대, 프로세서(510)가 단계(S805)에서 선정된 정보에 대하여 네트워크로 연결된 검색 엔진에서 추가 정보를 획득하고, 추가 정보를 응답 데이터에 추가할 수 있다.For example, the processor 510 may acquire additional information in a networked search engine with respect to the information selected in step S805, and add the additional information to the response data.

이와 같이, 프로세서가 문자열 데이터에서의 쿼리 범위를 결정함으로써 사용자의 질의에 따른 응답 데이터의 정확도를 높일 수 있으며, 필요한 문자열 데이터에 대하여만 쿼리를 수행함으로써 연산량을 줄일 수 있다.As such, the processor can increase the accuracy of response data according to the user's query by determining the query range in the string data, and reduce the amount of computation by performing a query on only the required string data.

도 9는 도 8에 도시된 문자열 데이터의 쿼리 범위를 결정하는 단계(S801)의 일 예를 나타낸 동작 흐름도이다.9 is an operation flowchart showing an example of a step (S801) of determining a query range of character string data shown in FIG. 8.

도 9를 참조하면, 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 사용자의 상호작용 또는 EPG 정보 중에서 적어도 하나 이상을 이용하여 문자열 데이터의 쿼리 범위를 구분한다(S901). Referring to FIG. 9, the processor 510 of the apparatus 500 that provides information contained in the media classifies a query range of string data using at least one of user interaction or EPG information (S901). .

이때, 사용자의 상호작용으로는 채널 변경, 연결 방식 변경, 미디어 변경, 출력 장치의 변경 등이 포함될 수 있다. EPG 정보에는 프로그램(미디어 콘텐츠) 제목 정보, 프로그램 방영 시간 정보 등이 포함될 수 있다. EPG 정보는 방송 신호와 함께 들어오는 SI(Service Information)를 바탕으로 만든 EPG나 인터넷과 같이 별도의 채널을 통해서 들어오는 온라인 EPG 정보 등을 포함할 수 있다.At this time, user interaction may include changing a channel, changing a connection method, changing a media, and changing an output device. EPG information may include program (media content) title information, program airing time information, and the like. The EPG information may include EPG based on SI (Service Information) received with a broadcast signal or online EPG information coming through a separate channel such as the Internet.

즉, 프로세서(510)는 미디어 콘텐츠의 메타 데이터를 이용하여 문자열 데이터의 쿼리 범위를 구분할 수 있다. That is, the processor 510 may classify the query range of the string data using meta data of the media content.

미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 질의 데이터에 상응하는 쿼리 범위를 선택한다(S903). The processor 510 of the apparatus 500 providing information included in the media selects a query range corresponding to the query data (S903).

이때, 프로세서(510)는 사용자의 질의에 상응하는 의미 정보를 고려하여 사용자가 질문하고자 하는 대상 미디어 콘텐츠에 적합한 쿼리 범위를 선택할 수 있다.In this case, the processor 510 may select a query range suitable for the target media content to be questioned by the user in consideration of semantic information corresponding to the user's query.

이때, 프로세서(510)는 사용자의 상호작용 또는 EPG 정보 중에서 적어도 하나 이상과 질의 데이터의 연관도를 계산하고, 가장 연관도가 높은 요소를 이용하여 쿼리 범위를 선택할 수 있다.At this time, the processor 510 may calculate a correlation between at least one of user interaction or EPG information and query data, and select a query range using the most relevant element.

예컨대, 사용자가 오후 1시부터 오후 1시 30분까지 채널 10번을 시청하고, 오후 1시 30분에 채널을 10번에서 11번으로 변경하여 오후 2시 30분까지 시청하고 있으며, 오후 2시에 채널 11번에서 방영중인 프로그램이 프로그램 A에서 프로그램 B로 변경된 경우를 가정한다.For example, a user watches channel 10 from 1 PM to 1:30 PM, and changes the channel from 10 to 11 at 1:30 PM to watch until 2:30 PM, and 2 PM It is assumed that the program being aired on channel 11 is changed from program A to program B.

이때, 프로세서(510)는 오후 1시 30분의 사용자의 채널 변경과 오후 2시의 채널 11번의 미디어(프로그램) 변경을 기준으로 문자열 데이터의 쿼리 범위를 구분할 수 있다. At this time, the processor 510 may classify the query range of the string data based on the user's channel change at 1:30 pm and the media (program) change at channel 11 at 2 pm.

즉, 제1 쿼리 범위는 오후 1시부터 오후 1시 30분까지의 채널 10번에 대한 문자열 데이터이고, 제2 쿼리 범위는 오후 1시 30분부터 오후 2시까지의 채널 11번의 프로그램 A에 대한 문자열 데이터이고, 제3 쿼리 범위는 오후 2시부터 오후 2시 30분까지의 채널 11번의 프로그램 B에 대한 문자열 데이터가 된다. That is, the first query range is string data for channel 10 from 1 PM to 1:30 PM, and the second query range is string for program A of channel 11 from 1:30 PM to 2 PM. Data, and the third query range becomes character string data for program B of channel 11 from 2 pm to 2:30 pm.

만약, 사용자가 "이전 채널에서 어디에 간다고 했었지?"와 같은 질문을 하면 제1 쿼리 범위를 쿼리 범위로 선택할 수 있다. 사용자가 "바로 전 프로그램에서 누가 왔다고 했지?"와 같은 질문을 하면 제2 쿼리 범위를 쿼리 범위로 선택할 수 있다. 사용자가 "방금 무슨 노래였지?"와 같은 질문을 하면 제3 쿼리 범위를 쿼리 범위로 선택할 수 있다.If the user asks a question such as "Where did you say you were going on the previous channel?", you can select the first query scope as the query scope. When the user asks a question such as "Who said from the previous program?", the second query scope can be selected as the query scope. When the user asks a question such as "What song was it?", the third query scope can be selected as the query scope.

이와 같이, 사용자의 상호작용이나 EPG 정보를 이용하여 문자열 데이터의 쿼리 범위를 구분함으로써 보다 정확한 쿼리 범위의 구분이 가능하다.In this way, it is possible to classify a more accurate query range by classifying the query range of the string data using the user's interaction or EPG information.

또한, 쿼리 범위의 구분이 일반적으로 사용자가 인지할 수 있는 행동이나 미디어의 구분과도 맞아 떨어져 질의에 대한 높은 정확도의 응답을 기대할 수 있다.In addition, the classification of the query scope is generally matched with the behavior or media classification that can be recognized by the user, so that a high-accuracy response to the query can be expected.

도 10 내지 12는 본 발명의 일 실시 예의 사용 태양을 나타낸 도면이다.10 to 12 are views showing an aspect of use of an embodiment of the present invention.

우선, 도 10을 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(1001)는 음성 정보가 포함된 미디어를 출력할 수 있다.First, referring to FIG. 10, the apparatus 1001 for providing information included in media according to an embodiment of the present invention may output media including voice information.

이때, 미디어에 포함된 정보를 제공하는 장치(1001)는 도 5 또는 6에 도시된 미디어에 포함된 정보를 제공하는 장치(500)를 의미할 수 있다.At this time, the device 1001 for providing information included in the media may mean the device 500 for providing information included in the media shown in FIGS. 5 or 6.

도 10의 예시에서, 미디어 콘텐츠는 적어도 하나 이상의 화자(1002a, 1003a 또는 1004a)가 발화한 발화 문장들(1002b, 1003b 또는 1004b)을 포함할 수 있다. In the example of FIG. 10, the media content may include speech sentences 1002b, 1003b, or 1004b spoken by at least one speaker 1002a, 1003a, or 1004a.

예를 들어, 제1 화자(1002a)가 발화한 제1 발화 문장(1002b)은 "A씨, 오후에 어디 다녀오셨어요?"이다. 제2 화자(1003a)가 발화한 제2 발화 문장(1003b)은 "저요. 갈릴레이 박물관에 다녀왔어요. 거기서 시간을 너무 많이 보내서 다른 곳은 못 갔어요."이다. 제3 화자(1004a)가 발화한 제3 발화 문장(1004b)는"갈릴레이 박물관에 다녀오셨어요. 거기도 좋지만 피렌체에 가면 두오모에 가셨어야죠."이다. For example, the first utterance sentence 1002b spoken by the first speaker 1002a is "Mr. A, where have you been in the afternoon?" The 2nd utterance sentence (1003b) spoken by the 2nd speaker (1003a) is, "Me. I've been to the Galilei Museum. I spent too much time there so I couldn't go anywhere else." The third utterance sentence (1004b) spoken by the third speaker (1004a) is, "I've been to the Galilei Museum. It's good, but if you go to Florence, you should have gone to the Duomo."

이때, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 발화 문장들(1002b, 1003b 및 1004b)에 상응하는 음성 데이터를 하기 [표 1]과 같이 문자열 데이터로 변환할 수 있다.At this time, the processor 510 of the device 1001 providing information included in the media may convert voice data corresponding to the utterance sentences 1002b, 1003b, and 1004b into string data as shown in [Table 1] below. .

- A씨, 오후에 어디 다녀오셨어요?
- 저요. 갈릴레이 박물관에 다녀왔어요. 거기서 시간을 너무 많이 보내서 다른 곳은 못 갔어요.
- 갈릴레이 박물관에 다녀오셨어요. 거기도 좋지만 피렌체에 가면 두오모에 가셨어야죠.
-Mr. A, where have you been in the afternoon?
- Me. I went to the Galilei Museum. I spent so much time there that I couldn't go anywhere else.
-You went to the Galilei Museum. It's great, but if you go to Florence, you should have been to Duomo.

여기서, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 미디어가 출력(재생)될 때 STT 엔진을 이용하여 실시간으로 미디어 콘텐츠에 포함된 음성 데이터를 문자열 데이터로 변환할 수 있다. 만약, 재생하고자 하는 미디어 콘텐츠가 실시간 스트리밍하는 것이 아니라 미디어에 포함된 정보를 제공하는 장치(1001)의 내부 혹은 다른 장치에 저장되어 미디어 콘텐츠 전체를 수집할 수 있는 경우, 프로세서(510)는 현재 재생중인 위치보다 이후 시점의 음성 데이터를 고려하여 현재 재생중인 위치의 음성 데이터를 문자열 데이터로 변환할 수 있다. Here, the processor 510 of the device 1001 providing information included in the media may convert the voice data included in the media content into string data in real time using the STT engine when the media is output (played). . If the media content to be played is not streamed in real time but is stored inside or other device of the device 1001 providing information included in the media, and the entire media content can be collected, the processor 510 is currently playing The voice data at the currently playing position may be converted into character string data in consideration of the voice data at a later point in time than the current location.

이와 같이 현재 출력되는 시점보다 이후의 시점에서의 음성 데이터도 함께 고려함으로써, 현재 시점의 음성 데이터를 더욱 정확도 높게 문자열 데이터로 변환할 수 있다.As described above, by considering voice data at a later time point than the currently output time point, the voice data at the current time point can be converted into string data with higher accuracy.

도 11을 참조하면, 미디어에 포함된 정보를 제공하는 장치(1001)를 통하여 미디어 콘텐츠를 시청하는 사용자(1101a)는 발화 문장들(1002b, 1003b 및 1004b)에 포함된 정보가 궁금하여 "어디에 갔다고 했지?"(1101b)와 같이 발화하여 질의할 수 있다. Referring to FIG. 11, a user 1101a watching media content through the device 1001 providing information included in the media wonders about the information included in the utterance sentences 1002b, 1003b, and 1004b. You did it?"(1101b).

이때, 미디어에 포함된 정보를 제공하는 장치(1001)는 사용자 단말기(1102)의 마이크를 통하여 사용자(1101a)가 발화한 질의 문장(1101b)에 상응하는 질의 데이터를 수신할 수 있다. 즉, 사용자 단말기(1102)의 통신부는 질의 문장(1101b)에 상응하는 질의 데이터를 미디어에 포함된 정보를 제공하는 장치(1001)에 전달할 수 있다.At this time, the device 1001 providing information included in the media may receive query data corresponding to the query sentence 1101b spoken by the user 1101a through the microphone of the user terminal 1102. That is, the communication unit of the user terminal 1102 may transmit query data corresponding to the query sentence 1101b to the device 1001 providing information included in the media.

만약, 사용자 단말기(1102)에 마이크가 구비되지 않은 경우거나, 사용자 단말기(1102)를 사용하지 않는 경우거나, 사용자가 사용자 단말기(1102)의 사용을 원치 않는 경우, 미디어에 포함된 정보를 제공하는 단말기(1001)에 구비된 마이크(540)가 사용자(1101a)가 발화한 질의 문장(1101b)을 수신할 수 있다.If the user terminal 1102 is not equipped with a microphone, the user terminal 1102 is not used, or the user does not want to use the user terminal 1102, providing information included in the media The microphone 540 provided in the terminal 1001 may receive the query sentence 1101b spoken by the user 1101a.

도 12를 참조하면, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 의미 분석 엔진을 이용하여 사용자의 질의 문장(1101b)과 문자열 데이터([표 1]) 각각에 상응하는 의미 정보를 획득한다.Referring to FIG. 12, the processor 510 of the device 1001 providing information included in the media corresponds to each of the user's query sentence 1101b and string data ([Table 1]) using a semantic analysis engine. Obtain semantic information.

이때, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 문자열 데이터([표 1])에서 사용자의 질의 문장(1101b)에 적합한 정보를 선정하여 응답 데이터를 생성할 수 있다.At this time, the processor 510 of the device 1001 providing information included in the media may select the information suitable for the user's query sentence 1101b from the string data ([Table 1]) and generate response data.

이때, 미디어에 포함된 정보를 제공하는 장치(1001)의 디스플레이부(552)는 화면의 일부에 시각화한 응답 데이터(1201)를 표시할 수 있다. At this time, the display unit 552 of the device 1001 providing information included in the media may display the response data 1201 visualized on a part of the screen.

예를 들어, 시각화된 응답 데이터(1201)는 [표 1]의 문자열 데이터에 포함되었던 장소와 관련된 정보인 '갈릴레이 박물관'에 대한 정보(1202), '피렌체'에 대한 정보(1203) 및 '두오모'에 대한 정보(1204)를 포함할 수 있다.For example, the visualized response data 1201 includes information related to a place'Galilee Museum' (1202), information about'Firenze' (1203), and a Duomo, which is information related to a place included in the string data of [Table 1]. Information about 1204 may be included.

다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 장치(1001)의 오디오 출력부(551)는 응답 데이터를 청각화하여 음성으로 출력할 수도 있다.In another embodiment, the audio output unit 551 of the device 1001 providing information included in the media may auditoryly output the response data and output the voice.

다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 장치(1001)의 통신부는 응답 데이터를 사용자 단말기(1102)로 전송하고, 사용자 단말기(1102)의 오디오 출력부가 응답 데이터를 음성으로 출력할 수도 있다.In another embodiment, the communication unit of the device 1001 providing information included in the media may transmit response data to the user terminal 1102, and the audio output unit of the user terminal 1102 may output the response data as voice. have.

다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 장치(1001)의 통신부는 응답 데이터를 사용자 단말기(1102)로 전송하고, 사용자 단말기(1102)의 디스플레이부가 응답 데이터를 시각화하여 출력할 수도 있다.In another embodiment, the communication unit of the device 1001 providing information included in the media may transmit response data to the user terminal 1102, and the display unit of the user terminal 1102 may visualize and output the response data. .

이와 같이, 사용자가 음성 정보가 포함된 미디어를 감상하다가 어떠한 음성 정보를 재확인하고 싶은 경우, 간이하게 발화하여 질의하거나 사용자 단말기의 버튼이나 메뉴를 통하여 질의하여 원하는 정보를 손쉽게 확인할 수 있다.As described above, when the user wants to reconfirm any voice information while viewing the media containing the voice information, the user can easily check desired information by simply speaking and querying or querying through a button or menu of the user terminal.

본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, it is possible to implement the above-described method as code readable by a processor on a medium on which a program is recorded. Examples of the medium readable by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and implemented in the form of a carrier wave (for example, transmission through the Internet). Includes.

상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The display device described above is not limited to the configuration and method of the above-described embodiments, and the above embodiments may be configured by selectively combining all or part of each embodiment so that various modifications can be made. It might be.

Claims (12)

디스플레이 장치에 있어서,
미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하고, 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보를 획득하고, 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하고, 상기 제1 의미 정보 및 상기 제2 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 프로세서; 및
상기 생성된 응답 데이터를 출력하는 출력부
를 포함하는, 디스플레이 장치.
In the display device,
Convert sound data extracted from media content to string data, obtain first semantic information indicating the meaning of query data corresponding to a user's query, obtain second semantic information indicating the meaning of the string data, and obtain the second A processor that generates response data corresponding to the query data based on the character string data using the first semantic information and the second semantic information; And
Output unit for outputting the generated response data
Display device comprising a.
청구항 1에 있어서,
상기 출력부는
상기 미디어 콘텐츠를 출력하는 디스플레이부 또는 오디오 출력부 중에서 적어도 하나 이상을 포함하는, 디스플레이 장치.
The method according to claim 1,
The output unit
And at least one of a display unit or an audio output unit for outputting the media content.
청구항 1에 있어서,
상기 프로세서는
상기 제2 의미 정보에 포함된 각각의 정보에 대하여 상기 제1 의미 정보와의 비교를 통해 연관도를 계산하고, 상기 계산된 연관도를 기반으로 상기 정보 중에서 적어도 하나 이상을 선택하여 상기 응답 데이터를 생성하는, 디스플레이 장치.
The method according to claim 1,
The processor
For each information included in the second semantic information, an association degree is calculated through comparison with the first semantic information, and at least one or more of the information is selected based on the calculated association degree to obtain the response data. Produced, display device.
청구항 1에 있어서,
유무선 통신을 통해 관리 서버와 데이터를 송수신하는 통신부
를 더 포함하고,
상기 프로세서는
STT 엔진을 이용하여 상기 소리 데이터를 상기 문자열 데이터로 변환하고,
의미 분석 엔진을 이용하여 상기 제1 의미 정보 및 상기 제2 의미 정보를 획득하고,
상기 관리 서버로부터 업데이트 데이터를 수신하여 상기 STT 엔진 또는 상기 의미 분석 엔진 중에서 적어도 하나 이상을 업데이트하는, 디스플레이 장치.
The method according to claim 1,
Communication unit that transmits and receives data to and from the management server through wired and wireless communication
Further comprising,
The processor
Converting the sound data into the string data using an STT engine,
Obtaining the first semantic information and the second semantic information using a semantic analysis engine,
A display device for updating at least one of the STT engine or the semantic analysis engine by receiving update data from the management server.
청구항 4에 있어서,
상기 프로세서는
상기 STT 엔진 또는 상기 의미 분석 엔진 중에서 적어도 하나 이상에 대하여, 엔진의 정확도를 향상하는 업데이트 또는 엔진의 지원 언어를 수정하는 업데이트 중에서 적어도 하나 이상을 수행하는, 디스플레이 장치.
The method according to claim 4,
The processor
For at least one of the STT engine or the semantic analysis engine, the display device performs at least one of an update for improving the accuracy of the engine or an update for modifying the language of the engine.
청구항 1에 있어서,
상기 프로세서는
사용자 상호작용 또는 상기 미디어 콘텐츠에 상응하는 EPG(Electronic Program Guide) 정보 중에서 적어도 하나 이상을 기준으로, 상기 응답 데이터를 생성하기 위한 상기 문자열 데이터에 대한 쿼리 범위를 결정하는, 디스플레이 장치.
The method according to claim 1,
The processor
A display device for determining a query range for the string data for generating the response data based on at least one of user interaction or electronic program guide (EPG) information corresponding to the media content.
청구항 1에 있어서,
유무선 통신을 통하여 연결된 네트워크 망에서 상기 응답 데이터에 상응하는 추가 정보를 수신하는 통신부
를 더 포함하고,
상기 프로세서는
상기 응답 데이터에 상기 추가 정보를 추가하는, 디스플레이 장치.
The method according to claim 1,
A communication unit that receives additional information corresponding to the response data from a network network connected through wired/wireless communication
Further comprising,
The processor
And adding the additional information to the response data.
청구항 1에 있어서,
상기 질의 데이터를 수신하는 마이크
를 더 포함하고,
상기 프로세서는
프로세서는 STT(Speech To Text) 엔진을 이용하여 상기 질의 데이터를 상기 문자열 데이터로 변환하는, 디스플레이 장치.
The method according to claim 1,
Microphone receiving the query data
Further comprising,
The processor
The processor converts the query data into the string data using a speech to text (STT) engine.
청구항 1에 있어서,
유무선 통신을 통하여 사용자 단말기로부터 상기 질의 데이터를 수신하는 통신부
를 더 포함하는, 디스플레이 장치.
The method according to claim 1,
Communication unit that receives the query data from the user terminal through wired or wireless communication
Further comprising, a display device.
청구항 9에 있어서,
상기 출력부는
상기 통신부를 통하여 상기 응답 데이터를 상기 사용자 단말기에 전송하는, 디스플레이 장치.
The method according to claim 9,
The output unit
A display device for transmitting the response data to the user terminal through the communication unit.
출력 장치에 있어서,
미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하고, 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보를 획득하고, 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하고, 상기 제1 의미 정보 및 상기 제2 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 프로세서; 및
상기 응답 데이터를 외부 기기에 전송하는 통신부
를 포함하는, 출력 장치.
In the output device,
Convert sound data extracted from media content to string data, obtain first semantic information indicating the meaning of query data corresponding to a user's query, obtain second semantic information indicating the meaning of the string data, and obtain the second A processor that generates response data corresponding to the query data based on the character string data using the first semantic information and the second semantic information; And
Communication unit for transmitting the response data to an external device
Included, the output device.
프로세서가 미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하는 단계;
상기 프로세서가 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보를 획득하는 단계;
상기 프로세서가 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하는 단계; 및
상기 프로세서가 상기 제1 의미 정보 및 상기 제2 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 단계
를 포함하는, 미디어에 포함된 정보를 제공하는 방법.
The processor converting sound data extracted from the media content into string data;
Obtaining, by the processor, first semantic information indicating the meaning of query data corresponding to the user's query;
Obtaining, by the processor, second semantic information indicating the meaning of the string data; And
Generating, by the processor, response data corresponding to the query data based on the character string data by using the first semantic information and the second semantic information.
Method of providing information contained in the media, including.
KR1020180157519A 2018-12-07 2018-12-07 Apparatus for providing information contained in media and method for the same KR102613623B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180157519A KR102613623B1 (en) 2018-12-07 2018-12-07 Apparatus for providing information contained in media and method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180157519A KR102613623B1 (en) 2018-12-07 2018-12-07 Apparatus for providing information contained in media and method for the same

Publications (2)

Publication Number Publication Date
KR20200069936A true KR20200069936A (en) 2020-06-17
KR102613623B1 KR102613623B1 (en) 2023-12-15

Family

ID=71405523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180157519A KR102613623B1 (en) 2018-12-07 2018-12-07 Apparatus for providing information contained in media and method for the same

Country Status (1)

Country Link
KR (1) KR102613623B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100072972A (en) 2008-12-22 2010-07-01 엘지전자 주식회사 Terminal and method for controlling the same
KR20120137596A (en) * 2011-05-19 2012-12-24 김남식 Real-time and conversational type questions/answers systm and method using a communication network
KR20150044495A (en) * 2013-10-16 2015-04-27 (주)컴버스테크 System and method for processing virtual interview based speech recognition
KR20160032564A (en) * 2014-09-16 2016-03-24 삼성전자주식회사 Image Displaying Device, Driving Method of Image Displaying Device, and Computer Readable Recording Medium
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100072972A (en) 2008-12-22 2010-07-01 엘지전자 주식회사 Terminal and method for controlling the same
KR20120137596A (en) * 2011-05-19 2012-12-24 김남식 Real-time and conversational type questions/answers systm and method using a communication network
KR20150044495A (en) * 2013-10-16 2015-04-27 (주)컴버스테크 System and method for processing virtual interview based speech recognition
KR20160032564A (en) * 2014-09-16 2016-03-24 삼성전자주식회사 Image Displaying Device, Driving Method of Image Displaying Device, and Computer Readable Recording Medium
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition

Also Published As

Publication number Publication date
KR102613623B1 (en) 2023-12-15

Similar Documents

Publication Publication Date Title
JP6375521B2 (en) Voice search device, voice search method, and display device
US10901690B2 (en) Display device and system comprising same
KR20180065592A (en) Display apparatus and method for acquiring channel information of a display apparatus
KR20170006203A (en) Electronic device and method thereof for providing information associated with news content
CN103546763A (en) Method for providing contents information and broadcast receiving apparatus
KR102576388B1 (en) Display device and operating method thereof
US11544602B2 (en) Artificial intelligence device
US20220293106A1 (en) Artificial intelligence server and operation method thereof
US11664024B2 (en) Artificial intelligence device
US11907011B2 (en) Display device
KR20200102861A (en) Display device and operating method thereof
US11412281B2 (en) Channel recommendation device and operating method therefor
KR102613623B1 (en) Apparatus for providing information contained in media and method for the same
US11881220B2 (en) Display device for providing speech recognition service and method of operation thereof
WO2020175845A1 (en) Display device and operating method therefor
CN113573095B (en) Display device and method of operating the same
KR20190034856A (en) Display device and operating method thereof
EP4345817A1 (en) Display device and operating method thereof
US11949942B2 (en) Display device
EP4236329A1 (en) Display device and operating method therefor
US20230282209A1 (en) Display device and artificial intelligence server
KR20160031253A (en) Display device and operating method thereof
KR20210133588A (en) Display device and operating method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant