KR102613623B1 - 미디어에 포함된 정보를 제공하는 장치 및 그 방법 - Google Patents

미디어에 포함된 정보를 제공하는 장치 및 그 방법 Download PDF

Info

Publication number
KR102613623B1
KR102613623B1 KR1020180157519A KR20180157519A KR102613623B1 KR 102613623 B1 KR102613623 B1 KR 102613623B1 KR 1020180157519 A KR1020180157519 A KR 1020180157519A KR 20180157519 A KR20180157519 A KR 20180157519A KR 102613623 B1 KR102613623 B1 KR 102613623B1
Authority
KR
South Korea
Prior art keywords
data
query
processor
user
information
Prior art date
Application number
KR1020180157519A
Other languages
English (en)
Other versions
KR20200069936A (ko
Inventor
이철수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180157519A priority Critical patent/KR102613623B1/ko
Publication of KR20200069936A publication Critical patent/KR20200069936A/ko
Application granted granted Critical
Publication of KR102613623B1 publication Critical patent/KR102613623B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast

Abstract

본 발명의 실시 예는 디스플레이 장치에 있어서, 미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하고, 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보 및 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하고, 상기 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 프로세서; 및 상기 생성된 응답 데이터를 출력하는 출력부를 포함하는, 디스플레이 장치를 제공한다.

Description

미디어에 포함된 정보를 제공하는 장치 및 그 방법 {APPARATUS FOR PROVIDING INFORMATION CONTAINED IN MEDIA AND METHOD FOR THE SAME}
본 발명은 미디어에 포함된 정보 제공 장치 및 그 방법에 관한 것이다. 구체적으로, 방송 또는 스트리밍 콘텐츠를 감상하는 단말기에 적용되어 콘텐츠에서 재생되는 음성 정보를 기반으로 사용자가 요청하는 정보를 검출하고 제공하는 방법에 관한 것이다.
유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있다. 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서는 제공할 수 없었던 다양한 서비스를 제공할 수 있다.
예를 들어 디지털 TV 서비스의 종류인 IPTV(Internet Protocol Television), smart TV 서비스의 경우 사용자로 하여금 시청 프로그램의 종류, 시청 시간 등을 능동적으로 선택할 수 있도록 하는 양방향성을 제공한다. IPTV, smart TV서비스는 이러한 양방향성을 기반으로 하여 다양한 부가 서비스, 예컨대 인터넷 검색, 홈쇼핑, 온라인 게임 등을 제공할 수도 있다.
기존에는 만약 미디어를 감상하다 미디어에서 제공된 정보를 다시 확인하고자 하더라도, 해당 미디어가 실시간 스트리밍인 경우에는 사용자가 해당 미디어 재생 장치로부터 직접 정보를 획득할 방법은 제한적으로 제공되는 EPG(Electronic Program Guide)를 확인하거나 버퍼에 저장된 최근 영상을 되감아서 다시 확인하는 방법, 또는 외부의 정보 제공 서비스 업체로부터 미디어 정보를 획득하는 방법밖에 없다.
하지만, EPG는 해당 미디어의 전반적인 정보만을 담을 뿐, 미디어의 내용에 포함된 정보를 담지 못하는 경우가 많으며, 버퍼에 저장된 데이터를 확인하는 경우 번거롭고 기기의 복잡도가 증가하며, 외부의 정보 제공 서비스 업체로부터 미디어 정보를 요청하는 경우에는 캡쳐된 영상이 외부로 반출됨에 따라 저작권 침해의 문제가 발생할 우려가 있으며 비효율적이다.
또한, 특허 공개번호 10-2010-0072972에 따르면 미디어 콘텐츠를 감상할 때 콘텐츠에 포함된 음성 정보를 인식하여 자막을 생성하여 제공할 수 있다. 하지만, 이는 단순히 콘텐츠의 음성 정보를 자막으로 생성하는 것에 불과할 뿐, 사용자의 질의에 따라 미디어 콘텐츠에 포함된 정보 중에서 적합한 정보를 선택하여 제공하고 있지 않다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
국내 공개특허공보 10-2010-0072972
본 발명은 사용자에게 미디어 콘텐츠를 제공하면서 미디어 콘텐츠 안에 포함된 소리로 출력되는 정보 중에서 사용자의 질의에 상응하는 정보를 추출하여 사용자에게 제공하는, 미디어에 포함된 정보를 제공하는 장치 및 그 방법을 제공하고자 한다.
또한, 본 발명은 사용자의 질의에 상응하는 응답 데이터를 생성하는데 이용되는 적어도 하나 이상의 엔진들을 업데이트하여 관리하는, 미디어에 포함된 정보를 제공하는 장치 및 그 방법을 제공하고자 한다.
또한, 본 발명은 미디어 콘텐츠에 상응하는 문자열 데이터의 쿼리 범위를 선택하고, 선택된 쿼리 범위 이내에서 질의에 상응하는 응답 데이터를 생성하는, 미디어에 포함된 정보를 제공하는 장치 및 그 방법을 제공하고자 한다.
본 발명의 일 실시 예는, 사용자에게 제공하는 미디어 콘텐츠에 포함된 소리로 출력되는 정보를 문자열 데이터로 변환하고, 문자열 데이터에 상응하는 의미 정보와 사용자의 질의에 상응하는 의미 정보를 생성하고, 생성된 의미 정보들을 서로 비교하여 문자열 데이터에서 사용자의 질의에 상응하는 정보를 추출하고, 추출된 정보를 기반으로 응답 데이터를 생성하여 사용자에게 제공한다.
또한, 본 발명의 일 실시 예는, 유무선 통신을 통하여 연결된 관리 서버로부터 응답 데이터를 생성하는데 사용하는 적어도 하나 이상의 엔진들에 대한 업데이트 데이터를 수신하여 엔진들을 업데이트한다.
또한, 본 발명의 일 실시 예는, 사용자의 상호작용 또는 미디어 콘텐츠에 상응하는 EPG 정보 중에서 적어도 하나 이상을 이용하여 문자열 데이터에 대한 질의 범위를 구분하고, 구분된 질의 범위들 중에서 사용자의 질의에 상응하는 질의 범위를 결정하고, 결정된 질의 범위에 기반하여 응답 데이터를 생성한다.
본 발명의 다양한 실시 예에 따르면, 사용자가 미디어 콘텐츠를 시청하면서 다시 확인하고 싶은 정보를 간단한 방법으로 재확인이 가능하여 사용자의 정보 검색의 편의성을 도모할 수 있다.
또한, 본 발명의 다양한 실시 예에 따르면, 응답 데이터를 생성하는데 이용되는 다양한 엔진들을 꾸준히 업데이트하여 관리하므로, 응답 데이터의 정확도를 높임과 동시에 다양한 언어에 대하여도 폭넓게 지원하여 응답 데이터를 생성할 수 있다.
또한, 본 발명의 다양한 실시 예에 따르면, 사용자의 상호작용 또는 EPG 데이터 중에서 적어도 하나 이상에 기반하여 사용자 질의에 대한 쿼리 범위를 결정하므로, 쿼리 범위를 사용자가 인지하는 질의 범위와 높은 정확도로 일치시킬 수 있다. 나아가, 쿼리 범위 내에서 응답 데이터를 생성하므로 연산의 속도를 높일 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 시스템의 구성을 나타낸 블록도이다.
도 6은 도 5에 도시된 미디어에 포함된 정보를 제공하는 장치의 일 예를 나타낸 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
도 8은 도 7에 도시된 응답 데이터를 생성하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 9는 도 8에 도시된 문자열 데이터의 쿼리 범위를 결정하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 10 내지 12는 본 발명의 일 실시 예의 사용 태양을 나타낸 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 실시 예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 무선 통신부(173), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
외부장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부장치 인터페이스부(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스부(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부장치 인터페이스부(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스부(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이부(180)를 통해 출력될 수 있다. 외부장치 인터페이스부(135)를 통해 입력된 외부장치의 음성 신호는 오디오 출력부(185)를 통해 출력될 수 있다.
외부장치 인터페이스부(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신부(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신부(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신부(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신부(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신부(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신부(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일 실시 예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시 예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시 예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시 예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280), 음성 획득부(290)를 포함할 수 있다.
도 2를 참조하면, 무선통신부(225)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선 통신부(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시 예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. 전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다. 홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다. 라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다. 외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다. 음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다. 음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다. 채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다. 확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 디스플레이 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(291)을 포함할 수 있고, 마이크(291)를 통해 음성을 획득할 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이부(180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
다음으로, 도 5를 참조하여, 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 설명한다.
도 5는 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 시스템(5)의 구성을 나타낸 블록도이다.
도 5를 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 시스템(5)은 미디어에 포함된 정보를 제공하는 장치(500), 사용자 단말기(51), 디스플레이 장치(52) 및 관리 서버(53)를 포함할 수 있다.
일 실시 예에서, 미디어에 포함된 정보를 제공하는 시스템(5)은 사용자 단말기(51), 디스플레이 장치(52) 및 관리 서버(53) 중에서 적어도 하나 이상을 포함하지 않고도 구성될 수 있다.
다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 시스템(5)은 미디어에 포함된 정보를 제공하는 장치(500)만으로 구성될 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)는 미디어 콘텐츠로부터 소리 데이터를 추출하고, 소리 데이터를 문자열 데이터로 변환하고, 사용자(미도시)의 질의에 상응하는 질의 데이터와 문자열 데이터 각각의 의미에 상응하는 의미 정보를 획득하고, 의미 정보를 이용하여 문자열 데이터에 기반한 사용자 질의에 상응하는 응답 데이터를 생성하고, 응답 데이터를 제공한다.
여기서, 미디어에 포함된 정보를 제공하는 장치(500)는 텔레비전(TV), 프로젝터, 스마트폰, 태블릿, 셋톱박스(STB), DMB 수신기, 라디오 등으로 구현될 수 있다.
이때, 사용자 질의는 발화를 통한 질의 음성 음성 또는 미리 질의 내용이 설정된 버튼과의 상호작용을 통한 질의 등이 포함될 수 있다.
이때, 미디어에 포함된 정보를 제공하는 장치(500)는 도 1에 도시된 디스플레이 장치(100)를 의미할 수 있다. 이 경우, 미디어에 포함된 정보를 제공하는 장치(500)는 튜너(131)를 통하여 수신하는 방송 신호를 미디어 콘텐츠로 이용할 수 있다.
이때, 미디어에 포함된 정보를 제공하는 장치(500)는 미디어 콘텐츠를 다른 장치로부터 유무선 통신을 통하여 수신하여 이용할 수도 있지만, 도 6의 메모리(520)에 저장된 미디어 콘텐츠를 이용할 수도 있다.
사용자 단말기(51)는 미디어에 포함된 정보를 제공하는 장치(500)와 유선 또는 무선 통신 기능을 통하여 서로 신호를 송수신할 수 있는 장치이며, 미디어에 포함된 정보를 제공하는 장치(500)의 기능을 제어하는데 이용하는 단말기를 의미한다. 여기서, 사용자 단말기(51)는 리모컨, 스마트폰 등을 의미할 수 있다.
이때, 사용자 단말기(51)는 도 2에 도시된 원격제어장치(200)를 의미할 수 있다.
이때, 사용자 단말기(51)는 사용자의 음성을 입력 받을 수 있는 마이크를 포함하여 구성될 수 있고, 이러한 경우에 사용자의 음성을 입력 받아 미디어에 포함된 정보를 제공하는 장치(500)로 전송할 수 있다.
이때, 사용자 단말기(51)는 소리를 출력할 수 있는 스피커를 포함하여 구성될 수 있고, 이러한 경우에 미디어에 포함된 정보를 제공하는 장치(500)로부터 수신한 소리 데이터를 소리로 출력할 수 있다.
이때, 사용자 단말기(51)는 화상 정보를 출력할 수 있는 디스플레이부를 포함하여 구성될 수 있고, 이러한 경우에 미디어에 포함된 정보를 제공하는 장치(500)로부터 수신한 화상 데이터를 화상으로 출력할 수 있다.
이때, 사용자는 사용자 단말기(51)의 메뉴 또는 버튼 통해서 질의할 수도 있다. 따라서, 사용자 단말기(51)는 마이크를 포함한 리모콘, 메뉴를 동작할 수 있도록 하는 단말기의 리모콘, 그리고, 스마트폰으로 구현되는 리모콘 앱 등을 통칭한다.
디스플레이 장치(52)는 화상 데이터를 화상으로 출력하는 장치로, 화상 정보를 출력하는 디스플레이부를 포함하여 구성된다. 특히, 디스플레이 장치(52)는 소리를 출력할 수 있는 스피커를 추가적으로 포함하여 구성될 수 있다. 여기서, 디스플레이 장치(52)는 텔레비전(TV), 모니터, 프로젝터, 태블릿, 스마트폰, 노트북 등을 의미할 수 있다.
이때, 디스플레이 장치(52)는 도 1에 도시된 디스플레이 장치(100)을 의미할 수 있다.
이때, 디스플레이 장치(52)는 미디어에 포함된 정보를 제공하는 장치(500)에서 미디어 콘텐츠를 수신하여 이를 출력할 수 있다. 또한, 디스플레이 장치(52)는 미디어에 포함된 정보를 제공하는 장치(500)에서 사용자 질의에 상응하는 응답 데이터를 수신하여 이를 출력할 수 있다.
관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)와 유선 또는 무선 통신을 통하여 연결되어, 미디어에 포함된 정보를 제공하는 장치(500)에 저장된 소프트웨어 또는 데이터를 관리하는 외부의 서버이다.
이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 STT(Speech To Text) 엔진의 업데이트 데이터를 제공할 수 있다.
이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 의미 분석 엔진의 업데이트 데이터를 제공할 수 있다.
이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)의 요청에 의하여 업데이트 데이터를 미디어에 포함된 정보를 제공하는 장치(500)에 제공할 수 있으며, 미디어에 포함된 정보를 제공하는 장치(500)는 주기적으로 혹은 사용자의 요청에 의하여 관리 서버(53)에 업데이트 데이터를 요청할 수 있다.
이때, 관리 서버(53)가 STT 엔진 또는 의미 분석 엔진에 대한 새로운 업데이트가 있을 경우, 미디어에 포함된 정보를 제공하는 장치(500)에 자동으로 해당 업데이트 데이터를 전송할 수도 있다.
이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 STT 엔진 또는 의미 분석 엔진 중에서 적어도 하나에 대하여 엔진의 정확도를 향상시키는 업데이트 데이터를 전송할 수 있다. STT 엔진은 음성 정보로부터 문자열 데이터를 생성하기 때문에 음성 정보를 얼마나 정확히 인식할 수 있는지가 정확도가 될 수 있다. 의미 분석 엔진은 문자열 데이터의 의미를 분석하기 때문에 문자열 데이터의 의미를 얼마나 정확히 파악할 수 있는지가 정확도가 될 수 있다.
이때, 관리 서버(53)는 미디어에 포함된 정보를 제공하는 장치(500)에 STT 엔진 또는 의미 분석 엔진 중에서 적어도 하나에 대하여 엔진의 지원 언어를 수정하는 업데이트 데이터를 제공할 수 있다. 즉, 기존의 STT 엔진이나 의미 분석 엔진이 영어만을 지원하더라도, 엔진 업데이트를 통하여 한국어를 추가적으로 지원하게 할 수 있다.
이때, 엔진의 지원 언어의 수정은 새로운 지원 언어를 추가/활성화하거나, 기존의 지원 언어를 삭제/비활성화하는 것을 포함할 수 있다. 예컨대, 특정 언어에 대한 지원을 기간제로 운용하는 경우에는 해당 기간이 만료되었을 때 업데이트 데이터를 통하여 해당 지원 언어를 삭제 또는 비활성화할 수 있다.
이에 따라, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)를 이용하면 사용자는 미디어를 시청하면서 들었던 정보 중에서 재차 확인하고 싶은 정보를 손쉽게 확인할 수 있다. 예컨대, 라디오를 청취하면서 노래를 틀어줄 때, DJ가 알려주었던 노래의 정보를 손쉽게 다시 확인할 수 있다.
특히, 별도의 정보 검색을 위한 서버 없이도 재생하고자 하는 미디어 콘텐츠 자체에서 질의에 따른 응답 데이터를 생성하므로, 단일한 제조업체의 관점에서 독자적으로 미디어에 포함된 정보를 제공하는 장치를 제조하고 서비스를 제공할 수 있다. 그리고, 설령 별도의 정보 검색을 통한 추가 정보를 제공하지 않더라도 사용자에게 기억을 환기시킴으로써 충분한 만족감을 제공할 수 있다.
도 6은 도 5에 도시된 미디어에 포함된 정보를 제공하는 장치(500)의 일 예를 나타낸 블록도이다.
도 6을 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)는 프로세서(510), 메모리(520), 통신부(530), 마이크(540) 및 출력부(550) 등을 포함한다.
이때, 프로세서(510)는 소리 데이터 추출부(511), 음성 데이터 추출부(512), 문자열 데이터 변환부(513), 질의 데이터 수신부(514), 응답 데이터 생성부(515) 및 엔진 관리부(516) 등을 포함할 수 있다.
상세히, 프로세서(510)는 일종의 중앙처리장치로서 음성 인식에 기반하여 미디어에 포함된 정보를 제공하는 전체 과정을 제어한다. 즉, 메모리(520)에 저장된 STT 엔진 또는 의미 분석 엔진을 구동하고, 통신부(530), 마이크(540), 출력부(550), 소리 데이터 추출부(511), 음성 데이터 추출부(512), 문자열 데이터 변환부(513), 질의 데이터 수신부(514), 응답 데이터 생성부(515) 및 엔진 관리부(516) 등을 제어하여 다양한 기능을 제공할 수 있다.
여기서, 프로세서(510)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
여기서, 프로세서(510)는 도 1의 제어부(170)을 의미할 수 있다.
소리 데이터 추출부(511)는 미디어 콘텐츠로부터 소리 데이터를 추출한다.
이때, 미디어 콘텐츠는 다른 장치로부터 통신부(530)를 통하여 수신한 것일 수도 있고, 메모리(520)에 저장된 것일 수도 있다.
음성 데이터 추출부(512)는 소리 데이터에서 음성 데이터를 추출한다.
문자열 데이터 변환부(513)는 음성 데이터를 문자열 데이터로 변환한다.
질의 데이터 수신부(514)는 사용자의 질의에 상응하는 질의 데이터를 수신한다.
이때, 사용자의 질의는 발화에 의한 질의 또는 사용자 단말기(51)의 버튼이나 메뉴와의 상호작용을 통한 질의를 포함할 수 있다.
이때, 질의 데이터 수신부(514)는 마이크(540)를 통하여 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다.
이때, 질의 데이터 수신부(514)는 통신부(530)를 통해 사용자 단말기(51)로부터 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다.
응답 데이터 생성부(515)는 의미 분석 엔진을 이용하여 질의 데이터의 의미에 상응하는 의미 정보를 획득한다. 그리고, 문자열 데이터에 상응하는 의미 정보를 획득하지 않은 경우에는 의미 분석 엔진을 이용하여 문자열 데이터의 의미에 상응하는 의미 정보를 획득한다. 그리고, 의미 정보를 이용하여 문자열 데이터에 기초한 질의 데이터에 상응하는 응답 데이터를 생성한다.
엔진 관리부(516)는 STT 엔진 또는 의미 분석 엔진 중에서 적어도 하나 이상을 업데이트한다.
이때, 엔진 관리부(516)는 유무선 통신을 통하여 연결된 관리 서버(53)로부터 업데이트 데이터를 수신하여 STT 엔진 또는 의미 분석 엔진을 업데이트할 수 있다.
이때, 엔진 관리부(516)는 STT 엔진 또는 의미 분석 엔진의 정확도를 향상시키는 업데이트를 수행할 수 있다.
이때, 엔진 관리부(516)는 STT 엔진 또는 의미 분석 엔진이 지원하는 언어를 변경하는 업데이트를 수행할 수 있다. 예컨대, 기존에 STT 엔진 및 의미 분석 엔진이 영어만 지원하는 경우에 새로운 지원 언어로 한국어를 추가하는 업데이트를 수행할 수 있다.
이때, 엔진 관리부(516)는 주기적으로 혹은 사용자의 요청이 있을 경우에 관리 서버(53)에 업데이트가 가능한지 여부를 확인하여 업데이트를 진행할 수 있다.
이때, 엔진 관리부(516)는 관리 서버(53)로부터 새로운 업데이트가 가능하다는 신호를 수신하면, 자동으로 혹은 사용자의 요청에 의하여 관리 서버(53)로부터 업데이트 데이터를 수신하여 업데이트를 진행할 수 있다.
메모리(520)는 프로세서(510)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(520)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
이때, 메모리(520)는 도 1의 저장부(140)를 의미할 수 있다.
통신부(530)는 미디어에 포함된 정보를 제공하는 장치(500)와 사용자 단말기(51), 디스플레이 장치(52) 및 관리 서버(53) 간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다.
여기서, 통신부(530)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
이때, 통신부(530)는 도 1의 방송 수신부(130), 외부장치 인터페이스부(135) 및 무선 통신부(173)을 포괄하여 의미할 수 있다.
이때, 통신부(530)는 미디어 콘텐츠를 송수신할 수 있다. 예컨대, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)가 셋톱박스(STB)인 경우에는 미디어 콘텐츠로서 방송 신호를 수신하고, 수신한 미디어 콘텐츠를 그대로 혹은 처리과정을 거쳐 디스플레이 장치에 전송할 수 있다.
이때, 통신부(530)는 미디어 콘텐츠를 받는 경로인 RF 안테나와의 인터페이스, 인터넷 콘텐츠에 접속할 수 있는 인터페이스, 케이블/위성/인터넷 서비스용 셋톱박스(STB)와의 인터페이스 중 하나를 포함할 수 있다.
또한, 통신부(530)는 기능의 확장을 위해서 추가적인 계산능력(computation power)이나 저장소가 필요한 경우 이를 위한 외부 장치(미도시)를 연결할 수 있는 인터페이스를 더 포함할 수 있으며, 이 경우 연결된 외부 장치는 미디어에 포함된 정보를 제공하는 장치(500)의 확장판으로서 제어를 받는 종속적인 장치가 된다.
마이크(540)는 입력된 음파를 전기 신호로 변환한다.
출력부(550)는 프로세서(510)에 의하여 생성된 응답 데이터를 출력한다.
이때, 출력부(550)는 오디오 출력부(551) 및 디스플레이부(552) 등을 포함할 수 있다.
오디오 출력부(551)는 소리 데이터를 음파로 변환하여 출력한다. 여기서, 오디오 출력부(551)는 스피커를 의미할 수 있다.
이때, 오디오 출력부(551)는 도 1의 오디오 출력부(185)를 의미할 수 있다.
디스플레이부(552)는 영상 데이터를 시각화하여 출력한다. 여기서, 디스플레이부(552)는 디스플레이 패널, 프로젝터 등을 의미할 수 있다.
이때, 디스플레이부(552)는 도 1의 디스플레이부(180)을 의미할 수 있다.
이때, 출력부(550)는 통신부(530)를 통하여 응답 데이터를 사용자 단말기(51)나 디스플레이 장치(52)에 전송할 수 있다. 이때, 출력부(550)는 응답 데이터를 시각화하거나 청각화하여 제공할 수 있다.
만약, 통신부(530)가 다른 장치로 응답 데이터를 전송하는 경우에는 통신부(530)가 출력부(550)의 기능을 한다고 볼 수 있다.
도 7은 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
도 7을 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법은 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 미디어 콘텐츠로부터 소리 데이터를 추출한다(S701).
이때, 미디어 콘텐츠는 비디오 데이터 또는 오디오 데이터 중 하나 이상을 포함할 수 있다.
이때, 미디어 콘텐츠는 튜너(131)를 통하여 수신하는 방송 신호, 다른 장치로부터 통신부(530)를 통하여 수신한 미디어 콘텐츠 또는 메모리(520)에 저장된 미디어 콘텐츠를 의미할 수 있다.
여기서, 다른 장치는 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)와 유무선 통신을 통하여 연결된 별도의 장치를 의미한다. 다른 장치에는 셋톱박스, 컴퓨터 및 이동식 저장소 등이 포함될 수 있다.
예컨대, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(500)가 셋톱박스(STB)인 경우에는 미디어 콘텐츠로서 방송 신호를 수신하고, 수신한 미디어 콘텐츠를 그대로 혹은 처리 과정을 거쳐 디스플레이 장치(52)에 전송할 수 있다.
이때, 프로세서(510)는 미디어 콘텐츠로부터 영상 데이터, 소리 데이터 및 기타 데이터를 분리하여 소리 데이터를 추출할 수 있다. 만약 분리된 데이터가 압축된 경우 각각의 디코더를 통해서 데이터를 복원한다. 압축되지 않은 데이터가 HDMI를 통해 들어오는 경우, 디코더는 동작하지 않을 수 있다.
이때, 프로세서(510)는 미디어 콘텐츠가 소리 데이터와 다른 데이터가 구분되어 있는 경우에는 별도의 분리 작업을 수행하지 않고 소리 데이터를 추출할 수 있다.
이때, 프로세서(510)는 미디어 콘텐츠가 소리 데이터가 따로 구분되어있지 않은 경우에는 소리 데이터와 다른 데이터를 구분하는 분리 작업을 수행하여 소리 데이터를 추출할 수 있다.
이때, 프로세서(510)는 재생중인 미디어 콘텐츠에 대하여 실시간으로 소리 데이터를 추출할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 소리 데이터를 음성 데이터와 비음성 데이터로 분리한다(S703).
일반적인 미디어 콘텐츠에 포함된 소리 데이터는 다양한 종류의 데이터를 포함한다. 예를 들어, 연주회 콘텐츠에서의 음악, 영화에서의 효과음, 뉴스에서의 아나운서의 음성 등이 있으며, 보통 사용자가 원하는 정보는 음성 정보이다. 물론, 음성이 아닌 정보에 대해서는 유용할 수 있으며, 이에 대하여도 본 발명을 적용할 수 있다.
이때, 프로세서(510)는 음성과 비음성(백그라운드 소리)를 구분하고, 비음성을 상쇄시키는 방식으로 음성 데이터만을 추출할 수 있다. 즉, 잡음 제거 기술을 통하여 음성 데이터만을 추출할 수 있다.
이때, 프로세서(510)는 음성 데이터에 대하여 음성의 주파수 대역과 그 이외의 주파수 대역을 구분하여 음성만을 강조하도록 이퀄라이저를 조절할 수 있다. 현재 시장에서 판매되고 있는 TV등에는 오디오중 음성을 포함하는지 여부를 검출하고, 그 결과에 따라 오디오 처리를 다르게 하는 기술들이 탑재되어 있다. 이러한 기술을 사용하면 소리 데이터에서 음성 신호의 포함 여부를 검출하고, 그중에서 음성 신호를 강조할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 음성 데이터를 문자열 데이터로 변환한다(S705).
이때, 생성된 문자열 데이터는 텍스트 형식이며, 대본과 같은 형식으로 기록될 수 있다.
이때, 프로세서(510)는 STT 엔진을 이용하여 음성 데이터를 문자열 데이터로 변환할 수 있다.
이때, STT 엔진은 구현 방법에 제한이 없으며, 기계 학습(머신 러닝; Machine Learning)이나 딥 러닝(Deep Learning) 등을 통하여 학습하는 엔진일 수 있다.
이때, STT 엔진은 하나 이상의 언어가 섞여있는 음성 데이터에 대하여도 문자열 데이터로 변환할 수 있다.
이때, STT 엔진은 메모리(520)에 저장될 수도 있으나, 별도의 외부 저장소(미도시)에 저장될 수도 있다.
이때, STT 엔진에 설정된 기본 언어에 관련된 데이터는 메모리(520)에 저장되고, STT 엔진의 추가 언어에 관련된 데이터는 별도의 외부 저장소(미도시)에 저장될 수 있다.
이때, 프로세서(510)는 변환된 문자열 데이터를 메모리(520)에 저장할 수 있다.
이때, 프로세서(510)는 변환된 문자열 데이터를 별도의 외부 저장소(미도시)에 암호화하여 저장할 수 있다.
이때, 생성된 문자열 데이터는 시간 정보를 함께 포함할 수 있다.
예컨대, 13:32분에 "배고파"라는 음성이 출력되는 경우, 문자열 데이터는 "(13:32) 배고파"와 같은 형식으로 저장될 수 있다.
이때, 생성된 문자열 데이터는 날짜 정보를 함께 포함할 수 있다.
이때, 문자열 데이터에 저장되는 날짜 정보 또는 시간 정보는 미디어 콘텐츠가 재생되는 실제 시점 정보를 의미할 수도 있고, 해당 미디어 콘텐츠 내에서의 시점 정보를 의미할 수도 있다.
이때, 프로세서(510)는 실시간으로 혹은 일정 주기마다 의미 분석 엔진을 이용하여 문자열 데이터의 의미에 상응하는 의미 정보를 생성하여 저장할 수 있다.
이때, 프로세서(510)는 문자열 데이터에서 의미를 나타내는 하나 이상의 키워드를 추출하고, 추출한 키워드를 기반으로 의미 정보를 생성할 수 있다.
예컨대, 프로세서(510)는 미디어 콘텐츠에 "내일은 에펠탑에 갈거야"라는 음성이 포함되는 경우, 이를 문자열 데이터로 변환하면서 그 의미를 나타내는 키워드로서 "내일", "에펠탑" 및 "가다"를 추출할 수 있다.
이때, 프로세서(510)는 각 키워드들을 다양한 태그를 통해서 구분할 수 있다.
예컨대, 프로세서(510)는 "내일", "에펠탑", "가다”라는 키워드들을 "시점-내일", "장소-에펠탑" 및 "동작-가다"와 같은 형식으로 태그를 통해서 구분할 수 있다.
이때, 프로세서(510)는 소리 데이터에 음악이 포함된 경우, 음악 검색 기능을 이용하여 해당 음악에 대한 정보를 문자열 데이터로 변환할 수 있다.
이때, 음악에 대한 정보는 제목, 아티스트 및 앨범 등에 상응하는 정보를 포함할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 사용자의 질의에 상응하는 질의 데이터를 수신한다(S707).
이때, 사용자의 질의는 사용자에게 제공되는 미디어 콘텐츠에 포함된 정보를 검색하는 질의이다.
이때, 사용자 질의는 사용자 단말기(52)에 구비된 버튼이나 메뉴에 미리 설정된 질의와 사용자의 발화에 의한 질의 음성을 포함할 수 있다.
예컨대, 사용자의 질의는 "방금 전에 어디에 간다고 했지?"와 같은 미디어 콘텐츠 내의 정보를 검색하는 것일 수 있다.
이때, 사용자의 질의는 미디어 콘텐츠에 포함된 장소 정보, 인물 정보, 음악 정보 등을 포함하는 다양한 정보를 검색하는 질의를 의미할 수 있다.
이때, 미디어에 포함된 정보를 제공하는 장치(500)의 마이크(540)가 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다.
이때, 통신부(530)는 사용자 단말기(52)로부터 사용자의 질의 음성에 상응하는 질의 데이터를 수신할 수 있다. 이 경우, 사용자 단말기(52)의 마이크가 사용자의 질의 음성을 수신할 수 있다.
이때, 통신부(530)는 사용자 단말기(52)로부터 사용자의 질의에 상응하는 질의 데이터를 수신할 수 있다. 이 경우, 사용자 단말기(52)의 버튼 또는 메뉴가 사용자의 입력에 상응하는 질의 데이터를 생성할 수 있다.
이때, 프로세서(510)는 질의 데이터를 STT 엔진을 이용하여 문자열로 변환할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 의미 분석 엔진을 이용하여 문자열 데이터와 질의 데이터 각각의 의미에 상응하는 의미 정보를 획득한다(S709).
여기서, 질의 데이터의 의미에 상응하는 의미 정보를 제1 의미 정보라 칭하고, 문자열 데이터의 의미에 상응하는 의미 정보를 제2 의미 정보라 칭할 수 있다.
이때, 의미 분석 엔진은 구현 방법에 제한이 없으며, 기계 학습(머신 러닝; Machine Learning)이나 딥 러닝(Deep Learning) 등을 통하여 학습하는 엔진일 수 있다.
이때, 의미 분석 엔진은 하나 이상의 언어가 섞여있는 문자열 데이터에 대하여도 그 의미에 상응하는 의미 정보(제2 의미 정보)를 획득할 수 있다.
이때, 의미 분석 엔진은 메모리(520)에 저장될 수도 있으나, 별도의 외부 저장소(미도시)에 저장될 수도 있다.
이때, 의미 분석 엔진에 설정된 기본 언어에 관련된 데이터는 메모리(520)에 저장되고, 의미 분석 엔진의 추가 언어에 관련된 데이터는 별도의 외부 저장소(미도시)에 저장될 수 있다.
이때, 의미 분석 엔진은 문자열 데이터와 질의 데이터 각각에 대하여 하나 이상의 키워드들을 추출하고, 추출한 키워드들을 기반으로 의미 정보를 생성할 수 있다.
예컨대, "아까 어디에 간다고 했지?"라는 사용자의 질의 음성에서는 "아까", "어디" 및 "간다"라는 키워드를 추출할 수 있다. 그리고, 추출한 키워드들인 "아까", "어디" 및 "간다"를 제1 의미 정보에 추가할 수 있다.
이때, 프로세서(510)는 각 키워드를 태그를 통하여 구분할 수 있다.
예컨대, "아까", "어디" 및 "간다"라는 키워드를 "시점-아까", "장소-어디" 및 "행동-간다"와 같이 구분할 수 있다.
이때, 이용 가능한 태그에는 제한이 없다.
예컨대, 프로세서(510)는 육하원칙(5W1H)에 입각한 누가(who), 언제(when), 어디서(where), 무엇을(what), 어떻게(how) 및 왜(why)에 상응하는 태그들을 이용하여 각 키워드들을 구분할 수 있다.
이와 같이, 프로세서(510)가 키워드를 추출하고 이를 기반으로 의미 정보를 생성하게 되면, 문자열 데이터에 상응하는 키워드와 사용자의 질의 데이터에 상응하는 키워드를 비교함으로써 용이하게 질의에 적합한 정보를 찾아 응답 데이터를 생성할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)는 프로세서(510)가, 의미 정보를 이용하여 문자열 데이터에서 질의 데이터에 상응하는 정보를 추출하여 응답 데이터를 생성한다(S711).
이때, 프로세서(510)는 통신부(530)를 통해 유선 또는 무선으로 연결된 네트워크에서 문자열 데이터에서 추출한 정보에 상응하는 추가 정보를 수신하여 응답 데이터에 추가할 수 있다.
예컨대, 프로세서(510)가 문자열 데이터에서 사용자의 질의에 상응하는 정보로서 "에펠탑"을 추출하여 응답 데이터를 생성하는 경우, 에펠탑에 대한 추가 정보를 획득하여 응답 데이터에 "에펠탑(프랑스 파리)" 등과 같은 형태로 추가할 수 있다.
이때, 추가 정보는 추출된 정보에 관련된 텍스트, 이미지 및 상세 정보를 제공하기 위한 링크 정보 등을 포함할 수 있다.
이때, 프로세서(510)는 문자열 데이터에 포함된 각 정보에 대하여 질의 데이터와의 정확도 또는 연관도를 계산하고, 계산된 정확도 또는 연관도를 기반으로 문자열 데이터에서 질의 데이터에 상응하는 정보를 추출하여 응답 데이터를 생성할 수 있다.
이때, 프로세서(510)는 사용자의 질의에 상응하는 응답 데이터를 생성하기 위한 문자열 데이터의 쿼리 범위를 결정하고, 결정된 쿼리 범위 이내에서 사용자의 질의에 상응하는 정보를 검색하여 응답 데이터를 생성할 수 있다.
또한, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법은 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 생성된 응답 데이터를 제공한다(S713).
이때, 프로세서(510)는 생성된 응답 데이터를 디스플레이부(552)를 통해 시각화하여 표시할 수 있다.
이때, 프로세서(510)는 생성된 응답 데이터를 오디오 출력부(551)를 통해 소리로 출력할 수 있다.
이때, 프로세서(510)는 생성된 응답 데이터를 통신부(530)를 통해 디스플레이 장치(52)로 전송할 수 있다.
이때, 프로세서(510)는 생성된 응답 데이터를 통신부(530)를 통해 사용자 단말기 장치(51)로 전송할 수 있다. 이 경우, 사용자 단말 장치(51)는 수신한 응답 데이터를 디스플레이부(552)를 통해 시각화하여 표시할 수도 있고, 오디오 출력부(551)를 통해 소리로 출력할 수도 있다.
이에 따라, 사용자는 질의에 따른 응답을 시각화된 정보 또는 청각화된 정보로 확인할 수 있다.
이때, 프로세서(510)는 TTS(Text To Speech) 엔진을 이용하여 응답 데이터를 소리 데이터로 변환할 수 있다.
이때, 프로세서(510)는 응답 데이터의 시각화 또는 청각화 여부를 사용자의 선택에 의한 설정에 따를 수 있다.
선택적 실시 예에서, 미디어 콘텐츠로부터 문자열 데이터를 생성하는 단계들(S701, S703 및 S705)은 사용자의 질의 데이터를 수신하는 단계(S707)와 병렬적으로 이루어질 수 있다.
특히, 도 7은 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 방법을 단순화하여 한 사이클로 나타낸 것이며, 상기한 단계들(S701, S703, S705, S707, S709, S711 및 S703)이 반복적으로 수행될 수 있다.
도 8은 도 7에 도시된 응답 데이터를 생성하는 단계(S711)의 일 예를 나타낸 동작 흐름도이다.
도 8을 참조하면, 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 문자열 데이터의 쿼리 범위를 결정한다(S801).
이때, 쿼리 범위는 사용자의 질의에 상응하는 미디어 콘텐츠 내의 정보를 추출(검색)하기 위한 범위를 의미할 수 있다.
예컨대, 사용자가 채널을 10번에서 11번으로 변경하여 시청중인 경우, 프로세서(510)는 채널 변경 시점 기준으로 문자열 데이터의 쿼리 범위를 구분할 수 있다. 만약, 사용자가 "이전 채널에서 어디에 간다고 했지?"라는 형식으로 질문을 하면, 프로세서(510)는 10번 채널에 상응하는 문자열 데이터에서 쿼리를 수행하여 응답 데이터를 생성할 수 있다.
또한, 사용자가 채널을 10번을 계속하여 시청하고 있지만 방영하는 미디어(프로그램)이 바뀐 경우, 프로세서(510)는 미디어의 변경 시점을 기준으로 문자열 데이터의 쿼리 범위를 구분할 수 있다. 만약, 사용자가 "이전 프로그램에서 어디에 간다고 했지?"라는 형식으로 질문을 하면, 프로세서(510)는 이전 미디어(프로그램)에 상응하는 문자열 데이터에서 쿼리를 수행하여 응답 데이터를 생성할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 문자열 데이터의 쿼리 범위 이내에 포함된 각 정보마다 질의 데이터와의 연관도를 계산한다(S803).
이때, 프로세서(510)는 연관도를 수치화하여 계산할 수 있다.
이때, 프로세서(510)는 문자열 데이터에 포함된 각 정보에 상응하는 키워드들과 질의 데이터에 포함된 키워드들을 비교하고, 서로 매칭된 키워드들의 개수를 기반으로 각 정보의 질의 데이터와의 연관도를 계산할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 문자열 데이터에 포함된 정보 중에서 질의 데이터와 연관도가 높은 순서대로 기설정된 개수만큼 선정하여 응답 데이터를 생성한다(S805).
예컨대, 프로세서(510)가 사용자의 질의에 대한 응답으로, 문자열 데이터에 포함된 정보 중에서 질의 데이터와의 연관도가 높은 순서대로 3개의 정보를 선정(추출)하여 응답 데이터를 생성할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 각 선정된 정보에 대하여 외부 장치에서 추가 정보를 획득하여 응답 데이터에 추가한다(S807).
이때, 외부 장치는 미디어에 포함된 정보를 제공하는 장치(500)와 유무선 통신을 통해 연결된 네트워크, 클라이언트 또는 서버 등을 의미할 수 있다.
예컨대, 프로세서(510)가 단계(S805)에서 선정된 정보에 대하여 네트워크로 연결된 검색 엔진에서 추가 정보를 획득하고, 추가 정보를 응답 데이터에 추가할 수 있다.
이와 같이, 프로세서가 문자열 데이터에서의 쿼리 범위를 결정함으로써 사용자의 질의에 따른 응답 데이터의 정확도를 높일 수 있으며, 필요한 문자열 데이터에 대하여만 쿼리를 수행함으로써 연산량을 줄일 수 있다.
도 9는 도 8에 도시된 문자열 데이터의 쿼리 범위를 결정하는 단계(S801)의 일 예를 나타낸 동작 흐름도이다.
도 9를 참조하면, 미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 사용자의 상호작용 또는 EPG 정보 중에서 적어도 하나 이상을 이용하여 문자열 데이터의 쿼리 범위를 구분한다(S901).
이때, 사용자의 상호작용으로는 채널 변경, 연결 방식 변경, 미디어 변경, 출력 장치의 변경 등이 포함될 수 있다. EPG 정보에는 프로그램(미디어 콘텐츠) 제목 정보, 프로그램 방영 시간 정보 등이 포함될 수 있다. EPG 정보는 방송 신호와 함께 들어오는 SI(Service Information)를 바탕으로 만든 EPG나 인터넷과 같이 별도의 채널을 통해서 들어오는 온라인 EPG 정보 등을 포함할 수 있다.
즉, 프로세서(510)는 미디어 콘텐츠의 메타 데이터를 이용하여 문자열 데이터의 쿼리 범위를 구분할 수 있다.
미디어에 포함된 정보를 제공하는 장치(500)의 프로세서(510)가, 질의 데이터에 상응하는 쿼리 범위를 선택한다(S903).
이때, 프로세서(510)는 사용자의 질의에 상응하는 의미 정보를 고려하여 사용자가 질문하고자 하는 대상 미디어 콘텐츠에 적합한 쿼리 범위를 선택할 수 있다.
이때, 프로세서(510)는 사용자의 상호작용 또는 EPG 정보 중에서 적어도 하나 이상과 질의 데이터의 연관도를 계산하고, 가장 연관도가 높은 요소를 이용하여 쿼리 범위를 선택할 수 있다.
예컨대, 사용자가 오후 1시부터 오후 1시 30분까지 채널 10번을 시청하고, 오후 1시 30분에 채널을 10번에서 11번으로 변경하여 오후 2시 30분까지 시청하고 있으며, 오후 2시에 채널 11번에서 방영중인 프로그램이 프로그램 A에서 프로그램 B로 변경된 경우를 가정한다.
이때, 프로세서(510)는 오후 1시 30분의 사용자의 채널 변경과 오후 2시의 채널 11번의 미디어(프로그램) 변경을 기준으로 문자열 데이터의 쿼리 범위를 구분할 수 있다.
즉, 제1 쿼리 범위는 오후 1시부터 오후 1시 30분까지의 채널 10번에 대한 문자열 데이터이고, 제2 쿼리 범위는 오후 1시 30분부터 오후 2시까지의 채널 11번의 프로그램 A에 대한 문자열 데이터이고, 제3 쿼리 범위는 오후 2시부터 오후 2시 30분까지의 채널 11번의 프로그램 B에 대한 문자열 데이터가 된다.
만약, 사용자가 "이전 채널에서 어디에 간다고 했었지?"와 같은 질문을 하면 제1 쿼리 범위를 쿼리 범위로 선택할 수 있다. 사용자가 "바로 전 프로그램에서 누가 왔다고 했지?"와 같은 질문을 하면 제2 쿼리 범위를 쿼리 범위로 선택할 수 있다. 사용자가 "방금 무슨 노래였지?"와 같은 질문을 하면 제3 쿼리 범위를 쿼리 범위로 선택할 수 있다.
이와 같이, 사용자의 상호작용이나 EPG 정보를 이용하여 문자열 데이터의 쿼리 범위를 구분함으로써 보다 정확한 쿼리 범위의 구분이 가능하다.
또한, 쿼리 범위의 구분이 일반적으로 사용자가 인지할 수 있는 행동이나 미디어의 구분과도 맞아 떨어져 질의에 대한 높은 정확도의 응답을 기대할 수 있다.
도 10 내지 12는 본 발명의 일 실시 예의 사용 태양을 나타낸 도면이다.
우선, 도 10을 참조하면, 본 발명의 일 실시 예에 따른 미디어에 포함된 정보를 제공하는 장치(1001)는 음성 정보가 포함된 미디어를 출력할 수 있다.
이때, 미디어에 포함된 정보를 제공하는 장치(1001)는 도 5 또는 6에 도시된 미디어에 포함된 정보를 제공하는 장치(500)를 의미할 수 있다.
도 10의 예시에서, 미디어 콘텐츠는 적어도 하나 이상의 화자(1002a, 1003a 또는 1004a)가 발화한 발화 문장들(1002b, 1003b 또는 1004b)을 포함할 수 있다.
예를 들어, 제1 화자(1002a)가 발화한 제1 발화 문장(1002b)은 "A씨, 오후에 어디 다녀오셨어요?"이다. 제2 화자(1003a)가 발화한 제2 발화 문장(1003b)은 "저요. 갈릴레이 박물관에 다녀왔어요. 거기서 시간을 너무 많이 보내서 다른 곳은 못 갔어요."이다. 제3 화자(1004a)가 발화한 제3 발화 문장(1004b)는"갈릴레이 박물관에 다녀오셨어요. 거기도 좋지만 피렌체에 가면 두오모에 가셨어야죠."이다.
이때, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 발화 문장들(1002b, 1003b 및 1004b)에 상응하는 음성 데이터를 하기 [표 1]과 같이 문자열 데이터로 변환할 수 있다.
- A씨, 오후에 어디 다녀오셨어요?
- 저요. 갈릴레이 박물관에 다녀왔어요. 거기서 시간을 너무 많이 보내서 다른 곳은 못 갔어요.
- 갈릴레이 박물관에 다녀오셨어요. 거기도 좋지만 피렌체에 가면 두오모에 가셨어야죠.
여기서, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 미디어가 출력(재생)될 때 STT 엔진을 이용하여 실시간으로 미디어 콘텐츠에 포함된 음성 데이터를 문자열 데이터로 변환할 수 있다. 만약, 재생하고자 하는 미디어 콘텐츠가 실시간 스트리밍하는 것이 아니라 미디어에 포함된 정보를 제공하는 장치(1001)의 내부 혹은 다른 장치에 저장되어 미디어 콘텐츠 전체를 수집할 수 있는 경우, 프로세서(510)는 현재 재생중인 위치보다 이후 시점의 음성 데이터를 고려하여 현재 재생중인 위치의 음성 데이터를 문자열 데이터로 변환할 수 있다.
이와 같이 현재 출력되는 시점보다 이후의 시점에서의 음성 데이터도 함께 고려함으로써, 현재 시점의 음성 데이터를 더욱 정확도 높게 문자열 데이터로 변환할 수 있다.
도 11을 참조하면, 미디어에 포함된 정보를 제공하는 장치(1001)를 통하여 미디어 콘텐츠를 시청하는 사용자(1101a)는 발화 문장들(1002b, 1003b 및 1004b)에 포함된 정보가 궁금하여 "어디에 갔다고 했지?"(1101b)와 같이 발화하여 질의할 수 있다.
이때, 미디어에 포함된 정보를 제공하는 장치(1001)는 사용자 단말기(1102)의 마이크를 통하여 사용자(1101a)가 발화한 질의 문장(1101b)에 상응하는 질의 데이터를 수신할 수 있다. 즉, 사용자 단말기(1102)의 통신부는 질의 문장(1101b)에 상응하는 질의 데이터를 미디어에 포함된 정보를 제공하는 장치(1001)에 전달할 수 있다.
만약, 사용자 단말기(1102)에 마이크가 구비되지 않은 경우거나, 사용자 단말기(1102)를 사용하지 않는 경우거나, 사용자가 사용자 단말기(1102)의 사용을 원치 않는 경우, 미디어에 포함된 정보를 제공하는 단말기(1001)에 구비된 마이크(540)가 사용자(1101a)가 발화한 질의 문장(1101b)을 수신할 수 있다.
도 12를 참조하면, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 의미 분석 엔진을 이용하여 사용자의 질의 문장(1101b)과 문자열 데이터([표 1]) 각각에 상응하는 의미 정보를 획득한다.
이때, 미디어에 포함된 정보를 제공하는 장치(1001)의 프로세서(510)는 문자열 데이터([표 1])에서 사용자의 질의 문장(1101b)에 적합한 정보를 선정하여 응답 데이터를 생성할 수 있다.
이때, 미디어에 포함된 정보를 제공하는 장치(1001)의 디스플레이부(552)는 화면의 일부에 시각화한 응답 데이터(1201)를 표시할 수 있다.
예를 들어, 시각화된 응답 데이터(1201)는 [표 1]의 문자열 데이터에 포함되었던 장소와 관련된 정보인 '갈릴레이 박물관'에 대한 정보(1202), '피렌체'에 대한 정보(1203) 및 '두오모'에 대한 정보(1204)를 포함할 수 있다.
다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 장치(1001)의 오디오 출력부(551)는 응답 데이터를 청각화하여 음성으로 출력할 수도 있다.
다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 장치(1001)의 통신부는 응답 데이터를 사용자 단말기(1102)로 전송하고, 사용자 단말기(1102)의 오디오 출력부가 응답 데이터를 음성으로 출력할 수도 있다.
다른 일 실시 예에서, 미디어에 포함된 정보를 제공하는 장치(1001)의 통신부는 응답 데이터를 사용자 단말기(1102)로 전송하고, 사용자 단말기(1102)의 디스플레이부가 응답 데이터를 시각화하여 출력할 수도 있다.
이와 같이, 사용자가 음성 정보가 포함된 미디어를 감상하다가 어떠한 음성 정보를 재확인하고 싶은 경우, 간이하게 발화하여 질의하거나 사용자 단말기의 버튼이나 메뉴를 통하여 질의하여 원하는 정보를 손쉽게 확인할 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (12)

  1. 디스플레이 장치에 있어서,
    미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하고, 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보를 획득하고, 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하고, 상기 제1 의미 정보 및 상기 제2 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 프로세서; 및
    상기 생성된 응답 데이터를 출력하는 출력부
    를 포함하고,
    상기 프로세서는
    사용자 상호작용 또는 상기 미디어 콘텐츠에 상응하는 EPG(Electronic Program Guide) 정보 중에서 적어도 하나 이상을 기준으로, 상기 응답 데이터를 생성하기 위한 상기 문자열 데이터에 대한 쿼리 범위를 결정하는, 디스플레이 장치.
  2. 청구항 1에 있어서,
    상기 출력부는
    상기 미디어 콘텐츠를 출력하는 디스플레이부 또는 오디오 출력부 중에서 적어도 하나 이상을 포함하는, 디스플레이 장치.
  3. 청구항 1에 있어서,
    상기 프로세서는
    상기 제2 의미 정보에 포함된 각각의 정보에 대하여 상기 제1 의미 정보와의 비교를 통해 연관도를 계산하고, 상기 계산된 연관도를 기반으로 상기 정보 중에서 적어도 하나 이상을 선택하여 상기 응답 데이터를 생성하는, 디스플레이 장치.
  4. 청구항 1에 있어서,
    유무선 통신을 통해 관리 서버와 데이터를 송수신하는 통신부
    를 더 포함하고,
    상기 프로세서는
    STT 엔진을 이용하여 상기 소리 데이터를 상기 문자열 데이터로 변환하고,
    의미 분석 엔진을 이용하여 상기 제1 의미 정보 및 상기 제2 의미 정보를 획득하고,
    상기 관리 서버로부터 업데이트 데이터를 수신하여 상기 STT 엔진 또는 상기 의미 분석 엔진 중에서 적어도 하나 이상을 업데이트하는, 디스플레이 장치.
  5. 청구항 4에 있어서,
    상기 프로세서는
    상기 STT 엔진 또는 상기 의미 분석 엔진 중에서 적어도 하나 이상에 대하여, 엔진의 정확도를 향상하는 업데이트 또는 엔진의 지원 언어를 수정하는 업데이트 중에서 적어도 하나 이상을 수행하는, 디스플레이 장치.
  6. 삭제
  7. 청구항 1에 있어서,
    유무선 통신을 통하여 연결된 네트워크 망에서 상기 응답 데이터에 상응하는 추가 정보를 수신하는 통신부
    를 더 포함하고,
    상기 프로세서는
    상기 응답 데이터에 상기 추가 정보를 추가하는, 디스플레이 장치.
  8. 청구항 1에 있어서,
    상기 질의 데이터를 수신하는 마이크
    를 더 포함하고,
    상기 프로세서는
    프로세서는 STT(Speech To Text) 엔진을 이용하여 상기 질의 데이터를 상기 문자열 데이터로 변환하는, 디스플레이 장치.
  9. 청구항 1에 있어서,
    유무선 통신을 통하여 사용자 단말기로부터 상기 질의 데이터를 수신하는 통신부
    를 더 포함하는, 디스플레이 장치.
  10. 청구항 9에 있어서,
    상기 출력부는
    상기 통신부를 통하여 상기 응답 데이터를 상기 사용자 단말기에 전송하는, 디스플레이 장치.
  11. 출력 장치에 있어서,
    미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하고, 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보를 획득하고, 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하고, 상기 제1 의미 정보 및 상기 제2 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 프로세서; 및
    상기 응답 데이터를 외부 기기에 전송하는 통신부
    를 포함하고,
    상기 프로세서는
    사용자 상호작용 또는 상기 미디어 콘텐츠에 상응하는 EPG(Electronic Program Guide) 정보 중에서 적어도 하나 이상을 기준으로, 상기 응답 데이터를 생성하기 위한 상기 문자열 데이터에 대한 쿼리 범위를 결정하는, 출력 장치.
  12. 프로세서가 미디어 콘텐츠로부터 추출한 소리 데이터를 문자열 데이터로 변환하는 단계;
    상기 프로세서가 사용자의 질의에 상응하는 질의 데이터의 의미를 나타내는 제1 의미 정보를 획득하는 단계;
    상기 프로세서가 상기 문자열 데이터의 의미를 나타내는 제2 의미 정보를 획득하는 단계; 및
    상기 프로세서가 상기 제1 의미 정보 및 상기 제2 의미 정보를 이용하여 상기 문자열 데이터에 기초한 상기 질의 데이터에 상응하는 응답 데이터를 생성하는 단계
    를 포함하고,
    상기 프로세서가 사용자 상호작용 또는 상기 미디어 콘텐츠에 상응하는 EPG(Electronic Program Guide) 정보 중에서 적어도 하나 이상을 기준으로, 상기 응답 데이터를 생성하기 위한 상기 문자열 데이터에 대한 쿼리 범위를 결정하는, 미디어에 포함된 정보를 제공하는 방법.
KR1020180157519A 2018-12-07 2018-12-07 미디어에 포함된 정보를 제공하는 장치 및 그 방법 KR102613623B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180157519A KR102613623B1 (ko) 2018-12-07 2018-12-07 미디어에 포함된 정보를 제공하는 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180157519A KR102613623B1 (ko) 2018-12-07 2018-12-07 미디어에 포함된 정보를 제공하는 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20200069936A KR20200069936A (ko) 2020-06-17
KR102613623B1 true KR102613623B1 (ko) 2023-12-15

Family

ID=71405523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180157519A KR102613623B1 (ko) 2018-12-07 2018-12-07 미디어에 포함된 정보를 제공하는 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102613623B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743230B1 (ko) 2016-04-18 2017-06-05 (주)케이디엠티 가상현실 및 음성인식 기반의 실감 어학학습 콘텐츠 제공 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529927B1 (ko) 2008-12-22 2015-06-18 엘지전자 주식회사 단말기 및 그 제어 방법
KR20120137596A (ko) * 2011-05-19 2012-12-24 김남식 네트워크 통신망을 이용한 실시간의 대화형 질문/답변 시스템 및 방법
KR101519591B1 (ko) * 2013-10-16 2015-05-13 (주)컴버스테크 음성인식 기반의 가상 면접 처리 시스템 및 방법
KR102348084B1 (ko) * 2014-09-16 2022-01-10 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743230B1 (ko) 2016-04-18 2017-06-05 (주)케이디엠티 가상현실 및 음성인식 기반의 실감 어학학습 콘텐츠 제공 장치 및 방법

Also Published As

Publication number Publication date
KR20200069936A (ko) 2020-06-17

Similar Documents

Publication Publication Date Title
KR102570379B1 (ko) 스크린 미러링 기능을 제공하는 디스플레이 장치 및 그의 동작 방법
US10901690B2 (en) Display device and system comprising same
KR102209354B1 (ko) 영상 표시 기기 및 그의 동작 방법
US9704021B2 (en) Video display device and operating method thereof
US20220293106A1 (en) Artificial intelligence server and operation method thereof
KR20170035167A (ko) 디스플레이 장치 및 그의 동작 방법
KR102576388B1 (ko) 디스플레이 장치 및 그의 동작 방법
US11544602B2 (en) Artificial intelligence device
KR102654415B1 (ko) 디스플레이 장치 및 그의 동작 방법
KR102613623B1 (ko) 미디어에 포함된 정보를 제공하는 장치 및 그 방법
US11412281B2 (en) Channel recommendation device and operating method therefor
US11881220B2 (en) Display device for providing speech recognition service and method of operation thereof
KR102511385B1 (ko) 디스플레이 장치
KR20190034856A (ko) 디스플레이 장치 및 그의 동작 방법
US11949942B2 (en) Display device
KR20160031253A (ko) 디스플레이 장치 및 그의 동작 방법
EP4236329A1 (en) Display device and operating method therefor
EP4345817A1 (en) Display device and operating method thereof
EP3905707A1 (en) Display device and operating method thereof
US20230282209A1 (en) Display device and artificial intelligence server
KR20230111758A (ko) 디스플레이 장치
KR20240065171A (ko) 디스플레이 장치
KR20170119982A (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant