KR101467519B1 - 음성 정보를 이용한 컨텐츠 검색 서버 및 방법 - Google Patents

음성 정보를 이용한 컨텐츠 검색 서버 및 방법 Download PDF

Info

Publication number
KR101467519B1
KR101467519B1 KR1020110121543A KR20110121543A KR101467519B1 KR 101467519 B1 KR101467519 B1 KR 101467519B1 KR 1020110121543 A KR1020110121543 A KR 1020110121543A KR 20110121543 A KR20110121543 A KR 20110121543A KR 101467519 B1 KR101467519 B1 KR 101467519B1
Authority
KR
South Korea
Prior art keywords
terminal
information
voice
content
voice information
Prior art date
Application number
KR1020110121543A
Other languages
English (en)
Other versions
KR20130055879A (ko
Inventor
류창선
구명완
김희경
박성찬
박재한
안동훈
이경님
한영호
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020110121543A priority Critical patent/KR101467519B1/ko
Priority to US13/683,333 priority patent/US20130132081A1/en
Publication of KR20130055879A publication Critical patent/KR20130055879A/ko
Application granted granted Critical
Publication of KR101467519B1 publication Critical patent/KR101467519B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234336Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Abstract

제 1 단말로부터 음성 정보를 수신하고, 상기 제 1 단말로부터 상기 제 1 단말의 단말 정보를 수신하고, 상기 수신한 제 1 단말의 단말 정보에 기초하여 단말을 식별하고, 상기 제 1 단말의 단말 정보에 기초하여 상기 음성 정보를 텍스트 정보로 변환하고, 상기 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하여, 상기 검색된 컨텐츠 정보를 제 2 단말로 제공하는 컨텐츠 검색 서버 및 방법이 제공된다.

Description

음성 정보를 이용한 컨텐츠 검색 서버 및 방법{SERVER AND METHOD FOR SEARCHING CONTENTS USING VOICE INFORMATION}
본 발명은 음성 정보를 이용한 컨텐츠 검색 서버 및 방법에 관한 것이다.
IPTV(Internet Protocol Television)는 인터넷망을 이용하여 정보서비스, 영화 및 방송 등을 제공하는 양방향 텔레비전 서비스를 일컫는다.
IPTV는 인터넷 TV와는 다르게 컴퓨터 모니터 대신 TV를 이용하고, 마우스 대신 리모컨을 사용한다. 따라서 컴퓨터에 익숙하지 않은 사용자라도 리모컨을 이용하여 간단하게 인터넷 검색뿐만 아니라 영화감상, 홈쇼핑, 게임 등 인터넷이 제공하는 다양한 컨텐츠 및 부가 서비스를 제공 받을 수 있다.
또한, IPTV는 일반 공중파 방송이나 케이블방송 및 위성방송과는 달리 시청자가 자신이 편리한 시간에 자신이 보고 싶은 프로그램만 볼 수 있는 장점이 있으며, 이러한 양방향성은 다양한 형태의 서비스 도출을 가능하게 한다.
사용자가 기존 IPTV 서비스를 이용하여, 컨텐츠를 검색하거나 제어하는 기능을 리모컨이 수행하였으나, 최근에는 스마트폰 등의 단말을 이용한 방법이 제시되고 있다.
하지만, 컨텐츠가 다양하며, 스마트폰 등의 단말은 터치식 입력의 한계를 벗어나지 못하였으며, 터치 방식의 단말 등에 익숙하지 않은 사용자는 이용하기 쉽지 않다.
한편, 선행 기술로서, 한국 특허공개번호 제2011-0027362호에는 “음성 인터페이스를 이용한 IPTV 시스템 및 서비스 방법”에 관한 발명을 개시하고 있는 바, 사용자로부터 입력된 음성을 이용하여, 요청한 컨텐츠를 IPTV로 제공하는 기술에 관한 것이다.
본 발명의 일 실시예는 단말로부터 제공된 음성 정보를 이용하여 컨텐츠를 검색하고, 검색된 컨텐츠를 다른 단말로 제공할 수 있는 컨텐츠 검색 서버 및 방법을 제공한다.
본 발명의 다른 실시예는 복수의 단말로부터 제공된 음성 정보에 대한 음성 인식의 성능을 보다 향상시키는 컨텐츠 검색 서버 및 방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 제 1 단말로부터 음성 정보를 수신하는 음성 정보 수신부, 상기 제 1 단말로부터 상기 제 1 단말의 단말 정보를 수신하고, 상기 수신한 제 1 단말의 단말 정보에 기초하여 단말을 식별하는 단말 식별부, 상기 제 1 단말의 단말 정보에 기초하여 상기 음성 정보를 텍스트 정보로 변환하는 음성 정보 변환부 및 상기 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하여, 상기 검색된 컨텐츠 정보를 제 2 단말로 제공하는 컨텐츠 제공부를 포함하는 컨텐츠 검색 서버를 제공할 수 있다.
또한, 본 발명의 다른 실시예는 제 1 단말로부터 상기 제 1 단말의 단말 정보를 수신하는 단계, 상기 제 1 단말로부터 음성 정보를 수신하는 단계, 상기 수신한 제 1 단말의 단말 정보에 기초하여 상기 음성 정보를 텍스트 정보로 변환하는 단계, 상기 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하는 단계 및 상기 검색된 컨텐츠 정보를 제 2 단말로 제공하는 단계를 포함하는 컨텐츠 검색 방법을 제공할 수 있다.
또한, 본 발명의 또 다른 실시예는 사용자에 의해 선택된 단말의 단말 정보를 컨텐츠 검색 서버로 전송하는 단계, 상기 사용자로부터 음성 정보를 입력 받는 단계 및 상기 입력된 음성 정보를 상기 컨텐츠 검색 서버로 전송하는 단계를 포함하되, 상기 컨텐츠 검색 서버가 상기 음성 정보에 기초하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠 정보를 상기 단말로 전송하는 것인 컨텐츠 검색 방법을 제공할 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 음성 정보를 이용하여 컨텐츠를 검색할 뿐만 아니라, 복수의 단말 중 어느 하나의 단말로 검색된 컨텐츠를 제공한다.
또한, 전술한 본 발명의 과제 해결 수단에 의하면, 복수의 단말 각각의 단말 특성을 고려하여 음성 정보를 텍스트 정보로 변환함으로써, 음성 인식의 성능을 보다 향상시킨다.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 검색 서버를 설명하기 위한 전체 개요도이다.
도 2는 본 발명의 일 실시예에 따른 컨텐츠 검색 서버의 구성을 설명하기 위한 세부 구성도이다.
도 3은 본 발명의 다른 실시예에 따른 컨텐츠 검색 서버의 구성을 설명하기 위한 세부 구성도이다.
도 4는 음성 정보를 이용하여 컨텐츠를 검색하는 일례를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 컨텐츠 검색 방법을 나타내는 세부 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 검색 서버를 설명하기 위한 전체 개요도이다.
컨텐츠 검색 서버(100)는 네트워크(200)를 통해 사용자 단말(300)과 연결된다.
네트워크(200)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.
사용자 단말(300)은 네트워크(200)를 통해 원격지의 서버에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
또한, 사용자 단말(300)은 TV 단말 또는 TV 단말에 대응하는 리모컨을 포함할 수도 있다. 예를 들어, 제 1 단말이 TV 단말에 대응하는 리모컨이 되고, 제 2 단말이 TV 단말이 될 수 있다. 이때, 리모컨은 마이크 등의 음성 정보를 입력할 수 있는 장치를 포함할 수 있다.
컨텐츠 검색 서버(100)는 사용자 단말(300) 중 하나, 예를 들어 제 1 단말(310)로부터 음성 정보를 수신하면, 제 1 단말(310)의 단말 정보에 기초하여 음성 정보를 텍스트 정보로 변환하고, 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하여, 검색된 컨텐츠를 제 1 단말(310)에 의해 선택된 단말, 예를 들어 제 2 단말(320)로 제공한다.
여기서, 제 2 단말(320)은 음성 정보에 기초하여 검색된 컨텐츠를 출력하는 단말로, 복수의 단말 중 제 1 단말(310)에 의해 선택되는 단말이다. 또한, 제 2 단말(320)은 제 1 단말(310)에 의해 제 1 단말(310)이 선택될 수도 있다.
먼저, 제 1 단말(310)은 사용자에 의해 단말, 예를 들어 제 2 단말(320)을 선택하고, 제 2 단말(320)의 제어 정보를 컨텐츠 검색 서버(100)로 전송한다. 이때, 사용자에 의해 선택된 단말은 사용자가 컨텐츠를 검색하거나 제어하려는 단말로, 제 1 단말(310)에 설치된 어플리케이션을 통해 사용자가 선택할 수 있다.
컨텐츠 검색 서버(100)는 제 1 단말(310)로부터 수신한 제 2 단말(320)의 제어 정보에 기초하여 제 2 단말(320)에 대한 제어 명령을 생성한다.
컨텐츠 검색 서버(100)는 생성된 제어 명령을 제 2 단말(320)로 전송하면, 수신한 제어 명령에 의해 제 2 단말(320)이 제어된다. 이때, 제 2 단말(320)은 제어 명령에 의해 제 2 단말(320)의 볼륨을 작아지도록 제어할 수 있다.
제 1 단말(310)은 사용자로부터 음성을 입력 받아, 음성 정보를 생성한다. 예를 들어, 제 1 단말(310)은 마이크 등의 입력 장치를 이용하여 사용자로부터 음성을 녹음함으로써 음성 정보를 생성할 수 있다.
이때, 제 1 단말(310)에 의해 음성 정보가 생성되는 동안에, 제 2 단말(320)은 제어 명령에 의해 제 2 단말(320)의 볼륨을 제어하여, 음성 정보에 잡음이 노출되지 않도록 할 수 있다.
즉, 사용자가 제 1 단말(310)을 통해 음성을 녹음하는 동안에 제 2 단말(320)의 볼륨이 작아지게 함으로써, 제 2 단말(320)에 의한 잡음이 발생하는 것을 방지할 수 있다.
예를 들어, 사용자가 제 1 단말(310)을 통해 제 2 단말(320)을 선택하고, 음성을 입력하기 위해 음성 입력 버튼을 누르면, 컨텐츠 검색 서버(100)는 제 1 단말(310)로부터 제 2 단말(320)에 대한 제어 정보를 수신하여 제어 명령을 생성하여 제 2 단말(320)로 전송하여, 제 2 단말(320)의 볼륨을 줄인 상태에서, 제 1 단말(310)은 음성을 녹음하여 음성 정보를 생성할 수 있다.
이와 관련하여, 도 4를 참조하여 후술하기로 한다.
제 1 단말(310)은 생성된 음성 정보를 컨텐츠 검색 서버(100)로 전송한다. 이때, 제 1 단말(310)은 제 1 단말(310)의 단말 정보도 함께 전송한다.
컨텐츠 검색 서버(100)는 제 1 단말(310)로부터 수신한 제 1 단말(310)의 단말 정보에 기초하여 단말 타입을 식별하고, 식별된 제 1 단말(310)의 단말 타입에 기초하여 음성 정보를 텍스트 정보로 변환한다.
또한, 컨텐츠 검색 서버(100)는 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하고, 검색된 컨텐츠 정보를 제 2 단말(320)로 제공한다.
제 2 단말(320)은 제공된 컨텐츠 정보에 대응하는 컨텐츠를 출력한다.
따라서, 사용자는 컨텐츠를 출력하려는 단말을 복수의 단말 중 자유롭게 선택할 수 있을 뿐만 아니라, 음성을 이용하여 보기 원하는 컨텐츠를 손쉽게 검색할 수 있으며, 음성 정보를 생성하는 동안에 단말이 제어되어, 잡음의 발생을 줄여 음성 인식의 성능을 향상시킬 수 있다.
도 2는 본 발명의 일 실시예에 따른 컨텐츠 검색 서버의 구성을 설명하기 위한 세부 구성도이다.
도 2를 참조하면, 컨텐츠 검색 서버(100)는 음성 정보 수신부(110), 단말 식별부(120), 음성 정보 변환부(130) 및 컨텐츠 제공부(140)를 포함한다.
음성 정보 수신부(110)는 제 1 단말(도시 생략)로부터 음성 정보를 수신한다. 여기서, 음성 정보는 제 1 단말에서 사용자로부터 음성을 녹음함에 따라 생성될 수 있다.
단말 식별부(120)는 제 1 단말로부터 제 1 단말의 단말 정보를 수신하고, 수신한 제 1 단말의 단말 정보에 기초하여 제 1 단말의 단말 타입을 식별한다. 여기서, 제 1 단말의 단말 타입은 제 1 단말이 속한 통신 네트워크 정보, 제 1 단말의 플랫폼 정보, 제 1 단말에 설치된 소프트웨어 정보, 제 1 단말의 하드웨어 정보, 제 1 단말의 제조사 정보 및 제 1 단말의 모델 정보 중 적어도 하나 이상을 포함할 수 있다.
또한, 단말 식별부(120)는 제 1 단말을 포함한 복수의 단말에 대해 각 단말 타입을 구분하여 미리 저장하고 있으며, 제 1 단말의 단말 정보에 대응하는 제 1 단말의 단말 타입을 식별할 수 있다.
음성 정보 변환부(130)는 제 1 단말의 단말 정보에 기초하여 음성 정보를 텍스트 정보로 변환한다. 음성 정보 변환부(130)는 단말 식별부(120)에 의해 식별된 제 1 단말의 단말 타입에 기초하여 음성 정보를 텍스트 정보로 변환할 수 있다.
한편, 음성 정보 변환부(130)는 식별된 제 1 단말의 단말 타입에 기초하여 음성 정보를 텍스트 정보로 변환하는 음성 인식부(도시 생략)를 더 포함할 수 있으며, 이와 관련해서 도 3을 참조하여 후술하기로 한다.
컨텐츠 제공부(140)는 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하여, 검색된 컨텐츠 정보를 제 2 단말로 제공한다. 이때, 컨텐츠 제공부(140)는 텍스트 정보에 대응하는 컨텐츠를 검색하기 위한 검색엔진을 포함할 수 있다. 또한, 컨텐츠 제공부(140)는 컨텐츠를 검색하는 별도의 검색 서버로 컨텐츠 검색을 요청하여 검색된 컨텐츠 정보를 제공 받을 수도 있다.
제 2 단말은 제공된 컨텐츠 정보에 의해 컨텐츠를 재생할 수 있다.
도 3은 본 발명의 다른 실시예에 따른 컨텐츠 검색 서버의 구성을 설명하기 위한 세부 구성도이다.
도 3을 참조하면, 컨텐츠 검색 서버(100)는 음성 정보 수신부(110), 제어 명령 생성부(115), 단말 식별부(120), 음성 정보 변환부(130), 음성 인식부(135) 및 컨텐츠 제공부(140)를 포함한다.
음성 정보 수신부(110)는 제 1 단말(도시 생략)로부터 음성 정보를 수신한다. 여기서, 음성 정보는 제 1 단말에서 사용자로부터 음성을 녹음함에 따라 생성될 수 있다.
제어 명령 생성부(115)는 제 2 단말(도시 생략)에 대한 제어 명령을 생성한다. 여기서 제 2 단말은 제 1 단말에 의해 선택된 단말로, 제 1 단말로부터 수신한 음성 정보를 이용하여 검색되는 컨텐츠 정보를 제공 받는다.
즉, 제어 명령 생성부(115)는 제 1 단말로부터 제 2 단말에 대한 제어 정보를 수신하여, 수신한 제어 정보에 기초하여 제어 명령을 생성하며, 생성한 제어 명령을 제 2 단말로 전송한다. 이때, 제 2 단말에 전송된 제어 명령에 의해 제 2 단말의 볼륨이 제어된다.
예를 들어, 제 1 단말이 음성 정보를 생성하기 전에 제 2 단말에 대한 제어 정보를 제어 명령 생성부(115)로 전송하면, 제어 명령 생성부(115)가 수신한 제어 정보에 기초하여 제어 명령을 생성하고, 생성한 제어 명령을 제 2 단말로 전송한다. 제 2 단말은 수신한 제어 명령에 따라 제 2 단말의 볼륨을 제어하게 된다. 따라서, 제어 명령 생성부(115)는 제 1 단말에서 음성 정보가 생성되는 동안 제 2 단말의 볼륨이 작아지도록 제어될 수 있도록 하여, 음성 정보에 잡음이 포함되지 않도록 방지할 수 있도록 한다.
단말 식별부(120)는 제 1 단말로부터 제 1 단말의 단말 정보를 수신하고, 수신한 제 1 단말의 단말 정보에 기초하여 제 1 단말의 단말 타입을 식별한다. 여기서, 제 1 단말의 단말 타입은 제 1 단말이 속한 통신 네트워크 정보, 제 1 단말의 플랫폼 정보, 제 1 단말에 설치된 소프트웨어 정보, 제 1 단말의 하드웨어 정보, 제 1 단말의 제조사 정보 및 제 1 단말의 모델 정보 중 적어도 하나 이상을 포함할 수 있다.
또한, 단말 식별부(120)는 제 1 단말을 포함한 복수의 단말에 대해 각 단말 타입을 구분하여 미리 저장하고 있으며, 제 1 단말의 단말 정보에 대응하는 제 1 단말의 단말 타입을 식별할 수 있다.
음성 정보 변환부(130)는 제 1 단말의 단말 정보에 기초하여 음성 정보를 텍스트 정보로 변환한다.
또한, 음성 정보 변환부(130)는 식별된 제 1 단말의 단말 타입에 기초하여 음성 정보를 텍스트 정보로 변환하는 음성 인식부(135)를 포함한다.
구체적으로, 음성 정보 변환부(130)는 제 1 단말의 단말 타입을 포함하는 복수의 단말 타입 각각에 대응하는 복수의 음성 인식부(135)를 포함한다. 이것은, 단말의 종류에 따라 단말 타입이 구분될 뿐만 아니라, 단말의 제조사, 모델, 하드웨어 등에 의해 구분된 단말의 타입에 따라 음성의 특성이 달라져 음성 정보가 달라질 수 있기 때문에 각 단말 타입에 해당하는 음성 인식부(135)에서 음성을 인식하여 음성 인식하는 성능을 향상시켜, 컨텐츠 검색 서버(100)가 음성 정보를 통해 컨텐츠를 검색하기 원활하게 하기 위함이다.
따라서, 음성 정보 변환부(130)는 복수의 음성 인식부(135) 중 제 1 단말의 단말 타입에 대응하는 어느 하나에 의해 음성 정보를 인식하고, 인식된 음성 정보를 텍스트 정보로 변환할 수 있다.
컨텐츠 제공부(140)는 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하여, 검색된 컨텐츠 정보를 제 2 단말로 제공한다.
따라서, 사용자는 단말에 음성 정보를 생성하여 컨텐츠를 검색할 뿐만 아니라, 다른 단말로 컨텐츠를 제공할 수 있다.
한편, 컨텐츠 검색 서버(100)는 단말에서 음성 정보가 생성되는 동안에 다른 단말을 제어시켜 잡음을 최소화시킬 수 있다. 또한, 컨텐츠 검색 서버(100)는 단말 타입에 따른 음성 정보의 특성에 대응하여 음성을 인식하는 성능을 향상시켜 음성 정보를 이용한 컨텐츠 검색을 원활하게 할 수 있다.
도 4는 음성 정보를 이용하여 컨텐츠를 검색하는 일례를 도시한 도면이다.
예를 들어, 도 4a에 도시된 바와 같이 제 1 단말이 스마트폰인 경우, 사용자는 스마트폰에 컨텐츠를 검색하는 서비스를 이용하기 위한 어플리케이션을 설치할 수 있다. 사용자는 컨텐츠를 제공 받으려는 제 2 단말, 예를 들어 IPTV 등을 선택한다.
도 4b에 도시된 바와 같이, 사용자는 검색 아이콘을 클릭함으로써, 컨텐츠를 검색할 수 있으며, 도 4c에 도시된 바와 같이 사용자는 검색창에서 마이크 아이콘을 클릭하여, 음성 정보를 입력할 수 있게 된다. 이때, 사용자가 검색 아이콘을 클릭함에 따라 제 2 단말에 대한 제어 정보가 컨텐츠 검색 서버로 전송될 수 있으며, 이로써, 컨텐츠 검색 서버는 제어 정보에 기초하여 생성한 제어 명령을 제 2 단말로 전송하고, 제 2 단말의 볼륨이 제어될 수 있다.
도 4d에 도시된 바와 같이 마이크 등의 입력 장치를 통해, 사용자는 제 1 단말에서 음성을 녹음하여 음성 정보가 생성되어, 컨텐츠 검색 서버로 전송된다. 컨텐츠 검색 서버는 수신한 음성 정보를 제 1 단말의 단말 타입에 기초하여 텍스트 정보로 변환하고, 변환된 텍스트 정보에 대응하는 컨텐츠를 검색한다.
도 4e에 도시된 바와 같이, 컨텐츠 검색 서버는 검색된 컨텐츠 정보를 제 1 단말에 검색 결과를 리스트 형태로 출력되도록 할 수 있다. 이때, 검색된 컨텐츠 정보가 제 2 단말로 바로 출력될 수도 있다.
사용자는 제 1 단말에 출력된 검색 리스트 중 원하는 컨텐츠를 선택하여, 도 4f에 도시된 바와 같이, 시청 버튼을 누르면 선택한 제 2 단말에 컨텐츠가 출력된다.
도 5는 본 발명의 일 실시예에 따른 컨텐츠 검색 방법을 나타내는 세부 흐름도이다.
도 5를 참조하면, 제 1 단말(310)은 사용자에 의해 제 2 단말(320)을 선택한다(S105). 여기서, 제 2 단말(320)은 음성 정보에 기초하여 검색된 컨텐츠를 출력하는 단말로, 복수의 단말 중 제 1 단말(310)에 의해 선택되는 단말이다.
제 1 단말(310)은 제 2 단말(320)의 제어 정보를 컨텐츠 검색 서버(100)로 전송한다(S110).
컨텐츠 검색 서버(100)는 제 1 단말(310)로부터 수신한 제 2 단말(320)의 제어 정보에 기초하여 제 2 단말(320)에 대한 제어 명령을 생성하고(S115), 생성된 제어 명령을 제 2 단말(320)로 전송한다(S120).
제 2 단말(320)은 수신한 제어 명령에 기초하여 제 2 단말(320)의 볼륨을 작아지도록 제어한다(S125). 제 2 단말(320)의 볼륨이 줄어들면, 제 1 단말(310)에서 음성 정보가 생성될 때 잡음이 줄어드는 이점이 있다.
제 1 단말(310)은 사용자로부터 음성을 입력 받는다(S130). 이때 제 1 단말(310)은 마이크 등의 입력 장치를 이용하여 사용자의 음성을 입력 받을 수 있다.
제 1 단말(310)은 입력 받은 음성에 기초하여 음성 정보로 생성하고(S135), 컨텐츠 검색 서버(100)로 전송한다(S140). 이때, 제 1 단말(310)은 제 1 단말(310)의 단말 정보도 함께 전송한다.
컨텐츠 검색 서버(100)는 제 1 단말(310)로부터 수신한 제 1 단말(310)의 단말 정보에 기초하여 단말 타입을 식별한다(S145).
컨텐츠 검색 서버(100)는 식별된 제 1 단말(310)의 단말 타입에 기초하여 음성 정보를 텍스트 정보로 변환한다(S150). 여기서, 제 1 단말의 단말 타입은 제 1 단말이 속한 통신 네트워크 정보, 제 1 단말의 플랫폼 정보, 제 1 단말에 설치된 소프트웨어 정보, 제 1 단말의 하드웨어 정보, 제 1 단말의 제조사 정보 및 제 1 단말의 모델 정보 중 적어도 하나 이상을 포함할 수 있다.
컨텐츠 검색 서버(100)는 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하고(S155), 검색된 컨텐츠 정보를 제 2 단말(320)로 제공한다(S160).
이때, 컨텐츠 검색 서버(100)는 텍스트 정보에 대응하는 컨텐츠를 검색하기 위한 검색엔진을 포함할 수 있다. 또한, 컨텐츠 검색 서버(100)는 컨텐츠를 검색하는 별도의 검색 서버로 컨텐츠 검색을 요청하여 검색된 컨텐츠 정보를 제공 받을 수도 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 컨텐츠 검색 서버 110: 음성 정보 수신부
115: 제어 명령 생성부 120: 단말 식별부
130: 음성 정보 변환부 135: 음성 인식부
140: 컨텐츠 제공부 200: 네트워크
300: 사용자 단말 310: 제 1 단말
320: 제 2 단말

Claims (17)

  1. 음성 정보를 이용하여 컨텐츠를 검색하는 컨텐츠 검색 서버에 있어서,
    제 1 단말로부터 음성 정보를 수신하는 음성 정보 수신부;
    상기 제 1 단말로부터 상기 제 1 단말의 단말 정보를 수신하고, 상기 수신한 제 1 단말의 단말 정보에 기초하여 단말을 식별하는 단말 식별부;
    상기 제 1 단말의 단말 정보에 기초하여 상기 음성 정보를 텍스트 정보로 변환하는 음성 정보 변환부;
    상기 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하여, 상기 검색된 컨텐츠 정보를 제 2 단말로 제공하는 컨텐츠 제공부; 및
    상기 제 2 단말에 대한 제어 명령을 생성하는 제어 명령 생성부
    를 포함하는 컨텐츠 검색 서버.
  2. 제 1 항에 있어서,
    상기 단말 식별부는 상기 수신한 제 1 단말의 단말 정보에 기초하여 상기 제 1 단말의 단말 타입을 식별하고,
    상기 음성 정보 변환부는 상기 식별된 제 1 단말의 단말 타입에 기초하여 상기 음성 정보를 상기 텍스트 정보로 변환하는 음성 인식부를 포함하는 컨텐츠 검색 서버.
  3. 제 2 항에 있어서,
    상기 음성 정보 변환부는 상기 제 1 단말의 단말 타입을 포함하는 복수의 단말 타입 각각에 대응하는 복수의 음성 인식부를 포함하는 컨텐츠 검색 서버.
  4. 제 2 항 또는 제 3 항에 있어서,
    상기 제 1 단말의 단말 타입은 상기 제 1 단말이 속한 통신 네트워크 정보, 상기 제 1 단말의 플랫폼 정보, 상기 제 1 단말에 설치된 소프트웨어 정보, 상기 제 1 단말의 하드웨어 정보, 상기 제 1 단말의 제조사 정보 및 상기 제 1 단말의 모델 정보 중 적어도 하나 이상을 포함하는 것인, 컨텐츠 검색 서버.
  5. 삭제
  6. 제 1항에 있어서,
    상기 제어 명령 생성부는 상기 제 1 단말로부터 상기 제 2 단말에 대한 제어 정보를 수신하여, 상기 수신한 제어 정보에 기초하여 상기 제어 명령을 생성하여 상기 제 2 단말로 전송하는 것인 컨텐츠 검색 서버.
  7. 제 6 항에 있어서,
    상기 제어 명령에 의해 상기 제 2 단말의 볼륨이 제어되는 것인 컨텐츠 검색 서버.
  8. 제 7 항에 있어서,
    상기 음성 정보가 생성되는 동안에 상기 제 2 단말의 볼륨이 작아지도록 제어되는 것인 컨텐츠 검색 서버.
  9. 제 1 항에 있어서,
    상기 음성 정보는 상기 제 1 단말에서 사용자로부터 음성을 녹음함에 따라 생성되는 것인 컨텐츠 검색 서버.
  10. 음성 정보를 이용하여 컨텐츠를 검색하는 컨텐츠 검색 방법에 있어서,
    제 1 단말로부터 상기 제 1 단말의 단말 정보를 수신하는 단계;
    상기 제 1 단말로부터 음성 정보를 수신하는 단계;
    상기 수신한 제 1 단말의 단말 정보에 기초하여 상기 음성 정보를 텍스트 정보로 변환하는 단계;
    상기 변환된 텍스트 정보에 기초하여 컨텐츠를 검색하는 단계;
    상기 검색된 컨텐츠 정보를 제 2 단말로 제공하는 단계; 및
    상기 제 1 단말로부터 상기 제 2 단말에 대한 제어 정보를 수신하는 단계
    를 포함하고,
    상기 수신한 제어 정보에 기초하여 상기 제 2 단말에 대한 제어 명령을 생성하고, 상기 생성한 제어 명령을 상기 제 2 단말로 전송하는 것인 컨텐츠 검색 방법.
  11. 제 10 항에 있어서,
    상기 변환하는 단계에서,
    상기 제 1 단말의 단말 정보에 기초하여 상기 제 1 단말의 단말 타입을 식별하고, 상기 식별된 제 1 단말의 단말 타입에 기초하여 상기 음성 정보를 상기 텍스트 정보로 변환하는 것인 컨텐츠 검색 방법.
  12. 제 11 항에 있어서,
    상기 제 1 단말의 단말 타입은 상기 제 1 단말이 속한 통신 네트워크 정보, 상기 제 1 단말의 플랫폼 정보, 상기 제 1 단말에 설치된 소프트웨어 정보, 상기 제 1 단말의 하드웨어 정보, 상기 제 1 단말의 제조사 정보 및 상기 제 1 단말의 모델 정보 중 적어도 하나 이상을 포함하는 것인 컨텐츠 검색 방법.
  13. 삭제
  14. 제 10 항에 있어서,
    상기 제어 명령에 의해 상기 제 2 단말의 볼륨이 제어되는 것인 컨텐츠 검색 방법.
  15. 음성 정보를 이용하여 컨텐츠를 검색하는 컨텐츠 검색 방법에 있어서,
    사용자에 의해 선택된 단말의 단말 정보를 컨텐츠 검색 서버로 전송하는 단계;
    상기 사용자로부터 음성 정보를 입력 받는 단계; 및
    상기 입력된 음성 정보를 상기 컨텐츠 검색 서버로 전송하는 단계
    를 포함하되,
    상기 컨텐츠 검색 서버가 상기 음성 정보에 기초하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠 정보를 상기 단말로 전송하고,
    상기 음성 정보를 입력 받는 단계에서, 상기 단말의 제어 정보를 상기 컨텐츠 검색 서버로 전송하면, 상기 컨텐츠 검색 서버가 상기 단말의 제어 정보에 기초하여 생성된 제어 명령을 상기 단말로 전송하여, 상기 단말이 제어되는 것인 컨텐츠 검색 방법.
  16. 삭제
  17. 제 15 항에 있어서,
    상기 음성 정보를 입력 받는 동안에 상기 제어 명령에 의해 상기 단말의 볼륨이 제어되는 것인 컨텐츠 검색 방법.
KR1020110121543A 2011-11-21 2011-11-21 음성 정보를 이용한 컨텐츠 검색 서버 및 방법 KR101467519B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110121543A KR101467519B1 (ko) 2011-11-21 2011-11-21 음성 정보를 이용한 컨텐츠 검색 서버 및 방법
US13/683,333 US20130132081A1 (en) 2011-11-21 2012-11-21 Contents providing scheme using speech information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110121543A KR101467519B1 (ko) 2011-11-21 2011-11-21 음성 정보를 이용한 컨텐츠 검색 서버 및 방법

Publications (2)

Publication Number Publication Date
KR20130055879A KR20130055879A (ko) 2013-05-29
KR101467519B1 true KR101467519B1 (ko) 2014-12-02

Family

ID=48427770

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110121543A KR101467519B1 (ko) 2011-11-21 2011-11-21 음성 정보를 이용한 컨텐츠 검색 서버 및 방법

Country Status (2)

Country Link
US (1) US20130132081A1 (ko)
KR (1) KR101467519B1 (ko)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
WO2014046424A1 (en) * 2012-09-18 2014-03-27 Samsung Electronics Co., Ltd. Information transmission method and system, and device
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9842584B1 (en) 2013-03-14 2017-12-12 Amazon Technologies, Inc. Providing content on multiple devices
US10133546B2 (en) * 2013-03-14 2018-11-20 Amazon Technologies, Inc. Providing content on multiple devices
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3110116B1 (en) * 2014-04-04 2019-09-25 Huawei Device Co., Ltd. Method for automatically adjusting volume, volume adjustment apparatus and electronic device
CN106471570B (zh) 2014-05-30 2019-10-01 苹果公司 多命令单一话语输入方法
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR102287739B1 (ko) * 2014-10-23 2021-08-09 주식회사 케이티 음성 검색 시 입력된 음성 데이터를 누적하여 화자를 인식하는 시스템, 방법 및 컴퓨팅 장치
KR102300415B1 (ko) * 2014-11-17 2021-09-13 주식회사 엘지유플러스 이동통신단말기의 음성메모에 기초한 이벤트실행 시스템, 그 단말기 제어서버 및 이동통신단말기 제어방법, 이동통신단말기 및 어플리케이션 실행방법
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
CN106297780A (zh) * 2015-06-03 2017-01-04 深圳市轻生活科技有限公司 一种语音交互方法及系统、以及智能语音播报终端
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2017123564A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 制御装置、表示装置、方法及びプログラム
US9898250B1 (en) * 2016-02-12 2018-02-20 Amazon Technologies, Inc. Controlling distributed audio outputs to enable voice output
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11074116B2 (en) * 2018-06-01 2021-07-27 Apple Inc. Direct input from a remote device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US10657968B1 (en) * 2018-11-19 2020-05-19 Google Llc Controlling device output according to a determined condition of a user
US11178464B2 (en) * 2018-12-14 2021-11-16 Roku, Inc. Audio search results in a multi-content source environment
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
KR102248701B1 (ko) * 2020-07-08 2021-05-06 주식회사 엔디소프트 다국어 음성 자동 통역 채팅시 통역의 시점과 종점과 소정 정보 제공을 소정의 음성으로 제어하는 방법
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132640A (ja) * 2000-10-23 2002-05-10 Canon Inc ネットワークシステム、サーバ、サービス提供方法および記憶媒体
KR20100048141A (ko) * 2008-10-30 2010-05-11 주식회사 케이티 음성 인식 기반의 아이피티브이 컨텐츠 검색 시스템 및 그 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8175885B2 (en) * 2007-07-23 2012-05-08 Verizon Patent And Licensing Inc. Controlling a set-top box via remote speech recognition
US20100263015A1 (en) * 2009-04-09 2010-10-14 Verizon Patent And Licensing Inc. Wireless Interface for Set Top Box
US20110067059A1 (en) * 2009-09-15 2011-03-17 At&T Intellectual Property I, L.P. Media control
US8799459B2 (en) * 2011-09-12 2014-08-05 Microsoft Corporation Event-driven detection of device presence for layer 3 services using layer 2 discovery information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132640A (ja) * 2000-10-23 2002-05-10 Canon Inc ネットワークシステム、サーバ、サービス提供方法および記憶媒体
KR20100048141A (ko) * 2008-10-30 2010-05-11 주식회사 케이티 음성 인식 기반의 아이피티브이 컨텐츠 검색 시스템 및 그 방법

Also Published As

Publication number Publication date
KR20130055879A (ko) 2013-05-29
US20130132081A1 (en) 2013-05-23

Similar Documents

Publication Publication Date Title
KR101467519B1 (ko) 음성 정보를 이용한 컨텐츠 검색 서버 및 방법
US10243912B2 (en) Apparatus and method for providing messages in a social network
US8510398B2 (en) Apparatus and method for managing message communication
US20120047087A1 (en) Smart encounters
US9456254B2 (en) Internet protocol television service
US20110321098A1 (en) System and Method for Automatic Identification of Key Phrases during a Multimedia Broadcast
US20130091558A1 (en) Method and system for sharing multimedia contents between devices in cloud network
US20060133336A1 (en) System for mediating convergence services of communication and broadcasting using non-communicative appliance
WO2008091331A2 (en) System and method of providing video content
US11070880B2 (en) Customized recommendations of multimedia content streams
WO2008024540A2 (en) Providing a service from an application service provider to a client in a communications system
JP2012009037A (ja) パーソナライズされたコンテンツ配信のための、通信デバイス、システム、及び方法
US20090319627A1 (en) System and method to provide services based on network
CN103780933A (zh) 多媒体终端的远程控制方法及控制装置
US20110296466A1 (en) System and method for multi-network program retrieval
US9032021B2 (en) Method for providing customized advertisement/news on scalable application service system
CN102469155A (zh) 家庭网络系统中的应用业务和共享方法
US8661473B2 (en) Apparatus and method for providing contents in internet broadcasting system
CN102469101A (zh) 用于家庭网络系统中的应用业务的方法和服务器
KR101445260B1 (ko) 콘텐츠 이어보기 서비스 제공 단말, 서버 및 방법
KR101909257B1 (ko) 단말로부터 요청된 가상 어플리케이션을 실행하는 서버 및 방법, 그리고 단말
CN102638702B (zh) 用于在网络上搜索的方法和装置
KR100666125B1 (ko) 하나 이상의 멀티미디어 단말을 구비하는 홈 네트워크상에서의 ip 스트리밍 관리 시스템
CN103795760A (zh) 通过网络处理文档的方法、系统及通过网络处理数据的系统
KR101497986B1 (ko) 단말로 템플릿의 소재 데이터를 제공하는 서버 및 방법, 그리고 단말

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171106

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181031

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 6