KR20130137332A - 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 - Google Patents
단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 Download PDFInfo
- Publication number
- KR20130137332A KR20130137332A KR1020120060821A KR20120060821A KR20130137332A KR 20130137332 A KR20130137332 A KR 20130137332A KR 1020120060821 A KR1020120060821 A KR 1020120060821A KR 20120060821 A KR20120060821 A KR 20120060821A KR 20130137332 A KR20130137332 A KR 20130137332A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- information
- terminal
- service type
- voice
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 56
- 238000004891 communication Methods 0.000 claims abstract description 21
- 239000000284 extract Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 12
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/232—Content retrieval operation locally within server, e.g. reading video streams from disk arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/237—Communication with additional data server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Telephonic Communication Services (AREA)
- Information Transfer Between Computers (AREA)
Abstract
컨텐츠 제공 서비스 타입을 결정하는 음성 인식 서버와 단말에게 컨텐츠를 제공하는 컨텐츠 서버가 제공된다. 음성 인식 서버는 단말로부터 수신되는 음성 정보를 분석하고 서비스 타입을 결정하는 음성 분석부, 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 코드 생성부; 및 단말로부터 음성 정보를 수신하고, 생성된 메타 코드를 컨텐츠 서버로 전송하는 통신부를 포함한다.
Description
음성 정보에 기초하여 컨텐츠를 제공하는 장치 및 방법에 관한 것으로, 보다 상세하게는 음성 정보를 입력 받는 음성 인식 서버가 컨텐츠 서버와 연동하여 단말에게 컨텐츠를 제공하는 장치 및 방법에 관한 것이다.
최근 PC와 같은 고성능의 프로세서 및 대용량의 메모리를 탑재하고, 사용자가 자유롭게 애플리케이션을 설치하여 사용할 수 있는 스마트폰(smart phone)이 급속히 보급되고 있다.
이러한 스마트폰의 보급에 따라서, 사용자는 다양한 컨텐츠를 네트워크를 통해 제공 받을 수 있다. 다만, 이러한 컨텐츠를 제공 받기 위해 사용자는 정확한 컨텐츠를 지정하여 하는 불편함이 있어서, 사용자가 키워드만을 가지고 컨텐츠를 제공 받거나 또는 사용자의 취향에 따른 컨텐츠를 추천 받기 위한 방안이 강구되고 있다.
본 발명의 일 실시예는, 음성 인식 서버를 통해서 단말이 서비스 이용자로부터 입력 받는 음성 정보에 기초하여 서비스 타입을 결정하고, 결정된 서비스 타입이 포함된 메타 코드를 생성하여 컨텐츠 서버로 전송할 수 있다. 또한, 컨텐츠 서버는 메타 코드에 기초하여 컨텐츠를 추출하고 서비스 타입에 따라 추출된 컨텐츠를 단말에게 제공할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 음성 인식 서버는, 단말로부터 수신되는 음성 정보를 분석하고 서비스 타입을 결정하는 음성 분석부, 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 코드 생성부 및 음성 정보를 수신하고 생성된 메타 코드를 컨텐츠 서버로 전송하는 통신부를 포함하는 것을 특징으로 한다.
한편, 본 발명의 다른 측면에 따른 컨텐츠 서버는, 음성 인식 서버로부터 메타 코드를 수신하는 수신부, 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하여 등록하는 컨텐츠 등록부, 수신된 메타 코드 및 컨텐츠와 관련된 정보를 매칭하여 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 컨텐츠 추출부 및 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 컨텐츠 전송부를 포함하고, 메타 코드는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하는 것을 특징으로 한다.
한편, 본 발명의 다른 측면에 따른 단말은, 애플리케이션 실행 중에 음성 정보를 입력 받는 음성 입력부, 음성 정보를 음성 인식 서버로 전송하는 음성 전송부, 컨텐츠 서버로부터 컨텐츠를 수신하는 컨텐츠 수신부 및 수신된 컨텐츠를 출력하는 컨텐츠 출력부를 포함하고, 컨텐츠는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입에 기초하여 추출된 것을 특징으로 한다.
한편, 본 발명의 다른 측면에 따른 컨텐츠 제공 서비스 타입을 결정하는 방법은, 단말로부터 음성 정보를 수신하는 단계, 수신된 음성 정보를 분석하고 서비스 타입을 결정하는 단계, 분석된 음성 정보에 기초하여 메타 코드를 생성하고 메타 코드는 결정된 서비스 타입을 포함하는 것인 단계 및 생성된 메타 코드를 컨텐츠 서버로 전송하는 단계를 포함하는 것을 특징으로 한다.
한편, 본 발명의 다른 측면에 따른 컨텐츠를 제공하는 방법은, 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하여 등록하는 단계, 음성 인식 서버로부터 메타 코드를 수신하는 단계, 수신된 메타 코드 및 등록된 컨텐츠와 관련된 정보를 매칭하여 등록된 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 단계 및 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 단계를 포함하고, 메타 코드는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하는 것을 특징으로 한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 단말은 애플리케이션 실행 중에 서비스 이용자로부터 명확한 컨텐츠 명이 아닌, 컨텐츠와 관련된 음성 정보만을 입력 받아도, 이에 기초하여 컨텐츠를 제공 받되 다양한 방법(스트리밍 또는 다운로드 등)으로 제공 받을 수 있다. 또한, 서비스 이용자는 단말에 접촉하지 않고, 이어폰 등 음성 인식이 가능한 주변기기로 편리하게 서비스를 이용할 수 있고, 음성 정보를 통하여 서비스 이용자의 취향에 따른 추천 컨텐츠를 제공 받을 수 있다. 이 때, 리스트 제공 방식에 기초하여 좀 더 정확도 있는 서비스를 제공 발을 수 있다.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 음성 인식 서버(200)의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 도 1에 도시된 컨텐츠 서버(300)의 구성도이다.
도 4는 본 발명의 다른 실시예에 따른 도 1에 도시된 컨텐츠 서버(300)의 구성도이다.
도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 단말(100)의 구성도이다.
도 6은 본 발명의 다른 실시예에 따른 도 1에 도시된 단말(100)의 구성도이다.
도 7은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하고 제공하는 방법을 설명하기 위한 순서도이다.
도 9는 본 발명의 일 실시예에 따른 음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법을 나타낸 동작 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 컨텐츠 서버가 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 음성 인식 서버(200)의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 도 1에 도시된 컨텐츠 서버(300)의 구성도이다.
도 4는 본 발명의 다른 실시예에 따른 도 1에 도시된 컨텐츠 서버(300)의 구성도이다.
도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 단말(100)의 구성도이다.
도 6은 본 발명의 다른 실시예에 따른 도 1에 도시된 단말(100)의 구성도이다.
도 7은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하고 제공하는 방법을 설명하기 위한 순서도이다.
도 9는 본 발명의 일 실시예에 따른 음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법을 나타낸 동작 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 컨텐츠 서버가 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 제공 시스템의 구성도이다. 도 1을 참조하면, 컨텐츠 제공 시스템은 단말(100), 음성 인식 서버(200), 컨텐츠 서버(300), CP(Contents Provider) 단말(400) 및 네트워크(500)를 포함할 수 있다. 다만, 이러한 도 1의 컨텐츠 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니다.
단말(100)은 음성 정보에 기초한 컨텐츠 제공 서비스의 이용자로부터 입력 받는 컨텐츠에 대응하는 음성 정보를 음성 인식 서버로 전송할 수 있다. 이 때, 컨텐츠 제공 서비스는 단말(100)에 설치되어있는 애플리케이션을 통해 제공될 수 있다. 여기서 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함할 수 있다. 또한, 컨텐츠는 영화나 방송 프로그램 등과 같이 영상 및 음성 등을 포함하는 멀티미디어 컨텐츠, 노래나 음악 같은 오디오 컨텐츠, 이미지 컨텐츠 및 텍스트(Text) 컨텐츠 등일 수 있다.
본 발명의 다양한 실시예들에 따르면 단말(100)은 다양한 형태의 단말일 수 있다. 예를 들어, 단말은 네트워크를 통해 원격지의 서버에 접속할 수 있는 TV 장치, 컴퓨터 또는 휴대용 단말일 수 있다. 여기서, TV 장치의 일 예에는 스마트 TV, IPTV 셋톱박스 등이 포함되고, 컴퓨터의 일 예에는 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등이 포함되고, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다.
음성 인식 서버(200)는 단말(100)로부터 네트워크(500)를 통해 입력 받은 음성 정보를 분석하고, 분석된 음성 정보에 기초하여 메타 코드를 생성하고, 생성된 메타 코드를 컨텐츠 서버(300)로 전송할 수 있다. 이 때, 음성 인식 서버(200)는 음성 정보를 분석하여 서비스 타입을 결정하고, 결정된 서비스 타입을 포함하는 메타 코드를 생성할 수 있다.
컨텐츠 서버(300)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받아 매칭하여 등록하고, 음성 인식 서버(200)로부터 수신한 메타 코드와 컨텐츠와 관련된 정보를 매칭하여 상시 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하고, 추출된 컨텐츠를 단말(100)에 전송할 수 있다. 이 때, 메타 코드는 음성 인식 서버(200)에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함할 수 있다.
CP 단말(400)은 컨텐츠 및 컨텐츠와 관련된 정보를 컨텐츠 서버(300)에게 전송할 수 있다. 이 때, CP 단말(400)은 컨텐츠 제작자 단말(미도시)일 수 있다.
컨텐츠 제공 시스템을 구성하는 도 1의 각 구성요소들은 일반적으로 네트워크(500)를 통해 연결될 수 있다. 네트워크(300)는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일 예에는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등이 포함되나 이에 한정되지는 않는다.
이하에서는 도 1의 음성 인식 서버(200)의 동작에 대해 보다 구체적으로 설명한다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 음성 인식 서버(200)의 구성도이다. 도 2를 참조하면, 음성 인식 서버(200)는 음성 분석부(210), 코드 생성부(220), 통신부(230) 및 데이터베이스(290)를 포함할 수 있다. 다만, 도 2에 도시된 음성 인식 서버(200)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 음성 인식 서버(200)는 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있다. 이 경우, 관리자 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.
음성 분석부(210)는 단말(100)로부터 통신부(230)를 통해 수신되는 음성 정보를 분석하고, 서비스 타입을 결정할 수 있다. 이 때, 수신되는 음성 정보는 context 형식으로 변환된 음성 정보일 수 있다.
서비스 타입은 통신부(230)에서 수신된 음성 정보에 포함된 적어도 하나 이상의 단어에 기초하여 결정될 수 있다.
본 발명의 일 실시예에 따르면, 서비스 타입은 통신부(230)에서 수신된 음성 정보와 수신된 음성 정보에 대한 추가 정보에 기초하여 컨텐츠 서버(300)가 단말(100)에게 컨텐츠를 제공하는 제 1 서비스 타입과 통신부(230)에서 수신된 음성 정보에만 기초하여 컨텐츠 서버(300)가 단말(100)에게 컨텐츠를 제공하는 제 2 서비스 타입을 포함할 수 있다. 이 때, 추가 정보는 컨텐츠 서버(300)와 단말(100) 간의 리스트 제공 방식에 의하여 획득되는 정보일 수 있다. 예를 들어, 제 1 서비스 타입은, 통신부(230)에서 수신된 음성 정보가 "이승철"인 경우, 컨텐츠 서버(300)는 "이승철"에 대응하는 컨텐츠를 단말(100)에게 리스트 방식으로 제공 할 수 있고, 단말(100)이 제공 받은 리스트 중 "인연"이라는 컨텐츠를 선택하거나 "인연"이라는 추가 정보를 입력함으로써 컨텐츠 서버(300)로부터 "인연"이라는 컨텐츠를 제공 받는 서비스 타입일 수 있다. 이 때, 추가 정보는 복수 개일 수 있다. 제 2 서비스 타입은, CP(Contents Provider)가 "올레"라는 음성 정보에 대응하는 컨텐츠를 컨텐츠 서버(300)에 등록하고, 통신부(230)에서 수신된 음성 정보가 "올레"인 경우, 단말(100)이 "올레"라는 음성 정보에 대응하는 컨텐츠를 제공 받는 서비스 타입일 수 있다. 이 때, CP가 등록한 특정 음성 정보에 대응하는 컨텐츠는 미리 준비된 추천 서비스에 대응하는 컨텐츠일 수 있다.
본 발명의 다른 실시예에 따르면, 서비스 타입은 통신부(230)에서 수신된 음성 정보에 대응하여 기 지정된 컨텐츠를 제공하는 제 3 서비스 타입 및 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 제 4 서비스 타입을 포함할 수 있다. 예를 들어, 제 3 서비스 타입은 CP(Contents Provider)가 "올레"라는 음성 정보에 대응하는 컨텐츠를 컨텐츠 서버(300)에 등록하고, 통신부(230)에서 수신된 음성 정보가 "올레"인 경우, 단말(100)이 "올레"라는 음성 정보에 대응하여 기 지정된 컨텐츠를 제공 받는 서비스 타입일 수 있다. 또한, 음성 정보가 "이승철" 및 "인연"을 포함하는 경우, 단말(100)이 "이승철" 및 "인연"이라는 음성 정보에 대응하여 기 지정된 가수 이승철이 부른 인연이라는 명칭의 컨텐츠를 제공 받는 서비스 타입일 수 있다. 다만, "이승철"이 동명이인으로서 두 명 이상의 가수가 있거나, 가수 이승철이 부른 "인연"이라는 명칭의 컨텐츠가 동음이의어로서 두 개 이상인 경우, 서비스 타입은 제 1 서비스 타입일 수 있다. 제 4 서비스 타입은 통신부(230)에서 수신된 음성 정보가 "추천"이고 단말(100)이 보유한 컨텐츠들의 장르가 대부분 "재즈" 인 경우, 컨텐츠 서버(300)가 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 단말(100)에게 "재즈" 장르 위주의 컨텐츠를 제공하는 서비스 타입일 수 있다. 이 때, 컨텐츠 정보는 컨텐츠가 음원인 경우 ID3 라는 메타 정보 표준 규격일 수 있고 추천에 필요한 우선 순위별로 컨텐츠 정보에 포함된 후술할 복수의 하위 정보를 선택할 수 있다. 또한, "재즈" 장르 위주의 추천 컨텐츠는 기 결정된 컨텐츠들일 수 있다.
코드 생성부(220)는 음성 분석부(210)에서 분석한 음성 정보에 기초하여 메타 코드를 생성할 수 있다. 이 때, 메타 코드는 음성 분석부(210)에서 결정된 서비스 타입을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 코드 생성부(220)는 통신부(230)에서 수신된 음성 정보와 관련된 관련 음성 정보가 수신된 경우, 수신된 음성 정보 및 수신된 관련 음성 정보에 기초하여 메타 코드를 생성할 수 있다. 이 때, 관련 음성 정보는 수신된 음성 정보에 대응하는 복수의 컨텐츠 중 적어도 하나 이상을 선택하는 음성 정보일 수 있다. 여기서 관련 음성 정보는 컨텐츠 서버(300)와 단말(100) 간의 리스트 제공 방식에 의하여 획득되는 정보일 수 있다.
본 발명의 다른 실시예에 따르면, 코드 생성부(220)에서 생성하는 메타 코드는 언어 종류 또는 제공 방식을 포함할 수 있고, 제공 방식은 스트리밍 방식 또는 다운로드 방식을 포함할 수 있다.
통신부(230)는 음성 정보를 수신하고 코드 생성부(22)에서 생성된 메타 코드를 컨텐츠 서버(300)로 전송할 수 있다.
본 발명의 일 실시예에 따르면, 통신부(230)는 단말(100)이 보유한 컨텐츠의 컨텐츠 정보를 컨텐츠 서버(300)로 전송할 것을 요청하는 컨텐츠 정보 요청 신호를 생성하여 단말로 전송할 수 있다. 이 때, 통신부(230)는 수신된 음성 정보에 기초하여 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보에 대한 선택 정보를 생성하고, 생성된 선택 정보를 포함하는 컨텐츠 정보 요청 신호를 단말(100)로 전송할 수 있다. 예를 들면, 통신부(230)에서 수신된 음성 정보가 "발라드" 및 "추천"인 경우, 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 "발라드"를 포함하는 장르에 대한 선택 정보를 생성하고, "발라드"를 포함하는 장르에 대한 선택 정보를 포함하는 컨텐츠 정보 요청 신호를 단말(100)로 전송할 수 있다. 이 때, 컨텐츠가 음원인 경우, 복수의 하위 정보는 적어도 하나 이상의 제목, 장르, 아티스트, 작곡가, 작사가, 플레이 횟수, 플레이 시간, 아티스트 홈페이지, 파일 타입 및 언어 등을 포함할 수 있다.
데이터베이스(290)는 데이터를 저장한다. 이 때, 데이터는 음성 인식 서버(200) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 음성 인식 서버(200)와 음성 인식 서버(200) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(290)는 음성 분석부(210)에서 코드 생성부(230)로 전달되는 서비스 타입을 저장할 수 있다. 이러한 데이터베이스(290)의 일 예에는 음성 인식 서버(200) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.
이하에서는 도 1의 컨텐츠 서버(300)의 동작에 대해 보다 구체적으로 설명한다.
도 3은 본 발명의 일 실시예에 따른, 도 1에 도시된 컨텐츠 서버(300)의 구성도이다. 도 3을 참조하면, 컨텐츠 서버(300)는 수신부(310), 컨텐츠 등록부(320), 컨텐츠 추출부(330), 컨텐츠 전송부(340) 및 데이터베이스(390)를 포함할 수 있다. 다만, 도 3에 도시된 컨텐츠 서버(300)는 본 발명의 하나의 구현 예에 불과하며, 도 3에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 컨텐츠 서버(300)는 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있다. 이 경우, 관리자 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.
수신부(310)는 음성 인식 서버(200)로부터 메타 코드를 수신할 수 있다. 이 때, 메타 코드는 음성 인식 서버(200)에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함할 수 있다.
컨텐츠 등록부(320)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받아 매칭하고 등록할 수 있다.
컨텐츠 추출부(330)는 수신부(310)에서 수신한 메타 코드 및 CP 단말(400)로부터 입력 받은 컨텐츠와 관련된 정보를 매칭하여 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출할 수 있다. 이 때, 컨텐츠와 관련된 정보는 컨텐츠 자체 정보를 관리하기 위하여 바코드 또는 URL Scheme 등의 기존 컨텐츠 코드 또는 CP가 만든 신규 컨텐츠 코드가 포함될 수 있다. 또한, 컨텐츠 추출부(330)는 컨텐츠를 추출하기 위하여 컨텐츠 코드를 추출하고, 컨텐츠 코드에 기초하여 데이터베이스(390)에 저장된 컨텐츠 코드에 대응하는 컨텐츠를 요청할 수 있다.
컨텐츠 전송부(340)는 컨텐츠 추출부(330)에서 추출된 적어도 하나 이상의 컨텐츠를 단말(100)에게 전송할 수 있다.
데이터베이스(390)는 데이터를 저장한다. 이 때, 데이터는 컨텐츠 서버(300) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 컨텐츠 서버(300)와 컨텐츠 서버(300) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(390)는 컨텐츠 등록부(320)에서 등록한 컨텐츠 및 컨텐츠와 관련된 정보를 저장할 수 있다. 이러한 데이터베이스(390)의 일 예에는 컨텐츠 서버(300) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.
이하에서는 도 1의 컨텐츠 서버(300)의 동작의 다른 실시예에 대해 구체적으로 설명한다.
도 4는 본 발명의 다른 실시예에 따른 도 1에 도시된 컨텐츠 서버(300)의 구성도이다. 도 4를 참조하면, 컨텐츠 서버(300)는 컨텐츠 서버(300)는 수신부(310), 컨텐츠 등록부(320), 컨텐츠 추출부(330), 컨텐츠 전송부(340), 리스트 생성부(350), 리스트 전송부(360) 및 데이터베이스(390)를 포함할 수 있다. 다만, 도 4에 도시된 컨텐츠 서버(300)는 본 발명의 하나의 구현 예에 불과하며, 도 4에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 컨텐츠 서버(300)는 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있음은 앞서 도 3을 통해 설명된 바와 같다.
수신부(310)는 음성 인식 서버(200)로부터 메타 코드를 수신할 수 있다. 또한, 수신부(310)는 단말(100)로부터 단말(100)이 보유한 컨텐츠의 컨텐츠 정보를 수신할 수 있다. 이 때, 수신부(310)는 단말(100)로부터 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보를 수신할 수 있고, 컨텐츠 정보는 컨텐츠가 음원인 경우 ID3 라는 메타 정보 표준 규격일 수 있고 컨텐츠 정보는 적어도 하나 이상의 제목, 장르, 아티스트, 작곡가, 작사가, 플레이 횟수, 플레이 시간, 아티스트 홈페이지, 파일 타입 및 언어 등의 복수의 하위 정보를 포함할 수 있다. 또한, 수신부(310)는 후술할 리스트 생성부(350)에서 생성한 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호를 단말(100)로부터 수신할 수 있다.
컨텐츠 등록부(320)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받아 매칭하고 등록할 수 있다.
컨텐츠 추출부(330)는 수신부(310)에서 수신한 메타 코드 및 CP 단말(400)로부터 입력 받은 컨텐츠와 관련된 정보를 매칭하여 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출할 수 있다. 또한, 컨텐츠 추출부(330)는 단말(100)로부터 수신하는 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호에 대응하는 컨텐츠를 추출할 수 있다.
컨텐츠 전송부(340)는 컨텐츠 추출부(330)에서 추출된 적어도 하나 이상의 컨텐츠를 단말(100)에게 전송할 수 있다.
리스트 생성부(350)는 서비스 타입이 리스트 제공 방식을 이용하여 컨텐츠를 제공하는 서비스 타입인 경우, 서비스 타입에 대응하는 적어도 하나 이상의 컨텐츠에 대응하는 리스트를 생성할 수 있다.
리스트 전송부(360)는 리스트 생성부(350)에서 생성된 리스트를 단말(100)에게 전송할 수 있다.
본 발명의 다른 실시예에 따르면, 리스트 전송부(360)는 리스트 생성부(350)에서 생성된 리스트를 별도의 리스트 제공 서버(미도시)로 전송할 수 있고, 리스트 제공 서버(미도시)는 전송된 리스트를 수신하여 수신한 리스트를 단말(100)에게 전송할 수 있다. 이 때, 리스트 제공 서버(미도시)는 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호를 단말(100)로부터 수신할 수 있고, 수신한 입력 신호를 컨텐츠 서버(300)에게 전송할 수 있다. 이 경우, 컨텐츠 추출부(330)는 입력 신호에 대응하는 컨텐츠를 추출할 수 있다.
데이터베이스(390)는 데이터를 저장한다.
이와 같은, 컨텐츠 서버(300)의 수신부(310), 컨텐츠 등록부(320), 컨텐츠 추출부(330), 컨텐츠 전송부(340) 및 데이터베이스(390)에 대하여 이상에서 설명되지 아니한 사항은 앞서 도 3을 통해 설명된 내용과 동일하거나 설명된 내용으로부터 당업자에 의해 용이하게 유추되므로 설명을 생략하도록 한다.
이하에서는 도 1의 단말(100)의 동작에 대해 보다 구체적으로 설명한다.
도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 단말(100)의 구성도이다. 도 5를 참조하면, 단말(100)은 음성 입력부(110), 음성 전송부(120), 컨텐츠 수신부(130), 컨텐츠 출력부(140) 및 데이터베이스(190)를 포함할 수 있다. 다만, 도 5에 도시된 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 5에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 단말(100)은 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있다. 이 경우, 관리자 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다.
음성 입력부(110)는 애플리케이션 실행 중에 음성 정보를 입력 받을 수 있다.
음성 전송부(120)는 음성 입력부(110)에서 입력된 음성 정보를 음성 인식 서버(200)로 전송할 수 있다.
컨텐츠 수신부(130)는 컨텐츠 서버(300)로부터 컨텐츠를 수신할 수 있다. 이 때, 컨텐츠는 음성 인식 서버(200)에서 분석한 음성 정보에 기초하여 결정된 서비스 타입에 기초하여 추출된 것일 수 있다.
컨텐츠 출력부(140)는 컨텐츠 수신부(130)에서 수신한 컨텐츠를 출력할 수 있다.
데이터베이스(190)는 데이터를 저장한다. 이 때, 데이터는 단말(100) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 단말(100)과 단말(100) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(190)는 음성 입력부(110)에서 입력된 음성 정보를 저장할 수 있다. 이러한 데이터베이스(190)의 일 예에는 단말(100) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다.
이하에서는 도 1의 단말(100)의 동작의 다른 실시예에 대해 구체적으로 설명한다.
도 6은 본 발명의 다른 실시예에 따른 도 1에 도시된 단말(100)의 구성도이다. 도 6을 참조하면, 단말(100)은 음성 입력부(110), 음성 전송부(120), 컨텐츠 수신부(130), 컨텐츠 출력부(140), 음성 변환부(150), 컨텐츠 정보 전송부(160), 리스트 선택부(170) 및 데이터베이스(190)를 포함할 수 있다. 다만, 도 6에 도시된 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 6에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 단말(100)은 관리자로부터 어떤 명령 내지 정보를 입력 받기 위한 관리자 인터페이스가 더 포함될 수 있음은 앞서 도 5를 통해 설명된 바와 같다.
음성 입력부(110)는 애플리케이션 실행 중에 음성 정보를 입력 받을 수 있다.
음성 전송부(120)는 음성 입력부(110)에서 입력된 음성 정보를 음성 인식 서버(200)로 전송할 수 있다. 이 때, 음성 정보는 음성 변환부(150)에서 context 형식으로 변환된 것일 수 있다.
컨텐츠 수신부(130)는 컨텐츠 서버(300)로부터 컨텐츠를 수신할 수 있다.
컨텐츠 출력부(140)는 컨텐츠 수신부(130)에서 수신한 컨텐츠를 출력할 수 있다.
음성 변환부(150)는 음성 입력부(110)에서 입력 받은 음성 정보를 context 형식으로 변환할 수 있다.
컨텐츠 정보 전송부(160)는 음성 인식 서버(200)로부터 단말(100)이 보유한 컨텐츠의 컨텐츠 정보를 요청하는 컨텐츠 정보 요청 신호를 받는 경우, 요청 받은 컨텐츠 정보를 추출하여 컨텐츠 서버(300)에게 전송할 수 있다.
리스트 선택부(170)는 컨텐츠 서버(300)에서 추출된 적어도 하나 이상의 컨텐츠에 대응하는 리스트를 컨텐츠 서버(300)로부터 수신하고, 수신한 리스트 중 적어도 하나 이상의 항목을 선택할 수 있다. 이 때, 리스트는 리스트 제공 서버(미도시)로부터 수신할 수 있다.
데이터베이스(190)는 데이터를 저장한다.
이와 같은, 단말(100)의 음성 입력부(110), 음성 전송부(120), 컨텐츠 수신부(130), 컨텐츠 출력부(140) 및 데이터베이스(190)에 대하여 이상에서 설명되지 아니한 사항은 앞서 도 5를 통해 설명된 내용과 동일하거나 설명된 내용으로부터 당업자에 의해 용이하게 유추되므로 설명을 생략하도록 한다.
도 7은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법을 설명하기 위한 순서도이다.
본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하는 방법은 음성 인식 서버(200) 및 컨텐츠 서버(300)를 중심으로 서비스 이용자(10), 단말(100) 및 CP 단말(400)이 네트워크(500)로 연결되어 구현될 수 있다.
도 7을 참조하면, 단계 S701에서 컨텐츠 서버(300)는 CP 단말(400)로부터 컨텐츠 및 컨텐츠와 관련된 정보를 입력 받을 수 있다.
단계 S703에서 컨텐츠 서버(300)는 S701에서 입력 받은 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하고 등록할 수 있다.
단계 S705에서 단말(100)은 음성 정보에 기초하여 컨텐츠를 추출하는 방법에 대응하는 애플리케이션을 실행할 수 있다.
단계 S707에서 서비스 이용자(10)는 단말(100)에게 음성 정보를 입력할 수 있다.
단계 S709에서 단말(100)은 S707에서 입력 받은 음성 정보를 음성 인식 서버(200)로 전송할 수 있다. 이 때, 음성 정보는 context 형식으로 변환된 것일 수 있다.
단계 S711에서 음성 인식 서버(200)는 S707에서 수신한 음성 정보를 분석하고, 서비스 타입을 결정할 수 있다.
단계 S713에서 음성 인식 서버(200)는 S709의 음성 정보에 기초하여 S711에서 결정된 서비스 타입을 포함하는 메타 코드를 생성할 수 있다.
단계 S715에서 음성 인식 서버(200)는 S713에서 생성된 메타 코드를 컨텐츠 서버(300)에게 전송할 수 있다.
단계 S717은 S711에서 결정된 서비스 타입이 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인지 여부를 판단할 수 있다.
단계 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, 도 7에 점선으로 도시한 S7171 내지 S7175의 단계를 추가적으로 수행할 수 있다.
단계 S7171에서 음성 인식 서버(200)는 단말(100)에게 컨텐츠 정보를 요청하는 신호를 전송할 수 있다. 이 때, 컨텐츠 정보는 컨텐츠가 음원인 경우 ID3 라는 메타 정보 표준 규격일 수 있고 컨텐츠 정보는 적어도 하나 이상의 제목, 장르, 아티스트, 작곡가, 작사가, 플레이 횟수, 플레이 시간, 아티스트 홈페이지, 파일 타입 및 언어 등의 복수의 하위 정보를 포함할 수 있고, 단계 S7171에서 음성 인식 서버(200)는 단말(100)에게 S707에서 수신된 음성 정보에 기초하여 단말(100)이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보를 요청하는 신호를 전송할 수 있다..
단계 S7173에서 단말(100)은 S7171의 컨텐츠 정보를 요청하는 신호에 기초하여, 요청된 컨텐츠 정보를 추출할 수 있다.
단계 S7175는 S7173에서 추출된 컨텐츠 정보를 컨텐츠 서버(300)에게 전송할 수 있다.
단계 S719에서는 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, S715의 메타 코드 및 S7175의 컨텐츠 정보에 기초하여 컨텐츠를 추출하고, S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, S715의 메타 코드에 기초하여 컨텐츠를 추출할 수 있다.
도 8은 본 발명의 일 실시예에 따라, 음성 정보에 기초하여 컨텐츠를 추출하고 제공하는 방법을 설명하기 위한 순서도이다. 이 때, 도 8은 도 7의 S701 내지 S717의 단계(S7171 내지 S7175 단계 포함)를 준용한다.
본 발명의 일 실시예에 따라, 음성 정보에 기초하여 추출된 컨텐츠를 제공하는 방법은 음성 인식 서버(200) 및 컨텐츠 서버(300)를 중심으로 서비스 이용자(10) 및 단말(100)이 네트워크(500)로 연결되어 구현될 수 있다.
단계 S720은 도 7의 S711에서 결정된 서비스 타입이 도 7의 S707에서 수신된 음성 정보 및 리스트 제공 방식에 의하여 획득되는 수신된 음성 정보에 대한 추가 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인지 여부를 판단할 수 있다.
단계 S720에서 판단된 서비스 타입이 음성 정보 및 추가 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, 도 8에 점선으로 도시된 S7201 및 S7205의 단계를 수행함으로써 서비스가 종료될 수 있다.
단계 S7201에서 컨텐츠 서버(300)는 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, S715의 메타 코드 및 S7175의 컨텐츠 정보에 기초하여 컨텐츠를 추출하고, S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, S715의 메타 코드에 기초하여 컨텐츠를 추출할 수 있다.
단계 S7203에서 컨텐츠 서버(300)는 단말(100)에게 S7201에서 추출된 컨텐츠를 전송할 수 있다.
단계 S7205에서 단말(100)은 S7203에서 전송된 컨텐츠를 서비스 이용자(10)에게 출력할 수 있다.
S720에서 판단된 서비스 타입이 음성 정보 및 추가 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, 단계 S721은 S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입인 경우, 컨텐츠 서버(300)는 S715의 메타 코드 및 S7175의 컨텐츠 정보에 기초하여 적어도 하나 이상의 해당 컨텐츠에 대응하는 추출 컨텐츠 리스트를 생성하고, S717에서 판단된 서비스 타입이 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입이 아닌 경우, 컨텐츠 서버(300)는 S715의 메타 코드에 기초하여 적어도 하나 이상의 해당 컨텐츠에 대응하는 추출 컨텐츠 리스트를 생성할 수 있다.
단계 S723에서 컨텐츠 서버(300)는 S721에서 생성된 적어도 하나 이상의 컨텐츠에 대응하는 추출 컨텐츠 리스트를 단말(100)에게 전송할 수 있다.
단계 S725에서 단말(100)은 S723의 추출 컨텐츠 리스트를 서비스 이용자(10)에게 출력할 수 있다.
단계 S727에서 단말(100)은 서비스 이용자(10)로부터 S725의 추출 컨텐츠 리스트 중 적어도 하나 이상의 항목을 선택하는 추가 정보를 입력 받을 수 있다.
단계 S729은 S725의 추가 정보가 관련 음성 정보인지 여부를 판단할 수 있다. 이 때, 관련 음성 정보는 수신된 음성 정보에 대응하는 복수의 컨텐츠 중 적어도 하나 이상을 선택하는 것일 수 있다. 다만, 관련 음성 정보는 리스트 제공 방식에 기초하여 입력되는 추가 정보에 한정되지 않는다.
단계 S729에서 판단된 추가 정보가 관련 음성 정보가 아닌 경우, 도 8에 점선으로 도시된 S7291 내지 S7297의 단계를 수행함으로써 서비스가 종료될 수 있다.
단계 S7291에서 단말(100)은 컨텐츠 서버(300)에게 S727의 추가 정보를 전송할 수 있다.
단계 S7293에서 컨텐츠 서버(300)는 추가 정보에 기초하여 컨텐츠를 추출할 수 있다.
단계 S7295에서 컨텐츠 서버(300)는 S7293에서 추출된 컨텐츠를 단말(100)에게 제공할 수 있다.
단계 S7297에서 단말(100)은 S7295의 컨텐츠를 서비스 이용자(10)에게 출력할 수 있다.
단계 S729에서 판단된 추가 정보가 관련 음성 정보인 경우, 단계 S731에서 단말(100)은 추가 정보를 음성 인식 서버(200)에게 전송할 수 있다.
단계 S733에서 음성 인식 서버(200)는 도 7의 S709의 음성 정보 및 S731의 추가 정보에 기초하여 메타 코드를 재생성할 수 있다.
단계 S735에서 음성 인식 서버(200)는 S735에서 재생성된 메타 코드를 컨텐츠 서버로 전송할 수 있다.
또한, S735 단계 이후, S720 내지 S735의 단계를 반복할 수 있다.
도 7 및 도 8에서 상술한 단계들(S701~S735)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S701~S735)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행될 수도 있다.
도 9는 본 발명의 일 실시예에 따른 음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법을 나타낸 동작 흐름도이다. 도 9에 도시된 실시예에 따른 서비스 타입을 결정하는 방법은 도 2에 도시된 실시예에 따른 음성 인식 서버(200)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 2의 음성 인식 서버(200)에 관하여 기술된 내용은 도 9에 도시된 실시예에 따른 서비스 타입을 결정하는 방법에도 적용된다.
단계 S901에서 음성 인식 서버(200)의 통신부(230)는 단말(100)로부터 음성 정보를 수신할 수 있다. 단계 S903에서 음성 분석부(210)는 통신부(230)에서 수신된 음성 정보를 분석하고 서비스 타입을 결정할 수 있다. 단계 S905에서 코드 생성부(220)는 음성 분석부(210)에서 분석된 음성 정보에 기초하여 결정된 서비스 타입이 포함된 메타 코드를 생성할 수 있다. S907에서 통신부(230)는 코드 생성부(220)에서 생성된 메타 코드를 컨텐츠 서버(300)로 전송할 수 있다.
도 10은 본 발명의 일 실시예에 따른 컨텐츠 서버가 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다. 도 10에 도시된 실시예에 따른 컨텐츠를 제공하는 방법은 도 3에 도시된 실시예에 따른 컨텐츠 서버(300)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 3의 컨텐츠 서버(300)에 관하여 기술된 내용은 도 10에 도시된 실시예에 따른 컨텐츠를 제공하는 방법에도 적용된다.
단계 S1001에서 컨텐츠 서버(300)의 컨텐츠 등록부(320)는 컨텐츠 및 컨텐츠와 관련된 정보를 매칭하여 등록할 수 있다. 단계 S1003에서 수신부(310)는 음성 인식 서버(200)로부터 서비스 타입이 포함된 메타 코드를 수신할 수 있다. 단계 S1005에서 컨텐츠 추출부(330)는 수신부(310)에서 수신된 메타 코드 및 컨텐츠와 관련된 정보를 매칭하여 컨텐츠를 추출할 수 있다. S1007에서 컨텐츠 전송부(340)는 컨텐츠 추출부(330)에서 추출된 컨텐츠를 단말(100)에게 전송할 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 단말
200: 음성 인식 서버
300: 컨텐츠 서버
400: CP 단말
500: 네크워크
200: 음성 인식 서버
300: 컨텐츠 서버
400: CP 단말
500: 네크워크
Claims (20)
- 컨텐츠 제공 서비스 타입을 결정하는 음성 인식 서버에 있어서,
단말로부터 수신되는 음성 정보를 분석하고 서비스 타입을 결정하는 음성 분석부;
상기 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 코드 생성부; 및
단말로부터 상기 음성 정보를 수신하고, 상기 생성된 메타 코드를 컨텐츠 서버로 전송하는 통신부를 포함하는 음성 인식 서버.
- 제 1 항에 있어서,
상기 통신부는 상기 단말이 보유한 컨텐츠의 컨텐츠 정보를 상기 컨텐츠 서버로 전송할 것을 요청하는 컨텐츠 정보 요청 신호를 상기 단말로 전송하는 음성 인식 서버.
- 제 2 항에 있어서,
상기 통신부는 상기 수신된 음성 정보에 기초하여 상기 단말이 보유한 컨텐츠의 컨텐츠 정보에 포함된 복수의 하위 정보 중 적어도 하나 이상의 하위 정보에 대한 선택 정보를 생성하고,
상기 컨텐츠 정보 요청 신호는 상기 선택 정보를 포함하는 것인, 음성 인식 서버.
- 제 1 항에 있어서,
상기 서비스 타입은 상기 수신된 음성 정보에 포함된 적어도 하나 이상의 단어에 기초하여 결정되는 것인, 음성 인식 서버.
- 제 1 항에 있어서,
상기 서비스 타입은 상기 수신된 음성 정보 및 상기 수신된 음성 정보에 대한 추가 정보에 기초하여 상기 단말로 제공할 컨텐츠를 결정하는 서비스 타입 및 상기 수신된 음성 정보만으로 상기 단말로 제공할 컨텐츠를 결정하는 서비스 타입을 포함하는 것인, 음성 인식 서버.
- 제 5 항에 있어서,
상기 추가 정보는 상기 컨텐츠 서버와 상기 단말 간의 리스트 제공 방식에 의하여 획득되는 것인, 음성 인식 서버.
- 제 1 항에 있어서,
상기 서비스 타입은 상기 음성 정보에 대응하여 기 지정된 컨텐츠를 제공하는 서비스 타입 및 상기 단말이 보유한 컨텐츠의 컨텐츠 정보에 기초하여 컨텐츠를 제공하는 서비스 타입을 포함하는 것인, 음성 인식 서버.
- 제 1 항에 있어서,
상기 메타 코드는 언어 종류 또는 제공 방식을 포함하고
상기 제공 방식은 스트리밍 방식 또는 다운로드 방식을 포함하는 음성 인식 서버.
- 제 1 항에 있어서,
상기 수신되는 음성 정보는 context 형식으로 변환된 음성 인식 서버.
- 제 1 항에 있어서,
상기 코드 생성부는 상기 수신된 음성 정보와 관련된 추가 관련 음성 정보를 수신하는 경우, 상기 수신된 음성 정보 및 상기 관련 음성 정보에 기초하여 메타 코드를 생성하는 음성 인식 서버.
- 제 10 항에 있어서,
상기 관련 음성 정보는 상기 수신된 음성 정보에 대응하는 복수의 컨텐츠 중 적어도 하나 이상을 선택하는 것인 음성 인식 서버.
- 단말에게 컨텐츠를 제공하는 컨텐츠 서버에 있어서,
음성 인식 서버로부터 메타 코드를 수신하는 수신부;
컨텐츠 및 상기 컨텐츠와 관련된 정보를 매칭하여 등록하는 컨텐츠 등록부;
상기 수신된 메타 코드 및 상기 컨텐츠와 관련된 정보를 매칭하여 상기 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 컨텐츠 추출부; 및
상기 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 컨텐츠 전송부를 포함하고,
상기 메타 코드는 상기 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하는 컨텐츠 서버.
- 제 12 항에 있어서,
상기 수신부는 상기 단말로부터 상기 단말이 보유한 컨텐츠의 컨텐츠 정보를 수신하는 컨텐츠 서버.
- 제 12 항에 있어서,
상기 서비스 타입이 리스트 제공 방식을 이용하여 컨텐츠를 제공하는 서비스 타입인 경우 상기 서비스 타입에 대응하는 적어도 하나 이상의 컨텐츠에 대응하는 리스트를 생성하는 리스트 생성부; 및
상기 생성된 리스트를 상기 단말에게 전송하는 리스트 전송부
를 포함하고
상기 수신부는 상기 단말로부터 상기 생성된 리스트 중 적어도 하나 이상의 항목을 선택하는 입력 신호를 수신하는 컨텐츠 서버.
- 애플리케이션을 이용하여 컨텐츠 서버로부터 추출된 컨텐츠를 제공 받는 단말에 있어서,
애플리케이션 실행 중에 음성 정보를 입력 받는 음성 입력부;
상기 음성 정보를 음성 인식 서버로 전송하는 음성 전송부;
컨텐츠 서버로부터 컨텐츠를 수신하는 컨텐츠 수신부; 및
상기 수신된 컨텐츠를 출력하는 컨텐츠 출력부를 포함하고,
상기 컨텐츠는 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입에 기초하여 추출된 것인 단말.
- 제 15 항에 있어서,
상기 입력 받는 음성 정보를 context 형식으로 변환하는 음성 변환부를 더 포함하고
상기 음성 전송부에서 전송하는 음성 정보는 상기 context 형식으로 변환된 것인 단말.
- 제 15 항에 있어서,
상기 음성 인식 서버로부터 상기 단말이 보유한 컨텐츠의 컨텐츠 정보를 요청하는 컨텐츠 정보 요청 신호를 수신하는 경우, 상기 요청된 컨텐츠 정보를 추출하여 상기 컨텐츠 서버에게 전송하는 컨텐츠 정보 전송부를 포함하는 단말.
- 제 15 항에 있어서,
상기 컨텐츠 서버에서 생성된 리스트를 상기 컨텐츠 서버로부터 수신하고 상기 수신한 리스트 중 적어도 하나 이상의 항목을 선택하는 리스트 선택부를 포함하는 단말.
- 음성 인식 서버가 컨텐츠 제공 서비스 타입을 결정하는 방법에 있어서,
단말로부터 음성 정보를 수신하는 단계;
상기 수신된 음성 정보를 분석하고 서비스 타입을 결정하는 단계;
상기 결정된 서비스 타입을 포함하는 메타 코드를 생성하는 단계; 및
상기 생성된 메타 코드를 컨텐츠 서버로 전송하는 단계를 포함하는 컨텐츠 제공 서비스 타입을 결정하는 방법.
- 컨텐츠 서버가 단말에게 컨텐츠를 제공하는 방법에 있어서,
컨텐츠 및 상기 컨텐츠와 관련된 정보를 매칭하여 등록하는 단계;
음성 인식 서버로부터 메타 코드를 수신하는 단계;
상기 수신된 메타 코드 및 상기 등록된 컨텐츠와 관련된 정보를 매칭하여 상기 등록된 컨텐츠와 관련된 정보에 대응하는 컨텐츠를 추출하는 단계; 및
상기 추출된 적어도 하나 이상의 컨텐츠를 단말에게 전송하는 단계를 포함하고,
상기 메타 코드는 상기 음성 인식 서버에서 분석한 음성 정보에 기초하여 결정된 서비스 타입을 포함하는 컨텐츠를 제공하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120060821A KR101909250B1 (ko) | 2012-06-07 | 2012-06-07 | 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120060821A KR101909250B1 (ko) | 2012-06-07 | 2012-06-07 | 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130137332A true KR20130137332A (ko) | 2013-12-17 |
KR101909250B1 KR101909250B1 (ko) | 2018-10-17 |
Family
ID=49983582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120060821A KR101909250B1 (ko) | 2012-06-07 | 2012-06-07 | 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101909250B1 (ko) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180045633A (ko) * | 2016-10-26 | 2018-05-04 | 에스케이텔레콤 주식회사 | 음성 인식 서비스 제공 방법 및 이를 위한 장치 |
US10311877B2 (en) | 2016-07-04 | 2019-06-04 | Kt Corporation | Performing tasks and returning audio and visual answers based on voice command |
KR20190063614A (ko) * | 2017-11-30 | 2019-06-10 | 주식회사 케이티 | 알람 서비스를 제공하는 사용자 단말, 방법 및 컴퓨터 프로그램 |
JP2019194918A (ja) * | 2016-12-30 | 2019-11-07 | グーグル エルエルシー | オーディオベースのデータ構造生成 |
KR20190134894A (ko) * | 2018-05-08 | 2019-12-05 | 서강대학교산학협력단 | 음악 인터랙션 로봇 |
WO2019231027A1 (ko) * | 2018-06-01 | 2019-12-05 | 엘지전자 주식회사 | 휴대용 음향기기 |
US10650816B2 (en) | 2017-01-16 | 2020-05-12 | Kt Corporation | Performing tasks and returning audio and visual feedbacks based on voice command |
WO2020123590A1 (en) * | 2018-12-14 | 2020-06-18 | Ali Vassigh | Audio search results in a multi-content source environment |
US10726836B2 (en) | 2016-08-12 | 2020-07-28 | Kt Corporation | Providing audio and video feedback with character based on voice command |
CN113707182A (zh) * | 2021-09-17 | 2021-11-26 | 北京声智科技有限公司 | 声纹识别方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060038299A (ko) * | 2004-10-29 | 2006-05-03 | 삼성전자주식회사 | 셋탑박스를 이용한 멀티미디어 검색 장치 및 그 방법 |
KR20100048141A (ko) * | 2008-10-30 | 2010-05-11 | 주식회사 케이티 | 음성 인식 기반의 아이피티브이 컨텐츠 검색 시스템 및 그 방법 |
KR20100067174A (ko) * | 2008-12-11 | 2010-06-21 | 한국전자통신연구원 | 음성 인식을 이용한 메타데이터 검색기, 검색 방법, iptv 수신 장치 |
JP2011243204A (ja) * | 2010-05-19 | 2011-12-01 | Google Inc | 番組コンテキストに基づくモバイルコンテンツの提示 |
JP2012023636A (ja) * | 2010-07-15 | 2012-02-02 | Nippon Hoso Kyokai <Nhk> | コンテンツ提示装置及びコンテンツ提示プログラム |
-
2012
- 2012-06-07 KR KR1020120060821A patent/KR101909250B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060038299A (ko) * | 2004-10-29 | 2006-05-03 | 삼성전자주식회사 | 셋탑박스를 이용한 멀티미디어 검색 장치 및 그 방법 |
KR20100048141A (ko) * | 2008-10-30 | 2010-05-11 | 주식회사 케이티 | 음성 인식 기반의 아이피티브이 컨텐츠 검색 시스템 및 그 방법 |
KR20100067174A (ko) * | 2008-12-11 | 2010-06-21 | 한국전자통신연구원 | 음성 인식을 이용한 메타데이터 검색기, 검색 방법, iptv 수신 장치 |
JP2011243204A (ja) * | 2010-05-19 | 2011-12-01 | Google Inc | 番組コンテキストに基づくモバイルコンテンツの提示 |
JP2012023636A (ja) * | 2010-07-15 | 2012-02-02 | Nippon Hoso Kyokai <Nhk> | コンテンツ提示装置及びコンテンツ提示プログラム |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10311877B2 (en) | 2016-07-04 | 2019-06-04 | Kt Corporation | Performing tasks and returning audio and visual answers based on voice command |
US10726836B2 (en) | 2016-08-12 | 2020-07-28 | Kt Corporation | Providing audio and video feedback with character based on voice command |
KR20180045633A (ko) * | 2016-10-26 | 2018-05-04 | 에스케이텔레콤 주식회사 | 음성 인식 서비스 제공 방법 및 이를 위한 장치 |
JP2019194918A (ja) * | 2016-12-30 | 2019-11-07 | グーグル エルエルシー | オーディオベースのデータ構造生成 |
US10650816B2 (en) | 2017-01-16 | 2020-05-12 | Kt Corporation | Performing tasks and returning audio and visual feedbacks based on voice command |
KR20190063614A (ko) * | 2017-11-30 | 2019-06-10 | 주식회사 케이티 | 알람 서비스를 제공하는 사용자 단말, 방법 및 컴퓨터 프로그램 |
KR20190134894A (ko) * | 2018-05-08 | 2019-12-05 | 서강대학교산학협력단 | 음악 인터랙션 로봇 |
WO2019231027A1 (ko) * | 2018-06-01 | 2019-12-05 | 엘지전자 주식회사 | 휴대용 음향기기 |
WO2020123590A1 (en) * | 2018-12-14 | 2020-06-18 | Ali Vassigh | Audio search results in a multi-content source environment |
US11595729B2 (en) | 2018-12-14 | 2023-02-28 | Roku, Inc. | Customizing search results in a multi-content source environment |
CN113707182A (zh) * | 2021-09-17 | 2021-11-26 | 北京声智科技有限公司 | 声纹识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR101909250B1 (ko) | 2018-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101909250B1 (ko) | 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법 | |
JP2020194567A (ja) | ウェブコンテンツ生成方法およびシステム | |
CN102761623B (zh) | 资源自适配下载方法、系统、数据存储服务器、以及通信系统 | |
US20150039620A1 (en) | Creating personalized and continuous playlists for a content sharing platform based on user history | |
US20130247105A1 (en) | Smart subscribe button on watch | |
US10372769B2 (en) | Displaying results, in an analytics visualization dashboard, of federated searches across repositories using as inputs attributes of the analytics visualization dashboard | |
JP2020008854A (ja) | 音声要求を処理するための方法および装置 | |
Lai et al. | A personalized mobile IPTV system with seamless video reconstruction algorithm in cloud networks | |
US10614123B2 (en) | Systems and methods for sharing audio feeds | |
WO2017080167A1 (zh) | 第三方视频推送方法和系统 | |
US10872108B2 (en) | Method and apparatus for updating multimedia playlist | |
US20160087928A1 (en) | Collaborative and interactive queuing and playback of content using electronic messaging | |
US20130138654A1 (en) | Methods and apparatuses for generating semantic signatures for media content | |
KR101713988B1 (ko) | 메타데이터를 추출하여 전송하는 콘텐츠 제공 방법 및 장치 | |
KR102506361B1 (ko) | 오디오 쿼리들의 오버랩핑 프로세싱의 조정 | |
US9959322B1 (en) | Ranking channels in search | |
KR20150080275A (ko) | 컨텐츠를 생성하는 방법 및 장치 | |
US10503773B2 (en) | Tagging of documents and other resources to enhance their searchability | |
CN103036929A (zh) | 多媒体文件的处理方法及通信系统中的网络侧设备 | |
US10296532B2 (en) | Apparatus, method and computer program product for providing access to a content | |
US9495448B2 (en) | Apparatus and method of generating combined profile | |
US9311384B1 (en) | Providing recommendations | |
US10715462B2 (en) | First and second ICN network nodes and method therein for generating data content | |
Molina et al. | Live Fallas: A Future Internet smart city APP for large-scale events | |
Velusamy Chandramohan | Intergration of CloudMe to Sonos wireless HiFi speaker system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |