KR20130082835A - 대화 연관 컨텐츠 제공 방법 및 장치 - Google Patents

대화 연관 컨텐츠 제공 방법 및 장치 Download PDF

Info

Publication number
KR20130082835A
KR20130082835A KR1020110138425A KR20110138425A KR20130082835A KR 20130082835 A KR20130082835 A KR 20130082835A KR 1020110138425 A KR1020110138425 A KR 1020110138425A KR 20110138425 A KR20110138425 A KR 20110138425A KR 20130082835 A KR20130082835 A KR 20130082835A
Authority
KR
South Korea
Prior art keywords
content
voice information
unit
conversation
word
Prior art date
Application number
KR1020110138425A
Other languages
English (en)
Other versions
KR101878488B1 (ko
Inventor
김현
이강우
서영호
김형선
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110138425A priority Critical patent/KR101878488B1/ko
Priority to US13/592,615 priority patent/US9230543B2/en
Publication of KR20130082835A publication Critical patent/KR20130082835A/ko
Application granted granted Critical
Publication of KR101878488B1 publication Critical patent/KR101878488B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 사용자와 타인간의 대화로부터 음성정보를 수집하고 수집된 음성정보를 기반으로 컨텐츠를 검색하여 사용자와 타인간의 대화와 연관된 켄텐츠를 제공하는 대화 연관 컨텐츠 제공 방법 및 장치에 관한 것이다. 대화 연관 컨텐츠 제공 방법은 사용자와 타인간의 대화로부터 음성정보를 수집하는 음성정보 수집단계; 상기 수집된 음성정보를 이용하여 검색 키워드를 생성하는 키워드 생성 제어단계; 및 상기 생성된 검색 키워드를 이용하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠를 제공하는 컨텐츠 제공 제어단계를 포함하는 것을 특징으로 한다.

Description

대화 연관 컨텐츠 제공 방법 및 장치{Method and Appartus for Providing Contents about Conversation}
본 발명은 대화 연관 컨텐츠 제공 방법 및 장치에 관한 것이다. 보다 상세하게는, 본 발명은 사용자와 타인간의 대화로부터 음성정보를 수집하고 수집된 음성정보를 기반으로 컨텐츠를 검색하여 사용자와 타인간의 대화와 연관된 켄텐츠를 제공하는 대화 연관 컨텐츠 제공 방법 및 장치에 관한 것이다.
최근 음성 명령어에 해당하는 단어나 간단한 문장을 인식하여 필요한 기능을 수행하는 음성인식 기반 응용 기술은 많은 분야에서 활용되고 있다.
미국의 경우 아이비엠(IBM), 에이티앤티(AT&T) 및 루슨트 테크놀로지(Lucent Technologies, 마이크로소프트(Microsoft) 등의 컴퓨터 및 통신 관련 기업체가 독자적인 대용량 음성인식 시스템을 개발하고 자사의 관련 제품에 응용하고 있다.
또한, 미국의 카네기 멜론 대학교(CMU, Carnegie Mellon University), 메사추세츠공과대학(MIT, Massachusetts Institute Of Technology) 및 영국의 캠브리지 대학교(Cambrige University)을 비롯한 많은 대학과 연구소에서 음성인식에 관한 연구를 하고 있다.
국내에서도 한국전자통신연구원(Electronics and Telecommunications Research Institute, ETRI)를 비롯한 정부출연 연구소, 기업 연구소 및 대학 등에서 음성인식 기술의 연구를 하고 있다.
많은 연구에도 불구하고 현재의 음성인식 기술은 사용자의 발음, 환경 내 잡음 및 자연어 처리 등 많은 문제로 사용자와 타인간의 대화를 이해하고, 사용자와 타인간의 대화 내용에 연관된 콘텐츠나 서비스를 능동적으로 제공하는 것은 현재의 기술 수준에서 구현이 힘든 문제가 있다.
본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로서, 사용자와 타인간의 대화로부터 음성정보를 수집하고 수집된 음성정보를 기반으로 컨텐츠를 검색하여 사용자에 제공하는 것을 목적으로 하는 대화 연관 컨텐츠 제공 방법 및 장치를 제공하고자 한다.
상기 목적을 달성하기 위한 대화 연관 컨텐츠 제공 방법은 사용자와 타인간의 대화로부터 음성정보를 수집하는 음성정보 수집단계; 상기 수집된 음성정보를 이용하여 검색 키워드를 생성하는 키워드 생성 제어단계; 및 상기 생성된 검색 키워드를 이용하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠를 제공하는 컨텐츠 제공 제어단계를 포함하는 것을 특징으로 한다.
바람직하게는 상기 음성정보 수집단계는, 사용자와 타인간의 대화로부터 음성정보를 입력받는 음성정보 입력단계; 및 상기 입력받은 음성정보에서 문장 단위의 구간을 찾기 위하여 발화의 끝점을 검출하는 EPD(End Point Detection)검출 단계를 포함하는 것을 특징으로 한다.
바람직하게는 상기 음성정보 수집단계는, 상기 EPD 검출 단계에서 검출한 상기 발화의 끝점에 따라 상기 음성정보를 문장 단위로 구분하여 상기 문장단위로 구분된 음성정보를 수집하는 문장구분 수집단계를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어단계는, 상기 수집된 음성정보에서 형태소를 추출하는 형태소 추출단계를 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어단계는, 상기 형태소 추출단계에서 추출된 상기 형태소 중 사용자와 타인간의 대화 주제와 연관된 주제 단어를 온톨리지(Ontology) 기반으로 추출하는 주제 단어 추출단계를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어단계는, 상기 주제 단어 추출단계에서 추출된 상기 주제 단어의 의미에 부합하는 대표적인 단어로 맵핑(Mapping)하는 주제 단어 맵핑단계를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어단계는, 상기 주제 단어 맵핑단계에서 상기 대표적인 단어로 맵핑된 상기 주제 단어 중 상기 맵핑된 단어 사이의 연관성 또는 상기 주제 단어의 사용 빈도 수 중 적어도 하나를 고려하여 상기 맵핑된 단어 중에서 핵심어를 선택하고, 상기 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성하는 검색 키워드 생성단계를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 컨텐츠 제공 제어단계는, 상기 생성된 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진을 기반으로 상기 컨텐츠를 검색하는 컨텐츠 검색단계를 포함하는 것을 특징으로 한다.
바람직하게는 상기 컨텐츠 제공 제어단계는, 상기 컨텐츠 검색단계에서 검색된 컨텐츠가 존재하는 경우, 상기 검색된 컨텐츠의 제공 여부에 대하여 사용자에게 문자 또는 음성으로 질의하고, 상기 사용자가 상기 검색된 컨텐츠의 제공을 승낙하면 상기 검색된 컨텐츠를 제공하는 컨텐츠 제공단계를 더 포함하는 것을 특징으로 한다.
또는 상기 목적을 달성하기 위한 컨텐츠 연관 제공 장치는 사용자와 타인간의 대화로부터 음성정보를 수집하는 음성정보 수집부; 상기 수집된 음성정보를 이용하여 검색 키워드를 생성하는 키워드 생성 제어부; 및 상기 생성된 검색 키워드를 이용하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠를 제공하는 컨텐츠 제공 제어부를 포함하는 것을 특징으로 한다.
바람직하게는 상기 음성정보 수집부는, 사용자와 타인간의 대화로부터 음성정보를 입력받는 음성정보 입력부; 및 상기 입력받은 음성정보에서 문장 단위의 구간을 찾기 위하여 발화의 끝점을 검출하는 EPD 검출부를 포함하는 것을 특징으로 한다.
바람직하게는 상기 음성정보 수집부는, 상기 EPD 검출부에서 검출한 상기 발화의 끝점에 따라 상기 음성정보를 문장 단위로 구분하여 상기 문장단위로 구분된 음성정보를 수집하는 문장구분 수집부를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어부는, 상기 수집된 음성정보에서 형태소를 추출하는 형태소 추출부를 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어부는, 상기 형태소 추출부에서 추출된 상기 형태소 중 사용자와 타인간의 대화 주제와 연관된 주제 단어를 온톨리지(Ontology) 기반으로 추출하는 주제 단어 추출부를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어부는, 상기 주제 단어 추출부에서 추출된 상기 주제 단어의 의미에 부합하는 대표적인 단어로 맵핑(Mapping)하는 주제 단어 맵핑부를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 키워드 생성 제어부는, 상기 주제 단어 맵핑부에서 상기 대표적인 단어로 맵핑된 상기 주제 단어 중 상기 맵핑된 단어 사이의 연관성 또는 상기 주제 단어의 사용 빈도 수 중 적어도 하나를 고려하여 상기 맵핑된 단어 중에서 핵심어를 선택하고, 상기 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성하는 검색 키워드 생성부를 더 포함하는 것을 특징으로 한다.
바람직하게는 상기 컨텐츠 제공 제어부는, 상기 생성된 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진을 기반으로 상기 컨텐츠를 검색하는 컨텐츠 검색부를 포함하는 것을 특징으로 한다.
바람직하게는 상기 컨텐츠 제공 제어부는, 상기 컨텐츠 검색부에서 검색된 컨텐츠가 존재하는 경우, 상기 검색된 컨텐츠의 제공 여부에 대하여 사용자에게 문자 또는 음성으로 질의하고, 상기 사용자가 상기 검색된 컨텐츠의 제공을 승낙하면 상기 검색된 컨텐츠를 제공하는 컨텐츠 제공부를 더 포함하는 것을 특징으로 한다.
본 발명은 사용자와 타인간의 대화와 연관된 컨텐츠를 사용자에게 능동적으로 제공하여 사용자의 편리함을 도모하고 삶의 질을 향상시킬 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치의 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치에서 음성정보 수집부의 블록도이다.
도 3은 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치에서 키워드 생성 제어부의 블록도이다.
도 4는 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치에서 컨텐츠 제공 제어부의 블록도이다.
도 5는 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 방법의 순서도이다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.
어떤 구성요소가 다른 구성요소에 “연결되어”있다거나 “접속되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다거나 “직접 접속되어”있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치의 블록도이다.
도 1을 참조하여 대화 연관 컨텐츠 제공 장치(100)를 설명하면, 대화 연관 컨텐츠 제공 장치(100)는 음성정보 수집부(110), 키워드 생성 제어부(120) 및 컨텐츠 제공 제어부(130)를 포함한다.
음성정보 수집부(110)는 사용자와 타인간의 대화로부터 음성정보를 수집한다. 사용자는 대화 연관 컨텐츠 제공 장치(100)를 사용하는 자이다. 사용자와 타인간의 대화가 있으면, 음성정보 수집부(110)는 대화로부터 음성정보를 지속적으로 수집한다.
대화 연관 컨텐츠란, 사용자와 타인간의 대화 내용 또는 주제와 연관된 문서, 음악, 동영상, 포스터, 사진 또는 그림 등 정보를 담고 있는 것을 말한다.
도 2는 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치에서 음성정보 수집부의 블록도이다.
도 2를 참조하여 음성정보 수집부(110)에 대하여 구체적으로 설명하면, 음성정보 수집부(110)는 음성정보 입력부(112), EPD 검출부(114) 및 문장 구분 수집부(116)를 포함한다.
음성정보 입력부(112)는 사용자와 타인간의 대화로부터 음성정보를 입력받는다. 음성정보 수집부(110)는 사용자와 타인간에 대화가 있는 동안 지속적으로 음성정보를 입력받는다. 음성정보 수집부(110)가 음성정보를 입력받는 것은 음성인식 기술에 기반하며, 일반적으로 음성인식 기술은 사람의 음성을 주파수 영역으로 인식하여 입력받는다.
음성정보 입력부(112)가 입력받는 음성정보는 대화 환경, 사용자 또는 타인의 발음, 사용자 또는 타인의 목소리 크기 또는 음성정보 수집부(110)와 사용자 또는 타인과의 거리 등에 따라서 잘못 입력되거나 입력이 되지 않는 경우가 발생한다.
음성정보 수집부(110)는 대화가 지속되는 동안 지속적으로 음성정보를 입력받으며, 잘못 입력되거나 입력이 되지 않는 경우에도 지속적으로 대화로부터 음성정보를 입력받는다. 음성정보 입력부(112)가 대화가 지속되는 동안 지속적으로 음성정보를 수집함으로써 잘못 입력되거나 입력이 되지 않는 경우를 보완할 수 있다.
EPD 검출부(114)는 음성정보 수집부(110)에서 입력받은 음성정보에서 문장 단위의 구간을 찾기 위하여 발화의 끝점을 검출한다.
구체적으로는, EPD 검출부(114)는 음성정보 수집부(110)에서 대화가 있는 동안 지속적으로 입력받은 음성정보에서 일정 시간 동안의 입력값이 소정의 수치보다 낮은 경우를 찾는다. 즉, EPD 검출부(114)는 일정 시간 동안의 입력값이 소정의 수치보다 낮은 경우 대화의 화자가 변경된 경우 등을 이유로 문장이 끝나는 지점이라 판단한다. 이러한 문장 단위의 구간을 찾기 위해 발화의 끝점을 검출하는 것을 이피디(EPD, End Point Dectection)라고 한다.
이피디의 방법으로는 일정 시간 동안의 입력값이 소정의 수치보다 낮은 지점를 찾는 것에 한정하는 것은 아니며 문장 단위의 구간을 찾기 위해 발화의 끝점을 검출하는 방법은 모두 포함될 수 있다.
문장 구분 수집부(116)는 EPD 검출부(114)에서 검출한 발화의 끝점에 따라 문장을 구분하여, 사용자와 타인간의 대화로부터 입력받은 음성정보를 구분된 문장으로 수집한다.
또는, 문장 구분 수집부(116)는 음성정보 수집부(110)에서 입력받은 음성정보를 특정한 데이터베이스 또는 알고리즘을 이용하여 적절하게 변경하여 문장으로 만들어 음성정보를 구분된 문장으로 수집할 수 있다.
예를 들어, 사용자와 타인간에 "오늘 학교에서 점심 무엇을 먹었지?", "계란후라이랑 미역국 먹었잖아" 라는 대화를 하고 있을 때, 음성정보 수집부(110)는 대화 환경의 잡음 등으로 인하여 "오늘 학교에서 점심 무엇을 먹었지?"를 "오늘 학교으서 점심 무엇을 먹었지?"라 입력받은 경우 "학교으서"를 "학교에서"로 적절하게 변경하여 문장으로 만들어 수집할 수 있다. 이러한 변경은 조사의 경우에만 적용할 수 있으며 온톨로지를 기반으로 변경할 수도 있다.
음성정보를 문장의 형태로 변경하여 수집하는 경우, 주요 단어를 획득하고 단어와 단어 사이의 관계와 단어가 가지는 의미를 파악하는 등에서 더욱 정확한 판단이 가능할 수 있다.
다만, 사용자와 타인간의 대화로부터 입력받은 음성정보를 반드시 구분된 문장으로 수집될 필요는 없다. 음성정보 수집부(110)에서 입력받은 음성정보로부터 문장을 획득할 수 있으면 문장으로 수집하고, 음성정보 수집부(110)에서 입력받은 음성정보로부터 문장을 획득할 수 없으면 음성정보 수집부(110)에서 입력받은 음성정보 그대로를 수집한다.
도 3은 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치에서 키워드 생성 제어부의 블록도이다.
도 3을 참조하여 키워드 생성 제어부(120)에 관하여 설명하면, 키워드 생성 제어부(120)는 형태소 추출부(122), 주제 단어 추출부(124), 주제 단어 맵핑부(126) 및 검색 키워드 생성부(128)를 포함한다.
형태소 추출부(122)는 음성 정보 수집부에서 수집된 음성정보에서 형태소를 추출한다. 형태소란, 문법적 또는 관계적인 뜻만을 나타내는 단어나 단어 성분을 말한다.
구체적으로 형태소 추출부(122)는 온톨로지(Ontology)를 기반으로 하여 음성 정보 수집부에서 수집된 문장 또는 단어의 집합으로 된 음성정보에서 형태소를 추출한다. 온톨로지는 단어와 관계들로 구성된 일종의 사전으로서 생각할 수 있다. 온톨로지는 특정 도메인에 관련된 단어들이 계층적으로 표현되어 있다. 정형 언어(Formal Language)로 기술된 어휘의 집합인 온톨로지는 추론을 하는 데에 사용될 수 있다. 또한 온톨로지는 웹 기반의 지식 처리나 응용 프로그램 사이의 지식 공유, 재사용 등이 가능하다.
주제 단어 추출부(124)는 형태소 추출부(122)에서 추출된 형태소 중 사용자와 타인간의 대화 주제와 연관된 주제 단어를 온톨리지 기반으로 추출한다.
구체적으로 주제 단어 추출부(124)는, 추출된 형태소 중 시간, 장소, 주체, 주체와 연관된 사건 또는 지역 등을 나타내는 단어를 대화 내용 또는 주제와 연관된 단어로 판단하여 주제 단어로 추출한다. 주제 단어의 추출은 온톨리지를 기반으로 하여 단어가 가지는 개념에 대한 정의, 관계, 속성 등을 파악하고 추론하여 추출될 수 있다.
주제 단어 맵핑부(126)는 주제 단어 추출부(124)에서 추출된 주제 단어의 의미에 부합하는 대표적인 단어로 맵핑(Mapping)한다.
구체적으로 예를 들어 설명하면, 주제단어 중 "바캉스"라는 단어가 포함된 경우, "바캉스"라는 단어는 "바캉스"라는 단어의 의미에 부합하는 대표적 단어인 "휴가"로 맵핑된다. 이러한 맵핑 과정은 주제단어의 반복적인 횟수 등을 파악하여 사용자와 타인간의 대화 내용 또는 주제를 보다 정확하게 파악할 수 있도록 한다. 대표적인 단어의 선택과 대표적인 단어에 맵핑될 단어의 종류의 판단 등에는 온톨로지 기반의 기술이 이용될 수 있으며 특정의 데이터베이스를 이용될 수도 있다.
검색 키워드 생성부(128)는 주제 단어 맵핑부(126)에서 대표적인 단어로 맵핑된 상기 주제 단어 중 맵핑된 단어 사이의 연관성 또는 주제 단어의 사용 빈도 수 중 적어도 하나를 고려하여 맵핑된 단어 중 에서 핵심어를 선택하고, 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성한다.
검색 키워드 생성부(128)는 선택된 핵심어를 나열 또는 조합하여 컨텐츠의 검색 키워드를 생성한다.
구체적으로 검색 키워드 생성부(128)는 온톨로지를 기반으로 하여 맵핑된 단어 사이의 연관성을 판단하여 핵심어를 선택하고, 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성할 수 있다.
또한, 검색 키워드 생성부(128)는 맵핑된 주제 단어가 소정의 개수보다 많을 경우, 주제 단어의 개수를 줄이기 위하여 각각의 주제 단어의 일정한 단위 시간 동안 사용 빈도 수 등을 고려하여 많이 사용된 주제 단어 위주로 키워드를 생성할 수 있다.
맵핑된 주제 단어가 소정의 개수보다 적을 경우, 검색 키워드 생성부(128)는 단위 시간 동안 주제 단어의 사용 빈도 수를 고려하여도 모든 주제 단어가 키워드로 생성될 것이다.
검색 키워드 생성부(128)가 맵핑된 주제 단어 중 검색 키워드를 생성하는 것은 소정의 개수를 반드시 정할 필요는 없으며, 일정 횟수 이상 사용된 주제 단어를 키워드로 생성할 수 있다.
도 4는 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 장치에서 컨텐츠 제공 제어부의 블록도이다.
도 4를 참조하여 컨텐츠 제공 제어부(130)에 관하여 설명하면, 컨텐츠 제공 제어부(130)는 컨텐츠 검색부(132) 및 컨텐츠 제공부(134)를 포함한다.
컨텐츠 검색부(132)는 검색 키워드 생성부(128)에서 생성한 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진(온톨리지로 구성된 지식베이스를 검색)을 이용하여 컨텐츠를 검색한다.
구체적으로 컨텐츠 검색부(132)는, 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진을 이용하여 대화 내용 또는 주제와 연관된 컨텐츠를 사용자와 타인 간의 대화가 지속되는 동안 검색을 수행한다.
대화가 지속되는 동안 검색을 수행한다는 것은, 음성정보 수집부(110)가 사용자와 타인간의 대화로부터 지속적으로 음성정보를 수집하고, 키워드 생성 제어부(120)는 지속적으로 수집된 음성정보를 이용하여 지속적으로 검색 키워드를 생성하며, 컨텐츠 검색부(132)는 지속적으로 생성된 키워드를 이용하여 지속적으로 사용자와 타인간의 대화와 연관된 컨텐츠를 능동적으로 검색한다는 것을 의미한다.
컨텐츠 검색부(132)는 생성된 키워드에 따라 검색 결과가 존재하지 않을 수 있으며, 검색 결과가 존재하지 않는 경우, 컨텐츠 검색부(132)는 사용자와 타인간의 대화가 진행됨에 따라 변화 또는 보충되는 검색 키워드를 이용하여 지속적으로 대화와 연관된 컨텐츠를 능동적으로 검색할 수 있다. 컨텐츠 검색부(132)에서 검색한 결과가 존재하는 경우, 컨텐츠 검색부(132)는 검색한 결과를 저장하거나 컨텐츠 제공부(134)로 전송하고 지속적으로 변화 또는 보충되는 검색 키워드를 이용하여 지속적으로 대화와 연관된 컨텐츠를 검색한다.
지속적으로 음성정보 수집, 지속적으로 검색 키워드 생성 및 지속적으로 검색에서의 지속의 정도는 사용자와 타인간의 대화가 존재하는 동안 또는 대화가 종료된 후 소정의 시간 이내 정도가 될 것이다.
컨텐츠 제공부(134)는 컨텐츠 검색부(132)에서 검색된 컨텐츠가 존재하는 경우, 검색된 컨텐츠의 제공 여부에 대하여 사용자에게 문자 또는 음성으로 질의하고, 사용자가 검색된 컨텐츠의 제공을 승낙하면 검색된 컨텐츠를 사용자에게 제공한다.
사용자가 검색된 컨텐츠의 제공 여부에 대한 질의에 거절하거나 무시하는 경우, 컨텐츠 제공부(134)는 새로 검색된 컨텐츠가 있으면 문자 또는 음성으로 다시 질의하고, 거절하거나 무시한 컨텐츠의 경우 추후 사용자가 원하는 경우를 대비하여 따로 검색 결과를 저장해 둘 수 있다.
컨텐츠 제공부(134)는 컨텐츠 검색부(132)로부터 검색된 컨텐츠를 담고 있는 파일 자체를 전송받거나 컨텐츠를 보거나 들을 수 있는 인터넷 상의 주소 등을 포워딩하는 형식으로 전송받을 수 있다.
구체적으로는 컨텐츠 검색부(132)에서 검색된 컨텐츠가 하나 이상 존재하는 경우에는, 하나 이상의 검색된 컨텐츠 결과를 디스플레이 상으로 보여주거나 검색 결과가 다수 있다는 정보를 사용자에게 알리고 검색 결과를 음성으로 알려줄지 여부를 먼저 질의할 수 있다. 사용자가 컨텐츠 제공을 승낙하면 컨텐츠 제공부(134)는 승낙한 컨텐츠를 제공한다. 사용자가 컨텐츠 제공을 승낙을 하지 않는 경우 컨텐츠 제공부(134)는 새로운 검색된 컨텐츠가 존재할 때까지 대기한다.
컨텐츠 제공부(134)는 디스플레이 또는 스피커 등의 재생 장치를 포함할 수 있다. 컨텐츠 제공부(134)가 디스플레이 또는 스피커를 포함한 경우, 컨텐츠 제공부(134)는 직접 동영상, 음악, 사진 등의 컨텐츠를 재생하여 사용자에게 재생할 수 있다.
또는, 본 발명에 따른 대화 연관 컨텐츠 제공 장치(100)가 로봇 등 자체적으로 이동하거나 동작할 수 있는 것에 적용되는 경우, 컨텐츠 제공부(134)는 주변에 있는 텔레비젼(TV, Television), 노트북, 컴퓨터 또는 휴대폰 등에 연결되어 컨텐츠를 제공할 수 있다. 이 경우 주변에 있는 기기를 사용하여 컨텐츠를 제공할지 여부를 추가적으로 질의 할 수도 있다.
본 발명에 따른 대화 연관 컨텐츠 제공 장치(100)는 종래에 소음이 심한 환경에서 음성인식의 곤란성, 발음의 부정확성에 따른 음성인식의 곤란성 및 대용량의 연속된 음성인식의 곤란성 등의 음성인식 기술의 문제로 인하여 대화와 연관된 컨텐츠를 능동적으로 제공하데 어려움이 있던 문제를 해소한다.
즉, 본 발명에 따른 대화 연관 컨텐츠 제공 장치(100)는 사용자와 타인간의 대화로부터 지속적으로 음성정보를 수집하여 검색 키워드를 추출 및 생성하고, 생성된 검색키워드를 이용하여 컨텐츠를 검색하여 대화에 연관된 컨텐츠를 제공함으로써, 잘못 입력된 음성정보나 입력되지 않은 음성정보가 존재하여도 대화에 연관된 컨텐츠를 제공할 수 있다.
본 발명에 따른 대화 연관 컨텐츠 제공 장치(100)는 사용자와 타인간의 대화 중 대화와 연관된 컨텐츠를 능동적으로 검색하여 제공아하여, 대화를 풍부하게 할 수 있으며, 다양하고 정확한 정보를 획득할 기회를 증가시킬 수 있다.
또한, 본 발명에 따른 대화 연관 컨텐츠 제공 장치(100)를 통하여 사용자와 타인간의 대화 중 대화와 연관된 컨텐츠를 접합으로써 즐거움과 재미를 얻을 수 있다.
또한, 대화 중 대화와 연관된 컨텐츠를 검색하고자 할 경우에도 대화가 중단되지 않고 본 발명에 따른 대화 연관 컨텐츠 제공 장치(100)가 제공하는 컨텐츠를 이용할 수 있음으로써 원활한 대화를 진행할 수 있다.
도 5는 본 발명의 바람직한 실시예에 따른 대화 연관 컨텐츠 제공 방법의 순서도이다.
도 5를 참조하여 대화 연관 컨텐츠 제공 방법을 설명하면, 대화 연관 컨텐츠 제공 방법은 음성정보 수집단계(S510 단계), 키워드 생성 제어단계(S520 단계) 및 컨텐츠 제공 제어단계(S530 단계)를 포함한다.
음성음성 정보 수집단계(S510 단계)는 사용자와 타인간의 대화로부터 음성정보를 수집한다. 음성 정보 수집단계(S510 단계)는 음성 정보 입력단계(S512 단계), EPD 검출단계(S514 단계) 및 문장 구분 수집단계(S516 단계)를 포함한다.
음성정보 수집단계(S512 단계)는 음성정보 입력부(112)가 사용자와 타인간의 대화로부터 음성정보를 입력받는 단계이다.
EPD 검출단계(S514 단계)는 EPD 검출부(114)가 음성정보 입력단계에서 입력받은 음성정보에서 발화의 끝점을 검출하는 단계이다.
문장 구분 수집단계(S516 단계)는 문장 구분 수집부(116)가 EPD 검출부(114)에서 발화의 끝점을 검출한 것에 따라 음성정보를 문장 단위로 구분하여 수집하는 단계이다.
키워드 생성 제어단계(S520 단계)는 음성 정보 수집단계(S510 단계)에서 수집된 음성정보를 이용하여 키워드를 생성하는 단계이다. 키워드 생성 제어단계(S520 단계)는 형태소 추출단계(S522 단계), 주제 단어 추출단계(S524 단계), 주제 단어 맵핑단계(S526 단계) 및 검색 키워드 생성단계(S528 단계)를 포함한다.
형태소 추출단계(S522 단계)는 형태소 추출부(122)가 음성정보 수집단계(S510 단계)에서 수집된 음성정보에서 형태소를 추출하는 단계이다.
주제 단어 추출단계(S524 단계)는 형태소 추출단계(S522 단계)에서 추출된 형태소 중 사용자와 타인간의 대화 주제가 될 수 있는 주제 단어를 온톨리지(Ontology) 기반으로 추출하는 단계이다.
주제 단어 맵핑단계(S526 단계)는 주제 단어 추출단계(S524 단계)에서 추출된 주제 단어의 의미에 부합하는 대표적인 단어로 맵핑(Mapping)하는 단계이다.
검색 키워드 생성단계((S528 단계)는 주제 단어 맵핑단계(S526 단계)에서 대표적인 단어로 맵핑된 상기 주제 단어 중 상기 맵핑된 단어 사이의 연관성 또는 상기 주제 단어의 사용 빈도 수 중 적어도 하나를 고려하여 상기 맵핑된 단어 중에서 핵심어를 선택하고, 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성하는 단계이다.
컨텐츠 제공 제어단계(S530 단계)는 컨텐츠 검색단계(S532 단계)에서 생성된 및 컨텐츠 제공단계(S534 단계)를 포함한다.
컨텐츠 검색단계(S532 단계)는 검색 키워드 생성단계(S528 단계)에서 생성된 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진을 이용하여 컨텐츠를 검색하는 단계이다.
컨텐츠 제공단계는 컨텐츠 검색단계(S532 단계)에서 검색된 컨텐츠가 존재하는 경우, 검색된 컨텐츠의 제공 여부에 대하여 사용자에게 문자 또는 음성으로 질의하고(S534 단계), 사용자가 상기 검색된 컨텐츠의 제공을 승낙하면 상기 검색된 컨텐츠를 제공하는 단계(S536 단계)이다.
본 발명에 따른 대화 연관 컨텐츠 제공 방법은 사용자와 타인간의 대화 중 대화와 연관된 컨텐츠를 능동적으로 검색하여 제공하여, 대화를 풍부하게 할 수 있으며, 다양하고 정확한 정보를 획득할 기회를 증가시킬 수 있다.
또한, 본 발명에 따른 대화 연관 컨텐츠 제공 방법을 통하여 사용자와 타인간의 대화 중 대화와 연관된 컨텐츠를 접합으로써 즐거움과 재미를 얻을 수 있다.
또한, 대화 중 대화와 연관된 컨텐츠를 검색하고자 할 경우에도 대화가 중단되지 않고 본 발명에 따른 대화 연관 컨텐츠 제공 방법이 제공하는 컨텐츠를 이용할 수 있음으로써 원활한 대화를 진행할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (18)

  1. 사용자와 타인간의 대화로부터 음성정보를 수집하는 음성정보 수집단계;
    상기 수집된 음성정보를 이용하여 검색 키워드를 생성하는 키워드 생성 제어단계; 및
    상기 생성된 검색 키워드를 이용하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠를 제공하는 컨텐츠 제공 제어단계를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  2. 제 1 항에 있어서,
    상기 음성정보 수집단계는, 사용자와 타인간의 대화로부터 음성정보를 입력받는 음성정보 입력단계; 및
    상기 입력받은 음성정보에서 문장 단위의 구간을 찾기 위하여 발화의 끝점을 검출하는 EPD(End Point Detection)검출 단계를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  3. 제 2 항에 있어서,
    상기 음성정보 수집단계는, 상기 EPD 검출 단계에서 검출한 상기 발화의 끝점에 따라 상기 음성정보를 문장 단위로 구분하여 상기 문장단위로 구분된 음성정보를 수집하는 문장구분 수집단계를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  4. 제 1 항에 있어서,
    상기 키워드 생성 제어단계는, 상기 수집된 음성정보에서 형태소를 추출하는 형태소 추출단계를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  5. 제 4 항에 있어서,
    상기 키워드 생성 제어단계는, 상기 형태소 추출단계에서 추출된 상기 형태소 중 사용자와 타인간의 대화 주제와 연관된 주제 단어를 온톨리지(Ontology) 기반으로 추출하는 주제 단어 추출단계를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  6. 제 5 항에 있어서,
    상기 키워드 생성 제어단계는, 상기 주제 단어 추출단계에서 추출된 상기 주제 단어의 의미에 부합하는 대표적인 단어로 맵핑(Mapping)하는 주제 단어 맵핑단계를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  7. 제 6 항에 있어서,
    상기 키워드 생성 제어단계는, 상기 주제 단어 맵핑단계에서 상기 대표적인 단어로 맵핑된 상기 주제 단어 중 상기 맵핑된 단어 사이의 연관성 또는 상기 주제 단어의 사용 빈도 수 중 적어도 하나를 고려하여 상기 맵핑된 단어 중에서 핵심어를 선택하고, 상기 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성하는 검색 키워드 생성단계를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  8. 제 1 항에 있어서,
    상기 컨텐츠 제공 제어단계는, 상기 생성된 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진을 기반으로 상기 컨텐츠를 검색하는 컨텐츠 검색단계를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  9. 제 8 항에 있어서,
    상기 컨텐츠 제공 제어단계는, 상기 컨텐츠 검색단계에서 검색된 컨텐츠가 존재하는 경우, 상기 검색된 컨텐츠의 제공 여부에 대하여 사용자에게 문자 또는 음성으로 질의하고, 상기 사용자가 상기 검색된 컨텐츠의 제공을 승낙하면 상기 검색된 컨텐츠를 제공하는 컨텐츠 제공단계를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 방법.
  10. 사용자와 타인간의 대화로부터 음성정보를 수집하는 음성정보 수집부;
    상기 수집된 음성정보를 이용하여 검색 키워드를 생성하는 키워드 생성 제어부; 및
    상기 생성된 검색 키워드를 이용하여 컨텐츠를 검색하고, 상기 검색한 컨텐츠를 제공하는 컨텐츠 제공 제어부를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  11. 제 10 항에 있어서,
    상기 음성정보 수집부는, 사용자와 타인간의 대화로부터 음성정보를 입력받는 음성정보 입력부; 및
    상기 입력받은 음성정보에서 문장 단위의 구간을 찾기 위하여 발화의 끝점을 검출하는 EPD 검출부를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  12. 제 11 항에 있어서,
    상기 음성정보 수집부는, 상기 EPD 검출부에서 검출한 상기 발화의 끝점에 따라 상기 음성정보를 문장 단위로 구분하여 상기 문장단위로 구분된 음성정보를 수집하는 문장구분 수집부를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  13. 제 10 항에 있어서,
    상기 키워드 생성 제어부는, 상기 수집된 음성정보에서 형태소를 추출하는 형태소 추출부를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  14. 제 13 항에 있어서,
    상기 키워드 생성 제어부는, 상기 형태소 추출부에서 추출된 상기 형태소 중 사용자와 타인간의 대화 주제와 연관된 주제 단어를 온톨리지(Ontology) 기반으로 추출하는 주제 단어 추출부를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  15. 제 14 항에 있어서,
    상기 키워드 생성 제어부는, 상기 주제 단어 추출부에서 추출된 상기 주제 단어의 의미에 부합하는 대표적인 단어로 맵핑(Mapping)하는 주제 단어 맵핑부를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  16. 제 15 항에 있어서,
    상기 키워드 생성 제어부는, 상기 주제 단어 맵핑부에서 상기 대표적인 단어로 맵핑된 상기 주제 단어 중 상기 맵핑된 단어 사이의 연관성 또는 상기 주제 단어의 사용 빈도 수 중 적어도 하나를 고려하여 상기 맵핑된 단어 중에서 핵심어를 선택하고, 상기 선택한 핵심어를 이용하여 컨텐츠의 검색 키워드를 생성하는 검색 키워드 생성부를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  17. 제 10 항에 있어서,
    상기 컨텐츠 제공 제어부는, 상기 생성된 검색 키워드를 이용하여 온톨리지 기반의 검색 엔진을 기반으로 상기 컨텐츠를 검색하는 컨텐츠 검색부를 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
  18. 제 17 항에 있어서,
    상기 컨텐츠 제공 제어부는, 상기 컨텐츠 검색부에서 검색된 컨텐츠가 존재하는 경우, 상기 검색된 컨텐츠의 제공 여부에 대하여 사용자에게 문자 또는 음성으로 질의하고, 상기 사용자가 상기 검색된 컨텐츠의 제공을 승낙하면 상기 검색된 컨텐츠를 제공하는 컨텐츠 제공부를 더 포함하는 것을 특징으로 하는 대화 연관 컨텐츠 제공 장치.
KR1020110138425A 2011-12-20 2011-12-20 대화 연관 컨텐츠 제공 방법 및 장치 KR101878488B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110138425A KR101878488B1 (ko) 2011-12-20 2011-12-20 대화 연관 컨텐츠 제공 방법 및 장치
US13/592,615 US9230543B2 (en) 2011-12-20 2012-08-23 Method and apparatus for providing contents about conversation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110138425A KR101878488B1 (ko) 2011-12-20 2011-12-20 대화 연관 컨텐츠 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20130082835A true KR20130082835A (ko) 2013-07-22
KR101878488B1 KR101878488B1 (ko) 2018-08-20

Family

ID=48611065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110138425A KR101878488B1 (ko) 2011-12-20 2011-12-20 대화 연관 컨텐츠 제공 방법 및 장치

Country Status (2)

Country Link
US (1) US9230543B2 (ko)
KR (1) KR101878488B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018012645A1 (ko) * 2016-07-12 2018-01-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2019190096A1 (ko) * 2018-03-29 2019-10-03 삼성전자 주식회사 사용자 음성 입력을 처리하는 장치
WO2020017849A1 (en) * 2018-07-18 2020-01-23 Samsung Electronics Co., Ltd. Electronic device and method for providing artificial intelligence services based on pre-gathered conversations
KR20200022932A (ko) * 2018-08-24 2020-03-04 정우주 차량 탑승자 대화기반 컨텐츠 추천 방법 및 장치
US10957321B2 (en) 2016-07-21 2021-03-23 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US11432045B2 (en) 2018-02-19 2022-08-30 Samsung Electronics Co., Ltd. Apparatus and system for providing content based on user utterance

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268195A (zh) * 2014-09-19 2015-01-07 三星电子(中国)研发中心 终端中的本地资源的处理方法和装置
KR20160139771A (ko) * 2015-05-28 2016-12-07 삼성전자주식회사 전자 장치, 정보 제공 시스템 및 그 정보 제공 방법
US9635167B2 (en) 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
CN106295299A (zh) * 2016-08-15 2017-01-04 歌尔股份有限公司 一种智能机器人的用户注册方法和装置
CN108132952B (zh) * 2016-12-01 2022-03-15 百度在线网络技术(北京)有限公司 一种基于语音识别的主动型搜索方法和装置
KR102389041B1 (ko) 2017-08-11 2022-04-21 엘지전자 주식회사 이동단말기 및 머신 러닝을 이용한 이동 단말기의 제어방법
KR102169868B1 (ko) * 2017-11-27 2020-10-26 한국전자통신연구원 채팅로봇 시스템 및 서비스방법
US11140450B2 (en) 2017-11-28 2021-10-05 Rovi Guides, Inc. Methods and systems for recommending content in context of a conversation
WO2020005207A1 (en) * 2018-06-26 2020-01-02 Rovi Guides, Inc. Augmented display from conversational monitoring
US11455325B2 (en) 2018-08-22 2022-09-27 Samsung Electronics, Co., Ltd. System and method for dialogue based file index
JP2021177598A (ja) * 2020-05-08 2021-11-11 シャープ株式会社 音声処理システム、音声処理方法、及び音声処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195635B1 (en) * 1998-08-13 2001-02-27 Dragon Systems, Inc. User-cued speech recognition
US20080235018A1 (en) * 2004-01-20 2008-09-25 Koninklikke Philips Electronic,N.V. Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content
US7676369B2 (en) * 2003-11-20 2010-03-09 Universal Entertainment Corporation Conversation control apparatus, conversation control method, and programs therefor
KR20100035921A (ko) * 2008-09-29 2010-04-07 에스케이 텔레콤주식회사 주제 탐지 장치와 주제 탐지 방법, 저장 매체, 정보 제공 시스템, 서비스 서버 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001268674B2 (en) 2000-06-22 2007-04-26 Microsoft Technology Licensing, Llc Distributed computing services platform
EP1571547A1 (en) 2004-02-27 2005-09-07 Research In Motion Limited System and method for building wireless applications with intelligent mapping between user interface and data components
KR20060070605A (ko) 2004-12-21 2006-06-26 한국전자통신연구원 영역별 언어모델과 대화모델을 이용한 지능형 로봇 음성인식 서비스 장치 및 방법
KR20090000637A (ko) 2007-03-13 2009-01-08 주식회사 유진로봇 서비스 컨텐츠 제공 및 위치 안내기능이 구비된 이동형지능 로봇
US8423363B2 (en) * 2009-01-13 2013-04-16 CRIM (Centre de Recherche Informatique de Montréal) Identifying keyword occurrences in audio data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195635B1 (en) * 1998-08-13 2001-02-27 Dragon Systems, Inc. User-cued speech recognition
US7676369B2 (en) * 2003-11-20 2010-03-09 Universal Entertainment Corporation Conversation control apparatus, conversation control method, and programs therefor
US20080235018A1 (en) * 2004-01-20 2008-09-25 Koninklikke Philips Electronic,N.V. Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content
KR20100035921A (ko) * 2008-09-29 2010-04-07 에스케이 텔레콤주식회사 주제 탐지 장치와 주제 탐지 방법, 저장 매체, 정보 제공 시스템, 서비스 서버 및 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018012645A1 (ko) * 2016-07-12 2018-01-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
US10957321B2 (en) 2016-07-21 2021-03-23 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US11432045B2 (en) 2018-02-19 2022-08-30 Samsung Electronics Co., Ltd. Apparatus and system for providing content based on user utterance
US11706495B2 (en) 2018-02-19 2023-07-18 Samsung Electronics Co., Ltd. Apparatus and system for providing content based on user utterance
WO2019190096A1 (ko) * 2018-03-29 2019-10-03 삼성전자 주식회사 사용자 음성 입력을 처리하는 장치
US11455997B2 (en) 2018-03-29 2022-09-27 Samsung Electronics Co., Ltd. Device for processing user voice input
US11915700B2 (en) 2018-03-29 2024-02-27 Samsung Electronics Co., Ltd. Device for processing user voice input
WO2020017849A1 (en) * 2018-07-18 2020-01-23 Samsung Electronics Co., Ltd. Electronic device and method for providing artificial intelligence services based on pre-gathered conversations
US11367439B2 (en) 2018-07-18 2022-06-21 Samsung Electronics Co., Ltd. Electronic device and method for providing artificial intelligence services based on pre-gathered conversations
KR20200022932A (ko) * 2018-08-24 2020-03-04 정우주 차량 탑승자 대화기반 컨텐츠 추천 방법 및 장치

Also Published As

Publication number Publication date
US9230543B2 (en) 2016-01-05
KR101878488B1 (ko) 2018-08-20
US20130159003A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
KR101878488B1 (ko) 대화 연관 컨텐츠 제공 방법 및 장치
US10515086B2 (en) Intelligent agent and interface to provide enhanced search
RU2699399C2 (ru) Система и способ обнаружения орфанных высказываний
KR102364400B1 (ko) 다수의 코퍼스들로부터 응답 정보 획득
US10181322B2 (en) Multi-user, multi-domain dialog system
US20190102381A1 (en) Exemplar-based natural language processing
US9734193B2 (en) Determining domain salience ranking from ambiguous words in natural speech
JP2018077858A (ja) 会話式情報検索システムおよび方法
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
KR101751113B1 (ko) 기억 능력을 이용하는 다중 사용자 기반의 대화 관리 방법 및 이를 수행하는 장치
JP2015511746A5 (ko)
US10860588B2 (en) Method and computer device for determining an intent associated with a query for generating an intent-specific response
JP2018195330A (ja) 発話文生成装置とその方法とプログラム
JP2020003926A (ja) 対話システムの制御方法、対話システム及びプログラム
CN111213136A (zh) 联网系统中特定于域的模型的生成
US20150112683A1 (en) Document search device and document search method
JPWO2016178337A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP6932162B2 (ja) 地域に基づくアイテム推薦端末装置及びアイテム推薦情報提供方法。
US11714599B2 (en) Method of browsing a resource through voice interaction
KR20190115721A (ko) 질의어를 처리하는 장치, 방법 및 컴퓨터 프로그램
JP6676698B2 (ja) 予約語及び属性言語間の関連度を用いた情報検索方法及び装置
JP2003186896A (ja) 対話処理装置
US20240012998A1 (en) Information processing device, information processing method, and computer program product
US11942081B2 (en) Information processing device and information processing method for response presentation
JP2011053851A (ja) 分類処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant