KR102505347B1 - 사용자 관심 음성 알림 장치 및 방법 - Google Patents

사용자 관심 음성 알림 장치 및 방법 Download PDF

Info

Publication number
KR102505347B1
KR102505347B1 KR1020150101200A KR20150101200A KR102505347B1 KR 102505347 B1 KR102505347 B1 KR 102505347B1 KR 1020150101200 A KR1020150101200 A KR 1020150101200A KR 20150101200 A KR20150101200 A KR 20150101200A KR 102505347 B1 KR102505347 B1 KR 102505347B1
Authority
KR
South Korea
Prior art keywords
user
interest
voice
field
text
Prior art date
Application number
KR1020150101200A
Other languages
English (en)
Other versions
KR20170009337A (ko
Inventor
이지현
최영상
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150101200A priority Critical patent/KR102505347B1/ko
Priority to US15/210,349 priority patent/US10521514B2/en
Publication of KR20170009337A publication Critical patent/KR20170009337A/ko
Application granted granted Critical
Publication of KR102505347B1 publication Critical patent/KR102505347B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • G06Q30/0271Personalized advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0254Targeted advertisements based on statistics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • G08B3/1008Personal calling arrangements or devices, i.e. paging systems
    • G08B3/1016Personal calling arrangements or devices, i.e. paging systems using wireless transmission
    • G08B3/1025Paging receivers with audible signalling details
    • G08B3/1033Paging receivers with audible signalling details with voice message alert
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Machine Translation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Computation (AREA)

Abstract

음성을 인식하여 사용자에게 적합한 정보를 제공하는 것에 관한 기술로, 일 양상에 따른 사용자 관심 음성 알림 장치는 사용자 관심 분야를 설정하는 관심 분야 설정부, 입력된 소리로부터 음성을 인식하여 인식 결과 및 설정된 사용자 관심 분야 사이의 관련성을 비교하여 알림 여부를 결정하는 음성 분석부 및 음성 분석부가 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력하는 출력부를 포함할 수 있다.

Description

사용자 관심 음성 알림 장치 및 방법{Method and Apparatus for alarming user interest voice}
음성을 인식하여 사용자에게 적합한 정보를 제공하는 것에 관한 기술이다.
사용자의 편의에 이바지하기 위해 사용자에게 유용한 정보를 추천하는 상황 인식 기반 추천과 관련된 종래의 기술이 있다. 예를 들어, 추천 정보로 광고, 사용자의 상황 정보를 이용한 검색 엔진의 서치 결과를 사용자에게 제공하는 기술이 있을 수 있다.
종래의 정보 추천 기법은 서비스 제공자 혹은 사용자 주변 기기들이 제공하는 데이터를 기반으로 특정 추천 척도(recommendation measure)를 통해 사용자에게 적합한 정보를 추출하여 제공한다.
다만, 이러한 종래 기술은 서버에서 제공하는 정보를 전달하거나, 제한된 데이터 pool에서 취사 선택하는 것으로 제한되므로, 정보를 제공하는 서비스의 서버와 통신하여 정보를 취득하는 장치나 소프트웨어가 필요하다.
주변의 소리로부터 사용자의 관심 분야에 대응하는 음성을 추출 및 인식하여 사용자에게 알리는 기술을 제안한다.
일 양상에 따른 사용자 관심 분야 알림 장치는 사용자 관심 분야를 설정하는 관심 분야 설정부, 음성을 인식하여 인식 결과 및 설정된 사용자 관심 분야 사이의 관련성을 비교하여 알림 여부를 결정하는 음성 분석부 및 음성 분석부가 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력하는 출력부를 포함할 수 있다.
관심 분야 설정부는 사용자의 입력에 기초하여 사용자 관심 분야를 설정하거나, 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정할 수 있다.
이때, 상황 정보는 사용자의 일정 및 위치 정보 중의 하나 이상을 포함할 수 있다.
관심 분야 설정부는 음성 분석부에서 알림을 제공하는 것으로 결정하는 경우, 비교된 관련성 정보를 기초로 사용자 관심 분야를 학습하는 것을 더 포함할 수 있다.
음성 분석부는, 인식 결과를 텍스트로 생성하는 텍스트 생성부 및 생성된 텍스트 및 사용자 관심 분야 사이의 관련성을 비교하는 텍스트 분석부를 더 포함할 수 있다.
텍스트 분석부는 생성된 텍스트를 SVM(Support Vector Machine) 및 신경망(Neural Network) 중의 적어도 하나의 분류 기술을 적용하여 분류하고, 분류 결과와 사용자 관심 분야 사이의 관련성을 비교할 수 있다.
텍스트 분석부는 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 포함된 개수 및 텍스트에 포함되어 있는 사용자의 관심 키워드와 관련된 단어의 개수 중의 적어도 하나를 기초로 텍스트 및 사용자 관심 분야 사이의 관련성을 비교할 수 있다.
알림부는 알림 메시지를 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나의 방법으로 출력할 수 있다.
알림부는 인식 결과를 기초로 알림의 중요도를 결정하고, 중요도에 따라 소정의 알림 방법을 결정하는 것을 더 포함할 수 있다.
인식된 음성의 언어를 사용자가 설정한 언어로 번역하는 음성 번역부를 더 포함할 수 있다.
다른 양상에 따른 사용자 관심 분야 알림 방법은 사용자 관심 분야를 설정하는 단계, 음성을 인식하여 인식 결과 및 설정된 사용자 관심 분야 사이의 관련성을 비교하여 알림 여부를 결정하는 단계 및 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력하는 단계를 포함할 수 있다.
관심 분야를 설정하는 단계는 사용자의 입력에 기초하여 사용자 관심 분야를 설정하거나, 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정할 수 있다.
이때, 상황 정보는 사용자의 일정 및 위치 정보 중의 하나 이상을 포함할 수 있다.
관심 분야를 설정하는 단계는 알림을 결정하는 단계에서 알림을 제공하는 것으로 결정하는 경우, 비교된 관련성 정보를 기초로 사용자 관심 분야를 학습하는 것을 더 포함할 수 있다.
알림 여부를 결정하는 단계는 인식 결과를 텍스트로 생성하는 단계 및 생성된 텍스트 및 사용자 관심 분야 사이의 관련성을 비교하는 단계를 더 포함할 수 있다.
관련성을 비교하는 단계는 생성된 텍스트 형태의 정보를 SVM(Support Vector Machine) 및 신경망(Neural Network) 중의 적어도 하나의 분류 기술을 적용하여 분류하고, 분류 결과와 사용자 관심 분야 사이의 관련성을 비교할 수 있다.
관련성을 비교하는 단계는 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 포함된 개수 및 텍스트에 포함되어 있는 사용자의 관심 키워드와 관련된 단어의 개수 중의 적어도 하나를 기초로 텍스트 및 사용자 관심 분야 사이의 관련성을 판단할 수 있다.
알림 메시지를 생성하여 출력하는 단계는 알림 메시지를 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나의 형태로 출력할 수 있다.
알림 메시지를 생성하여 출력하는 단계는 인식 결과를 기초로 알림의 중요도를 결정하고, 중요도에 따라 소정의 알림 방법을 결정하는 단계를 더 포함할 수 있다.
또한, 인식된 음성의 언어를 사용자가 설정한 언어로 번역하는 단계를 더 포함할 수 있다.
사용자가 음성 안내를 인식하기 어려운 환경에서 사용자의 관심 분야에 해당하는 음성을 인식하고 인식한 음성을 사용자에게 알림으로써 사용자 편의를 향상시킨다.
도 1은 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)의 블럭도이다.
도 2는 일 실시 예에 따른 음성 분석부(200)의 세부 구성에 대한 블럭도이다.
도 3은 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)가 관심 분야를 설정하는 일 예이다.
도 4는 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)가 인식한 음성을 분석하는 일 예이다.
도 5는 다른 실시 예에 따른 사용자 관심 음성 알림 장치(500)의 블럭도이다.
도 6은 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)를 이용한 사용자 관심 음성 알림 방법의 흐름도이다.
도 7은 다른 실시 예에 따른 사용자 관심 음성 알림 장치(100)를 이용한 사용자 관심 음성 알림 방법의 흐름도이다.
도 8은 또 다른 실시 예에 따른 관심 음성 알림 장치(500)를 이용하여 음성 번역을 지원하는 사용자 관심 음성 알림 방법의 흐름도이다.
기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 사용자 관심 음성 알림 장치(100) 및 방법의 실시 예들을 도면들을 참고하여 자세히 설명하도록 한다.
일 실시 예에 따르면, 사용자 관심 음성 알림 장치(100) 는 소프트웨어 또는 하드웨어로 구현되어 각종 모바일 단말에 탑재 될 수 있으며, 스마트 폰(smart phone), 스마트 와치(smart watch), 스마트 글라스(smart glasses) 등 웨어러블 디바이스에 활용 될 수 있다.
도 1은 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)의 블럭도이다. 일 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 관심 분야 설정부(110), 음성 분석부(200) 및 출력부(150)를 포함할 수 있다.
관심 분야 설정부(110)는 사용자가 알림을 받고 싶은 사용자 관심 분야를 설정할 수 있다. 예를 들어, 사용자 관심 분야는 공항, 지하철, 기차, 선박, 놀이 공원, 화재, 대피, 구급 등의 카테고리 및 비행기 편명, 열차의 출발 시간과 도착 시간 등의 관심 키워드를 포함할 수 있다.
일 실시 예에 따르면, 관심 분야 설정부(110)는 사용자의 입력에 기초하여 사용자 관심 분야를 설정할 수 있다. 관심 분야 설정부(110)는 다양한 사용자 관심 분야를 미리 저장해두고, 사용자로부터 관심 분야의 선택을 받음으로써 사용자 관심 분야를 설정할 수 있다. 예를 들어, 관심 분야 설정부(110)는 사용자로부터 예매한 비행기 티켓에 관한 정보를 입력 받아 공항을 카테고리로 설정하고, 특정 비행기의 편명, 출발 시간, 게이트 등을 관심 키워드로 설정할 수 있다.
다른 실시 예에 따르면, 관심 분야 설정부(110)는 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정할 수 있다. 여기서, 상황 정보는 사용자의 일정 및 위치 정보를 포함할 수 있다. 일 예로, 사용자 관심 음성 알림 장치(100)가 모바일 단말 내 탑재된 경우, 관심 분야 설정부(110)는 모바일 단말 내 저장된 사용자의 일정(schedule), 메모, 텍스트, 검색 키워드들로부터 사용자 관심 키워드를 추출할 수 있다. 또한, 모바일 단말의 현재 위치 정보로부터 장소에 관한 키워드를 추출하여 현재의 상황 정보를 획득할 수 있다. 예를 들어, 관심 분야 설정부(110)는 모바일 단말 내 저장된 사용자의 일정(schedule)을 참고하여 날짜, 시간 및 목적지(장소)를 상황 정보로 파악할 수 있다. 또한, 모바일 단말의 GPS 센서를 통해 위치 정보를 수집하고, 수집된 위치 정보로부터 현재 위치, 예컨대, 공항인 것을 파악할 수 있다. 이와 같이 파악된 상황 정보를 기초로, 관심 분야 설정부(110)는 사용자 관심 분야의 카테고리를 공항으로, 관심 키워드로 날짜, 시간, 목적지 등을 설정할 수 있다.
이때, 사용자 관심 분야는 상위 카테고리 및 하위 카테고리 등으로 세분화될 수 있다. 예를 들어 관심 분야 설정부(110)는 파악한 상황 정보, 사용자로부터 입력된 정보 등에 기초하여 추출한 키워드를 각각의 관심 키워드로 설정하거나, 이를 클러스터링하여 상위/하위 카테고리들을 설정할 수 있다. 또한, 관심 분야 설정부(110)는 관심 키워드와 연관된 다수의 키워드들을 자동으로 추출하여, 추출한 키워드들을 관심 키워드로 설정할 수 있다.
또 다른 실시 예에 따르면, 관심 분야 설정부(110)는 음성 분석부(200)에서 알림을 제공하는 것으로 결정하는 경우, 비교된 관련성 정보를 기초로 사용자 관심 분야를 학습할 수 있다. 이때 사용자는 관심 키워드의 단위를 형태소, 단어, 문장 등으로 설정할 수 있고, 인식한 음성이 적용되는 상황, 고유 명사 등의 키워드를 함께 입력할 수 있다. 관심 분야 설정부(110)는 음성 분석부(200)에서 비교된 관련성 정보 및 사용자로부터 입력된 키워드 등을 학습하여 사용자 관심 분야를 설정할 수 있다.
음성 분석부(200)는 사용자 관심 음성 알림 장치(100)로 입력된 소리로부터 음성을 인식하고, 인식 결과와 설정된 사용자 관심 분야 사이의 관련성을 비교하여 사용자에게 알림 여부를 결정할 수 있다. 음성 분석부(200)는 입력된 소리로부터 음성 정보를 추출하고, 음성 인식 알고리즘을 이용하여 추출한 음성 정보를 인식할 수 있다. 이때, 음성 분석부(200)는 주변에 임계치 이상의 음성이 입력되는 때에만 음성 모니터링을 시작하는 VAD(Voice Activity Detection) 기술을 활용할 수 있다. 또한, 입력된 다수의 음원으로부터 소리가 입력되는 경우, 음성 분석부(200)는 입력된 음성의 주파수 특성으로부터 동일 출처의 음원을 구분할 수 있다. 음성 분석부(200)는 공공 장소에서의 안내 방송, 비상 상황에서의 방송 및 공지 사항, 위급 상황에서의 경고 음성 등을 모니터링하여 음성으로 인식할 수 있다.
또한, 음성 분석부(200)는 음성을 인식하여 인식 결과를 텍스트로 생성하는 텍스트 생성부 및 생성된 텍스트 및 사용자 관심 분야 사이의 관련성을 비교하는 텍스트 분석부를 포함할 수 있다. 이때, 음성 분석부(200)는 SVM(Support Vector Machine) 분류 기법, 신경망(Neural Network) 분류 기법을 적용하여 생성된 텍스트를 분류할 수 있고, 분류 결과와 설정된 사용자 관심 분야와의 관련성을 비교할 수 있다. 예를 들어, 신경망 분류 기법을 적용하는 경우, 음성 분석부(200)는 인식된 음성의 내용으로부터 키워드들을 추출해내고, 음성이 가리키는 상황을 파악하여, 인식된 음성의 카테고리를 분류할 수 있다.
또한, 음성 분석부(200)는 인식된 음성의 분류 결과, 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 관심 키워드가 포함된 개수 및 텍스트에 포함되어 있는 사용자의 관심 키워드와 관련된 단어의 개수를 기초로 인식된 음성과 설정된 사용자 관심 분야와의 관련성을 비교할 수 있다.
음성 분석부(200)는 음성을 인식하여 인식 결과 및 설정된 사용자 관심 분야 사이의 관련성에 기초하여, 사용자에게 알림을 제공할 지 여부를 결정할 수 있다. 예를 들어, 음성 분석부(200)는 음성 인식 결과와 사용자 관심 분야 사이의 관련성이 있거나, 음성 인식 결과 생성한 텍스트와 사용자 관심 분야 사이의 관련성이 있으면, 사용자에게 알림을 제공할 것을 결정할 수 있다. 음성 분석부(200)의 세부 구성에 관하여는 도 2를 통하여 후술한다.
출력부(150)는 음성 분석부(200)가 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력할 수 있다. 출력부(150)는 사용자에게 다양한 형태의 알림 메시지를 제공할 수 있다. 예를 들어, 출력부(150)는 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나 이상의 방법으로 알림 메시지를 사용자에게 제공할 수 있다. 일 예로,출력부(150)는 음성 인식 결과 인식한 음성, 음성 인식 결과로부터 생성한 텍스트, 생성된 텍스트를 TTS(Text To Speech)를 통해 변환한 합성음 및 경고음 중 어느 하나를 출력하거나 이들의 조합을 출력할 수 있다. 또한, 출력부(150)는 인식한 음성을 기초로 알림의 중요도를 결정하고, 중요도에 따라 소정의 알림 방법을 결정할 수 있다. 예를 들어, 음성 분석부(200)가 인식한 음성의 카테고리가 “안전”에 대한 카테고리인 경우 긴급하게 사용자에게 알릴 필요성이 있으므로, 출력부(150)는 “안전” 카테고리에 대하여 알림의 중요도를 높게 결정할 수 있다.
한편, 출력부(150)는 알림의 중요도에 따라 알림 메시지를 경고음과 함께 출력하거나, 반복 알림을 수행하거나, 출력 음성의 볼륨을 조절하거나, 진동을 이용하거나, 텍스트를 강조하여 출력하는 등으로 소정의 알람 방법을 결정할 수 있다. 한편, 알림 메시지의 제공 방법 및 형태는 다양할 수 있으므로, 제시된 실시 예에 한정되어야 하는 것은 아니다.
사용자 관심 음성 알림 장치(100)는 사용자가 주변의 음성을 잘 알아듣지 못하는 장애인, 노약자인 경우, 사용자가 주변 소음으로 인해 특정 음성을 캐치하지 못하는 경우, 사용자가 이어폰/헤드셋 등을 착용하여 주변의 음성을 듣지 못하는 경우, 사용자가 설정한 주의를 기울여 들어야 할 사용자 관심 분야의 음성이 있는 경우 등과 같은 환경에서 효과적으로 이용될 수 있다.
도 2는 일 실시 예에 따른 음성 분석부(200)의 세부 구성에 대한 블럭도이다. 도 2를 참조하면, 음성 분석부(200)는 음성 인식기(210), 텍스트 생성부(220) 및 텍스트 분석부(230)를 포함할 수 있다.
음성 인식기(210)는 마이크 주변에서 발생하는 소리들을 모니터링하여 음성 정보를 추출할 수 있다. 이때, 주변에 임계치 이상의 음성이 입력되는 때에만 음성 모니터링을 시작하는 VAD(Voice Activity Detection) 기술을 활용할 수 있다.
또한, 음성 인식기(210)는 주변에 다수의 음원으로부터 소리가 입력되는 경우, 입력된 음성의 주파수 특성으로부터 동일 출처의 음원을 구분할 수 있다. 예를 들어, 음성 인식기(210)는 시끄러운 공항에서 비교적 출력이 크고 일정한 주파수 스펙트럼을 가지는 공항의 안내 방송을 추출하여 안내 방송의 음성을 인식할 수 있다.
텍스트 생성부(220)는 음성 인식기(210)에 의해 추출된 음성 정보(raw voice data)로부터 음성을 인식하고 인식 결과를 텍스트로 생성할 수 있다.
텍스트 분석부(230)는 생성된 텍스트 및 사용자 관심 분야 사이의 관련성을 비교할 수 있다. 일 실시 예에 따르면, 텍스트 분석부(230)는 인식된 음성으로부터 생성된 텍스트를 SVM(Support Vector Machine), 신경망(Neural Network)중 적어도 하나의 분류 기법을 적용하여 분류하고, 인식된 음성의 분류 결과와 사용자 관심 분야와의 관련성을 비교할 수 있다.
일 실시 예에 따르면, 텍스트 분석부(230)는 SVM(support vector machine) 분류를 이용하여 커널 함수를 정의한 SVM 구조를 설계하여, 생성된 텍스트들에 대한 카테고리를 분류할 수 있다.
다른 실시 예에 따르면, 텍스트 분석부(230)는 신경망(Neural Network) 분류 기법인, 통계학적 학습 알고리즘을 통해 인식된 음성으로부터 생성된 텍스트들을 카테고리 및 키워드로 분류할 수 있다. 이때, 신경망은 다른 층의 뉴런들 사이의 연결 패턴, 연결의 가중치를 갱신하는 학습 과정, 뉴련의 가중 입력을 활성화도 출력으로 바꿔주는 활성화 함수를 이용해 정의될 수 있다.
텍스트 분석부(230)는 신경망 분류 기법을 적용하여 생성된 텍스트가 의미하는 상황을 파악할 수 있고, 파악된 상황에 대응하는 카테고리로 분류할 수 있다. 예를 들어, 텍스트 분석부(230)는 텍스트의 클러스터링을 통해 키워드들을 상위 카테고리, 하위 카테고리로 분류할 수 있고, 각각의 카테고리 별로 관련 키워드들에 기초하여, 인식 결과로 생성된 텍스트의 분류 결과와 설정된 사용자 관심 분야 사이의 관련성을 비교할 수 있다. 신경망 분류 기법은 적응성이 있어 규칙 기반 프로그래밍으로 풀기 어려운 음성 인식의 분류에 활용되기 적합하다.
예를 들어, 텍스트 분석부(230)는 생성된 텍스트를 다수의 형태소, 단어, 문장 등의 단위로 나누고, 각 단위가 가리키는 의미 및 자주 사용되는 연결 관계에 관한 통계적 확률 분포를 이용해, 생성된 텍스트로부터 상황을 파악하고 주요한 키워드들을 분류할 수 있다. 또한 텍스트 분석부(230)는 생성된 텍스트의 상황을 고려하고, 인식된 키워드들 및 관련 키워드들을 클러스터링하여, 인식된 음성에 대한 상위 카테고리, 하위 카테고리 등을 결정할 수 있다.
텍스트 분석부(230)는 인식된 음성으로부터 생성된 텍스트를 분류한 결과, 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 포함된 개수 및 텍스트에 포함되어 있는 사용자의 관심 키워드와 관련된 단어의 개수 중의 적어도 하나에 기초하여 사용자 관심 분야와의 관련성을 비교할 수 있다.
이때, 텍스트 분석부(230)는 음성 인식 결과 생성된 텍스트에 포함된 키워드들의 수를 고려해 오경보(false alarm)를 줄이고, 단어의 유사도 등을 고려하여 사용자 관심 분야에 포함된 키워드와의 관련성을 비교할 수 있다. 텍스트 분석부(230)는 인식된 음성으로부터 생성된 텍스트의 분석 결과가 사용자 관심 분야와 임계치 이상의 관련성을 보일 때, 사용자에게 알림을 제공할 것을 결정할 수 있다.
제시된 실시 예 이외에도 인식된 음성의 카테고리를 분류하고 설정된 사용자 관심 분야 사이의 관련성을 비교하는 실시 예는 다양할 수 있다.
도 3은 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)가 사용자 관심 분야를 설정하는 일 예이다. 관심 분야 설정부(110)는 사용자의 입력에 기초하여 사용자 관심 분야를 설정하거나, 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정할 수 있다. 사용자 관심 분야는 다양한 상황에 대한 설정이 가능하고, 카테고리 별로 의미를 가진 최소 단위인 형태소, 단어, 문장을 포함할 수 있다. 이하에서는 이를 카테고리 내 포함된 "관심 키워드"로 간략히 통칭하여 설명한다.
도 3을 참고하면, 관심 분야 설정부(110)는 상위 카테고리로 “장소”, “안전”, “상황”, “학습”등을 설정할 수 있다. 일 실시 예에 따르면, 카테고리 1을 “장소”로 설정하고, “장소”에 대한 하위 카테고리로 공항, 버스, 지하철, 기차, 선박, 놀이 공원 등을 설정할 수 있다.
일 실시 예에 따르면, 모바일 단말은 GPS 또는 모바일 단말이 접속한 기지국으로부터 위치 정보를 얻을 수 있고, 사용자의 현재 위치를 파악하여 장소에 관한 상황 정보를 획득할 수 있다. 관심 영역 설정부(110)는 사용자 관심 음성 알림 장치(100)가 탑재된 모바일 단말로부터, 현재 위치 정보로부터 장소에 관한 상황 정보를 획득하고, 상황 정보로부터 장소에 관한 카테고리 및 관심 키워드를 추출하여 사용자 관심 분야로 설정할 수 있다.
다른 실시 예에 따르면, 관심 분야 설정부(110)는 카테고리 2를 "안전"으로 설정하고, 하위 카테고리로 긴급, 대피, 탈출, 119, 응급, 불이야, 도와주세요, 살려주세요 등을 설정할 수 있다. 예를 들어, 관심 분야 설정부(110)는 긴급 또는 위급한 상황에 대해 사용자에게 알림을 제공할 수 있도록 안전에 관련된 키워드를 미리 저장해 놓을 수 있다. 이 경우, 사용자는 주변으로부터 안전과 관련된 음성을 직접 듣지 못한 경우라도, 사용자 관심 음성 알림 장치(100)에서 주변의 음성을 모니터링하여 사용자에게 알림 메시지를 제공해주기 때문에, 사용자에게 닥친 위험 또는 긴급한 상황을 알 수 있다.
또 다른 실시 예에 따르면, 관심 분야 설정부(110)는 카테고리 3을 “상황”으로 설정하고, 하위 카테고리 및 관심 키워드의 쌍을 연관시켜 사용자의 관심 분야로 설정할 수 있다. 예를 들어, “공항”의 카테고리 내 연착, 지연, 변경 등의 관심 키워드들의 쌍을 연관시킬 수 있다. 또한, “대피”의 카테고리 내 재난, 태풍, 불, 화재, 지진 등의 관심 키워드들의 쌍을 연관시킬 수 있다. 마찬 가지로, “탈출”의 카테고리 내 통로, 비상 계단, 비상 탈출구 등의 관심 키워드를 연관시킬 수 있다.
또한, 관심 분야 설정부(110)는 키워드뿐 아니라 일반적으로 사용되는 어휘에 기초하여 카테고리를 설정할 수 있다. 예를 들어, “불이야” 라는 문장이라도 카테고리로 설정할 수 있으며 화재, 소방서, 대피 등의 관심 키워드를 연관시킬 수 있다.
이때, 관심 분야 설정부(110)는 사용자로부터 입력을 받아 카테고리 및 관심 키워드를 추가하거나, 파악된 상황 정보를 기초로 카테고리 및 관심 키워드를 더 추가할 수 있다. 관심 분야 설정부(110)는 하나의 카테고리 내에 포함된 관심 키워드라도, 세분화되는 다수의 관심 키워드들이 추가되는 경우 새로운 하위 카테고리로 분류하여 사용자 관심 분야로 설정할 수 있다.
또 다른 실시 예에 따르면, 관심 분야 설정부(110)는 음성 분석부(200)에 의한 테스트 음성의 분석 결과를 기초로 사용자 관심 분야를 학습할 수 있다. 예를 들어, 사용자 관심 음성 알림 장치(100)는 “오전 10시에 출발하는 비행기 AA123 편의 탑승 게이트가 4번으로 변경되었습니다” 라는 테스트 음성을 인식하고, 인식한 음성을 카테고리 및 관심 키워드로 분류할 수 있다. 여기서, 관심 분야 설정부(110)는 인식한 음성을 분석한 결과를 기초로 카테고리를 “공항”으로, 관심 키워드를 “출발, 하는, 비행기, AA123편, 의, 탑승, 게이트, 4번, 으로, 변경, 되었습니다” 등으로 설정할 수 있다. 관심 키워드의 단위는 형태소가 될 수 있고, 단어, 또는 문장이 될 수 있으며, 제시된 실시 예에 한정되어 해석해야 할 것은 아니다.
또한, 사용자는 인식한 음성이 적용되는 상황, 고유 명사와 같은 변경 가능한 키워드를 함께 입력할 수 있다. 예를 들어, 버스와 같이 사용자가 내려야 할 목적지에 대해 안내 방송에 주의를 기울여야 하는 경우 사용자 관심 음성 알림 장치(100)가 유용하게 이용될 수 있다. 사용자는 사용자 관심 음성 알림 장치(100)가 버스의 안내 방송으로부터 “다음에 내리실 역은 강남역입니다” 라는 음성을 인식하면, 인식한 음성이 적용되는 상황을 “버스”로 목적지를 “강남역”으로 하는 관심 키워드를 입력할 수 있다. 이 경우, 관심 영역 설정부는 “버스”를 카테고리로, “다음에 내리실 역은 강남역 입니다” 라는 문장과 “강남역”을 관심 키워드로 하는 사용자 관심 분야를 설정할 수 있다.
도 4는 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)가 인식한 음성을 분석하는 일 예이다.
도 1 및 도 2를 참고하면, 음성 인식기(210)는 주변의 소리를 모니터링하여 안내 방송되는 음성 시그널을 음성 정보로 추출할 수 있다. 예를 들어, 음성 인식기(210)는 주변의 소리를 모니터링하여 공항의 안내 방송으로부터 “7시 30분 출발 예정인 T123편의 탑승구가 2번게이트에서 10번 게이트로 변경 되었습니다” 라는 음성 시그널을 음성 정보로 추출할 수 있다.
텍스트 분석부(230)는 생성된 텍스트를 음성 분류기를 이용하여 분류하고, 분류 결과 인식된 음성의 내용을 포괄하는 카테고리를 결정할 수 있다. 예를 들어, 공항, 지하철, 기차, 선박, 놀이공원, 화재, 대피, 구급 등과 같은 카테고리가 있을 수 있다.
이때, 텍스트 분석부(230)는 인식된 음성으로부터 생성된 텍스트를 “7시 30분, 출발, 예정, T123편, 탑승구, 가, 2번, 게이트, 에서, 10번, 게이트, 로, 변경, 되었습니다”와 같이 개별 단위로 나눌 수 있다. 여기서, 개별 단위는 형태소, 단어, 문장 등이 될 수 있고, 고정된 단위가 아니므로 어디까지나 일 실시 예로서 해석될 수 있을 것이다. 이하에서는 개별 단위를 키워드로 통칭한다.
또한, 텍스트 분석부(230)는 음성 분류기를 이용하여 관련 키워드들의 클러스터링을 통해 “출발, 예정, T123편, 탑승구, 게이트” 등의 키워드를 포괄하는 개념인 “공항”을 카테고리로 분류할 수 있다.
또한, 텍스트 분석부(230)는 인식된 음성의 분류 결과, 분류된 음성의 카테고리 및 관련 키워드들과 사용자 관심 분야의 카테고리 및 관심 키워드들을 비교함으로써, 인식된 음성으로부터 생성된 텍스트들과 설정된 사용자 관심 분야와의 관련성을 비교할 수 있다. 예를 들어, 도 4 에서 제시된 실시 예에서, 텍스트 분석부(230)는 인식한 음성의 카테고리와 사용자 관심 분야의 카테고리가 “공항”으로 일치하고, 텍스트 분류 결과, “출발 예정, T123편, 탑승구, 게이트, 변경”등의 키워드들과 사용자 관심 분야의 관심 키워드들인 “변경, 게이트, 탑승구”등이 일치하므로, 인식된 음성과 설정된 사용자 관심 분야가 관련성이 있다고 비교할 수 있다. 텍스트 분석부(230)는 인식된 음성과 설정된 사용자 관심 분야와 관련성이 인정되는 경우, 사용자에게 알림을 제공할 것을 결정할 수 있다.
도 5는 다른 실시 예에 따른 사용자 관심 음성 알림 장치(500)의 블럭도이다. 다른 실시 예에 따른 사용자 관심 음성 알림 장치(500)는 사용자 관심 분야 설정부(510), 음성 분석부(520), 출력부(530) 및 음성 번역부(550)를 포함할 수 있다. 사용자 관심 음성 알림 장치(500)에서, 관심 분야 설정부(510), 음성 분석부(520), 출력부(530)의 구성은 도 1의 실시 예에 따른 사용자 관심 음성 알림 장치(100)의 구성과 유사하므로, 자세한 설명은 생략한다.
음성 번역부(550)는 사용자 지정 언어를 설정하는 사용자 언어 설정부, 다국어 지원부 및 언어 번역부를 포함할 수 있다. 여기서, 음성 번역부(550)의 구성은 사용자 관심 음성 알림 장치(500) 내부 또는 외부에 존재할 수 있으며, 다국어 음성을 지원하는 소프트웨어, 하드 웨어 등을 이용할 수 있다.
음성 번역부(550)는 인식된 음성의 언어를 사용자가 설정한 언어로 번역할 수 있다. 일 실시 예에 따르면, 사용자 관심 음성 알림 장치(500)에서 지정한 사용자 언어가 한국어인데, 외국의 공항 같은 경우 안내 방송이 외국어로 방송될 수 있다. 이 경우, 사용자 관심 음성 알림 장치(500)는 다국어 언어 시스템을 지원하는 다국어 지원부를 이용하여, 언어 환경이 다른 상황하에서도 주변으로부터 인식된 음성 및 설정된 사용자 관심 분야에 상응하는 음성을 사용자에게 알릴 수 있다.
예를 들어, 중국어로
Figure 112015069094390-pat00001
와 같은 안내 방송이 나올때, 음성 번역부(550)는 인식된 언어(중국어)가 사용자가 설정한 언어(한국어)와 일치하지 않으므로, 중국어로 인식된 음성을 사용자가 설정한 한국어로 번역한다. 예를 들어 인식한 중국어를 “동방항공(東邦航空)에서 알립니다. 7시 30분 출발 예정인 T123편의 탑승구가 2번에서 10번 게이트로 변경 되었습니다"와 같이 한국어로 번역할 수 있다.
일반적으로, 외국 공항에서의 안내 방송 같은 경우 비행기의 지연, 게이트의 변경, 출발 시간의 변경과 같은 중요한 변경 사항이라도 사용자는 언어의 장벽으로 인해 이를 인지하기가 쉽지 않다. 이러한 경우라도 사용자 관심 음성 알림 장치는 음성 번역부(550)의 번역을 이용하여 사용자의 관심 음성을 사용자에게 실시간으로 알릴 수 있다.
도 6은 도 1의 일 실시 예에 따른 사용자 관심 음성 알림 장치(100)를 이용한 사용자 관심 음성 알림 방법의 흐름도이다. 즉, 도 6은 도 1의 사용자 관심 음성 알림 장치(100)가 사용자의 관심 음성을 사용자에게 알리는 방법의 일 실시 예를 도시한 것으로, 도 1을 참조하면 앞에서 자세히 상술하였으므로 이하 간단하게 설명한다.
먼저, 사용자 관심 음성 알림 장치(100)는 사용자의 관심 분야를 설정할 수 있다(610). 예를 들어, 사용자 관심 분야는 공항, 지하철, 기차, 선박, 놀이 공원, 화재, 대피, 구급 등의 카테고리 및 비행기 편명, 열차의 출발 시간과 도착 시간 등의 관심 키워드를 포함할 수 있다.
일 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 사용자의 입력에 기초하여 사용자 관심 분야를 설정할 수 있다. 일 예로, 사용자 관심 음성 알림 장치(100)는 다양한 사용자 관심 분야를 미리 저장해두고, 사용자로부터 관심 분야의 선택을 입력 받음으로써 사용자 관심 분야를 설정할 수 있다.
다른 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정할 수 있다. 예를 들어, 사용자 관심 음성 알림 장치(100)는 사용자 관심 음성 알림 장치(100)에서 파악한 상황 정보, 사용자로부터 입력된 정보 등에 기초하여 사용자의 상황 정보를 분석하고, 사용자의 관심 분야를 설정할 수 있다. 여기서, 상황 정보는 사용자의 일정 및 위치 정보를 포함할 수 있다. 일 예로, 사용자 관심 사용자 관심 음성 알림 장치(100)가 모바일 단말 내 탑재된 경우, 사용자 관심 음성 알림 장치(100)는 모바일 단말 내 저장된 사용자의 일정(schedule), 메모, 텍스트, 검색 키워드들로부터 사용자의 관심 키워드를 추출할 수 있다. 또한, 모바일 단말의 현재 위치 정보로부터 장소에 관한 키워드를 추출하여 현재의 상황 정보를 획득할 수 있다.
사용자 관심 음성 알림 장치(100)는 모바일 단말 내 저장된 사용자의 일정(schedule)을 참고하여 날짜, 시간 및 목적지(장소)를 상황 정보로 파악할 수 있다. 또한, 모바일 단말의 GPS 센서를 통해 위치 정보를 수집하고, 수집된 위치 정보로부터 현재 위치, 예컨대, 공항인 것을 파악할 수 있다. 이와 같이 파악된 상황 정보를 기초로 카테고리를 공항으로, 관심 키워드로 날짜, 시간, 목적지 등을 설정할 수 있다.
이때, 사용자 관심 분야는 상위 카테고리 및 하위 카테고리 등으로 세분화될 수 있다. 예를 들어 사용자 관심 음성 알림 장치(100)는 파악한 상황 정보, 사용자로부터 입력된 정보 등에 기초하여 추출한 키워드를 각각의 관심 키워드로 설정하거나, 이를 클러스터링하여 상위/하위 카테고리들을 설정할 수 있다. 또한, 사용자 관심 음성 알림 장치(100)는 관심 키워드와 연관된 다수의 키워드들을 자동으로 추출하여, 추출한 키워드들을 관심 키워드로 설정할 수 있다.
또 다른 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 사용자 관심 음성 알림 장치(100)에서 알림을 제공하는 것으로 결정하는 경우, 비교된 관련성 정보를 기초로 사용자 관심 분야를 학습할 수 있다. 이때 사용자는 관심 키워드의 단위를 형태소, 단어, 문장 등으로 설정할 수 있고, 인식한 음성이 적용되는 상황, 고유 명사 등의 키워드를 함께 입력할 수 있다. 사용자 관심 음성 알림 장치(100)는 비교된 관련성 정보 및 사용자로부터 입력된 키워드 등을 학습하여 사용자의 관심 분야를 설정할 수 있다.
그 다음, 사용자 관심 음성 알림 장치(100)는 입력된 소리로부터 음성을 인식할 수 있다(620). 사용자 관심 음성 알림 장치(100)는 주변의 소리로부터 음성 정보를 추출하고, 음성 인식 알고리즘을 이용하여 추출한 음성 정보를 음성으로 인식할 수 있다. 이때, 사용자 관심 음성 알림 장치(100)는 주변에 임계치 이상의 음성이 입력되는 때에만 음성 모니터링을 시작하는 VAD(Voice Activity Detection) 기술을 활용할 수 있다. 또한, 주변에 다수의 음원으로부터 소리가 입력되는 경우, 사용자 관심 음성 알림 장치(100)는 입력된 음성의 주파수 특성으로부터 동일 출처의 음원을 구분할 수 있다.
사용자 관심 음성 알림 장치(100)는 공공 장소에서의 안내 방송, 비상 상황에서의 방송 및 공지 사항, 위급 상황에서의 경고 음성 등을 모니터링하여 음성으로 인식할 수 있다.
그 다음, 사용자 관심 음성 알림 장치(100)는 인식 결과와 설정된 사용자 관심 분야 사이의 관련성을 비교한다(630). 일 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 인식 결과를 텍스트로 생성하여, 생성된 텍스트와 설정된 사용자 관심 분야 사이의 관련성을 비교할 수 있다. 이때, 사용자 관심 음성 알림 장치(100)는 SVM(Support Vector Machine) 분류 기법, 신경망(Neural Network) 분류 기법을 적용하여 생성된 텍스트를 분류할 수 있고, 분류 결과와 설정된 사용자 관심 분야 사이의 관련성을 비교할 수 있다. 예를 들어, 신경망 분류 기법을 적용하는 경우, 사용자 관심 음성 알림 장치(100)는 생성된 텍스트의 내용으로부터 키워드들을 추출해내고, 텍스트가 의미하는 상황을 파악할 수 있고, 파악된 상황에 대응하는 카테고리로 분류할 수 있다.
또한, 사용자 관심 음성 알림 장치(100)는 인식된 음성의 분류 결과, 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 관심 키워드가 포함된 개수 및 텍스트에 포함되어 있는 사용자의 관심 키워드와 관련된 단어의 개수를 기초로 생성된 텍스트와 설정된 사용자 관심 분야 사이의 관련성을 비교할 수 있다.
사용자 관심 음성 알림 장치(100)는 음성을 인식하여 인식 결과 및 설정된 사용자 관심 분야 사이의 관련성에 기초하여, 알림 여부를 결정할 수 있다(640). 예를 들어, 음성 분석부(200)는 음성 인식 결과와 사용자 관심 분야 사이의 관련성이 있거나, 음성 인식 결과 생성한 텍스트와 사용자 관심 분야 사이의 관련성이 있으면, 사용자에게 알림을 제공할 것을 결정할 수 있다(640). 만일 음성을 인식하여 인식 결과 및 설정된 사용자 관심 분야 사이의 관련성이 임계치 이하인 경우 입력된 소리로부터 음성을 인식하는 단계(620)를 수행한다.
그 다음, 사용자 관심 음성 알림 장치(100)는 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력할 수 있다(650). 이때, 사용자 관심 음성 알림 장치(100)는 사용자에게 다양한 형태의 알림 메시지를 제공할 수 있다. 예를 들어, 사용자 관심 음성 알림 장치(100)는 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나 이상의 형태로 알림 메시지를 사용자에게 제공할 수 있다. 일 예로, 사용자 관심 음성 알림 장치(100)는 음성 인식 결과 인식한 음성, 음성 인식 결과로부터 생성한 텍스트, 생성된 텍스트를 TTS(Text To Speech)를 통해 변환한 기계음 및 경고음 중 하나 또는 이들의 조합을 알림 메시지로 생성하고 출력할 수 있다.
또한, 사용자 관심 음성 알림 장치(100)는 인식한 음성을 기초로 알림의 중요도를 결정하고, 중요도에 따라 소정의 알림 방법을 결정할 수 있다. 예를 들어, 사용자 관심 음성 알림 장치(100)가, 인식한 음성의 카테고리가 “안전”에 대한 카테고리인 경우 긴급하게 사용자에게 알릴 필요성이 있으므로, 사용자 관심 음성 알림 장치(100)는 “안전” 카테고리에 대하여 알림의 중요도를 높게 결정할 수 있다.
사용자 관심 음성 알림 장치(100)는 알림의 중요도에 따라 알림 메시지를 경고음과 함께 출력하거나, 반복 알림을 수행하거나, 출력 음성의 볼륨을 조절하거나, 진동을 이용하거나, 텍스트를 강조하여 출력하는 등으로 소정의 알림 방법을 결정할 수 있다.
한편, 알림 메시지의 제공 방법 및 형태는 다양할 수 있으므로, 제시된 실시 예에 한정되어야 하는 것은 아니며, 사용자 관심 음성 알림 장치(100)는 “안전”에 대한 카테고리 외에도 각각의 카테고리에 대해 중요도를 설정할 수 있다.
도 7은 다른 실시 예에 따른 사용자 관심 사용자 관심 음성 알림 장치(100)를 이용한 사용자 관심 음성 알림 방법의 흐름도이다. 이하, 도 7의 설명에서는 도 6의 흐름도에 대한 설명과 중복되는 부분은 생략한다.
먼저, 사용자 관심 음성 알림 장치(100)는 사용자의 관심 분야를 설정한다(710).
그 다음, 사용자 관심 음성 알림 장치(100)는 입력된 소리를 모니터링한다(720). 예를 들어, 사용자 관심 음성 알림 장치(100)는 마이크 에 입력되는 소리들을 모니터링하여 음성 정보를 추출할 수 있다. 이때, 사용자 관심 음성 알림 장치(100)는 주변에 임계치 이상의 음성이 입력되는 때에만 음성 모니터링을 시작하는 VAD(Voice Activity Detection) 기술을 활용할 수 있다.
또한, 사용자 관심 음성 알림 장치(100)는 주변에 다수의 음원으로부터 소리가 입력되는 경우, 입력된 음성의 주파수 특성으로부터 동일 출처의 음원을 구분할 수 있다. 예를 들어, 사용자 관심 음성 알림 장치(100)는 시끄러운 공항에서 비교적 출력이 크고 일정한 주파수 스펙트럼을 가지는 공항의 안내 방송을 추출하여 안내 방송의 음성을 모니터링할 수 있다.
그 다음, 사용자 관심 음성 알림 장치(100)는 추출된 음성 정보(raw voice data)로부터 음성을 인식하는지 판단한다(730). 예를 들어, 주변으로부터 다수의 노이즈가 입력되는 경우라도, 음성이 입력되지 않는 경우, 입력된 소리를 모니터링하는 단계를 수행한다(720).
한편, 음성 인식 기술 자체는 일반적으로 알려진 다양한 기술을 활용할 수 있다. 사용자 관심 음성 알림 장치(100)에서 음성을 인식하면(730), 그 다음, 음성 알림 장치는 음성 인식 결과를 텍스트로 생성할 수 있다(740).
그 다음, 사용자 관심 음성 알림 장치(100)는 생성된 텍스트 및 설정된 사용자 관심 분야 사이의 관련성을 비교할 수 있다(750). 예를 들어, 사용자 관심 음성 알림 장치(100)는 인식된 음성으로부터 생성된 텍스트를 SVM(Support Vector Machine), 신경망(Neural Network)중 적어도 하나의 분류 기법을 적용하여 분류하고, 생성한 텍스트의 분류 결과와 사용자 관심 분야 사이의 관련성을 비교할 수 있다.
일 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 SVM(support vector machine) 분류를 이용하여 커널 함수를 정의한 SVM 구조를 설계하여, 생성된 텍스트들에 대한 카테고리를 분류할 수 있다.
다른 실시 예에 따르면, 사용자 관심 음성 알림 장치(100)는 신경망(Neural Network) 분류 기법인, 통계학적 학습 알고리즘을 통해 인식된 음성으로부터 생성된 텍스트들을 카테고리 및 키워드로 분류할 수 있다. 이때, 신경망은 다른 층의 뉴런들 사이의 연결 패턴, 연결의 가중치를 갱신하는 학습 과정, 뉴련의 가중 입력을 활성화도 출력으로 바꿔주는 활성화 함수를 이용해 정의될 수 있다.
사용자 관심 음성 알림 장치(100)는 신경망 분류 기법을 적용하여 인식된 음성의 내용이 의미하는 다양한 상황을 파악할 수 있고, 인식된 음성의 상황에 대응하는 카테고리로 분류할 수 있다. 예를 들어, 사용자 관심 음성 알림 장치(100)는 텍스트의 클러스터링을 통해 키워드들을 상위 카테고리, 하위 카테고리로 분류할 수 있고, 각각의 카테고리 별로 관련 키워드들에 기초하여, 생성된 텍스트의 분류 결과 및 설정된 사용자 관심 분야 사이의 관련성을 비교할 수 있다. 신경망 분류 기법은 적응성이 있어 규칙 기반 프로그래밍으로 풀기 어려운 음성 인식의 분류에 활용되기 적합하다.
예를 들어, 사용자 관심 음성 알림 장치(100)는 생성된 텍스트를 다수의 형태소, 단어, 문장 등의 단위로 나누고, 각 단위가 가리키는 의미 및 자주 사용되는 연결 관계에 관한 통계적 확률 분포를 이용해, 인식된 음성의 상황 및 주요한 키워드들을 분류할 수 있다. 또한 사용자 관심 음성 알림 장치(100)는 인식된 음성의 상황을 고려하고, 인식된 키워드들 및 관련 키워드들을 클러스터링하여, 인식된 음성에 대한 상위 카테고리, 하위 카테고리 등을 결정할 수 있다.
사용자 관심 음성 알림 장치(100)는 인식된 음성으로부터 생성된 텍스트를 분류한 결과, 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 포함된 개수 및 텍스트에 포함되어 있는 사용자의 관심 키워드와 관련된 단어의 개수 중의 적어도 하나 또는 이들의 조합을 기초로 사용자 관심 분야와의 관련성을비교할 수 있다.
그 다음, 사용자 관심 음성 알림 장치(100)는 사용자에게 알림 여부를 결정한다(760). 예를 들어, 사용자 관심 음성 알림 장치(100)는 음성 인식 결과 생성한 텍스트와 사용자 관심 분야 사이에 임계치 이상의 관련성이 있으면, 사용자에게 알림을 제공할 것을 결정할 수 있다(760). 이때, 사용자 관심 음성 알림 장치(100)는 음성 인식 결과 생성된 텍스트에 포함된 키워드들의 수를 고려해 오경보(false alarm)를 줄일 수 있다. 만일, 생성된 텍스트 및 설정된 사용자 관심 분야 사이의 관련성이 임계치 이하인 경우, 사용자 관심 음성 알림 장치(100)는 입력된 소리를 모니터링하는 단계를 수행할 수 있다(720).
그 다음, 사용자 관심 음성 알림 장치(100)는 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나 이상의 방법으로 알림 메시지를 사용자에게 제공할 수 있다(770). 사용자 관심 음성 알림 장치(100)가 사용자에게 알림 메시지를 제공하는 경우, 사용자에게 알림을 제공하는 형태는 다양 할 수 있다. 일 예로, 사용자 관심 음성 알림 장치(100)는 음성 인식 결과 인식한 음성, 음성 인식 결과로부터 생성한 텍스트, 생성된 텍스트를 TTS를 통해 변환한 기계음 및 경고음 중 하나 또는 이들의 조합을 알림 메시지로 생성하여 출력할 수 있다.
다만, 사용자 관심 음성 알림 장치(100)의 알림 메시지의 알림 방법, 형태는 제시된 실시 예 외에도 다양하게 존재할 수 있으므로, 제시된 실시 예 이외의 알림 방법, 알림 형태 등에 대해서도 본 발명의 권리 범위가 미칠 수 있다.
도 8은 또 다른 실시 예에 따른 사용자 관심 음성 알림 장치(500)를 이용하여 음성 번역을 지원하는 사용자 관심 음성 알림 방법의 흐름도이다. 이하, 도 8의 설명에서 도 6의 흐름도에 대한 설명과 중복되는 부분은 생략한다.
먼저, 사용자 관심 음성 알림 장치(500)는 사용자 관심 분야를 설정한다(810). 그 다음, 사용자 관심 음성 알림 장치(500)는 입력된 소리를 모니터링한다(820). 그 다음, 사용자 관심 음성 알림 장치(500)는 음성 정보를 추출하고 추출된 음성 정보로부터 음성을 인식한다(830).
이때, 사용자 관심 음성 알림 장치(500)는 인식된 언어가 사용자가 설정한 언어와 불일치 하는지 판단한다(840). 만일, 인식된 언어가 사용자가 설정한 언어와 일치하는 경우, 번역 단계를 생략하고, 사용자 관심 음성 알림 장치(500)에서 음성 인식 결과를 텍스트로 생성하는 단계(860)로 이동한다.
만일, 인식된 음성의 언어가 사용자가 설정한 언어와 일치하지 않으면, 사용자 관심 음성 알림 장치(500)는 인식된 음성의 언어를 사용자가 설정한 언어로 번역할 수 있다(850). 그 다음 사용자 관심 음성 알림 장치(500)는 음성 인식 결과를 텍스트로 생성한다(860). 그 다음, 사용자 관심 음성 알림 장치(500)는 생성된 텍스트와 사용자 관심 분야 사이의 관련성을 비교한다(870).
이후, 사용자에게 알림을 제공할 지 여부를 결정하고, 알림을 제공하는 것으로 결정하는 경우 알림 메시지를 생성하여 출력하는 단계는 도 6 및 도 7에서 설명한 바와 같다.
한편, 본 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 실시 예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100,500: 사용자 관심 음성 알림 장치
110,510: 관심 분야 설정부
150,530: 출력부
200,520: 음성 분석부
210: 음성 인식기
220: 텍스트 생성부
230: 텍스트 분석부
550: 음성 번역부

Claims (20)

  1. 사용자의 관심 분야를 설정하는 관심 분야 설정부;
    음성을 인식하여 인식 결과 및 상기 설정된 사용자 관심 분야 사이의 관련성을 비교하여 알림 여부를 결정하는 음성 분석부; 및
    상기 음성 분석부가 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력하는 출력부를 포함하고,
    상기 음성 분석부는
    상기 인식 결과를 텍스트로 생성하는 텍스트 생성부; 및
    상기 생성된 텍스트 및 상기 사용자 관심 분야 사이의 관련성을 비교하는 텍스트 분석부를 더 포함하고,
    상기 텍스트 분석부는
    상기 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 포함된 개수, 및 상기 텍스트에 포함되어 있는 상기 사용자의 관심 키워드와 관련된 단어의 개수 중의 적어도 하나를 기초로 상기 텍스트 및 상기 사용자 관심 분야 사이의 관련성을 비교하고,
    상기 음성 분석부는
    마이크 주변에서 발생하는 소리들을 모니터링하여 음성 정보를 추출하는 음성 인식기를 더 포함하고,
    상기 음성 인식기는
    다수의 음원으로부터 소리가 입력되는 경우 입력된 음성의 주파수 특성으로부터 동일 출처의 음원을 구분하는 사용자 관심 음성 알림 장치.
  2. 제1항에 있어서,
    상기 관심 분야 설정부는 사용자의 입력에 기초하여 사용자 관심 분야를 설정하거나, 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정하는 사용자 관심 음성 알림 장치.
  3. 제2항에 있어서,
    상기 상황 정보는 사용자의 일정 및 위치 정보 중의 하나 이상을 포함하는 사용자 관심 음성 알림 장치.
  4. 제1항에 있어서,
    상기 관심 분야 설정부는 상기 음성 분석부에서 알림을 제공하는 것으로 결정하는 경우, 상기 비교된 관련성 정보를 기초로 상기 사용자 관심 분야를 학습하는 것을 더 포함하는 사용자 관심 음성 알림 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 텍스트 분석부는 상기 생성된 텍스트를 SVM(Support Vector Machine) 및 신경망(Neural Network) 중의 적어도 하나의 분류 기술을 적용하여 분류하고, 분류 결과와 상기 사용자 관심 분야 사이의 관련성을 비교하는 사용자 관심 음성 알림 장치.
  7. 삭제
  8. 제1항에 있어서,
    상기 출력부는 상기 알림 메시지를 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나의 방법으로 출력하는 사용자 관심 음성 알림 장치.
  9. 제1항에 있어서,
    상기 출력부는 상기 인식 결과를 기초로 알림의 중요도를 결정하고, 상기 중요도에 따라 소정의 알림 방법을 결정하는 것을 더 포함하는 사용자 관심 음성 알림 장치.
  10. 제1항에 있어서,
    상기 인식된 음성의 언어를 사용자가 설정한 언어로 번역하는 음성 번역부를 더 포함하는 사용자 관심 음성 알림 장치.
  11. 사용자 관심 분야를 설정하는 단계;
    입력된 소리를 모니터링하는 단계;
    음성을 인식하여 인식 결과 및 상기 설정된 사용자 관심 분야 사이의 관련성을 비교하여 알림 여부를 결정하는 단계; 및
    상기 알림을 제공하는 것으로 결정하는 경우, 알림 메시지를 생성하여 출력하는 단계를 포함하고,
    상기 알림 여부를 결정하는 단계는
    상기 인식 결과를 텍스트로 생성하는 단계; 및
    상기 생성된 텍스트 및 상기 사용자 관심 분야 사이의 관련성을 비교하는 단계를 더 포함하고,
    상기 관련성을 비교하는 단계는
    상기 생성된 텍스트에 사용자의 관심 키워드의 포함 여부, 포함된 개수, 및 상기 텍스트에 포함되어 있는 상기 사용자의 관심 키워드와 관련된 단어의 개수 중의 적어도 하나를 기초로 상기 텍스트 및 상기 사용자 관심 분야 사이의 관련성을 판단하고
    상기 모니터링하는 단계는
    마이크 주변에서 발생하는 소리들을 모니터링하여 음성 정보를 추출하되, 다수의 음원으로부터 소리가 입력되는 경우 입력된 음성의 주파수 특성으로부터 동일 출처의 음원을 구분하는 사용자 관심 음성 알림 방법.
  12. 제11항에 있어서,
    상기 사용자 관심 분야를 설정하는 단계는 사용자의 입력에 기초하여 사용자 관심 분야를 설정하거나, 사용자의 상황 정보 분석을 통해 자동으로 사용자 관심 분야를 설정하는 사용자 관심 음성 알림 방법.
  13. 제12항에 있어서,
    상기 상황 정보는 사용자의 일정 및 위치 정보 중의 하나 이상을 포함하는 사용자 관심 음성 알림 방법.
  14. 제11항에 있어서,
    상기 사용자 관심 분야를 설정하는 단계는 상기 알림을 결정하는 단계에서 알림을 제공하는 것으로 결정하는 경우, 상기 비교된 관련성 정보를 기초로 상기 사용자 관심 분야를 학습하는 것을 더 포함하는 사용자 관심 음성 알림 방법.
  15. 삭제
  16. 제11항에 있어서,
    상기 관련성을 비교하는 단계는 상기 생성된 텍스트 형태의 정보를 SVM(Support Vector Machine) 및 신경망(Neural Network) 중의 적어도 하나의 분류 기술을 적용하여 분류하고, 분류 결과와 상기 사용자 관심 분야 사이의 관련성을 비교하는 사용자 관심 음성 알림 방법.
  17. 삭제
  18. 제11항에 있어서,
    상기 알림 메시지를 생성하여 출력하는 단계는 상기 알림 메시지를 텍스트 형태, 음성 형태 및 경고음 중의 적어도 하나의 형태로 출력하는 사용자 관심 음성 알림 방법.
  19. 제11항에 있어서,
    상기 알림 메시지를 생성하여 출력하는 단계는 상기 인식 결과를 기초로 알림의 중요도를 결정하고, 상기 중요도에 따라 소정의 알림 방법을 결정하는 단계를 더 포함하는 사용자 관심 음성 알림 방법.
  20. 제11항에 있어서,
    상기 인식된 음성의 언어를 사용자가 설정한 언어로 번역하는 단계를 더 포함하는 사용자 관심 음성 알림 방법.
KR1020150101200A 2015-07-16 2015-07-16 사용자 관심 음성 알림 장치 및 방법 KR102505347B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150101200A KR102505347B1 (ko) 2015-07-16 2015-07-16 사용자 관심 음성 알림 장치 및 방법
US15/210,349 US10521514B2 (en) 2015-07-16 2016-07-14 Interest notification apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150101200A KR102505347B1 (ko) 2015-07-16 2015-07-16 사용자 관심 음성 알림 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20170009337A KR20170009337A (ko) 2017-01-25
KR102505347B1 true KR102505347B1 (ko) 2023-03-03

Family

ID=57775155

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150101200A KR102505347B1 (ko) 2015-07-16 2015-07-16 사용자 관심 음성 알림 장치 및 방법

Country Status (2)

Country Link
US (1) US10521514B2 (ko)
KR (1) KR102505347B1 (ko)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10204136B2 (en) * 2015-10-19 2019-02-12 Ebay Inc. Comparison and visualization system
US9830903B2 (en) * 2015-11-10 2017-11-28 Paul Wendell Mason Method and apparatus for using a vocal sample to customize text to speech applications
US9875740B1 (en) * 2016-06-20 2018-01-23 A9.Com, Inc. Using voice information to influence importance of search result categories
US10366173B2 (en) * 2016-09-09 2019-07-30 Electronics And Telecommunications Research Institute Device and method of simultaneous interpretation based on real-time extraction of interpretation unit
CN106412699A (zh) * 2016-10-09 2017-02-15 腾讯科技(北京)有限公司 媒体文件推送方法及装置
KR20180111271A (ko) * 2017-03-31 2018-10-11 삼성전자주식회사 신경망 모델을 이용하여 노이즈를 제거하는 방법 및 장치
CN107103903B (zh) * 2017-05-05 2020-05-29 百度在线网络技术(北京)有限公司 基于人工智能的声学模型训练方法、装置及存储介质
DE102017209564A1 (de) * 2017-06-07 2018-12-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum wiedergeben einer akustischen meldung
KR102394912B1 (ko) * 2017-06-09 2022-05-06 현대자동차주식회사 음성 인식을 이용한 주소록 관리 장치, 차량, 주소록 관리 시스템 및 음성 인식을 이용한 주소록 관리 방법
CN107240395B (zh) * 2017-06-16 2020-04-28 百度在线网络技术(北京)有限公司 一种声学模型训练方法和装置、计算机设备、存储介质
CN107293296B (zh) * 2017-06-28 2020-11-20 百度在线网络技术(北京)有限公司 语音识别结果纠正方法、装置、设备及存储介质
US10891947B1 (en) 2017-08-03 2021-01-12 Wells Fargo Bank, N.A. Adaptive conversation support bot
US20190147855A1 (en) * 2017-11-13 2019-05-16 GM Global Technology Operations LLC Neural network for use in speech recognition arbitration
KR102485342B1 (ko) * 2017-12-11 2023-01-05 현대자동차주식회사 차량의 환경에 기반한 추천 신뢰도 판단 장치 및 방법
US10423727B1 (en) 2018-01-11 2019-09-24 Wells Fargo Bank, N.A. Systems and methods for processing nuances in natural language
US10777217B2 (en) * 2018-02-27 2020-09-15 At&T Intellectual Property I, L.P. Performance sensitive audio signal selection
JP6966706B2 (ja) * 2018-06-05 2021-11-17 日本電信電話株式会社 提供クレジット表示検出装置、提供クレジット表示検出方法及びプログラム
US11386381B2 (en) 2018-06-06 2022-07-12 International Business Machines Corporation Meeting management
US10720161B2 (en) 2018-09-19 2020-07-21 International Business Machines Corporation Methods and systems for personalized rendering of presentation content
CN109388699A (zh) * 2018-10-24 2019-02-26 北京小米移动软件有限公司 输入方法、装置、设备及存储介质
CN110347823A (zh) * 2019-06-06 2019-10-18 平安科技(深圳)有限公司 基于语音的用户分类方法、装置、计算机设备及存储介质
US11061958B2 (en) 2019-11-14 2021-07-13 Jetblue Airways Corporation Systems and method of generating custom messages based on rule-based database queries in a cloud platform
KR20210081103A (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 복수의 언어를 포함하는 음성을 인식하는 인공 지능 장치 및 그 방법
EP3944100A1 (en) * 2020-07-20 2022-01-26 Mimi Hearing Technologies GmbH Method of selecting a suitable content for subjective preference judgement
KR102298749B1 (ko) * 2020-12-07 2021-09-07 주식회사 강한손 시각, 척수 장애인의 자립 생활을 위한 음성인식 인터페이스 기반의 웨어러블 디바이스
CN112637833B (zh) * 2020-12-21 2022-10-11 新疆品宣生物科技有限责任公司 通讯终端信息检测方法和设备
US11605139B1 (en) 2022-06-23 2023-03-14 World Answer Zone Llc Method of collating, abstracting, and delivering worldwide viewpoints

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807757B1 (ko) * 2006-10-27 2008-02-28 오상원 음성인식 자동경보시스템
KR100974064B1 (ko) * 2008-02-22 2010-08-04 주식회사 솔트룩스 사용자 맞춤형 정보 제공 시스템 및 그 방법
KR101411951B1 (ko) * 2013-06-19 2014-07-03 한진정보통신(주) 다국어 정보 안내 시스템 및 장치

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104989A (en) * 1998-07-29 2000-08-15 International Business Machines Corporation Real time detection of topical changes and topic identification via likelihood based methods
US7412376B2 (en) * 2003-09-10 2008-08-12 Microsoft Corporation System and method for real-time detection and preservation of speech onset in a signal
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8295462B2 (en) * 2008-03-08 2012-10-23 International Business Machines Corporation Alerting a participant when a topic of interest is being discussed and/or a speaker of interest is speaking during a conference call
JP2010197882A (ja) 2009-02-26 2010-09-09 Pioneer Electronic Corp 音声情報選択装置、音声情報選択方法、音声情報選択プログラムおよび記録媒体
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US8731935B2 (en) * 2009-09-10 2014-05-20 Nuance Communications, Inc. Issuing alerts on detection of contents of interest introduced during a conference
US20110271207A1 (en) * 2010-04-30 2011-11-03 American Teleconferencing Services Ltd. Location-Aware Conferencing
US8473289B2 (en) 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
US8359020B2 (en) 2010-08-06 2013-01-22 Google Inc. Automatically monitoring for voice input based on context
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
KR101543393B1 (ko) 2012-01-13 2015-08-13 경북대학교 산학협력단 이동 단말기의 사용자의 상황에 적합한 컨텐츠 추천 방법 및 이를 수행하는 컨텐츠 추천 시스템
KR101940530B1 (ko) * 2012-07-09 2019-01-21 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
KR20140044015A (ko) 2012-10-04 2014-04-14 한국전자통신연구원 상황 기반 선호도 모델을 이용한 개인화 서비스 제공 방법 및 그 장치
US20140164476A1 (en) * 2012-12-06 2014-06-12 At&T Intellectual Property I, Lp Apparatus and method for providing a virtual assistant
KR20140093303A (ko) * 2013-01-07 2014-07-28 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
DE112013006384T5 (de) * 2013-01-09 2015-09-24 Mitsubishi Electric Corporation Spracherkennungsvorrichtung und Anzeigeverfahren
US8996352B2 (en) * 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for correcting translations in multi-user multi-lingual communications
US10185934B2 (en) 2013-07-09 2019-01-22 Qualcomm Incorporated Real-time context aware recommendation engine based on a user internet of things environment
US20150310862A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification
US9318107B1 (en) * 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807757B1 (ko) * 2006-10-27 2008-02-28 오상원 음성인식 자동경보시스템
KR100974064B1 (ko) * 2008-02-22 2010-08-04 주식회사 솔트룩스 사용자 맞춤형 정보 제공 시스템 및 그 방법
KR101411951B1 (ko) * 2013-06-19 2014-07-03 한진정보통신(주) 다국어 정보 안내 시스템 및 장치

Also Published As

Publication number Publication date
US10521514B2 (en) 2019-12-31
KR20170009337A (ko) 2017-01-25
US20170018272A1 (en) 2017-01-19

Similar Documents

Publication Publication Date Title
KR102505347B1 (ko) 사용자 관심 음성 알림 장치 및 방법
KR102449875B1 (ko) 음성 신호 번역 방법 및 그에 따른 전자 장치
KR20190104941A (ko) 감정 정보 기반의 음성 합성 방법 및 장치
US20190221208A1 (en) Method, user interface, and device for audio-based emoji input
KR102321789B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
WO2022105861A1 (zh) 用于识别语音的方法、装置、电子设备和介质
JP2017527926A (ja) 社交的会話入力に対するコンピュータレスポンスの生成
CN110720098B (zh) 语音激活网络中的自适应接口
KR102663669B1 (ko) 소음 환경에서의 음성 합성
WO2023019612A1 (en) Apparatus and method for speech-emotion recognition with quantified emotional states
US20200051566A1 (en) Artificial intelligence device for providing notification to user using audio data and method for the same
CN111028834B (zh) 语音信息提醒方法、装置、服务器和语音信息提醒设备
KR20190112680A (ko) 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법
KR20210054800A (ko) 사용자의 음성샘플 수집
Menon et al. Radio-browsing for developmental monitoring in Uganda
CN111916088A (zh) 一种语音语料的生成方法、设备及计算机可读存储介质
US11211059B2 (en) Artificial intelligence apparatus and method for recognizing speech with multiple languages
CN110265005B (zh) 输出内容控制装置、输出内容控制方法以及存储介质
KR20190094295A (ko) 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체
CN113129895B (zh) 一种语音检测处理系统
CN110310632A (zh) 语音处理方法及装置、以及电子设备
KR102221963B1 (ko) 화상 정보를 제공하는 인공 지능 장치 및 그 방법
KR101248157B1 (ko) 다국적 언어로 지원되는 음성 재난 경보 시스템
KR102642617B1 (ko) 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체
KR102631143B1 (ko) 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)