KR20140014200A - 구어체 대화 학습 및 정정 - Google Patents
구어체 대화 학습 및 정정 Download PDFInfo
- Publication number
- KR20140014200A KR20140014200A KR20137025578A KR20137025578A KR20140014200A KR 20140014200 A KR20140014200 A KR 20140014200A KR 20137025578 A KR20137025578 A KR 20137025578A KR 20137025578 A KR20137025578 A KR 20137025578A KR 20140014200 A KR20140014200 A KR 20140014200A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- natural language
- context state
- language phrase
- correction
- Prior art date
Links
- 238000012937 correction Methods 0.000 title claims abstract description 40
- 230000009471 action Effects 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 27
- 230000005055 memory storage Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 239000003795 chemical substances by application Substances 0.000 description 22
- 238000004891 communication Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 241001125840 Coryphaenidae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Stored Programmes (AREA)
- Telephonic Communication Services (AREA)
Abstract
구어체 대화 학습 및 정정이 주어진다. 자연어 구절을 제1 사용자로부터 수신하면, 상기 자연어 구절과 연관된 적어도 하나의 제2 사용자가 식별될 수 있다. 컨텍스트 상태가 제1 사용자 및 적어도 하나의 제2 사용자에 따라 생성될 수 있다. 그 후, 상기 자연어 구절은 상기 컨텍스트 상태에 따라 에이전트 동작으로 번역될 수 있을 것이다.
Description
구어체 대화 학습 및 정정을 통해 사용자 쿼리 및 대화에 대한 자연어 이해를 용이하게 하기 위한 메커니즘을 제공한다.
종래의 스피치 인식 애플리케이션 및 기술은 특정 사용자의 스피치 패턴 또는 사용자와 다른 사용자들 간의 대화에서의 특정 스피치 패턴을 학습하거나 개인화하는 우수한 메카니즘을 제공하지 못한다. 예를 들면, 사용자 1이 사용자 2에게 음성 대화를 하는 경우 특정 스피치 패턴이 이용될 수 있고, 이는 사용자 1이 사용자 3에게 음성 대화를 하는 경우 사용되는 음성 패턴과 다를 수 있다. 또한, 현재 음성 인식 시스템은 사용자로부터 상황에 따라(on the fly) 동적으로 스피치를 학습하는 기능 및 사람들이 서로 간의 대화에서 얼마나 차이를 보이는지에 관하여 학습하는 기능이 부족하다. 예를 들어, 사용자가 말한 단어가 스피치 인식 시스템에 의해 다른 단어 및/또는 정확한 단어의 의미와 다른 의미로 연관지어진 경우, 사용자는 표현된 단어에 대한 시스템의 해석을 정정함과 동시에 시스템으로 하여금 그 단어가 이용된 특정 컨텍스트에서의 단어를 학습하도록 하는 것을 가능하게 하는 메카니즘을 가지지 못한다.
스피치-텍스트 변환(즉, 스피치 인식)은 구어체 구절을 컴퓨팅 시스템에 의해 처리될 수 있는 텍스트 구절로 변환하는 것을 포함한다. 음향 모델링 및/또는 언어 모델링은 현대의 통계-기반 스피치 인식 알고리즘에서 이용된다. HMMs(Hidden Markov models)는 다수의 종래 시스템에서 사용되어 진다. HMMs는 일련의 심볼 또는 수를 출력하는 통계적 모델을 포함한다. HMMs는 스피치 신호를 불연속적인(piecewise) 정지 신호 또는 단시간 정지 신호로 볼 수 있기 때문에 스피치 인식에서 이용될 수 있다. 단시간(예컨대, 10 밀리세컨드)에서는, 스피치는 정적 프로세스와 유사하다고 볼 수 있다. 따라서, 스피치는 수많은 통계적인(stochastic) 목적을 위해 Markov 모델로 고려되어질 수 있다.
본 요약은 아래 상세한 설명에서 더 설명되는 개념들 중 선택된 것을 단순화된 형태로 소개하기 위해 제공된다. 본 요약은 청구된 내용의 중요한 특징들 또는 본질적인 특징들을 식별하기 위해 의도된 것이 아니다. 그것은 청구된 내용의 범위를 제한하기 위해 이용되도록 의도되어 있지도 않다.
구어체 대화 학습 및 정정이 주어진다. 자연어 구절을 제1 사용자로부터 수신하면, 상기 자연어 구절과 연관된 적어도 하나의 제2 사용자가 식별될 수 있다. 컨텍스트 상태가 제1 사용자 및 적어도 하나의 제2 사용자에 따라 생성될 수 있다. 그 후, 상기 자연어 구절은 상기 컨텍스트 상태에 따라 에이전트 동작으로 번역될 수 있을 것이다.
전술한 일반적인 설명 및 다음의 상세한 설명은 예시들을 제공하고 단지 설명적인 것이다. 따라서, 전술한 일반적인 설명 및 다음의 상세한 설명은 제한적인 것으로 간주되어서는 안된다. 또한, 여기에 설명된 것들에 더하여 특징들 또는 변형들이 제공될 수 있다. 예컨대, 실시예들은 상세한 설명에서 설명된 다양한 특징 조합들 및 부분 조합들에 관련될 수 있다.
본 명세서에 포함되고 그 일부를 구성하는 첨부 도면들은 본 발명의 다양한 실시예들을 예시한다.
도 1은 동작 환경의 블록도이다.
도 2(a) 내지 2(c)는 대화 학습 및 정정을 제공하는 인터페이스의 블록도이다.
도 3은 대화 학습 및 정정을 제공하는 방법에 관한 플로우차트이다.
도 4는 컴퓨팅 장치를 포함하는 시스템의 블록도이다.
도 1은 동작 환경의 블록도이다.
도 2(a) 내지 2(c)는 대화 학습 및 정정을 제공하는 인터페이스의 블록도이다.
도 3은 대화 학습 및 정정을 제공하는 방법에 관한 플로우차트이다.
도 4는 컴퓨팅 장치를 포함하는 시스템의 블록도이다.
다음의 상세한 설명은 첨부 도면들을 참고한다. 가능한 한, 도면들 및 다음의 설명에서 동일한 참조 번호들은 동일 또는 유사한 엘리먼트들을 지시하기 위해 사용된다. 본 발명의 실시예들이 설명될 수 있지만, 변형들, 수정들 및 다른 구현들이 가능하다. 예를 들어, 도면들에 예시된 엘리먼트들에 대해 대체, 추가 또는 변경이 이루어질 수 있고, 여기에 설명된 방법들은 개시된 방법들에 대해 단계들을 대체하거나, 순서를 변경(reordering)하거나 또는 추가하는 것에 의해 변경될 수 있다. 따라서, 다음의 상세한 설명은 본 발명을 제한하지 않는다. 대신에, 본 발명의 적당한 범위는 첨부된 청구항들에 의해 규정된다.
대화 학습 및 정정이 주어진다. 자연어 스피치 인식 시스템은 특정 사용자로부터 또는 대화의 특정 사용자들 사이에서 스피치 인식 패턴을 개인화하는 기능을 제공할 수 있다. 이러한 시스템은 사용자와의 수정적 상호작용(corrective interaction)을 통해 스피치 패턴을 학습할 수 있다. 그 결과, 이러한 시스템은 사용자의 스피치 패턴 및 컨텍스트에 대한 보다 맞춤화된 이해를 통해, 스피치 쿼리에 대한 보다 정교한 결과를 제공하고, 개인 보조 시스템에서 사용자들 간의 또는 사용자와 기계 간의 스피치 대화에 응답하여 보다 적절한 정보를 제공할 수 있다.
도 1은 서버(105)를 포함하는 동작 환경(100)에 대한 블록도이다. 서버(105)는 다이얼로그 매니저(111)를 포함하는 SDS(110), 개인 보조 프로그램(112), 컨텍스트 데이터베이스(116) 및/또는 검색 에이전트(118)와 같은 각종 소프트웨어 모듈들 및/또는 컴퓨팅 자원들을 포함할 수 있다. 서버(105)는 네트워크(120)를 통해 사용자들로부터 쿼리 및/또는 동작 요청을 수신할 수 있다. 이러한 쿼리는 예컨대 컴퓨터 및/또는 휴대폰과 같은 제1 사용자 장치(130) 및/또는 제2 사용자 장치(135)로부터 전송될 수 있다. 네트워크(120)는 예를 들어 개인 네트워크, 셀룰러 이동 데이터 통신 네트워크(cellular data network) 및/또는 인터넷과 같은 공중망(public network)을 포함할 수 있다.
도 2(a)는 대화 학습 및 정정을 제공하는 인터페이스(200)의 블록도이다. 인터페이스(200)는 사용자 입력 패널(210) 및 개인 보조 패널(220)을 포함할 수 있다. 사용자 입력 패널(210)은 사용자 문장(230)과 같은 변환된 사용자 쿼리 및/또는 동작 요청을 디스플레이할 수 있다. 사용자 문장(230)은 예를 들어, 사용자 장치(130)의 사용자로부터 수신된 음성-텍스트 변환의 결과물을 포함할 수 있다. 개인 보조 패널(220)은 사용자 문장(230) 및 사용자와 연관된 컨텍스트 상태로부터 도출되는 복수의 동작 제안들(240(A) 내지 (B))을 포함할 수 있다. 본 발명의 실시예에 따라, 컨텍스트 상태는 사용자 문장(230)에 대한 말을 청취했을 대화의 다른 참여자(예컨대, 제2 사용자 장치(135)의 사용자)를 고려할 수 있다. 따라서, 개인 보조 프로그램(112)은 대화를 모니터링하고 제1 사용자 장치(130) 및/또는 제2 사용자 장치(135)의 사용자에게 대화의 적극적인 참여자가 되는 것 없이 동작 제안들(240(A) 내지 (B))을 제공할 수 있다.
도 2(b)는 사용자가 사용자 문장(230)에 대한 갱신을 제공한 후 갱신된 디스플레이를 포함하는 인터페이스(200)를 더 도시한다. 예컨대, 제2 사용자 장치(135)의 사용자로부터의 질문(245) 및 제1 사용자 장치(130)의 사용자로부터의 응답(247)은 개인 보조 프로그램(112)으로 하여금 컨텍스트 상태를 갱신하게 하고 제2의 복수의 동작 제안들(250(A) 내지 (C))을 제공하게끔 한다. 예를 들어, 제2의 복수의 동작 제안들(250(A) 내지 (C))은 사용자가 먹고 싶어하는 서로 다른 제안된 요리법을 포함할 수 있다. 본 발명의 실시예에 따르면, 에이전트는 이러한 갱신을 두 사용자 간의 대화에 연관시키기 위해 학습하고, 추후 대화에서 활용하기 위해 이들을 기억할 수 있다.
도 2(c)는 에이전트 동작에 대한 정정을 포함하는 인터페이스(200)를 도시한다. 예컨대, "메인 가의 이탈리아 식당"이라는 제2 사용자 문장(260)은 메인 가 123번에서 "Mario's"라는 이름을 가진 식당을 지시하는 것으로 에이전트에 의해 번역될 수도 있다. 제3의 복수의 동작 제안들(265(A) 및 (B))은 "Mario's"에 관한 동작들을 포함하여 디스플레이될 수 있으나 사용자는 다른 식당인 메인 가 300번지에 있는 "Luigi's"을 의도했을 수도 있다. 사용자는 인터페이스(200) 및/또는 음성 명령과 같은 다른 입력 방식을 통해 개인 보조 프로그램(112)과 상호작용하여 정정을 제공할 수 있다. 예를 들어, 사용자는 동작들 중 하나를 우클릭하고 정정 동작을 위해 표시된 메뉴 아이템을 선택하거나 "정정(correction)"이라고 말하여 정정 윈도우(270)가 나타나게 할 수 있다. 그 후, 예컨대 사용자는 메인 가의 이탈리아 식당은 "Luigi's"이라고 입력함으로써, 이전 문장들 중 어떤 것에 대한 정정된 해석을 제공할 수 있다.
도 3은 대화 학습 및 정정 환경을 제공하기 위한 본 발명의 실시예에 관한 방법(200)의 일반적인 단계들을 보여주는 흐름도이다. 방법(300)은 도 4와 관련하여 이하에서 더 상세히 설명되는 바와 같이 컴퓨팅 장치(400)를 사용하여 구현될 수 있다. 방법(300)의 단계들을 구현하는 방식은 이항에서 더 상세히 다루어 질 것이다. 방법(300)은 시작 블록(305)에서 시작하여 컴퓨팅 장치(400)가 자연어 구절을 제1 사용자로부터 수신하는 단계(310)로 나아갈 수 있다. 예컨대, 제1 사용자 장치(130)의 제1 사용자는 "오늘 밤 외출하자"라고 말할 수 있다. 이러한 구절은 제1 사용자 장치(130)에 의해 캡쳐될 수 있고 개인 보조 프로그램(112)과 공유될 수 있다.
방법(300)은 컴퓨팅 장치(400)가 자연어 구절이 전달될 적어도 하나의 제2 사용자를 식별하는 단계(315)로 이어진다. 예를 들어, 제1 사용자는 제2 사용자와 대화로 열중하고 있을 수 있다. 제1 사용자 및 제2 사용자는 모두 제1 사용자 장치(130)에 의해 음성을 청취할 수 있는 범위에 있거나 및/또는 휴대폰과 같은 제1 사용자 장치(130) 및 제2 사용자 장치(135) 각각을 통해 대화 중일 수도 있다. 개인 보조 프로그램(112)은 대화를 듣고 제2 사용자 및 제1 사용자와의 관계(예컨대, 개인적 친구, 직장 동료 및 배우자 등)를 식별할 수 있다.
방법(300)은 컴퓨팅 장치(400)가 제1 사용자 및 제2 사용자와 연관된 컨텍스트 상태가 존재하는지에 대한 판정을 하는 단계(320)로 이어진다. 예를 들어, 서버(105)는 상기 두 사용자와 연관된 컨텍스트 상태가 컨텍스트 데이터베이스(116)에 저장되어 있는지를 판정할 수 있다. 이러한 컨텍스트 상태는 이전 만남, 통신, 스피치 습관, 및/또는 선호도와 같은 상기 두 사용자 사이의 이전 상호작용에 관한 세부사항을 포함할 수 있다.
만약 이러한 컨텍스트 상태가 존재하지 않는 경우, 방법(300)은 컴퓨팅 장치(400)가 적어도 하나의 제2 사용자에 관한 하나 이상의 특성에 따라 컨텍스트 상태를 생성하는 단계(325)로 이어질 수 있다. 예를 들어, 제2 사용자가 제1 사용자의 상사임을 나타내는 데이터를 포함하는 컨텍스트 상태가 생성될 수 있다.
컨텍스트 상태가 존재하는 경우, 방법(300)은 컴퓨팅 장치(400)가 상기 컨텍스트 상태를 로드하는 단계(330)로 이어질 수 있다. 예를 들어, 개인 보조 프로그램(112)은 컨텍스트 데이터베이스(116)로부터 상기 컨텍스트 상태를 로드할 수 있다.
컨텍스트 상태가 단계(325)에서 생성되거나 단계(330)에서 로드된 후, 방법(300)은 컴퓨팅 장치(400)가 상기 컨텍스트 상태에 따라 상기 자연어 구절을 텍스트-기반 자연어 구절로 변환하는 단계(335)로 이어질 수 있다. 예컨대, 서버(105)는 음성 구절에 관한 스피치-텍스트 변환을 수행하거나 및/또는 자연어 구절을 문맥-의존 신택스(context-dependent syntax)로 번역할 수 있다. 제1 사용자의 구절이 직장 동료에게 말을 거는 중 "그는 대단한 레인 맨(rain man)이야"라는 구절을 포함한 경우, 쿼리 서버는 그 의미를 사업에 많은 이득을 가져다 주는 사람을 나타내는 것으로 번역할 수 있다. 그러나, 동일한 구절이 영화 감상을 즐기는 친구 사이에서 이루어진 경우, 쿼리 서버는 그 의미를 Dustin Hoffman 주연의 영화 "Rain Man"을 나타내는 것으로 번역할 것이다.
방법(300)은 컴퓨팅 장치(400)가 텍스트-기반 자연어 구절에 관한 적어도 하나의 에이전트 동작(agent action)을 식별하는 단계(340)로 이어질 수 있다. 에이전트 동작은, 예를 들어, 하이퍼텍스트 링크, 시각 영상, 하나 이상의 추가 텍스트 단어, 및/또는 사용자에게 제안되는 동작을 포함할 수 있다. 에이전트 동작은 또한 네트워크 기반 애플리케이션의 호출과 같은 실행 동작을 포함하여 상기 구절과 연관된 태스크를 수행하도록 할 수도 있다. 제1 사용자가 직장 동료에게 사업을 이끌어가는 누군가에 대하여 말하고 있는 경우, 논의 중인 "rain man"에게 연락을 취하는 제안된 동작이 식별될 수 있다. 영화를 참조하고 있는 경우에는 그 영화에 대한 웹사이트로의 하이퍼텍스트 링크가 대신 식별될 수 있다.
방법(300)은 컴퓨팅 장치(400)가 텍스트-기반 자연어 구절 및 하나 이상의 시맨틱 제안을 제1 사용자에게 디스플레이하는 단계(345)로 이어진다. 예를 들어, 변환된 구절은 사용자 입력 패널(210)에 제안된 동작 및/또는 하이퍼링크는 개인 보조 패널(220)에 디스플레이될 수 있다.
방법(300)은 컴퓨팅 장치(400)가 제1 사용자로부터 정정을 수신하는 단계(350)로 이어질 수 있다. 예컨대, 사용자는 하나 및/또는 그 이상의 대화 단어를 선택하고 정정된 대화를 위한 변경을 제공할 수 있다. 또 다른 예로서, 사용자는 사용자 구절이 "메인 가의 이탈리아 식당"이고 개인 보조 프로그램(112)이 잘못된 식당을 식별했던 경우와 같이 적어도 하나의 용어를 정정할 수 있고, 의도된 것을 선택할 수 있다.
방법(300)은 컴퓨팅 장치(400)가 수신된 정정에 따라 컨텍스트 상태를 갱신하는 단계(355)로 이어질 수 있다. 예컨대, 사용자가 "10번 가의 이탈리아 식당"이 어떤 식당을 의미하는지 정정을 한 경우, 그러한 정정은 컨텍스트 상태의 일부로서 저장될 수 있고 사용자가 다음번에 관련 언급을 하는 경우 활용될 수 있다. 방법(300)은 단계(360)에서 종료된다.
본 발명에 따르는 실시예는 컨텍스트 인식 환경(context-aware environment)을 제공하기 위한 시스템을 포함할 수 있다. 이러한 시스템은 메모리 저장소 및 상기 메모리 저장소와 연결된 프로세싱 유닛을 포함할 수 있다. 상기 프로세싱 유닛은 제1 사용자로부터 자연어 구절을 수신하고, 상기 자연어 구절과 연관된 적어도 하나의 제2 사용자를 식별하며, 제1 사용자 및 적어도 하나의 제2 사용자에 따라 컨텍스트 상태를 생성하고, 이러한 컨텍스트 상태에 따라 자연어 구절을 에이전트 동작으로 번역하며, 사용자에게 에이전트 동작을 디스플레이하고, 사용자로부터 에이전트 동작에 대한 정정을 수신하며, 수신된 정정에 따라 컨텍스트 상태를 갱신하도록 구성될 수 있다. 이러한 정정은 에이전트의 일반 동작 중에 및/또는 에이전트가 학습 모드로 동작하고 있는 동안에 수신될 수 있다. 예컨대, 사용자는 항공 티켓 예약과 같은 구체적인 동작을 수행하려는 의도를 특정함으로써 학습모드를 동작시킬 수 있다. 그 후, 에이전트는 사용자의 특정 선호들(예컨대, 선호하는 항공사, 좌석 유형, 및 여행 시간 등)을 학습할 수 있다. 자연어 구절은 텍스트 구절 및/또는 구어 구절(spoken phrase)로서 수신될 수 있다. 프로세싱 유닛은 에이전트 동작을 제1 사용자에게 디스플레이하고, 제1 사용자가 상기 에이전트 동작의 실행을 허용하는지를 판정하고, 그러한 경우 그 에이전트 동작을 수행하도록 더 구성될 수 있다. 프로세싱 유닛은 동작의 실행 결과를 제1 사용자 및/또는 제2 사용자에게 디스플레이하도록 구성될 수 있다. 프로세싱 유닛은, 허용을 기다리기 보다, 에이전트 동작을 자동적으로 실행하고 에이전트 동작의 실행에 관한 결과를 제1 사용자 및/또는 제2 사용자에게 디스플레이할 수도 있다.
제1 사용자로부터 동일한 자연어 구절을 수신하면, 프로세싱 유닛은 자연어 구절과 연관된 적어도 하나의 제3(예컨대, 다른) 사용자를 식별하고, 제1 사용자 및 적어도 하나의 제3 사용자에 따라 제2 컨텍스트 상태를 생성하며, 컨텍스트 상태에 따라 자연어 구절을 제2 에이전트 동작으로 번역하도록 구성될 수 있다. 예를 들어, 제2 사용자는 제1 사용자의 직장 관계(work contact)를 구성하고, 제3 사용자는 제1 사용자의 개인 연락처(personal contact)를 구성할 수 있다.
본 발명에 따르는 또 다른 실시예는 컨텍스트 인식 환경을 제공하기 위한 시스템을 포함할 수 있다. 상기 시스템은 메모리 저장소 및 상기 메모리 저장소와 연결된 프로세싱 유닛을 포함할 수 있다. 프로세싱 유닛은 제1 사용자 및 제2 사용자에 관한 컨텍스트 상태를 설정하고, 제1 사용자로부터 자연어 구절(spoken natural language phrase)을 수신하며, 자연어 구절을 텍스트-기반 자연어 구절로 변환하고, 텍스트-기반 자연어 구절을 제1 사용자에게 디스플레이하며, 텍스트-기반 자연어 구절에 대한 정정을 수신하고, 제1 사용자 및 제2 사용자에 관한 컨텍스트 상태를 갱신하도록 구성된다. 텍스트-기반 자연어 구절은 하이퍼텍스트 링크, 시각 영상, 및/또는 제안된 동작과 같은 적어도 하나의 시맨틱 제안을 포함할 수 있다. 프로세싱 유닛은 제안된 동작을 실행하고 제안된 동작의 실행에 대한 결과를 제1 사용자에게 디스플레이하도록 구성될 수 있다. 상기 정정은, 예컨대, 시맨틱 제안에 대한 정정 및/또는 자연어 구절을 텍스트-기반 자연어 구절로 변환하는 것에 관한 정정을 포함할 수 있다. 본 발명의 실시예에 따르면, 상기 정정은 구절의 용어에 대한 의미를 추가 및/또는 변경하는 것을 포함할 수 있다. 예를 들어, "my band"를 포함하는 구절은 사용자가 연주하고 있는 밴드와 관련된 웹 페이지, 이름, 및/또는 설명을 그 용어와 연관시키기 위해 사용될 수 있고, "돌고래(dolphins)"이라는 구절은 전문적인 팀이나 동물이 아닌 사용자가 연주하는 팀과 연관될 수 있다. 프로세싱 유닛은 특정 사용자들 간의 대화와 연관된 컨텍스트 상태를 저장하고 동일한 사용자들 간의 이어지는 대화를 위해 이들 상태를 로드할 수 있도록 구성될 수 있다.
본 발명에 따르는 또 다른 실시예는 컨텍스트 인식 환경을 제공하기 위한 시스템을 포함할 수 있다. 시스템은 메모리 저장소 및 상기 메모리 저장소와 연결된 프로세싱 유닛을 포함할 수 있다. 프로세싱 유닛은 제1 사용자로부터 자연어 구절을 수신하고, 상기 자연어 구절이 전달되는 적어도 하나의 제2 사용자를 식별하며, 제1 사용자 및 제2 사용자와 연관된 컨텍스트 상태가 메모리 저장소에 존재하는지 판정하도록 구성될 수 있다. 존재하지 않는 경우, 프로세싱 유닛은 적어도 하나의 제2 사용자와 연관된 하나 이상의 특성에 따라 컨텍스트 상태를 생성하도록 구성될 수 있다. 아니면, 프로세싱 유닛은 컨텍스트 상태를 로드하도록 구성될 수도 있다.
프로세싱 유닛은 컨텍스트 상태에 따라 자연어 구절을 텍스트-기반 자연어 구절로 변환하고, 텍스트-기반 자연어 구절에 관한 하나 이상의 에이전트 동작을 식별하며, 텍스트-기반 자연어 구절 및 하나 이상의 시맨틱 제안(semantic suggestions)을 제1 사용자에게 디스플레이하도록 구성될 수 있다. 에이전트 동작은 예를 들어, 하이퍼텍스트 링크, 시각 영상, 하나 이상의 추가 텍스트 단어, 및 제안된 동작을 포함할 수 있다. 프로세싱 유닛은 제1 사용자로부터 정정을 수신하고 수신된 정정에 따라 컨텍스트 상태를 갱신하도록 구성될 수 있다.
도 4는 컴퓨팅 장치(400)를 포함하는 시스템의 블록도이다. 본 발명의 실시예들에 따라, 전술한 메모리 저장소 및 처리 장치는 도 4의 컴퓨팅 장치(400)와 같은 컴퓨팅 장치에 구현될 수 있다. 메모리 저장소 및 처리 장치를 구현하기 위해 하드웨어, 소프트웨어, 또는 펌웨어의 임의의 적합한 조합이 이용될 수 있다. 예를 들면, 메모리 저장소 및 처리 장치는 컴퓨팅 장치(400)로 또는 다른 컴퓨팅 장치들(418) 중 임의의 것을 컴퓨팅 장치(400)와 조합하여 구현될 수 있다. 전술한 시스템, 장치, 및 프로세서들은 예시들이고 다른 시스템들, 장치들, 및 프로세서들이 본 발명의 실시예들에 따른 전술한 메모리 저장소 및 처리 장치를 포함할 수 있다. 또한, 컴퓨팅 장치(400)는 위에 설명된 위한 운영 환경(100)을 포함할 수 있다. 운영 환경(100)은 다른 컴포넌트들을 포함할 수 있고 컴퓨팅 장치(400)에 제한되지 않는다.
도 4에 관련하여, 본 발명의 실시예에 따른 시스템은 컴퓨팅 장치(400)와 같은 컴퓨팅 장치를 포함할 수 있다. 기본 구성으로, 컴퓨팅 장치(400)는 적어도 하나의 처리 장치(402) 및 시스템 메모리(404)를 포함할 수 있다. 컴퓨팅 장치의 구성 및 유형에 따라서, 시스템 메모리(404)는 휘발성(예를 들면, RAM(random access memory)), 비휘발성(예를 들면, ROM(read-only memory)), 플래시 메모리, 또는 임의의 조합을 포함할 수 있지만, 이에 제한되는 것은 아니다. 시스템 메모리(404)는 운영 체제(405), 하나 이상의 프로그래밍 모듈들(406), 및 증명 관리 모듈을 포함할 수 있다. 운영 체제(405)는, 예를 들면, 컴퓨팅 장치(400)의 동작을 제어하기에 적합할 수 있다. 또한, 본 발명의 실시예들은 그래픽 라이브러리, 기타 운영 체제들, 또는 임의의 다른 애플리케이션 프로그램과 함께 실시될 수 있고 임의의 특정한 애플리케이션 또는 시스템에 제한되지 않는다. 이 기본 구성은 도 4에서 대시 선(408) 내의 컴포넌트들에 의해 예시되어 있다.
컴퓨팅 장치(400)는 추가적인 특징들 또는 기능을 가질 수 있다. 예를 들면, 컴퓨팅 장치(400)는 또한, 예를 들면, 자기 디스크, 광 디스크, 또는 테이프와 같은 추가적인 데이터 저장 장치들(이동식 및/또는 비이동식)을 포함할 수 있다. 그러한 추가적인 저장소는 도 4에서 이동식 저장소(409) 및 비이동식 저장소(410)에 의해 예시되어 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위해 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성, 이동식 및 비이동식 매체를 포함할 수 있다. 시스템 메모리(404), 이동식 저장소(409), 및 비이동식 저장소(410)는 모두 컴퓨터 저장 매체 예들(즉, 메모리 저장소)이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM(electrically erasable read-only memory), 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital versatile disk) 또는 기타 광 저장소, 자기 카세트, 자기 테이프, 자기 디스크 저장소 또는 기타 자기 저장 장치, 또는 컴퓨팅 장치(400)에 의해 액세스될 수 있고 정보를 저장하는 데 이용될 수 있는 임의의 다른 매체를 포함할 수 있지만 이에 제한되는 것은 아니다. 임의의 그러한 컴퓨터 저장 매체는 장치(400)의 일부일 수 있다. 컴퓨팅 장치(400)는 또한 키보드, 마우스, 펜, 사운드 입력 장치, 터치 입력 장치 등과 같은 입력 장치(들)(412)를 가질 수 있다. 디스플레이, 스피커, 프린터 등과 같은 출력 장치(들)(414)도 포함될 수 있다. 전술한 장치들은 예시들이고 다른 것들이 사용될 수 있다.
컴퓨팅 장치(400)는 또한 장치(400)가 분산 컴퓨팅 환경의 네트워크, 예를 들면, 인트라넷 또는 인터넷을 통하여 다른 컴퓨팅 장치(418)와 통신하게 할 수 있는 통신 커넥션(416)을 포함할 수 있다. 통신 커넥션(416)은 통신 매체의 일례이다. 통신 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 변조된 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 기타 데이터에 의해 구현될 수 있고, 임의의 정보 전달 매체를 포함한다. "변조된 데이터 신호"라는 용어는, 신호 내에 정보를 암호화하도록 그 신호의 하나 이상의 특성을 설정 또는 변경시킨 신호를 묘사할 수 있다. 제한되지 않는 예로서, 통신 매체는 유선 네트워크 또는 다이렉트 유선 연결과 같은 유선 매체, 및 음향, RF(radio frequency), 적외선, 및 기타 무선 매체와 같은 무선 매체를 포함할 수 있다. 여기에 사용된 컴퓨터 판독가능 매체는 저장 매체 및 통신 매체 둘 다를 포함할 수 있다.
전술한 바와 같이, 운영 체제(405)를 포함하여, 다수의 프로그램 모듈들 및 데이터 파일들이 시스템 메모리(404)에 저장될 수 있다. 처리 장치(402)에서 실행하는 동안, 프로그램 모듈들(406)(예를 들면, 개인 보조 프로그램(112))은, 예를 들면, 위에 설명된 방법(300)의 단계들 중 하나 이상의 단계들을 포함하는 프로세스들을 수행할 수 있다. 전술한 프로세스는 예시이고, 처리 장치(402)는 다른 프로세스들을 수행할 수 있다. 본 발명의 실시예들에 따라 사용될 수 있는 다른 프로그램 모듈들은 전자 메일 및 콘택트 애플리케이션, 워드 프로세싱 애플리케이션, 스프레드시트 애플리케이션, 데이터베이스 애플리케이션, 슬라이드 프리젠테이션 애플리케이션, 그림 또는 컴퓨터 지원(computer-aided) 애플리케이션 프로그램 등을 포함할 수 있다.
일반적으로, 본 발명의 실시예들에 따라, 프로그램 모듈들은 특정 태스크를 수행할 수 있는 또는 특정 추상 데이터 유형을 구현할 수 있는 루틴, 프로그램, 컴포넌트, 데이터 구조, 및 다른 구조 유형들을 포함할 수 있다. 또한, 본 발명의 실시예들은 핸드헬드 장치, 멀티프로세서 시스템, 마이크로프로세서 기반 또는 프로그램 가능한 소비자 전자 장치, 미니컴퓨터, 메인프레임 컴퓨터 등을 포함하는 다른 컴퓨터 시스템 구성들과 함께 실시될 수 있다. 본 발명의 실시예들은 또한 통신 네트워크를 통해 링크된 원격 처리 장치들에 의해 태스크가 수행되는 분산 컴퓨팅 환경에서 실행될 수도 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 메모리 저장 장치 및 원격 메모리 저장 장치 둘 다에 위치할 수 있다.
또한, 본 발명의 실시예들은 개별 전자 엘리먼트들, 논리 게이트들을 포함하는 패키징된 또는 집적된 전자 칩, 마이크로프로세서를 이용하는 회로에서, 또는 전자 엘리먼트들 또는 마이크로프로세서들을 포함하는 단일 칩에서 실시될 수 있다. 본 발명의 실시예들은 또한, 기계, 광학, 유체 공학, 및 양자 기술들을 포함하되 이에 제한되지 않는, 예를 들면, AND, OR, 및 NOT과 같은 논리 연산들을 수행할 수 있는 다른 기술들을 사용하여 실시될 수 있다. 또한, 본 발명의 실시예들은 범용 컴퓨터 내에서 또는 임의의 다른 회로들 또는 시스템들에서 실시될 수 있다.
본 발명의 실시예들은, 예를 들면, 컴퓨터 프로세스(방법), 컴퓨팅 시스템으로서, 또는 컴퓨터 프로그램 제품 또는 컴퓨터 판독가능 매체와 같은 제조물로서 구현될 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 시스템에 의해 판독가능하고 컴퓨터 프로세스를 실행하기 위한 명령어들의 컴퓨터 프로그램을 인코딩하는 컴퓨터 저장 매체일 수 있다. 컴퓨터 프로그램 제품은 또한 컴퓨팅 시스템에 의해 판독가능하고 컴퓨터 프로세스를 실행하기 위한 명령어들의 컴퓨터 프로그램을 인코딩하는 반송파 상의 전파 신호일 수 있다. 따라서, 본 발명은 하드웨어로 및/또는 (펌웨어, 상주 소프트웨어, 마이크로코드 등을 포함하는) 소프트웨어로 구현될 수 있다. 즉, 본 발명의 실시예들은 명령 실행 시스템에 의해 또는 그와 관련하여 사용하기 위한 컴퓨터 사용가능 또는 컴퓨터 판독가능 프로그램 코드가 구현되어 있는 컴퓨터 사용가능 또는 컴퓨터 판독가능 저장 매체 상의 컴퓨터 프로그램 제품의 형태를 취할 수 있다. 컴퓨터 사용가능 또는 컴퓨터 판독가능 매체는 명령 실행 시스템, 장치, 또는 디바이스에 의해 또는 그와 관련하여 사용하기 위한 프로그램을 포함하고, 저장하고, 통신하고, 전파하고, 또는 전송할 수 있는 임의의 매체일 수 있다.
컴퓨터 사용가능 또는 컴퓨터 판독가능 매체는, 예를 들면, 전자, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템, 장치, 디바이스, 또는 전파 매체일 수 있지만 이에 제한되는 것은 아니다. 더 구체적인 컴퓨터 판독가능 매체 예시들(총망라하지 않은 목록)로서, 컴퓨터 판독가능 매체는 하나 이상의 와이어를 갖는 전기 연결, RAM(random access memory), ROM(read-only memory), EPROM(erasable programmable read-only memory) 또는 플래시 메모리, 광섬유, 및 휴대용 CD-ROM(compact disc read-only memory)을 포함할 수 있다. 컴퓨터 사용가능 또는 판독가능 매체는 프로그램이 인쇄되어 있는 종이 또는 다른 적합한 매체일 수도 있는데, 이는 프로그램은, 예를 들면, 그 종이 또는 다른 매체의 광학 스캐닝을 통해 전자적으로 캡처될 수 있고, 그 후, 필요하다면, 적합한 방식으로 컴파일되거나, 인터프리트되거나, 또는 다른 식으로 처리되고, 그 후 컴퓨터 메모리에 저장될 수 있기 때문이다.
본 발명의 실시예들은, 예를 들면, 본 발명의 실시예들에 따른 방법들, 시스템들, 및 컴퓨터 프로그램 제품들의 블록도들 및/또는 동작 예시들에 관련하여 위에 설명되어 있다. 블록들에 기재된 기능들/동작들은 임의의 순서도에서 나타내어진 순서와 다르게 행해질 수 있다. 예를 들면, 연속하여 나타내어진 2개의 블록들은 사실 실질적으로 동시에 실행될 수도 있고 또는 그 블록들은, 수반된 기능/동작들에 따라서, 때때로 역순으로 실행될 수도 있다.
본 발명의 특정한 실시예들이 설명되었지만, 다른 실시예들이 존재할 수 있다. 또한, 본 발명의 실시예들은 메모리 및 기타 저장 매체들에 저장된 데이터와 관련되는 것으로 설명되었지만, 데이터는 또한 하드 디스크, 플로피 디스크, 또는 CD-ROM과 같은 보조 저장 장치들, 인터넷으로부터의 반송파, 또는 RAM 또는 ROM의 다른 형태들과 같은, 다른 유형의 컴퓨터 판독가능 매체 상에 저장되거나 그로부터 판독될 수도 있다. 또한, 개시된 방법들의 단계들은, 본 발명에서 벗어나지 않고, 단계들을 재정리하는 것 및/또는 단계들을 삽입하거나 삭제하는 것을 포함하여, 임의의 방식으로 수정될 수 있다.
여기에 포함된 코드 내의 저작권을 포함한 모든 권리들은 출원인에 귀속되고 출원인의 재산이다. 출원인은 여기에 포함된 코드 내의 모든 권리들을 보유 및 유보하고, 허여된 특허의 복제와 관련해서만 자료를 복제하는 허가를 부여하고 이외의 어떤 다른 목적에 대해서도 허가를 부여하지 않는다.
본 명세서는 예시들을 포함하지만, 본 발명의 범위는 다음의 청구항들에 의해 지시된다. 또한, 본 명세서는 구조적 특징들 및/또는 방법적 동작들에 특정한 언어로 설명되었지만, 청구항들은 위에 설명된 특징들 또는 동작들에 제한되지 않는다. 오히려, 위에 설명된 그 특정한 특징들 및 동작들은 본 발명의 실시예들에 대한 예시들로서 개시된다.
Claims (10)
- 대화 학습 및 정정(conversational learning and correction)을 제공하는 방법으로서,
에이전트에 의해, 제1 사용자로부터 자연어 구절(natural language phrase)을 수신하는 단계;
상기 자연어 구절과 연관된 적어도 하나의 제2 사용자를 식별하는 단계;
상기 제1 사용자 및 상기 적어도 하나의 제2 사용자에 따라 컨텍스트 상태(context state)를 생성하는 단계;
상기 컨텍스트 상태에 따라 상기 자연어 구절을 에이전트 동작(agent action)으로 변환하는 단계;
상기 에이전트 동작을 상기 사용자에게 디스플레이하는 단계;
상기 사용자로부터 상기 에이전트 동작에 대한 정정을 수신하는 단계; 및
상기 수신된 정정에 따라 상기 컨텍스트 상태를 갱신하는 단계
를 포함하는, 대화 학습 및 정정을 제공하는 방법.
- 제1항에 있어서,
상기 에이전트가 학습 모드로 동작하는 동안 상기 사용자와 연관된 기본 컨텍스트 상태를 생성하는 단계를 더 포함하는, 대화 학습 및 정정을 제공하는 방법. - 제1항에 있어서,
상기 에이전트 동작을 상기 제1 사용자에게 디스플레이하는 단계;
상기 제1 사용자가 상기 에이전트 동작의 수행을 허가하는지를 판정하는 단계;
상기 허가에 따라 상기 컨텍스트 상태를 갱신하는 단계; 및
상기 제1 사용자가 상기 에이전트 동작의 수행을 허가하는지를 판정하는 단계에 응답하여 상기 에이전트 동작을 수행하는 단계를 더 포함하는, 대화 학습 및 정정을 제공하는 방법.
- 제1항에 있어서,
상기 제1 사용자로부터 상기 자연어 구절을 수신하는 단계;
상기 자연어 구절과 연관된 적어도 하나의 제3 사용자를 식별하는 단계;
상기 제1 사용자 및 상기 적어도 하나의 제3 사용자에 따라 제2 컨텍스트 상태를 생성하는 단계; 및
상기 컨텍스트 상태에 따라 상기 자연어 구절을 제2 에이전트 동작으로 변환하는 단계를 더 포함하는, 대화 학습 및 정정을 제공하는 방법.
- 제4항에 있어서,
수신된 정정에 따라 상기 제2 컨텍스트 상태를 갱신하는 단계를 더 포함하는, 대화 학습 및 정정을 제공하는 방법.
- 실행될 때 대화 학습 및 정정(conversational learning and correction)을 제공하는 방법을 수행하는 명령어들의 집합을 저장하는 컴퓨터 판독가능한 매체로서, 상기 명령어들의 집합에 의해 수행되는 상기 방법은
제1 사용자 및 제2 사용자와 연관된 컨텍스트 상태를 설정하는 단계;
상기 제1 사용자로부터 구어의 자연어 구절(spoken natural language)을 수신하는 단계;
상기 구어의 자연어 구절을 텍스트-기반 자연어 구절로 변환하는 단계;
상기 텍스트-기반 자연어 구절을 상기 제1 사용자에게 디스플레이하는 단계;
상기 텍스트-기반 자연어 구절에 대한 정정을 수신하는 단계; 및
상기 제1 사용자 및 제2 사용자와 연관된 상기 컨텍스트 상태를 갱신하는 단계를 포함하는, 컴퓨터 판독가능한 매체.
- 제6항에 있어서,
상기 텍스트-기반 자연어 구절은 제안된 하이퍼텍스트 링크를 디스플레이하는 동작, 시각 영상을 디스플레이하는 동작, 및 제안된 검색 동작을 디스플레이하는 동작 중 적어도 하나를 포함하는 하나 이상의 에이전트 동작을 포함하는, 컴퓨터 판독가능한 매체.
- 제6항에 있어서,
상기 정정은 상기 구어의 자연어 구절과 연관된 축약 단어(shortcut word)의 확장을 포함하는, 컴퓨터 판독가능한 매체.
- 제6항에 있어서,
상기 방법은
상기 갱신된 컨텍스트 상태를 저장하는 단계; 및
상기 제1 사용자 및 제2 사용자 간의 후속 대화를 위해 상기 갱신된 컨텍스트 상태를 로드하는 단계를 더 포함하는, 컴퓨터 판독가능한 매체.
- 대화 학습 및 정정을 제공하는 시스템으로서,
상기 시스템은
메모리 저장소; 및
상기 메모리 저장소와 연결된 프로세싱 유닛을 포함하고,
상기 프로세싱 유닛은
제1 사용자로부터 구어의 자연어 구절(spoken natural language)을 수신하고,
상기 구어의 자연어 구절이 전달되는 적어도 하나의 제2 사용자를 식별하며,
상기 제1 사용자 및 상기 제2 사용자와 연관된 컨텍스트 상태가 상기 메모리 저장소 상에 존재하는지를 판정하고,
상기 컨텍스트 상태가 상기 메모리 저장소에 존재하지 않는다고 판정하는 것에 응답하여, 상기 적어도 하나의 제2 사용자와 연관된 하나 이상의 특성에 따라 컨텍스트 상태를 생성하며,
상기 메모리 저장소 상에 컨텍스트 상태가 존재한다고 판정하는 것에 응답하여, 상기 컨텍스트 상태를 로드(load)하고,
상기 컨텍스트 상태에 따라 상기 구어의 자연어 구절을 텍스트-기반 자연어 구절로 변환하며,
상기 텍스트-기반 자연어 구절과 연관된 하나 이상의 의미 제안(semantic suggestion)- 상기 하나 이상의 의미 제안은 하이퍼텍스트 링크, 시각 영상, 하나 이상의 추가 텍스트 단어, 및 제안된 동작 중 적어도 하나를 포함함 -을 식별하고,
상기 텍스트-기반 자연어 구절 및 상기 하나 이상의 의미 제안을 제1 사용자에게 표시하며,
사용자로부터 정정- 상기 정정은 텍스트-기반 자연어 구절 및 상기 하나 이상의 의미 제안 중 적어도 하나와 연관됨 -을 수신하고,
상기 수신된 정정에 따라 상기 컨텍스트 상태를 갱신
하도록 구성되는, 대화 학습 및 정정 제공 시스템.
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/077,303 US9858343B2 (en) | 2011-03-31 | 2011-03-31 | Personalization of queries, conversations, and searches |
US13/077,368 US9298287B2 (en) | 2011-03-31 | 2011-03-31 | Combined activation for natural user interface systems |
US13/077,233 US20120253789A1 (en) | 2011-03-31 | 2011-03-31 | Conversational Dialog Learning and Correction |
US13/077,455 US9244984B2 (en) | 2011-03-31 | 2011-03-31 | Location based conversational understanding |
US13/076,862 US9760566B2 (en) | 2011-03-31 | 2011-03-31 | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US13/077,233 | 2011-03-31 | ||
US13/077,396 | 2011-03-31 | ||
US13/077,431 US10642934B2 (en) | 2011-03-31 | 2011-03-31 | Augmented conversational understanding architecture |
US13/077,303 | 2011-03-31 | ||
US13/077,455 | 2011-03-31 | ||
US13/077,431 | 2011-03-31 | ||
US13/076,862 | 2011-03-31 | ||
US13/077,396 US9842168B2 (en) | 2011-03-31 | 2011-03-31 | Task driven user intents |
US13/077,368 | 2011-03-31 | ||
PCT/US2012/030757 WO2012135229A2 (en) | 2011-03-31 | 2012-03-27 | Conversational dialog learning and correction |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140014200A true KR20140014200A (ko) | 2014-02-05 |
Family
ID=46931884
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137025540A KR101922744B1 (ko) | 2011-03-31 | 2012-03-27 | 위치-기반 대화 해석 기법 |
KR20137025578A KR20140014200A (ko) | 2011-03-31 | 2012-03-27 | 구어체 대화 학습 및 정정 |
KR1020137025586A KR101963915B1 (ko) | 2011-03-31 | 2012-03-27 | 강화된 대화 이해 아키텍처 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137025540A KR101922744B1 (ko) | 2011-03-31 | 2012-03-27 | 위치-기반 대화 해석 기법 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137025586A KR101963915B1 (ko) | 2011-03-31 | 2012-03-27 | 강화된 대화 이해 아키텍처 |
Country Status (5)
Country | Link |
---|---|
EP (6) | EP2691949A4 (ko) |
JP (4) | JP6105552B2 (ko) |
KR (3) | KR101922744B1 (ko) |
CN (8) | CN106383866B (ko) |
WO (7) | WO2012135218A2 (ko) |
Families Citing this family (205)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10032127B2 (en) | 2011-02-18 | 2018-07-24 | Nuance Communications, Inc. | Methods and apparatus for determining a clinician's intent to order an item |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
WO2014025990A1 (en) | 2012-08-10 | 2014-02-13 | Nuance Communications, Inc. | Virtual agent communication for electronic devices |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
CN105190628B (zh) * | 2013-03-01 | 2019-10-11 | 纽昂斯通讯公司 | 确定临床医生的预订项目的意图的方法和设备 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US9436287B2 (en) * | 2013-03-15 | 2016-09-06 | Qualcomm Incorporated | Systems and methods for switching processing modes using gestures |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
US9589565B2 (en) | 2013-06-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US9311298B2 (en) | 2013-06-21 | 2016-04-12 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN104714954A (zh) * | 2013-12-13 | 2015-06-17 | 中国电信股份有限公司 | 基于上下文理解的信息搜索方法和系统 |
US20150170053A1 (en) * | 2013-12-13 | 2015-06-18 | Microsoft Corporation | Personalized machine learning models |
US20170017501A1 (en) | 2013-12-16 | 2017-01-19 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
US10015770B2 (en) | 2014-03-24 | 2018-07-03 | International Business Machines Corporation | Social proximity networks for mobile phones |
US9529794B2 (en) | 2014-03-27 | 2016-12-27 | Microsoft Technology Licensing, Llc | Flexible schema for language model customization |
US20150278370A1 (en) * | 2014-04-01 | 2015-10-01 | Microsoft Corporation | Task completion for natural language input |
US10111099B2 (en) | 2014-05-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Distributing content in managed wireless distribution networks |
US9874914B2 (en) | 2014-05-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Power management contracts for accessory devices |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9355640B2 (en) * | 2014-06-04 | 2016-05-31 | Google Inc. | Invoking action responsive to co-presence determination |
US9717006B2 (en) | 2014-06-23 | 2017-07-25 | Microsoft Technology Licensing, Llc | Device quarantine in a wireless network |
JP6275569B2 (ja) | 2014-06-27 | 2018-02-07 | 株式会社東芝 | 対話装置、方法およびプログラム |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9824079B1 (en) | 2014-07-11 | 2017-11-21 | Google Llc | Providing actions for mobile onscreen content |
US10146409B2 (en) * | 2014-08-29 | 2018-12-04 | Microsoft Technology Licensing, Llc | Computerized dynamic splitting of interaction across multiple content |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
KR102188268B1 (ko) * | 2014-10-08 | 2020-12-08 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US10311869B2 (en) | 2014-10-21 | 2019-06-04 | Robert Bosch Gmbh | Method and system for automation of response selection and composition in dialog systems |
KR102329333B1 (ko) * | 2014-11-12 | 2021-11-23 | 삼성전자주식회사 | 질의를 처리하는 장치 및 방법 |
US9836452B2 (en) * | 2014-12-30 | 2017-12-05 | Microsoft Technology Licensing, Llc | Discriminating ambiguous expressions to enhance user experience |
US10713005B2 (en) | 2015-01-05 | 2020-07-14 | Google Llc | Multimodal state circulation |
US10572810B2 (en) | 2015-01-07 | 2020-02-25 | Microsoft Technology Licensing, Llc | Managing user interaction for input understanding determinations |
WO2016129767A1 (ko) * | 2015-02-13 | 2016-08-18 | 주식회사 팔락성 | 온라인 사이트 링크방법 |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US9792281B2 (en) * | 2015-06-15 | 2017-10-17 | Microsoft Technology Licensing, Llc | Contextual language generation by leveraging language understanding |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10249297B2 (en) | 2015-07-13 | 2019-04-02 | Microsoft Technology Licensing, Llc | Propagating conversational alternatives using delayed hypothesis binding |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
KR20170033722A (ko) * | 2015-09-17 | 2017-03-27 | 삼성전자주식회사 | 사용자의 발화 처리 장치 및 방법과, 음성 대화 관리 장치 |
US10262654B2 (en) * | 2015-09-24 | 2019-04-16 | Microsoft Technology Licensing, Llc | Detecting actionable items in a conversation among participants |
US10970646B2 (en) * | 2015-10-01 | 2021-04-06 | Google Llc | Action suggestions for user-selected content |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
KR102393928B1 (ko) | 2015-11-10 | 2022-05-04 | 삼성전자주식회사 | 응답 메시지를 추천하는 사용자 단말 장치 및 그 방법 |
WO2017090954A1 (en) * | 2015-11-24 | 2017-06-01 | Samsung Electronics Co., Ltd. | Electronic device and operating method thereof |
KR102502569B1 (ko) | 2015-12-02 | 2023-02-23 | 삼성전자주식회사 | 시스템 리소스 관리를 위한 방법 및 장치 |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US9905248B2 (en) | 2016-02-29 | 2018-02-27 | International Business Machines Corporation | Inferring user intentions based on user conversation data and spatio-temporal data |
US9978396B2 (en) | 2016-03-16 | 2018-05-22 | International Business Machines Corporation | Graphical display of phone conversations |
US10587708B2 (en) | 2016-03-28 | 2020-03-10 | Microsoft Technology Licensing, Llc | Multi-modal conversational intercom |
US11487512B2 (en) | 2016-03-29 | 2022-11-01 | Microsoft Technology Licensing, Llc | Generating a services application |
US10158593B2 (en) * | 2016-04-08 | 2018-12-18 | Microsoft Technology Licensing, Llc | Proactive intelligent personal assistant |
US10945129B2 (en) * | 2016-04-29 | 2021-03-09 | Microsoft Technology Licensing, Llc | Facilitating interaction among digital personal assistants |
US10409876B2 (en) * | 2016-05-26 | 2019-09-10 | Microsoft Technology Licensing, Llc. | Intelligent capture, storage, and retrieval of information for task completion |
CN109219812B (zh) * | 2016-06-03 | 2023-12-12 | 微软技术许可有限责任公司 | 口语对话系统中的自然语言生成 |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10282218B2 (en) * | 2016-06-07 | 2019-05-07 | Google Llc | Nondeterministic task initiation by a personal assistant module |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10216269B2 (en) * | 2016-06-21 | 2019-02-26 | GM Global Technology Operations LLC | Apparatus and method for determining intent of user based on gaze information |
CN109643308B (zh) * | 2016-08-23 | 2023-03-28 | 伊路米纳有限公司 | 确定相关的本体数据的语义距离系统及方法 |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10446137B2 (en) | 2016-09-07 | 2019-10-15 | Microsoft Technology Licensing, Llc | Ambiguity resolving conversational understanding system |
US10503767B2 (en) * | 2016-09-13 | 2019-12-10 | Microsoft Technology Licensing, Llc | Computerized natural language query intent dispatching |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US9940390B1 (en) * | 2016-09-27 | 2018-04-10 | Microsoft Technology Licensing, Llc | Control system using scoped search and conversational interface |
CN107885744B (zh) * | 2016-09-29 | 2023-01-03 | 微软技术许可有限责任公司 | 对话式的数据分析 |
US10535005B1 (en) | 2016-10-26 | 2020-01-14 | Google Llc | Providing contextual actions for mobile onscreen content |
JP6697373B2 (ja) | 2016-12-06 | 2020-05-20 | カシオ計算機株式会社 | 文生成装置、文生成方法及びプログラム |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
CN110249326B (zh) * | 2017-02-08 | 2023-07-14 | 微软技术许可有限责任公司 | 自然语言内容生成器 |
US10643601B2 (en) * | 2017-02-09 | 2020-05-05 | Semantic Machines, Inc. | Detection mechanism for automated dialog systems |
CN116991971A (zh) * | 2017-02-23 | 2023-11-03 | 微软技术许可有限责任公司 | 可扩展对话系统 |
WO2018156978A1 (en) | 2017-02-23 | 2018-08-30 | Semantic Machines, Inc. | Expandable dialogue system |
US10798027B2 (en) * | 2017-03-05 | 2020-10-06 | Microsoft Technology Licensing, Llc | Personalized communications using semantic memory |
US10237209B2 (en) * | 2017-05-08 | 2019-03-19 | Google Llc | Initializing a conversation with an automated agent via selectable graphical element |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10664533B2 (en) * | 2017-05-24 | 2020-05-26 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to determine response cue for digital assistant based on context |
US10679192B2 (en) * | 2017-05-25 | 2020-06-09 | Microsoft Technology Licensing, Llc | Assigning tasks and monitoring task performance based on context extracted from a shared contextual graph |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10742435B2 (en) * | 2017-06-29 | 2020-08-11 | Google Llc | Proactive provision of new content to group chat participants |
US11132499B2 (en) | 2017-08-28 | 2021-09-28 | Microsoft Technology Licensing, Llc | Robust expandable dialogue system |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10546023B2 (en) | 2017-10-03 | 2020-01-28 | Google Llc | Providing command bundle suggestions for an automated assistant |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US11341422B2 (en) | 2017-12-15 | 2022-05-24 | SHANGHAI XIAOl ROBOT TECHNOLOGY CO., LTD. | Multi-round questioning and answering methods, methods for generating a multi-round questioning and answering system, and methods for modifying the system |
CN110019718B (zh) * | 2017-12-15 | 2021-04-09 | 上海智臻智能网络科技股份有限公司 | 修改多轮问答系统的方法、终端设备以及存储介质 |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10839160B2 (en) * | 2018-01-19 | 2020-11-17 | International Business Machines Corporation | Ontology-based automatic bootstrapping of state-based dialog systems |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
KR102635811B1 (ko) * | 2018-03-19 | 2024-02-13 | 삼성전자 주식회사 | 사운드 데이터를 처리하는 시스템 및 시스템의 제어 방법 |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10685075B2 (en) | 2018-04-11 | 2020-06-16 | Motorola Solutions, Inc. | System and method for tailoring an electronic digital assistant query as a function of captured multi-party voice dialog and an electronically stored multi-party voice-interaction template |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
WO2020044990A1 (ja) | 2018-08-29 | 2020-03-05 | パナソニックIpマネジメント株式会社 | 電力変換システム及び蓄電システム |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
CN111428721A (zh) * | 2019-01-10 | 2020-07-17 | 北京字节跳动网络技术有限公司 | 词语释义的确定方法、装置、设备及存储介质 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11783827B2 (en) | 2020-11-06 | 2023-10-10 | Apple Inc. | Determining suggested subsequent user actions during digital assistant interaction |
EP4174848A1 (en) * | 2021-10-29 | 2023-05-03 | Televic Rail NV | Improved speech to text method and system |
CN116644810B (zh) * | 2023-05-06 | 2024-04-05 | 国网冀北电力有限公司信息通信分公司 | 一种基于知识图谱实现的电网故障风险处置方法及装置 |
Family Cites Families (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5265014A (en) * | 1990-04-10 | 1993-11-23 | Hewlett-Packard Company | Multi-modal user interface |
US5748974A (en) * | 1994-12-13 | 1998-05-05 | International Business Machines Corporation | Multimodal natural language interface for cross-application tasks |
US5970446A (en) * | 1997-11-25 | 1999-10-19 | At&T Corp | Selective noise/channel/coding models and recognizers for automatic speech recognition |
CN1313972A (zh) * | 1998-08-24 | 2001-09-19 | Bcl计算机有限公司 | 自适应的自然语言接口 |
US6499013B1 (en) * | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
US6332120B1 (en) * | 1999-04-20 | 2001-12-18 | Solana Technology Development Corporation | Broadcast speech recognition system for keyword monitoring |
JP3530109B2 (ja) * | 1999-05-31 | 2004-05-24 | 日本電信電話株式会社 | 大規模情報データベースに対する音声対話型情報検索方法、装置および記録媒体 |
WO2000073900A1 (en) * | 1999-06-01 | 2000-12-07 | Jacquez Geoffrey M | Help system for a computer related application |
US6598039B1 (en) * | 1999-06-08 | 2003-07-22 | Albert-Inc. S.A. | Natural language interface for searching database |
JP3765202B2 (ja) * | 1999-07-09 | 2006-04-12 | 日産自動車株式会社 | 対話型情報検索装置、コンピュータを用いた対話型情報検索方法及び対話型情報検索処理を行うプログラムを記録したコンピュータ読取り可能な媒体 |
JP2001125896A (ja) * | 1999-10-26 | 2001-05-11 | Victor Co Of Japan Ltd | 自然言語対話システム |
US7050977B1 (en) * | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
JP2002024285A (ja) * | 2000-06-30 | 2002-01-25 | Sanyo Electric Co Ltd | ユーザ支援方法およびユーザ支援装置 |
JP2002082748A (ja) * | 2000-09-06 | 2002-03-22 | Sanyo Electric Co Ltd | ユーザ支援装置 |
US7197120B2 (en) * | 2000-12-22 | 2007-03-27 | Openwave Systems Inc. | Method and system for facilitating mediated communication |
GB2372864B (en) * | 2001-02-28 | 2005-09-07 | Vox Generation Ltd | Spoken language interface |
JP2003115951A (ja) * | 2001-10-09 | 2003-04-18 | Casio Comput Co Ltd | 話題情報提供システムおよび話題情報提供方法 |
US7224981B2 (en) * | 2002-06-20 | 2007-05-29 | Intel Corporation | Speech recognition of mobile devices |
US7693720B2 (en) * | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
EP1411443A1 (en) * | 2002-10-18 | 2004-04-21 | Hewlett Packard Company, a Delaware Corporation | Context filter |
JP2004212641A (ja) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | 音声入力システム及び音声入力システムを備えた端末装置 |
JP2004328181A (ja) * | 2003-04-23 | 2004-11-18 | Sharp Corp | 電話機及び電話網システム |
JP4441782B2 (ja) * | 2003-05-14 | 2010-03-31 | 日本電信電話株式会社 | 情報提示方法及び情報提示装置 |
JP2005043461A (ja) * | 2003-07-23 | 2005-02-17 | Canon Inc | 音声認識方法及び音声認識装置 |
KR20050032649A (ko) * | 2003-10-02 | 2005-04-08 | (주)이즈메이커 | 인공생명을 학습시키는 방법 및 시스템 |
US7747601B2 (en) * | 2006-08-14 | 2010-06-29 | Inquira, Inc. | Method and apparatus for identifying and classifying query intent |
US7720674B2 (en) * | 2004-06-29 | 2010-05-18 | Sap Ag | Systems and methods for processing natural language queries |
JP4434972B2 (ja) * | 2005-01-21 | 2010-03-17 | 日本電気株式会社 | 情報提供システム、情報提供方法及びそのプログラム |
ATE510259T1 (de) * | 2005-01-31 | 2011-06-15 | Ontoprise Gmbh | Abbilden von web-diensten auf ontologien |
GB0502259D0 (en) * | 2005-02-03 | 2005-03-09 | British Telecomm | Document searching tool and method |
CN101120341A (zh) * | 2005-02-06 | 2008-02-06 | 凌圭特股份有限公司 | 以自然语言进行移动式信息访问的方法和设备 |
US20060206333A1 (en) * | 2005-03-08 | 2006-09-14 | Microsoft Corporation | Speaker-dependent dialog adaptation |
US7409344B2 (en) * | 2005-03-08 | 2008-08-05 | Sap Aktiengesellschaft | XML based architecture for controlling user interfaces with contextual voice commands |
US7734557B2 (en) * | 2005-04-05 | 2010-06-08 | The Board Of Trustees Of Leland Stanford Junior University | Methods, software, and systems for knowledge base coordination |
US7991607B2 (en) * | 2005-06-27 | 2011-08-02 | Microsoft Corporation | Translation and capture architecture for output of conversational utterances |
US7640160B2 (en) * | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US7822699B2 (en) * | 2005-11-30 | 2010-10-26 | Microsoft Corporation | Adaptive semantic reasoning engine |
US7627466B2 (en) * | 2005-11-09 | 2009-12-01 | Microsoft Corporation | Natural language interface for driving adaptive scenarios |
US20070136222A1 (en) | 2005-12-09 | 2007-06-14 | Microsoft Corporation | Question and answer architecture for reasoning and clarifying intentions, goals, and needs from contextual clues and content |
US20070143410A1 (en) * | 2005-12-16 | 2007-06-21 | International Business Machines Corporation | System and method for defining and translating chat abbreviations |
CN100373313C (zh) * | 2006-01-12 | 2008-03-05 | 广东威创视讯科技股份有限公司 | 一种用于交互式输入设备的智能识别编码方法 |
US8209407B2 (en) * | 2006-02-10 | 2012-06-26 | The United States Of America, As Represented By The Secretary Of The Navy | System and method for web service discovery and access |
JP4810609B2 (ja) * | 2006-06-13 | 2011-11-09 | マイクロソフト コーポレーション | サーチエンジンダッシュボード |
US20080005068A1 (en) * | 2006-06-28 | 2008-01-03 | Microsoft Corporation | Context-based search, retrieval, and awareness |
US8204739B2 (en) * | 2008-04-15 | 2012-06-19 | Mobile Technologies, Llc | System and methods for maintaining speech-to-speech translation in the field |
CN1963752A (zh) * | 2006-11-28 | 2007-05-16 | 李博航 | 基于自然语言的电子设备人机交互操作界面技术 |
EP2122542B1 (en) * | 2006-12-08 | 2017-11-01 | Medhat Moussa | Architecture, system and method for artificial neural network implementation |
US20080172359A1 (en) * | 2007-01-11 | 2008-07-17 | Motorola, Inc. | Method and apparatus for providing contextual support to a monitored communication |
US20080172659A1 (en) | 2007-01-17 | 2008-07-17 | Microsoft Corporation | Harmonizing a test file and test configuration in a revision control system |
US20080201434A1 (en) | 2007-02-16 | 2008-08-21 | Microsoft Corporation | Context-Sensitive Searches and Functionality for Instant Messaging Applications |
US20090076917A1 (en) * | 2007-08-22 | 2009-03-19 | Victor Roditis Jablokov | Facilitating presentation of ads relating to words of a message |
US7720856B2 (en) * | 2007-04-09 | 2010-05-18 | Sap Ag | Cross-language searching |
US8762143B2 (en) * | 2007-05-29 | 2014-06-24 | At&T Intellectual Property Ii, L.P. | Method and apparatus for identifying acoustic background environments based on time and speed to enhance automatic speech recognition |
US7788276B2 (en) * | 2007-08-22 | 2010-08-31 | Yahoo! Inc. | Predictive stemming for web search with statistical machine translation models |
BRPI0816088A2 (pt) * | 2007-08-31 | 2015-03-03 | Microsoft Corp | Identificação de relacionamento semânticos em fala relatada |
US8165886B1 (en) * | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8504621B2 (en) * | 2007-10-26 | 2013-08-06 | Microsoft Corporation | Facilitating a decision-making process |
JP2009116733A (ja) * | 2007-11-08 | 2009-05-28 | Nec Corp | アプリケーション検索システム、アプリケーション検索方法、モニタ端末、検索サーバおよびプログラム |
JP5158635B2 (ja) * | 2008-02-28 | 2013-03-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | パーソナル・サービス支援のための方法、システム、および装置 |
US20090234655A1 (en) * | 2008-03-13 | 2009-09-17 | Jason Kwon | Mobile electronic device with active speech recognition |
CN101499277B (zh) * | 2008-07-25 | 2011-05-04 | 中国科学院计算技术研究所 | 一种服务智能导航方法和系统 |
US8874443B2 (en) * | 2008-08-27 | 2014-10-28 | Robert Bosch Gmbh | System and method for generating natural language phrases from user utterances in dialog systems |
JP2010128665A (ja) * | 2008-11-26 | 2010-06-10 | Kyocera Corp | 情報端末及び会話補助プログラム |
JP2010145262A (ja) * | 2008-12-19 | 2010-07-01 | Pioneer Electronic Corp | ナビゲーション装置 |
US8326637B2 (en) * | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
JP2010230918A (ja) * | 2009-03-26 | 2010-10-14 | Fujitsu Ten Ltd | 検索装置 |
US8700665B2 (en) * | 2009-04-27 | 2014-04-15 | Avaya Inc. | Intelligent conference call information agents |
US20100281435A1 (en) * | 2009-04-30 | 2010-11-04 | At&T Intellectual Property I, L.P. | System and method for multimodal interaction using robust gesture processing |
KR101622111B1 (ko) * | 2009-12-11 | 2016-05-18 | 삼성전자 주식회사 | 대화 시스템 및 그의 대화 방법 |
KR101007336B1 (ko) * | 2010-06-25 | 2011-01-13 | 한국과학기술정보연구원 | 온톨로지 기반 개인화 서비스 시스템 및 방법 |
US20120253789A1 (en) | 2011-03-31 | 2012-10-04 | Microsoft Corporation | Conversational Dialog Learning and Correction |
-
2012
- 2012-03-27 WO PCT/US2012/030740 patent/WO2012135218A2/en active Application Filing
- 2012-03-27 EP EP12763866.6A patent/EP2691949A4/en not_active Ceased
- 2012-03-27 EP EP12764494.6A patent/EP2691870A4/en not_active Ceased
- 2012-03-27 WO PCT/US2012/030757 patent/WO2012135229A2/en active Application Filing
- 2012-03-27 WO PCT/US2012/030636 patent/WO2012135157A2/en unknown
- 2012-03-27 WO PCT/US2012/030751 patent/WO2012135226A1/en unknown
- 2012-03-27 JP JP2014502718A patent/JP6105552B2/ja active Active
- 2012-03-27 KR KR1020137025540A patent/KR101922744B1/ko active IP Right Grant
- 2012-03-27 WO PCT/US2012/030730 patent/WO2012135210A2/en unknown
- 2012-03-27 EP EP12765896.1A patent/EP2691877A4/en not_active Withdrawn
- 2012-03-27 JP JP2014502721A patent/JP2014512046A/ja active Pending
- 2012-03-27 JP JP2014502723A patent/JP6087899B2/ja not_active Expired - Fee Related
- 2012-03-27 KR KR20137025578A patent/KR20140014200A/ko not_active Application Discontinuation
- 2012-03-27 KR KR1020137025586A patent/KR101963915B1/ko active IP Right Grant
- 2012-03-27 EP EP12763913.6A patent/EP2691885A4/en not_active Ceased
- 2012-03-29 CN CN201610801496.1A patent/CN106383866B/zh active Active
- 2012-03-29 CN CN201210087420.9A patent/CN102737096B/zh active Active
- 2012-03-30 WO PCT/US2012/031736 patent/WO2012135791A2/en unknown
- 2012-03-30 CN CN201210090634.1A patent/CN102750311B/zh active Active
- 2012-03-30 EP EP12765100.8A patent/EP2691876A4/en not_active Ceased
- 2012-03-30 CN CN201210090349.XA patent/CN102737099B/zh active Active
- 2012-03-30 WO PCT/US2012/031722 patent/WO2012135783A2/en unknown
- 2012-03-30 EP EP12764853.3A patent/EP2691875A4/en not_active Ceased
- 2012-03-30 CN CN201210091176.3A patent/CN102737101B/zh active Active
- 2012-03-31 CN CN201210092263.0A patent/CN102750270B/zh active Active
- 2012-03-31 CN CN201210093414.4A patent/CN102737104B/zh active Active
- 2012-03-31 CN CN201210101485.4A patent/CN102750271B/zh not_active Expired - Fee Related
-
2017
- 2017-03-01 JP JP2017038097A patent/JP6305588B2/ja active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20140014200A (ko) | 구어체 대화 학습 및 정정 | |
US10733983B2 (en) | Parameter collection and automatic dialog generation in dialog systems | |
US10296587B2 (en) | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof | |
US20120253789A1 (en) | Conversational Dialog Learning and Correction | |
US10909325B2 (en) | Multi-turn cross-domain natural language understanding systems, building platforms, and methods | |
US10642934B2 (en) | Augmented conversational understanding architecture | |
KR102357685B1 (ko) | 병렬 처리용 하이브리드 클라이언트/서버 아키텍처 | |
US9858343B2 (en) | Personalization of queries, conversations, and searches | |
RU2352979C2 (ru) | Синхронное понимание семантических объектов для высокоинтерактивного интерфейса | |
KR102231733B1 (ko) | 환경 인식 다이얼로그 정책 및 응답 생성 | |
KR20040103445A (ko) | 음성 애플리케이션 언어 태그로 구현된 의미 객체 동기 이해 | |
CN114647410A (zh) | 用于使用用户界面创作平台来创作任务的方法和系统 | |
US20180061393A1 (en) | Systems and methods for artifical intelligence voice evolution | |
Reitter | Hybrid Planning and Realization of Coherent Utterances for Multimodal Natural Language Dialogue Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |