KR20130113307A - 이력 데이터를 이용한 연락처 정보의 명확화 - Google Patents
이력 데이터를 이용한 연락처 정보의 명확화 Download PDFInfo
- Publication number
- KR20130113307A KR20130113307A KR1020127030128A KR20127030128A KR20130113307A KR 20130113307 A KR20130113307 A KR 20130113307A KR 1020127030128 A KR1020127030128 A KR 1020127030128A KR 20127030128 A KR20127030128 A KR 20127030128A KR 20130113307 A KR20130113307 A KR 20130113307A
- Authority
- KR
- South Korea
- Prior art keywords
- contact
- user
- contact information
- item
- affinity score
- Prior art date
Links
- 238000004891 communication Methods 0.000 claims abstract description 130
- 230000003993 interaction Effects 0.000 claims abstract description 102
- 230000000977 initiatory effect Effects 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000005236 sound signal Effects 0.000 claims abstract description 31
- 230000007704 transition Effects 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 9
- 210000004185 liver Anatomy 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 15
- 238000013459 approach Methods 0.000 description 24
- 238000009826 distribution Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000006187 pill Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 240000007643 Phytolacca americana Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
- G06F16/24578—Query processing with adaptation to user needs using ranking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/274—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
- H04M1/2745—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
- H04M1/27453—Directories allowing storage of additional subscriber data, e.g. metadata
- H04M1/27457—Management thereof, e.g. manual editing of data
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/60—Details of telephonic subscriber devices logging of communication history, e.g. outgoing or incoming calls, missed calls, messages or URLs
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Telephonic Communication Services (AREA)
- Information Transfer Between Computers (AREA)
Abstract
본 발명은 연락처 정보의 명확화를 위한 컴퓨터 저장 매체를 포함한 장치, 시스템, 및 방법을 개시한다. 본 방법은 오디오 신호를 수신하는 단계, 두 개 이상의 연락처 정보의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하고, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성을 추가적인 근거로 하여, 친근성 점수를 생성하는 단계, 및 통신 개시 문법을 생성하는 단계를 포함한다. 기본 아이디어는 보이스 인식 프로세스를 수행할 때, 전화 수신인 및 전화 목적지를 갖는 호출 이력을 계정(account)에 저장하여, 음성 인식에 의한 호출을 개시하는 개선된 방법이다.
Description
본 출원은 2010.5.19.자 출원된 미국 특허출원 제12/782,862호(발명의 명칭: DISAMBIGUATION OF CONTACT INFORMATION USING HISTORICAL DATA)에 대한 우선권을 주장하며, 해당 출원에 개시된 내용은 참조로서 여기에 통합된다.
본 명세서는 음성 인식(speech recognition)에 관한 것이다.
모바일 디바이스의 사용자는 예를 들면, 키보드 상에서 타이핑을 하거나 마이크로 폰으로 말함으로써 입력을 제공할 수 있다. 사용자가 보이스 다이얼링을 이용하여 전화 걸기(telephone call)의 개시를 시도할 때, 다른 연락처가 유사한 발음의 이름을 갖는 경우, 또는 사용자가 연락처와 연관된 특정한 주소나 위치를 특정하는 것에 실패한 경우, 모바일 디바이스는 틀린 연락처에 다이얼링을 할 수 있다.
모바일 디바이스의 사용자가 다른 사람과의 통신을 개시하기 위해 연락처의 이름을 말할 때, 그 음성 언어(utterance)는 적어도 두 가지의 차원에 있어서 일반적으로 명확화되어야 한다. 본 명세서에서 "인식의 품질(quality of recognition)" 차원으로 언급되는, 첫 번째 차원에 있어서의 명확화는 음성 언어의 소리를 발화자(speaker)가 말했을 수 있는 용어(term)들로 매칭시키는 것을 포함한다. 하나의 예시에서, 인식의 품질 차원에 있어서의 명확화는 발화자가 그 발음상 "필(pill) 호출"로 표기될 수 있는 음성 언어를 말하였을 때, 그들이 "빌(Bill) 호출"이라고 말할 의도였는지 또는 "필(Phil) 호출"이라고 말할 의도였는지를 판단하는 것을 포함할 수 있다.
본 명세서에서 "발화자 의도(speaker intent)" 차원으로 언급되는, 두 번째 차원에서의 명확화는 발화자가 음성 언어를 말할 때 의도했을 수 있는 것을 판단하는 것과 관련이 있다. 예를 들면, 발화자가 용어 "빌(Bill) 호출"을 말하려 했다고 가정하면, 발화자 의도 차원에서의 명확화는 다수의 연락처들 가운데 사용자가 호출하려 의도하였던 "빌(Bill)"이라는 이름을 가진 연락처를 판단하거나 또는 발화자가 어쩌면 "빌"의 집 또는 직장으로 이름이 부여된 특정 연락처를 호출하려 의도했는지를 판단하는 것을 포함할 수 있다.
자동 음성 인식("ASR: automated speech recognition") 엔진은 인식 차원(recognition dimension) 및 발화자 의도 차원의 품질, 이 두가지 면에서 음성 언어를 명확화하기 위하여, 보이스 다이얼링 문법(또는 보다 일반적으로, "통신 개시 문법(communication initiation grammar)")과 같은, 노드들 간의 가중된 트랜지션을 포함하는 문법을 사용할 수 있다. 다른 컨텍스트가 결여된 채로, 상술한 두 예시들을 결합하면, ASR 엔진은 음성 언어 "필(pill) 호출"가 발화되었을 때, 사용자가 "빌의 집 호출"(call Bill at home)을 의도하였었는지 "필의 휴대전화 호출"(call Phil on his cell)을 하려는 의도인지를 판단하기 위해 통신 개시 문법을 사용할 수 있다.
따라서 본 명세서에 기술된 주제의 일 혁신적인 양태는 사용자가 특정 연락처와의 통신을 개시하고자 의도할 확률을 추정하는 단계, 또는 연락처 정보의 특정 항목을 이용하는 단계를 포함하는 방법에 구현될 수 있다. 상기 확률은 사용자와 그 특정 연락처 간의 과거 인터렉션(pst interaction)를 근거로 하여 추정되거나, 해당 연락처와 통신을 개시시킨 연락처 정보의 특정 항목에 대한 과거 사용(past use)를 근거로 하여 추정될 수 있다. 추정된 확률은 통신 개시 문법에서 특정 연락처 또는 특정 연락처 정보와 연관되는, 트랜지션의 가중치를 수정(modify)하는데 사용된다.
우선, 본 명세서에 사용된, "연락처 정보"(또는 "연락처 정보의 항목")는 전화번호, 이메일 주소, 물리적 또는 우편 주소, 사용자 이름, 개인명(personal name), 계정 명(account name), 스크린 이름(screen name), 인스턴트 메시징(IM) 어드레스, 웹사이트 이름, 또는 네트워크 주소와 같은, 통신에서의 수신자 또는 목적지를 나타내는 임의의 코드화 된 또는 코드화 되지 않은 표현을 참조할 수 있다. "통신"이란 임의의 동기식 또는 비동기식 통신(or asynchronous conveyance) 또는 두 사람 또는 사람이 아닌 두 존재 간의 정보(예컨대 이메일 메시지, 또는 인스턴트 메시지와 같은 메시지, 예컨대 전자 파일 또는 물리적 우편과 같은 문서, 예컨대, 전화 통화) 또는 소식(news), 의견(views)의 교환을 참조할 수 있다.
또한, "통신을 개시하는 것"은 직접 또는 간접적으로 통신을 개시하는 것, 진행을 설정하는 것, 발신하는 것, 생성하는 것, 또는 시작하는 것에 대한 동작 및 과 행위를 참조한다. 다양한 컨텍스트에 있어서, 통신을 개시한다는 것은 전화번호를 다이얼링하는 것, 공란 또는 미리 주소를 써 둔 이메일 메시지를 여는 것, 또는 인스턴트 메시징 세션을 개설하는 것, 또는 컴퓨터로 하여금 이러한 행위들을 수행하도록 하는 것을 포함할 수 있다. 예를 들어, 다른 컨텍스트에서는, 통신을 개시하는 것이 전화번호를 다이얼링 한다거나, 공란의 이메일 메시지(blank email message)에 주소를 지정하는 것, 또는 어떤 연락처와의 인스턴트 메시징 세션을 개설하는 것과 같은 동작을 수행하기 위해 소프트웨어 애플리케이션을 명령하는 것을 포함한다. 연락처 정보의 특정 항목을 이용하여 통신이 개시되어야 할 경우, 이러한 정보는 예를 들어, 메타데이터(metadata)와 같이, 통신 개시 동작을 수행하는 명령어와 함께 소프트웨어 애플리케이션으로 전달(pass)될 수 있다. 메타데이터로 연락처 정보의 항목을 전달하는 것은 사용자가 수동으로 연락처 정보를 입력해야 할 필요를 피할 수 있게 한다.
연락처와의 "과거 인터렉션"이란 해당 연락처와 관련된 과거에 개시되었던 또는 완료되었던 통신, 또는 과거 비-통신적 행위(non-communicative act)를 포함할 수 있다. 예를 들어, 과거 인터렉션은 사용자가 어떤 연락처와의 전화 통화를 개시하거나 완료하였을 때, 또는 소정의 기간보다 더 지속한 전화연결을 행하였을 때 발생할 수 있다. 대안적으로, 사용자가 주소록(address book)에 연락처를 추가하거나, 연락처에 의해 작성된 컨텐츠를 판독하거나 액세스하거나, 연락처에 관한 3자와 통신했을 때, 과거 인터렉션이 발생할 수 있으며, 과거 인터렉션은 연락처에 포함되는 사용자들의 클러스터(cluster)에 배정(assign)되거나, 또는 연락처와 물리적으로 가까운 영역 내에 있는지를 위해 판단된다.
전체적으로, 본 명세서에 기술된 주제의 다른 혁신적인 양태는 방법들로 구현될 수 있으며, 그 방법은 연락처 정보의 둘 이상의 항목 각각에 대해 오디오 신호를 수신하는 단계; 사용자가 이전에 연락처 정보의 해당 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하고, 사용자와 연락처 정보의 해당 항목과 연관된 연락처와의 사이에 있었던 하나 이상의 과거 인터렉션에 대한 최신성을 추가적인 근거로 하여, 친근성 점수를 생성하는 단계; 연락처 정보의 상기 항목들 각각에 대해, 연락처 정보의 상기 항목에 대해 생성된 친근성 점수를 근거로 하여, 상기 사용자가 연락처 정보의 항목을 사용하여 통신을 개시하고자 의도할 확률을 추정하는 단계; 연락처 정보의 상기 항목들 각각과 연관된 하나 이상의 트랜지션을 포함하는 통신 개시 문법을 생성하는 단계―연락처 정보의 상기 항목들 각각에 대해, 연락처 정보의 상기 항목과 연관된 하나 이상의 트랜지션은 연락처 정보의 항목에 대해 추정된 확률에 따라 가중화됨―; 연락처 정보의 특정 항목을 선택하기 위해 통신 개시 문법을 이용하여 오디오 신호에 대해 음성 인식을 수행하는 단계; 및 연락처 정보의 특정 항목을 사용하여 통신을 개시하는 단계의 동작들을 포함한다.
이 양태의 다른 구현예들은 대응하는 시스템들, 장치들, 및 상기 방법들의 동작을 수행하도록 구성되고, 컴퓨터 저장 디바이스상에 인코딩된 컴퓨터 프로그램들을 포함한다.
이들 및 다른 구현예들은 후술하는 특징들 가운데 하나 이상을 각기 선택적으로 포함할 수 있다. 예를 들어, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 단계는 상기 연락처를 다이얼한, 보이스 다이얼 음성 인식의 결과를 사용자가 수용한 빈도수를 판단하는 단계; 및 상기 보이스 다이얼 음성 인식의 결과를 상기 사용자가 수용한 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 단계를 더 포함하며; 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 단계는 상기 사용자가 수동으로 상기 연락처를 다이얼한 빈도수를 판단하는 단계; 및 상기 사용자가 수동으로 상기 연락처를 다이얼한 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 단계를 더 포함하며; 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 단계는 상기 사용자가 상기 연락처로 SMS(Short Message Service) 메시지를 송신하였거나 상기 연락처로부터 SMS 메시지를 수신하였던 빈도수를 판단하는 단계; 및 상기 사용자가 상기 연락처로 SMS 메시지를 송신하였거나 상기 연락처로부터 SMS 메시지를 수신하였던 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 단계를 더 포함하며; 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 단계는 상기 사용자가 상기 연락처로 이메일 메시지를 송신하였거나 상기 연락처로부터 이메일 메시지를 수신하였던 빈도수를 판단하는 단계; 및 상기 사용자가 상기 연락처로 이메일 메시지를 송신하였거나 상기 연락처로부터 이메일 메시지를 수신하였던 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 단계를 더 포함하며; 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 단계는 상기 연락처가 소정의 기간 내에 상기 사용자의 주소록에 추가되었는지를 판단하는 단계; 및 상기 연락처가 소정의 기간 내에 상기 사용자의 주소록에 추가되었는지에 대한 판단를 근거로 하여, 상기 친근성 점수를 생성하는 단계를 더 포함하며; 상기 사용자와 연관된 현재 콘텍스트를 참조하는 데이터를 수신하는 단계, 상기 사용자와 상기 연락처 간에 둘 이상의 과거 인터렉션들 각각에 대해, 상기 과거 인터렉션과 연관된 콘텍스트를 참조하는 데이터를 수신하는 단계, 및 상기 사용자와 연관된 상기 현재 콘텍스트와, 상기 과거 인터렉션과 연관된 상기 콘텍스트들과의 비교를 근거로 하여, 상기 둘 이상의 과거 인터렉션의 서브셋을 선택하는 단계를 더 포함하며; 두 개 이상의 연락처 정보의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 단계는 사용자가 이전에 제1 통신 채널을 이용하여 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 제1 부분 친근성 점수(a first partial affinity score)를 생성하는 단계, 사용자가 이전에 제2 통신 채널을 이용하여 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 제2 부분 친근성 점수를 생성하는 단계, 상기 제1 부분 친근성 점수와 상기 제2 부분 친근성 점수에 가중치를 부여하는 단계, 및 상기 친근성 점수를 생성하기 위해, 가중된 제1 부분 친근성 점수와 가중된 부분 친근성 점수를 결합하는 단계를 더 포함하며; 두 개 이상의 연락처 정보의 항목 각각에 대해, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 단계는 상기 사용자와 연락처 정보의 상기 항목 간에 하나 이상의 과거 인터렉션이 발생했을 때, 참조하는 데이터에 지수 감쇠 함수(exponential decay function)를 적용하는 단계를 더 포함하며; 두 개 이상의 연락처 정보의 항목 각각에 대해, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 동작은 소정의 기간 내에서 발생하였던 하나 이상의 과거 인터렉션의 서브셋을 선택하는 단계를 더 포함한다.
본 명세서에 기술된 주제의 특정 구현예들은 후술하는 하나 이상의 장점을 실현하기 위해 구현될 수 있다. 보이스 다이얼링과 같은 음성-개시 통신(voice-initiated communication)의 정확도가 증가될 수 있고, 사용자 경험(user experience)을 향상시키고, 사용자 만족을 증가시킬 수 있다. 사용자 자신의 과거의 행동이 그들의 미래 행동을 추정하는데 사용될 수 있고, 이를 통해 예측된 행동을 개인화할 수 있다. 음성 인식 및 그 밖의 다른 복합적인 작업이 향상된 프로세스 최적화를 고려하고, 컴퓨터 사용의 효율을 증가시키기 위해, 클라이언트 디바이스 대신에 서버측에서 실행될 수도 있다.
본 명세서에 기술된 주제의 하나 이상의 구현들에 대한 상세한 설명은 첨부된 도면과 이하의 상세한 설명에 개시된다. 그 밖의 다른 잠재적인 특징들, 양태들, 및 상기 주제의 장점들은 상세한 설명, 도면, 및 청구범위로부터 명확해질 것이다.
도 1은 음성 입력에 의한 참조되는 연락처 정보를 명확화하기 위해 이력 정보(historical data)를 사용하는 예시적 시스템의 다이어그램이다.
도 2는 연락처 정보를 명확화하기 위한 예시적 프로세스의 순서도이다.
도 3은 예시적 사용자 인터페이스를 나타낸다.
명세서 전반에 있어서, 유사한 참조번호는 상응하는 부분을 나타낸다.
도 2는 연락처 정보를 명확화하기 위한 예시적 프로세스의 순서도이다.
도 3은 예시적 사용자 인터페이스를 나타낸다.
명세서 전반에 있어서, 유사한 참조번호는 상응하는 부분을 나타낸다.
도 1은 연락처 정보를 명확화하기 위해 이력 데이터(113)를 사용하는 예시적 시스템(100)의 다이어그램이다. 특히, 이 시스템(100)은 예를 들어 하나 이상의 네트워크(104)에 접속된, 모바일 클라이언트 통신 디바이스("클라이언트 디바이스")(101)(예컨대, 이동전화기, PDA, 개인용 컴퓨터, 뮤직 플레이어, 태블릿 컴퓨터, 전자책 리더(e-book reader), 또는 그 밖의 다른 프로세싱 디바이스)와 서버(102)(예컨대, ASR(Automated Speech Recognition) 엔진, 탐색 엔진과 연관된 '음성 인식기(speech recognizer)' 또는 하나 이상의 프로세서(103)를 포함하는 다른 디바이스)를 포함한다. 도 1은 또한 예시적 연락처 정보 명확화 프로세스가 시스템(100)에 의해 처리될 때 발생하는 데이터 흐름을 보여주는 상태 (a)∼(j)를 도시한다.
전반적으로, 상태 (a)∼(e)는 클라이언트 디바이스(101)의 사용자(105)가 자신의 연락처 목록(111) 내에 있는 하나 이상의 연락처들과 통신(예컨대, "보이스 다이얼")을 개시할 확률을 추정하는 것에 관련되고, 상태 (f)∼(j)는 연락처 정보를 보다 정확하게 명확화하기 위해 이들 확률을 사용하는 음성 인식기를 조정하는 것에 관련된다. 실제로는 상태 (a)∼(j)가 예시된 순서대로 일어날 수 있지만, 예시된 것과는 다른 순서대로 일어날 수도 있다.
상태 (a) 동안에, 클라이언트 디바이스(101)의 사용자(105)("밥(Bob)")는 클라이언트 디바이스(101)의 마이크로 폰 안에 음성 언어(106)를 말하여, 사용자의 연락처 목록 상에 있는 한 연락처와 통신을 개시하도록 클라이언트 디바이스(101) 상에서 구동중인 애플리케이션에 지시한다. 이 음성 언어(106)는 발음상 "필(pill) 호출"로 표기된다.
배경 잡음 또는 사용자(105)의 말투와 같은 변수들에 따라서, 서버(102)는 "빌(Bill)"의 연락처와 연관된 다수의 전화번호 중 하나를 이용하여 이 음성 언어를 "빌(Bill)"로 이름이 부여된 연락처와의 전화 연결을 개시하라는 음성 명령으로 해석하거나, 또는 "Phil(필)"과 연관된 다수의 전화번호 중 하나를 이용하여 "필"로 이름이 부여된 연락처와의 전화 연결을 개시하라는 명령으로 해석할 수 있다. 서버(102)가 음성 언어(106)에 대하여 다수의 해석 또는 표기를 생성할 수 있기 때문에, 서버(102)는 그 음성 명령을 실행할 수 있기 전에, 사용자(105)의 의도를 추정할 수 있도록 연락처 정보를 명확화해야만 한다.
상태 (b) 동안에, 데이터(107)가 네트워크(104)를 통해 클라이언트 디바이스(101)로부터 서버(102)로 통신된다. 이 데이터(107)는 예를 들면, 음성 언어(106)에 대응하는 오디오 신호(108)(또는 "오디오 파일", "웨이브폼(waveform)" 또는 "샘플")을 포함할 수 있다. 예를 들어, 클라이언트 디바이스(101)는 그 음성 언어(106)를 녹음함으로써 음성 파일(sound file) 또는 데이터 스트림(data stream)을 생성할 수 있으며, 클라이언트 디바이스(101)와 서버(102) 간에 확립된 통신 세션(communication session) 동안에 네트워크들(104)을 통해 음성 파일을 전송할 수 있다. 오디오 신호(108) 자체를 전송하는 대신에, 클라이언트 디바이스(101)는 상기 데이터(107) 내에 오디오 신호(108) 또는 음성 언어(106)를 참조하기 쉽게 첨부하는 정보(예컨대, 서버(102)에 저장된 파일의 이름, 또는 하이퍼링크(hyperlink), 또는 오디오 신호(108)와 연관된 고유 식별자)를 포함할 수 있다.
이 데이터(107)는 또한 사용자(105)를 고유하게 식별하거나, 또는 사용자(105)에게 할당된 클러스터, 클라이언트 디바이스(101), 클라이언트 디바이스(101)와 연관된 유형, 또는 클라이언트 디바이스(101)의 구성요소(특히, 오디오 서브-시스템)와 연관된 유형을 식별하는 식별 데이터(109)를 포함할 수 있다. 식별 데이터(109)는 예를 들면, 영숫자(alphanumeric) 사용자 식별자, 또는 사용자(105)나 클라이언트 디바이스(101)의 이름일 수 있다.
데이터(107)는 또한 음성 언어(106)가 발화되었을 때, 사용자(105) 또는 클라이언트 디바이스(101)와 연관된 현재 컨텍스트(current context)를 기술하는 컨텍스트 데이터를 포함할 수 있다. 이 컨텍스트 데이터(110)는 주위의 또는 환경적인 오디오의 녹음과 같은 오디오 신호를 포함할 수 있다. 다양한 예시들에서, 컨텍스트 데이터(110)는 음성 언어(106)가 발화되어, 클라이언트 디바이스(101)에 의해 수신되거나 전송된 시점의 날짜 및 시간(특히, "화요일 정오")을 참조 표시하거나, 음성 언어(106)가 발화되었을 때 클라이언트 디바이스(101)의 위치를 참조 표시하거나, 클라이언트 디바이스(101)의 유형(특히, "모바일") 또는 클라이언트 디바이스(101)에 의해 구현된 오디오 서브 시스템의 유형을 참조 표시하거나, 음성 언어(106)가 발화되어 클라이언트 디바이스(101)에 의해 수신되거나 전송된 시점에 클라이언트 디바이스(101)가 본체에 결합된 상태(docked)였는지 또는 휴대 상태(holster)였는지를 참조 표시할 수 있거나, 특정 연락처와의 통신이 자동으로 개시되었을 때 또는 특정 연락처 정보가 사용되었을 때, 사용자가 동작 수락 또는 동작 취소를 개시하였었는지를 참조 표시할 수 있거나, 사용자(105)가 음성 언어(106)에 대하여 m-best 목록으로부터의 음성 언어(106)의 대안적 인식을 선택하였는지 여부를 참조 표시하거나, 또는 클라이언트 디바이스(101)가 WiFi 연결로 액세스하였는지 여부를 참조 표시할 수 있다.
상태 (c) 도중에, 서버(102)는 사용자(105)를 고유하게 식별하는 데이터(109)를 사용하여, 사용자와 연관된 연락처 목록(111), 친근성 데이터(affinity data)(112), 및 선택형 통신 개시 문법(optionally communication initiation grammar)(118)을 선택한다. 사용자(105)와 연관된 연락처 목록(111), 친근성 데이터(112), 및 문법(118)은 서버(102)에 의해 저장된 다수의 연락처 목록, 친근성 데이터의 집합, 및 문법들 중에서 선택될 수 있다.
친근성 데이터(112)는 과거 인터렉션에 관한 이력 데이터(113)(예컨대, 사용자와 연락처 목록(111) 내에 저장된 하나 이상의 연락처들 간에 이루어졌던 통신들, 또는 연락처 목록(111)에 저장된 연락처 정보의 하나 이상의 항목들에 대해 사용자(105)가 개시한 과거 인터렉션의 통신, 또는 연락처나 연락처 정보에 관한 비-통신적 행위들)를 포함할 수 있다. 성공적인 및 성공적이지 않은 전화 통화 완료를 인식하는 것 외에, 이력 데이터(113)는 또한 사용자(105)가 수동 개시를 통해 선택했던 연락처 정보, 사용자(105)가 문자(SMS) 메시지로부터 교환해 오던 연락처 정보, 또는 사용자(105)가 이메일이나 그 밖의 다른 유형의 메시지를 보내왔던 연락처 정보를 식별할 수도 있다.
보다 상세하게는, 이력 데이터(113)는 사용자에 의해 개시된 하나 이상의 과거 인터렉션과 연관된 시간들 및 날짜들, 및/또는 과거 인터렉션들과 연관된 가중치(weight)와 승수(multiplier)를 식별할 수 있다. 과거 인터렉션과 연관된 시간들 및 날짜들은 빈도수 및 최신성 통계값(recency statistics)(예컨대, 사용자(105)와 어떤 연락처가 연락처 정보의 특정 항목을 이용하여 지정된 기간 내에 통신하였던 과거 인터렉션의 횟수를 계수한 것)을 생성하는데 사용될 수 있다.
이력 데이터(113)에서 과거 인터렉션과 연관된 가중치는 과거 인터렉션 각각의 유형 또는 품질을 근거로 하여 할당되거나 생성될 수 있다. 예를 들면, 높은 가중치 값은 어떤 연락처와의 완료된 전화 통화와 연관된 것일 수 있으며, 낮은 가중치 값은 미완료되었거나 시도되었던 전화 통화와 연관된 것일 수 있다. 마찬가지로, 높은 가중치 값은 해당 연락처가 수신처("to:") 필드에 등재(list)된 이메일과 연관된 것일 수 있고, 낮은 가중치 값은 해당 연락처가 단지 참조("cc:")에 목록 된 이메일에 할당될 수 있다. 추가로, 높은 가중치(예컨대, 값 5)는 소정의 임계 지속시간 보다 길게 지속된 IM 세션과 연관된 것일 수 있고, 낮은 가중치(예컨대, 값 2)는 소정의 임계 지속시간 보다 짧게 지속된 IM 세션과 연관된 것일 수 있다.
높은 가중치 값은 또한 주소록에 새로운 연락처를 추가하는 동작, 사용자(105)가 이제 막 추가한 연락처와 통신을 개시할 가능성이 높다는 개념을 반영할 동작과 연관될 수 있다. 가중치는 이력 데이터(113) 내에 과거 인터렉션과 연관지어져 저장되거나, 오디오 신호(108)를 수신하는 것에 응답하거나 또는 다른 이벤트가 발생했을 때, 상황에 맞게(on-the-fly) 동적으로 생성될 수 있다.
과거 인터렉션과 연관된 승수는 빈도수 계수값이 그 과거 인터렉션과 연관된 친근성 점수 전체에 미칠 영향을 조정하는데 사용될 수 있다. 예를 들면, 이하에서 보다 자세히 설명된 바와 같이, 제로-값(zero-value) 승수는 오래전에 발생했었던 하나 이상의 과거 인터렉션에 대한 빈도수 계수값에 적용될 수 있는 반면, 양(陽)의 넌-제로(non-zero) 승수는 최근 발생한 하나 이상의 과거 인터렉션에 대한 빈도수 계수값에 적용될 수 있다. 넌-제로 승수를 위해 사용된 값들은 시간 감쇠 효과(time-decaying effect)를 보일 수도 있다.
시간-기반 승수(time-based multipliers) 외에도, 컨텍스트-기반 승수는 빈도수 계수값이 특정 과거 인터렉션들에 대한 친근성 점수 전체에 미칠 영향을 강조하거나 덜 강조(deemphasize)하는데 사용될 수 있다. 예를 들면, 낮은-값 승수(예컨대, 10%)는 서버(102)가 사용자(105)의 현재 컨텍스트와 다른 또는 완전히 다른 것으로 판단한, 텍스트에서 발생한 하나 이상의 과거 인터렉션을 위한 빈도수 계수값에 적용될 수 있다. 반대로, 높은-값 승수(예컨대, 200%)는 서버(102)가 사용자(105)의 현재 컨텍스트와 유사한 또는 동일한 것으로 판단한, 컨텍스트 내에서 발생한 하나 이상의 과거 인터렉션에 대한 빈도수 계수값에 적용될 수 있다. 과거 인터렉션과 연관된 승수들은 이력 데이터(113) 내에 과거 인터렉션과 연관지어져 저장되거나, 또는 오디오 신호(108)를 수신하는 것에 응답하거나 또는 다른 이벤트가 발생했을 때, 상황에 맞게 동적으로 생성될 수 있다.
친근성 데이터(112)는 또한 연락처 목록(111)에 저장된 연락처 정보에 대해 생성된 현재 또는 과거의 친근성 점수(114)를 포함할 수 있다. 예를 들면, 친근성 데이터(112)는 연락처 정보의 각 항목에 대한 '러닝 텔리(running tally)' 친근성 점수를 포함할 수 있다.
테이블(115)은 서버(102) 상의 친근성 데이터(112) 내에 저장될 수 있고, 친근성 점수(120) 및 확률(121)을 생성하는데 사용될 수 있는 데이터를 시각화한 하나의 예시를 제공한다. 특히, 테이블(115)은 사용자(105)가 연락처(117)("빌")의 연락처 정보(116a∼116c)를 이용하여 통신을 개시하였을 때, 및 사용자(105)가 연락처(119)("필")의 연락처 정보(116d∼116f)를 이용하여 통신을 개시하였을 때 발생한 여러 과거 인터렉션을 참조 표시한다. 테이블(115)은 또한 다른 시간 구간을 제외하고 세 개가 겹치는 동안의 연락처 정보(116)의 각 항목에 대한 빈도수 계수값을 포함한다.
보다 상세하게, 테이블(115)은 연락처 정보의 항목(116a), 즉 연락처(117)의 "직장(work)" 이메일 주소가 그 연락처(117)와의 통신을 개시하는데 지난주 동안 46회, 지난달 동안 94회, 지난해 동안 163회 사용되었음을 보여준다. 테이블(115)은 또한 연락처 정보의 항목(116b), 즉 연락처(117)의 "집(home)" 전화번호가 연락처(117)와의 통신을 개시하는데 지난주 동안 16회, 지난달 동안 35회, 지난해 동안 40회 사용되었음을 보여준다. 또한, 테이블(115)은 연락처 정보의 항목(116c), 즉 연락처(117)의 "직장" 전화번호가 연락처(117)와의 통신을 개시하는데 지난주 동안 14회, 지난달 동안 24회, 지난해 동안 90회 사용되었음을 보여준다.
테이블(115)은 또한 연락처 정보의 항목(116d), 즉 연락처(119)의 "직장" 이메일 주소가 연락처(119)와의 통신을 개시하는데 지난주 동안 10회, 지난달 동안 27회, 지난해 동안 52회 사용되었음을 보여준다. 또한, 테이블(115)은 또한 연락처 정보의 항목(116e), 즉 연락처(119)의 "집" 전화번호가 연락처(119)와의 통신을 개시하는데 지난주 동안 15회, 지난달 동안 20회, 지난해 동안 34회 사용되었음을 보여준다. 또한, 테이블(115)은 연락처 정보의 항목(116f), 즉 연락처(119)의 "휴대전화(cell)" 전화번호가 연락처(119)와의 통신을 개시하는데 지난주 동안 18회, 지난달 동안 20회, 지난해 동안 21회 사용되었음을 보여준다.
상태 (d) 동안, 서버(102)는 적어도 연락처 정보의 항목과 연관된 연락처와 사용자가 이전에 통신했던 빈도수, 및 사용자와 연락처 정보의 항목과 연관된 연락처 간의 하나 이상의 과거 인터렉션의 최신성을 근거로 하여 연락처 목록(111) 내에 있는 연락처 정보의 항목에 대한 친근성 점수를 생성한다. 사용자가 이전에 당해 연락처와 통신했던 정도(extent)를 근거로 하여 친근성 점수를 생성함으로써, 서버(102)는 사용자가 가장 자주 통신했던 연락처에 유리하게 보이스 다이얼링 불명료함을 해소할 가능성이 더 높고, 이를 통해 보이스 다이얼링의 정확도를 개선하고, 사용자(105)의 경험을 향상시킨다.
테이블(115)에서 제시된 바와 같이, 친근성 점수(120)는 고정된 기간 내에 발생하는 과거 인터렉션들만을 이용하는 것만으로, 또는 "슬라이딩 윈도우(sliding window)"를 이용하여 생성될 수도 있다. 예를 들면, 친근성 점수는 지난 한 달 동안 전화 연락처의 가중화된 빈도수 계수값을 이용하여 생성될 수 있고, 동일한 연락처에 대해 지난 한 주간 이메일 통신한 것에 대한 가중된 빈도수 계수값에 의해 증대될 수 있다. 슬라이딩 윈도우는 고정된 기간 내에 발생하지 않은 과거 인터렉션에 대한 각각의 빈도수 계수값을 제로-값 승수를 곱함으로써, 이력 데이터(113)에 적용될 수 있다. 테이블(115)에 제시된 바와 같이, 서버(102)는 연락처 정보(116b)에 대하여 58의 친근성 점수(120b)를 산출하고, 연락처 정보(116c)에 대해 47의 친근성 점수(120c)를 산출하며, 연락처 정보(116e)에 대해 25의 친근성 점수(120e)를 산출하고, 연락처 정보(116f)에 대해 25의 친근성 점수(120f)를 산출한다. 따라서 연락처 정보(116b)가 최고 친근성 점수와 연관된다.
친근성 점수(120)는 사용자(105)가 과거에 어떤 연락처와 통신을 개시하기 위해 연락처 정보의 특정 항목을 사용했던 정도에 관련이 있다. 예를 들면, 연락처 정보(116b)에 대한 58의 친근성 점수(120b)는, 사용자(105)가 이전에 통신을 개시함에 있어서, 47의 친근성 점수(120c)를 갖는 연락처 정보(116c)를 이용하여 통신을 개시한 정도보다 더 많이 연락처 정보(116b)를 사용해 왔음을 나타낸다. 다른 점수산정 시스템(scoring system)이 사용된 다른 구현예들에 있어서는, 높은 친근성 점수의 의미가 사용자(105)가 낮은 친근성 점수보다 적은 정도로 컨텍스트를 개시하여 왔음을 나타낼 수도 있다.
상태 (e) 동안, 서버(102)는 사용자(105)가 연락처 정보의 각 항목을 이용하여 통신을 개시하려고 의도할 확률을 추정한다. 몇몇 구현들에서는 이 확률이 연락처 정보의 각각의 항목에 대해 생성된 친근성 점수(120)를 근거로 추정된다.
서버는 많은 방식을 이용하여 확률(121)을 추정할 수 있다. 예를 들면, 연락처 정보의 특정 항목에 대한 확률은, 확를을 생성하기 위해 상수 인자를 곱하거나 모든 상수 점수(120)를 상수 인자로 나눔으로써, 친근성 점수들(120)에 대해 비례 또는 반비례로 설정될 수 있으며, 모든 확률(121)의 합은 최대 1.0이 된다. 대안적으로, 연락처 정보의 특정 항목에 대한 확률은 연락처 정보의 특정 항목에 대한 친근성 점수를 주소록(address book) 내에 있는 연락처 정보의 모든 항목들에 대한 모든 확률 점수들의 합으로 나눔으로써 정해질 수 있다. 디리클레 분포-기반의 접근방식(a Dirichlet distribution-based approach)이 또한 사용될 수도 있다.
테이블(115)에 제시된 바와 같이, 서버(102)는 연락처 정보(116b)에 대해 37%의 확률(121b)을 추정하고, 연락처 정보(116c)에 대해서는 30%의 확률을 추정하고, 연락처 정보(116e)와 연락처 정보(116f)에 대해서는 각각 16%의 확률(121e 및 121f)을 추정한다. 예상되었던 것처럼, 연락처 정보(116b)가 최고 친근성 점수과 연관되고, 마찬가지로 최고 확률에 연관된다.
상태 (f) 동안, 서버(102)는 통신 개시 문법(122)을 생성한다. 통신 개시 문법(122)을 생성하는 것은 이전에 생성되었던 또는 사용자(105)에 대해 선택되었던 통신 개시 문법(118)을 업데이트 하는 것을 포함할 수 있다. 통신 개시 문법(122)은 사용자가 발화할 수 있는 단어들의 법적 시퀀스들(legal sequences of words)을 특정한다. 예를 들면, 이 문법은 다른 것들 중에 "빌의 집 호출(call bill ai home)" 또는 "필에게 다이얼(dial Phil)"와 같은 시퀀스들을 허용할 수 있지만, "피자 주문(order pizza)" 또는 "빌을 꼭 호출해야해(Bill should be called)"와 같은 다른 시퀀스들은 허용하지 않을 수 있다.
통신 개시 문법(122)은 노드들(nodes) 간에 노드들 및 가중된 트랜지션들(예컨대, 트랜지션들(124, 126, 129, 130, 132 및 135))을 포함한다. 이 트랜지션들은 유효한 단어들(예컨대, 연락처들, 명령들 또는 연락처 정보의 항목들을 식별하는 단어들)이 붙여질 수 있으며, 가중치는 그 단어가 그 문장 내에서 뒤따라 나올 확률을 반영할 수 있다. 통신 개시 문법(122)에 있어서, 연락처 정보의 항목에 대한 트랜지션과 연관된 가중치는 서버(102)가 연락처 정보의 해당 항목에 대해 추정한 확률에 따라 설정된다.
상태 (g) 동안, 서버(102) 상의 음성 인식기(138)는 통신 개시 문법(122)을 이용하여 오디오 신호(108) 상에서 음성 인식을 수행하고, 상태 (h) 동안, 연락처 정보의 특정 항목이 선택된다. 특히, 음성 인식기(138)는 통신 개시 문법(122)의 시작 노드(123)에서 시작하여, 제1 노드(125)까지의 첫 번째 트랜지션(124)("호출")을 따른다.
음성 인식기(138)는 이어 32의 가중치로 트랜지션(129)("필")을 따르는 대신에, 67의 가중치를 갖는 제2 번째 노드(127)까지의 트랜지션(125)("빌") 32의 가중치를 갖는 67의 가중치를 갖는 트랜지션(125)("빌(Bill)")을 따름으로써, 연락처 이름 "빌" 과 "필" 간의 불명료함을 해소한다. 또한, 음성 인식기(138)는 이어 노드(134)까지 30의 가중치를 갖는 노드(131)까지의 트랜지션(132)과 0의 가중치를 갖는 노드(136)까지 트랜지션(135)을 따르는 대신, 37의 가중치를 가진 노드(131)까지의 트랜지션(130)("집")을 따름으로써, 연락처 "빌"에 대한 연락처 정보의 여러 항목 간에 불명료함을 해소한다. 음성 언어(106)가 연락처 이름 이후 어떠한 추가 정보도 특정하지 않더라도, 트랜지션(130)이 트랜지션들(130, 132 및 135) 사이에 최고 가중치 값을 갖기 때문에, 음성 인식기(138)는 "집" 위치와 연관된 트랜지션(130)을 따를 것이다.
통신 개시 문법(121)을 통과하자마자, 음성 인식기(138)는 사용자(105)가 음성 언어(106)를 발화했을 때, 사용자(105)가 의도했을 가능성이 높은 연락처 정보로서, 연락처 정보(116b)를 식별하는 데이터(137)를 출력한다.
상태 (i) 동안, 연락처 정보(116b)의 선택된 항목을 이용하여 통신이 개시된다. 예를 들면, 서버(102)는 클라이언트 디바이스(101)로 연락처 정보(116)를 참조 표시한 메시지(139)를 전송할 수 있다. 이 메시지(139)는 클라이언트 디바이스(101)에게 연락처 정보의 항목(116b)을 이용하여 통신을 개시하도록 명령할 수 있다.
상태 (j) 동안, 클라이언트 디바이스(101)는 연락처 정보의 항목(116b)을 이용하여 통신을 개시하고, 발화된 출력(140)을 통해, 사용자에게 통신이 개시되었음을 알린다. 통신은 서버 상의 통신 애플리케이션(141)에 의해 개시될 수도 있다.
도 2는 연락처 정보를 명확화하기 위한 예시적 프로세스(200)의 플로우 차트이다. 간단히 말하면, 프로세스(200)는 오디오 신호를 수신하는 동작, 연락처 정보의 둘 이상의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하고, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성을 추가적인 근거로 하여, 친근성 점수를 생성하는 동작, 연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목에 대해 생성된 상기 친근성 점수를 근거로 하여, 상기 사용자가 연락처 정보의 상기 항목을 사용하여 통신을 개시하려고 의도할 확률을 추정하는 동작을 포함한다. 또한, 프로세스(200)는 연락처 정보의 상기 항목 각각에 연관된 하나 이상의 트랜지션을 포함하는 통신 개시 문법을 생성하는 동작―연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목과 연관된 상기 하나 이상의 트랜지션은 연락처 정보의 상기 항목에 대해 추정된 상기 확률에 따라 가중화됨―과, 연락처 정보의 특정 항목을 선택하기 위해, 상기 통신 개시 문법을 이용하여 상기 오디오 신호에 대해 음성 인식을 수행하는 동작, 및 상기 연락처 정보의 특정 항목을 사용하여 상기 통신을 개시하는 동작을 포함한다.
보다 상세하게는, 프로세스(200)가 시작되면(201), 오디오 신호가 수신된다(202). 이 오디오 신호는 클라이언트 디바이스 상의 컨트롤, 애플리케이션, 또는 음성 입력 방식 에디터(Input Method Editor)("IME")로의 음성 입력으로서 발화된 음성 입력에 대응할 수 있다. 보이스 다이얼링 컨텍스트에 있어서, 오디오 신호는 또한 예컨대 "메튜 스미스의 휴대전화 호출(call Matthew Smith's mobile)" 또는 "메튜 스미스의 집 호출(call Matthew Smith at home)"과 같이 사용자가 호출하기를 원하는 번호의 유형에 관한 몇몇 추가적인 정보를 포함할 수 있다.
다른 구현예에서는, 오디오 신호가 보이스 다이얼링 명령에 대응할 수도 있지만, 사용자가 다른 유형의 통신을 개시하려고 의도한 것일 수도 있다. 예를 들면, 오디오 신호는 클라이언트 디바이스의 사용자가 애플리케이션에 다른 유형의 전자 통신(예컨대, 이메일, 팩스, 인스턴트 메시지, "친구 신청"이나 소셜 네트워크 "포크(poke)", 또는 문자 메시지)을 작성하여(compose)하여 보낼 것을 명령할 때, 녹음될 수 있다.
이 오디오 신호는 클라이언트 디바이스의 사용자가 음성 언어를 발화하기 전에 컨트롤(예컨대, 마이크 아이콘)을 선택할 때, 녹음되고, 이후 녹음이 해제됨에 의해, 클라이언트 디바이스가 오디오 신호를 생성하고 프로세스(200)을 개시하도록 한다. 다른 예에서, 클라이언트 디바이스의 마이크는 사용자가 발화하기 전에 (예컨대, 예측 녹음을 이용하여) 이미 "온(on)" 상태에 있거나, "항상 온(always-on)" 상태에 있을 수도 있다 (예컨대, 사용자가 마이크를 켜지 않고서도 간단하게 말할 수 있음). 음성 언어외에도, 주위의 또는 환경적인 음향과 같은 다른 정보가 상기 오디오 신호 내에 녹음되거나 인코딩될 수 있다.
상기 오디오 신호는 임의의 프로세스를 수행하는 도중에 서버에 의해 수신될 수 있는데, 상기 서버는 탐색 엔진, ASR 엔진, 딕테이션 엔진(dictation engine), 대화 시스템, 또는 표기된 음성을 사용하거나 표기된 음성을 사용하는 소프트웨어 애플리케이션을 인보크하는 임의의 다른 엔진 또는 시스템일 수 있다. 오디오 신호를 서버에 전송함으로써, 클라이언트 디바이스는 국지적(locally)으로 연락처 정보 명료화 및 음성 인식 프로세스를 수행해야 하는 것을 피할 수 있어서, 클라이언트 디바이스에 대한 프로세싱 요구 사항을 줄일 수 있다. 그러나 다른 예시적 구현예들에서는, 음성 인식 또는 연락처 정보 명확화 프로세스가 클라이언트 디바이스에 의해 수행될 수도 있으며, 음성 인식의 출력 또는 연락처 정보 명확화 프로세스가 클라이언트 디바이스에 의해 추가로 처리되거나 서버에게 추가로 전달될 수도 있다. 상기 오디오 신호는 공중 교환 전화망(PSTN;Public Switched Telephone Network), 무선 이동전화망(wireless cellular network), 무선 근거리 통신망(WLAN) 또는 Wi-Fi 망, 3세대(3G) 또는 4세대(4G) 모바일 통신망, 인트라넷과 같은 사설망(private network), 인터넷과 같은 공중망(public network), 또는 이들의 적절한 결합으로 된 임의의 네트워크를 통해, 클라이언트 디바이스로부터 서버로 전달될 수 있다.
친근성 점수는 연락처 정보의 다수의 항목들 각각에 대하여 생성된다(204). 이 친근성 점수는 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하고, 및/또는 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성에 기초하여, 친근성 점수를 생성될 수 있다.
친근성 점수를 생성하는 하나의 접근방식은 연락처 정보의 각 항목에 대해 동일한 친근성 점수를 적용하는 것이다. 예를 들어, 주소록 내에 연락처 정보의 N개의 항목이 있다고 가정하면, 연락처 정보의 각 항목에 1/N의 친근성 점수가 주어진다. 그러나, 이 접근방식은 연락처 정보의 특정 항목이 과거에 연락을 개시하는데 사용되었던 정도를 나타내는 데이터의 사용에 의한 이익을 얻지 못한다.
친근성 점수를 생성하는 다른 접근방식은 빈도수 계수값를 근거로 하여 평탄화된 점수화 단계(smoothed scoring)를 사용한다. 예를 들면, 연락처 정보의 각 항목에 대한 빈도수 계수값(예컨대, 다이얼 이벤트, 호출 개시, 이메일 등의 양)이 가중되거나, 스케일(scale)될 수 있고, 또는 그 밖의 방법으로 친근성 점수로 변환될 수 있다. 이 접근방식은 빈도수 계수값을 활용하는 것인 반면에, 친근성 점수를 결정함에 있어서 각각의 과거 인터렉션에 대한 최신성의 요소는 활용하지 않는다. 그런 이유로, 이 접근방식은 사용자가 시간이 지남에 따라 자신의 호출 패턴이 바뀐 사용자에게는 덜 유익할 수 있다.
세 번째 접근방식은, 슬라이딩 윈도우 접근방식으로 상술되었던 것으로, 소정 기간 내에 발생한 과거 인터렉션에 대한 빈도수 계수값들을 집계함으로써, 친근성 점수를 생성하는 것이다. 예를 들면, 연락처 정보의 특정 항목을 이용하여 최근에 개시되었던 통신의 양(quantity of communication)이 계수될 수 있고, 이 양이 친근성 점수를 생성하는데 가중되거나 스케일될 수 있다. 이러한 접근방식은 친근성 점수를 생성하기 위해, 빈도수와 최신성 정보 둘 모두를 사용하고, 따라서 시간이 지남에 따라 자신의 호출 패턴이 바뀐 사용자에게 유용할 수 있다.
친근성 점수를 생성하는 네 번째 접근방식은 새로운 연락처에 대한 증가(augmentation)에 대해, 지수적으로(exponentially) 감쇠하는 빈도수 계수값을 이용하는 것이다. 이 접근방식을 이용하면, 사용자의 연락처 목록 내의 모든 연락처에 대해 현재 부연된 친근성 점수가 유지된다. 사용자가 어떤 연락처와 통신을 개시했을 때, 그 빈도수 계수값은 증가, 가중, 및/또는 스케일되고, 친근성 점수는 빈도수 계수값에 의해 증가된다. 시간이 지남에 따라, 친근성 점수는 지수 감쇠 인자(예컨대, 친근성 점수에 하루당 0.99를 곱함으로써)에 의해 계속적으로 스케일되거나 감소되어, 사용자가 오랫동안 걸지않은 연락처는 낮은 친근성 점수를 갖게 된다. 이러한 접근방식을 이용하면, 새롭게 추가된 연락처 정보는 즉시 넌-제로(non-zero) 친근성 점수를 할당받을 수 있게 되어, 사용자가 자신의 새로운 친구와 통신을 개시하기 위해 바로 이 연락처 정보를 사용할 가능성이 매우 높다는 것을 나타내는 충분한 친근성 점수(sufficient)를 연락처 정보의 해당 항목에 부여할 수 있다.
친근성 점수, 또는 이 친근성 점수를 생성하는데 사용되는 이력 데이터는 클라이언트 디바이스에 의해 서버에서 사용할 수 있도록 만들어지거나, 또는 서버에 의해 3자(예컨대, 이동전화망 공급자)로부터 검색될 수도 있다. 예를 들면, 클라이언트 디바이스 또는 서버는 최근 버전의 이력 데이터를 요청하기 위해 사용자의 이메일 공급자와 접촉할 수 있다.
[표 1]은 슬라이딩 윈도우 접근방식과 지수적으로 감쇠하는 빈도수 계수값 접근방식을 모두를 이용하여, 친근성 점수를 생성하는데 사용되는 데이터뿐만 아니라, 연락처 정보의 특정 항목("Bob@Home")에 대한 이력 데이터를 예시적으로 시각화하여 보여준다. 사용자에 대한 이 이력 데이터는 연락처 정보의 다른 항목을 이용하여 개시되었던 과거 인터렉션들, 또는 연락처 "밥(Bob)"에 발생되었던 다른 유형의 인터렉션들을 참조 표시할 수 있으므로, 실제로는 [표 1] 제시된 데이터는 이력 데이터의 일 부분만을 나타낼 수 있다. 따라서 [표 1]에 제시된 데이터는 연락처 정보의 단일 항목을 이용하여 발생되었던, 또는 특정 유형의 인터렉션만을 이용하여 발생되었던 과거 인터렉션들을 보여주기 위해 필터링된 이력 데이터의 버전을 나타낸 것일 수 있다.
1주 슬라이딩 윈도우 | 친근성 감쇠 (0.9/일) |
||||||||
날짜 | 유형 | 연락처 | 완료? | 계수값 | 가중치 | 승수 | 친근성 점수 증가분 | 승수 | 친근성 점수 증가분 |
1월 1일 | 신규 | Bob@Home | 예 | 1 | 40 | 0 | 0 | 0.39 | 15.50 |
1월 3일 | 호출 | Bob@Home | 예 | 1 | 5 | 0 | 0 | 0.48 | 2.39 |
1월 3일 | 호출 | Bob@Home | 아니오 | 1 | 1 | 0 | 0 | 0.48 | 0.48 |
1월 5일 | 호출 | Bob@Home | 예 | 1 | 5 | 1 | 5 | 0.59 | 2.95 |
1월 6일 | 호출 | Bob@Home | 예 | 1 | 5 | 1 | 5 | 0.66 | 3.28 |
1월 8일 | 호출 | Bob@Home | 아니오 | 1 | 1 | 1 | 1 | 0.81 | 0.81 |
1월10일 | 호출 | Bob@Home | 예 | 1 | 5 | 1 | 5 | 1.00 | 5.00 |
1월 10일의 친근성 점수 | 16.0 | 30.41 |
[표 1]에서, 헤더 열(列) 아래의 각 열은 연락처 정보의 항목 "밥의 집(Bob at home)"을 이용하여 발생했었던 과거 인터렉션을 나타낸다. 이 연락처 정보의 항목은 세 번째 열에서 참조된다.
[표 1]의 첫 번째 열은 각 과거 인터렉션의 날짜를 참조 표시하고, 두 번째 열은 각 과거 인터렉션의 유형을 참조 표시한다. "신규"로 표시된 유형은 사용자의 연락처 목록에 연락처 정보의 항목이 추가되는 행위에 관련되고, "호출"로 표시된 유형은 해당 연락처 정보를 이용한 전화 통화의 개시에 관련된다. 네 번째 열은 과거 인터렉션이 완료되었는지의 여부를 참조 표시하며, 이하에서 보다 자세히 기술되는 바와 같이, 각 과거 인터렉션에 대해 가중치를 할당하는데 사용된다.
다섯 번째 열에 제시된 바와 같이, 각 과거 인터렉션은 빈도수 계수값 "1"과 연관되는데, "1"은 해당 과거 인터렉션이 하나의 단일 통신을 나타낸다는 것을 가리킨다. 다른 구현들에서는, 다른 빈도수 계수값들이 사용될 수 있는데, 예를 들어 완료되지 않은 호출에 대해서는 "0"의 빈도수 계수값이 사용되거나, 단기간 내에 발생한 다수의 호출에 대해서는 "2"의 빈도수 계수값이 사용될 수 있다.
각 과거 인터렉션에 할당된 가중치는 표 1의 6번째 열에 제시되어 있다. 특히, 사용자가 자신이 이제 막 추가한 연락처와 통신을 개시할 가능성이 있다는 아이디어를 반영하기 위해, 친근성 점수 생성 접근방식이 사용되었는지에 관계없이, "신규(new)" 유형에 대해 "40"의 가중치가 할당된다. "완료된" 호출은 "5"의 가중치가 할당되고, 완료되지 않은 호출은 "1"의 가중치 "1"가 할당된다. [표 1]에서 다른 과거 인터렉션들에 대해 할당된 가중치값들은 단지 예시적인 것이며, 다른 구현예들에서는 다른 가중치값들이 사용될 수 있다. 예를 들어, 어떤 가중치값도 배정되지 않거나, 또는 연락처 정보의 특정 항목에 대한 모든 과거 인터렉션들이 동일한 가중치값을 사용할 수도 있다.
과거 인터렉션에 대해 가중치값을 할당할 때, 통신의 분산이 사용자가 새로운 음성 언어에 대해 의도하였을 수 있는 것에 근접할 가능성이 높기 때문에, 음성 명령을 통해 개시되었던 과거 인터렉션에 대해 보다 높은 가중치값들이 할당될 수 있다. 예를 들어, 사용자가 자주 제1 연락처를 보이스 다이얼링을 하고, 제2 연락처로 이메일을 쓴다면, 서버는 제1 연락처와 통신들이 음성 명령에 보다 크게 상관되기 때문에, 제1 연락처에게 유리하게 두 연락처간의 보이스 다이얼링 모호성을 해소한다. 이러한 선호는 제2 연락처와의 인터렉션 양(量)이 제1 연락처와의 인터렉션 양(量) 보다 수적으로 현격하게 우세하다 하더라도 여전히 유효하다.
추가적인 대안으로서, 사용자가 음성 인식 결과의 정확도에 만족하였음을 나타내는 동작을 취한 경우, 과거 인터렉션에 대해 높은 가중치값들이 할당될 수 있다. 만족감은 사용자가 탐속 결과를 클릭하였거나, 제안된 연락처 또는 연락처 정보의 항목 목록 또는 연락처 정보의 항목들로부터 연락처 정보의 특정 항목을 수동으로 선택하였다는 것을 나타내는 신호들에 의해 측정될 수 있다.
추가적으로, 높은 가중치값이 다른 유형의 인터렉션보다, 한 유형의 인터렉션에 대하여 할당될 수 있다. 예를 들어, 사용자가 제1 연락처를 자주 호출하고, 제2 연락처에는 자주 이메일을 보낸다면, 서버는 과거 호출이 이메일에 비해 강한 인가적 관계가 존재한다는 것을 반영할 수 있기 때문에, 제1 연락처에 유리하게 상기 연락처들간의 음성 다이얼링 모호성을 해소해야만 한다. 해당 연락처가 이메일의 "수신처(to:)" 필드에 등재되어 있지 않은 경우, 해당 이메일 인터렉션에 대해서는 낮은 가중치값이 할당될 수 있다.
클라이언트 디바이스는 성공적인 호출 완료로 이어진 보이스 다이얼 이벤트들을 모니터링 할 수 있으며(즉, 사용자가 보이스 다이얼 인식의 결과를 채택하여 해당 연락처로 다이얼링 한 경우), 가중치값이 할당될 수 있도록 이들 성공적인 보이스 다이얼링 이벤트들을 확인하는 데이터를 서버로 전송할 수 있다. 친근성 데이터는 클라이언트 디바이스 또는 서버 상에 저장될 수 있으나, 보다 나은 개인정보 보호를 위해, 고유하게 할당된 식별자들이 연락처 이름들 자체보다는 사용자들의 연락처 목록에 있는 연락처들을 참조하는데 사용될 수 있다.
슬라이딩 윈도우 접근방식과 지수적으로 감쇠하는 빈도수 계수값 접근방식의 둘 중 하나를 사용하게 되면, 연락처 정보의 특정 항목에 대한 친근성 점수는 연락처 정보의 해당 항목에 대한 빈도수 계수값을 결합함으로써 생성된다. 예를 들어, 다수의 특정 유형의 과거 인터렉션들이 함께 더해질 수 있고, 다른 유형의 통신들이 함께 더해지기 전에 다르게 가중치가 부여될 수 있으며, 및/또는 빈도수 계수값은 다른 것보다 한 유형의 통신에 더 영향을 주거나 오래된 통신보다 최근에 통신에 더 영향을 주기 위해, 승수들로 스케일될 수 있다.
[표 1]에 도시된 제시된 예시를 보면, 이 슬라이딩 윈도우 접근방식은 1주 슬라이딩 윈도우를 사용한다. 이 시간 제한을 실행하기 위해, 현재 날짜보다 1주일 이상 이전에 발생되었던 과거 인터렉션들(및 이로써 이 슬라이딩 윈도우의 바깥쪽에 있게 됨)에 대해서는 제로값 승수(zero-value multiplier)가 적용되고(7번째 열에서), 지난 1주일 이내에 발생되었던 과거 인터렉션들(및 이로써 이 슬라이딩 윈도우의 안에 있게 됨)에 대해서는 넌-제로-값 승수가 적용된다. 1월 10일에 생성된 친근성 점수의 경우, 예를 들면, 1월 1일과 1월 3일에 발생된 과거 인터렉션들에 대해서는 제로-값 승수가 적용되고, 1월 4일 또는 그 이전에 발생된 과거 인터렉션들에 대해서는 승수 "1"이 적용된다.
연락처 정보 "Bob@Home"에 대한 친근성 점수를 생성하기 위하여, 각각의 과거 인터렉션에 대한 빈도수 계수값(5번째 열)이 연관된 가중치(6번째 열)와 곱해지고, 이 수학적 연산의 결과가 상기 "슬라이딩 윈도우" 승수(7번째 열)와 곱해져, 친근성 점수 증가분(8번째 열)을 생성한다. 예를 들어, 첫 번째 과거 인터렉션에 대한 빈도수 계수값("1"), 가중치("40"), 및 승수("0")가 결합되어 친근성 점수 증가분 "0"을 생성한다. 추가적으로, 일곱 번째 과거 인터렉션에 대한 빈도수 계수값("1"), 가중치("5"), 및 승수("1")가 결합되어, 친근성 점수 증가분 "5"를 생성한다. 모든 과거 인터렉션들에 대한 친근성 점수 증가분들이 합산되어, 친근성 점수를 생성한다. [표 1]을 예로 들면, 친근성 점수 "16"은 슬라이딩 윈도우 접근방식을 이용하여, 연락처 정보 "Bob@Home"에 대해 생성된다.
지수적으로 감쇠하는 빈도수 계수값 접근방식을 이용하면, 각 과거 인터렉션에 대해 가중된 빈도수 계수값은 지수 감쇠 승수(exponential decay multiplier)에 따라 스케일되는데, [표 1]에서 지수 감쇠 승수는 과거 1일 마다 "0.9"이다. 예를 들어, 1월 10일에 생성된 친근성 점수의 경우, 지수 감쇠 승수 "1"(즉 ".90")이 동일자에 발생된 모든 과거 인터렉션의 빈도수 계수값에 대해 적용될 것이고, 지수 감쇠 승수 ".81"(즉 "0.92")이 2일전에 발생된 모든 과거 인터렉션의 빈도수 계수값에 적용될 것이며, 지수 감쇠 승수 ".48"(또는 "0.97")이 7일전에 발생된 모든 과거 인터렉션의 빈도수 계수값에 적용되는 그런 방식으로 적용될 것이다.
연락처 정보 "Bob@Home"에 대한 친근성 점수를 생성하기 위하여, 과거 인터렉션 각각에 대한 빈도수 계수값(5번째 열)에 연관된 가중치(6번째 열)이 곱해지고, 그 수학적 연산의 결과가 "친근성 감쇠" 승수(9번째 열)에 곱해져, 친근성 점수 증가분(10번째 열)을 생성한다. 예를 들어, 첫 번째 과거 인터렉션에 대한 빈도수 계수값("1"), 가중치("40"), 및 승수("0.39")가 결합되어, 친근성 점수 증가분 "15.50"을 생성한다. 또한, 7번째 과거 인터렉션에 대한 빈도수 계수값("1"), 가중치("5"), 및 승수("1")가 결합되어, 친근성 점수 증가분 "5.00"을 생성한다. 모든 과거 인터렉션들에 대한 친근성 점수 증가분이 합산되어, 친근성 점수를 생성한다. 예를 들어, [표 1]에서, 친근성 점수 "30.41"가 지수적으로 감쇠하는 빈도수 계수값 접근방식을 이용하여, 연락처 정보 "Bob@Home"에 대해 생성된다.
확률이 연락처 정보의 항목 각각에 대해 추정된다(205). 이 확률은 연락처 정보의 항목에 대하여 생성된 친근성 점수를 근거로 한 것일 수 있고, 사용자가 연락처 정보의 각 항목을 이용하여 통신을 개시하고자 의도할 가능성을 반영한 것일 수 있다. 연락처 정보의 특정 항목에 대한 확률은 그 확률을 생성하기 위해 모든 친근성 점수에 상수 인자를 곱함으로써, 친근성 점수에 비례하도록 설정할 수 있고, 그 모든 확률의 합이 최대 "1.0"이 된다. 대안적으로, 연락처 정보의 특정 항목에 대한 확률은 연락처 정보의 그 특정 항목에 대한 친근성 점수를, 주소록 내에 있는 연락처 정보의 모든 항목에 대한 확률 점수의 합으로 나눔으로써 정해질 수 있다.
이 확률은 또한 디리클레 분포 기반 접근방식을 이용하여 정해질 수도 있다. 더 많은 접근방식을 이용하여, 사용자가 임의의 연락처에 다이얼링 하는 이벤트는 베이어의 정리에 따른 켤레 사전 분포(conjugate prior)가 디리클레 분포를 갖는 범주적 분포(categorical distribution)로부터 추출(draw)되도록 고려될 수 있다. 이 켤레 사전 분포는 연락처 정보의 각 항목에 동일한 가중치로 설정될 수 있다. 업데이트된 다음의 분포를 산출할 수 있도록, 이 켤레 사전 분포는 이후 빈도수 계수값으로 업데이트 될 수 있다. 이어, 이 디리클레 분포의 최대 가능성 값이 각 연락처에 할당될 확률을 결정한다.
디리클레 분포-기반 접근방식 하에서는, 사용자의 전체 연락처 목록에 대한 확률의 합이 1.0이 되도록, 그 확률들이 스케일될 수 있다. 이에 더하여, 연락처 정보의 일부 항목들은 결국 확률 0이 될 수도 있고, 결과적인 확률 분포는 상당히 작은 혼합 계수(some small mixing factor)를 갖는 균등 분포(uniform distribution)와 혼합될 수 있다. 예를 들어, 가중치 벡터(weight vector)가 (0.5, 0.2, 0.2, 0.1, 0.0)이면, 이것은 확률 0.05를 갖는 균등 분포(0.2, 0.2, 0.2, 0.2, 0.2)와 혼합될 수 있다. 이 예시에서, 결과적인 가중치 벡터는 (0.95 * 0.5 + 0.05 * 0.2, 0.95*0.2 + 0.05*0.2, 0.95*0.2 + 0.05 * 0.2, 0.95 * 0.1 + 0.05 * 0.2, 0.95 * 0.0 + 0.05 * 0.2), 즉 (0.485, 0.2, 0.2, 0.105, 0.01)이고, 0의 확률을 갖는 연락처 정보의 항목은 남지 않는다.
통신 계시 문법이 생성된다(206). 이 통신 개시 문법은 연락처 정보의 항목 각각에 연관된 하나 이상의 트랜지션을 포함하고, 연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 항목과 연관된 하나 이상의 트랜지션은 연락처 정보의 항목에 대해 추정된 상기 확률에 따라 가중화된다.
이 통신 개시 문법은 서비스 프론트 엔드 서버(service front end server)에 의해 생성된 GRXML(GRammar eXtensible Markup Language) 파일로 특정될 수 있고, 유효한 내부 표현으로 컴파일링 될 수 있는 인식 서버(recognizer server)로 전송될 수 있다. 이 문법은 태그 상에 '가중치' 속성을 이용하여 트랜지션의 가중된 값들을 특정할 수 있다. 이 문법은 시작 노드, 중간 노드로 이어지는 것과 동일한 확률을 갖는 "연락처 다이얼 개시(contact dial initiation)" 트랜지션들(예컨대, "호출", "다이얼" 등)의 세트를 포함할 수 있는데, 이어 연락처 이름 트랜지션들에는 각 연락처의 이름과 그 연락처들 각각에 대한 가중치가 붙여진다. 연락처 정보의 각 항목과 연관된 이 가중치값들은 사용자가 각 연락처에 다이얼링할 것이라고 예측된 확률과 같게 설정된다. 이렇게 하면, 인식 서버가 올바른 연락처, 즉 사용자가 실제로 다이얼링한 연락처를 고를 가능성이 더 높아져서, 증가된 정확도, 보다 좋은 사용자 경험(user experience), 및 향상된 고객 유지(user retention)를 제공한다.
연락처 정보의 특정 항목을 선택하기 위하여, 음성 인식이 통신 개시 문법을 이용하여 오디오 신호에 대해 수행된다(207). 통신이 연락처 정보의 선택된 항목을 이용하여 개시되고(209), 이로써 프로세스(200)가 종료된다(210).
친근성 점수 또는 연락처 정보의 특정 항목과 연관된 확률이 사용자가 연락처 정보의 특정 항목을 이용하여 통신을 개시하고자 의도하는 것이 거의 틀림없다는 것을 나타내면, 통신은 자동적으로 개시되거나 또는 "암시적으로(implicitly)" 개시될 수 있다. 높은 확률은 높은 친근성 점수로부터 설정되고, 절대적인 용어이든 상대적 용어이든, 사용자의 의도가 명확하다는 것을 나타낸다. 연락처 정보의 항목이 임계값(예컨대, 30) 보다 높은 친근성 점수를 갖는 경우, 통신이 암시적으로 개시된다. 다른 예시로서, 연락처 정보의 특정 항목이 두 번째로 높은 친근성 점수의 적어도 3배인 친근성 점수를 갖으면, 통신이 암시적으로 개시될 수 있다.
일부 예시들에서, 연락처 정보의 특정 항목이 클라이언트 디바이스에 인식되었을 때, 통신이 클라이언트 디바이스에 의해 즉시 개시될 수 있다. 예를 들면, 서버로부터 전화번호를 수신하면, 전화 애플리케이션이 즉시 빌의 집 전화번호를 다이얼할 수 있다. 다른 예시들에서, 카운트다운 타이머가 클라이언트 디바이스(102) 상에 디스플레이되어, 이 카운트다운 타이머가 0에 이르기 전에 통신의 개시를 트리거(trigger)하거나 취소할 기회를 사용자에게 제공할 수 있다.
또한, 통신의 암시적인 개시와는 반대로, "명시적(explict)" 사용자 행동이 통신이 개시되기 전에 요구될 수도 있다. 예를 들어, 연락처 정보의 특정 항목을 식별하는 정보를 수신하면, 클라이언트 디바이스는 해당 연락처 정보의 특정 항목을 사용자에게 디스플레이하고, 실제로 통신을 개시하기 전에 자신이 연락처 정보의 해당 특정 항목을 이용하여 통신을 개시할 의도라는 것을 사용자가 확인하기를 요구할 수 있다. 자신이 연락처 정보의 해당 특정 항목을 이용하여 통신을 개시할 의도라는 것을 사용자가 확인하면, 연락처 정보의 특정 항목과 연관된 친근성 점수가 증가될 수도 있다.
도 3은 모바일 디바이스가 통신을 개시하였을 때, 예를 들어 모바일 클라이언트 디바이스상에 디스플레이될 수 있는 예시적 사용자 인터페이스(300)를 나타낸다. 예를 들어, "빌의 집 호출"에 대한 연락처 정보가 음성 언어로부터 명확화되어 통신을 개시하는데 사용되는 경우, 사용자 인터페이스(300)가 디스플레이 될 수 있다.
클라이언트 디바이스가 선택된 연락처 정보의 통신을 개시하도록 지시하는, 서버로부터의 메시지(예컨대, 도 1의 메시지(139), F)를 수신한 이후, 사용자 인터페이스(300)가 클라이언트 디바이스에 의해 디스플레이될 수 있다. "빌의 집 호출" 통신은 사용자 인터페이스(300)가 디스플레이될 때, 즉시 개시될 수 있고, 또는 "빌의 집 호출" 통신이 개시되기 전에, "카운트다운 타이머" 윈도우(301)가 사용자 인터페이스(300)상에 디스플레이될 수도 있다. 일부 예시들에서, "빌의 집 호출" 통신은 "다이얼" 컨트롤(302)에 대한 사용자 선택에 응답하여 개시된다.
다른 예시들에서, "카운트다운 타이머" 윈도우(301)는 타이머를 구현할 수 있으며, 사용자는 이 카운트다운 타이머가 "0"에 이르렀을 때, 카운트다운 타이머가 0에 이르렸을 때 "빌의 집 호출" 통신이 개시될 것이라는 것을 나타내는 카운트다운 메시지를 받는다. 만일 사용자가 빌(Bill)을 호출할 의도였다면, 사용자는 이 카운트다운 타이머가 "0"에 이르도록 둘 것이므로, 해당 그 시점에 빌(Bill)에 대한 호출이 개시될 것이다. 사용자는 또한 다이얼 컨트롤(302)을 선택하여, 타이머가 "0"에 이르기 이전에 호출 동작을 개시할 수 있다.
상기 카운트다운 타이머가 다운 카운트한 시간의 양이, 연락처 정보의 대응하는 항목과 연관된 확률 또는 친근성 점수의 근거가 될 수도 있다. 예를 들어, 친근성 점수 또는 확률이 높다면(예컨대, 기정의된 상한 임계값 이상인 경우), 카운트다운 타이머는 전혀 사용되지 않거나 짧은 구간(예컨대, 2초)으로부터 다운카운트를 시작하였을 것이다. 만일, 친근성 점수 또는 확률이 중간 범위(예컨대, 기정의된 하한 임계값 이상 상한 임계값 이하)이면, 카운트다운 타이머는 보다 긴 구간(예컨대, 4초)으로부터 다운카운트를 시작할 수 있다. 만일 친근성 점수 또는 확률이 낮으면(예컨대, 기정의된 하한 임계값 이하), 카운트다운 타이머는 보다 긴 구간(예컨대, 8초)으로부터 다운카운트를 시작하거나, 또는 통신을 개시하기 전에 사용자로부터의 명시적 확인(explicit confirmation)을 요구할 수도 있다.
상기 윈도우(301)는 또한 예를 들어, 모바일 디바이스가 다이얼링 했으나 상대의 전화 응답을 기다리고 있으면, 그 호출을 종료하기 위해, 호출을 실행하기 전에, 사용자가 "빌의 집 호출" 통신을 취소할 수 있게 하는 취소 컨트롤(304)을 포함할 수 있다. 사용자가 빌에 대한 호출을 취소하기 위해 이 취소 컨트롤(304)을 선택하면, 중단 신호(interrupt signal)가 모바일 클라이언트 디바이스로부터 서버로 전송될 수 있다. 이 중단 신호의 수신에 응답하여, 서버는 "빌의 집 호출" 통신이 완료되지 못했음을 나타내거나, 또는 "빌의 집 호출" 통신이 사용자가 의도했던 통신이 아니었음을 나타내기 위한 정보를 이력 데이터 내에 저장할 수 있다.
복수의 구현예들이 기술되었다. 그렇지만, 본 명세서의 정신 및 범위를 벗어나지 않으면서 다양한 변형예가 만들어질 수 있다는 것을 알게 될 것이다. 예를 들어, 순서가 바뀌거나(re-ordered), 추가되거나, 또는 제거된, 상술되어진 순서도의 다양한 형태들이 사용될 수 있다. 따라서 다른 구현예들은 후술한 청구범위의 범위에 속한다.
본 명세서의 실시예들과 본 명세서에 기재된 모든 기능적 동작들은 디지털 전자 회로로 구현되거나, 또는 상세한 설명에 기재된 구조 및 그들의 구조적 등가물을 포함하는 컴퓨터 소프트웨어, 펌웨어, 또는 하드웨어로 구현되거나, 또는 이들 중 하나 이상의 조합으로 구현될 수 있다. 실시예들은 하나 이상의 컴퓨터 프로그램 제품, 즉, 데이터 프로세싱 장치에 의해 실행되거나 또는 그 장치의 동작을 제어하도록, 컴퓨터 판독가능 매체에 부호화된 컴퓨터 프로그램 인스트럭션의 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터 판독가능 매체는 기계-판독가능 저장 디바이스, 기계- 판독가능 저장 기판(substrate), 메모리 디바이스, 기계-판독가능 전파되는 신호(propagated signal)에 영향을 미치는 대상(matter)의 조성물(composition), 이들 중 하나 이상의 조합일 수 있다. "데이터 프로세싱 장치"라는 용어는 데이터를 처리하기 위한 장치, 디바이스, 및 기계를 포괄하며, 예를 들어, 프로그래머블 프로세서, 컴퓨터, 또는 다중 프로세서 또는 컴퓨터들을 포함한다. 이 장치는 하드웨어이 외에도, 당해 컴퓨터 프로그램에 대한 실행 환경을 생성하는 코드를 포함하고, 코드는 예를 들어, 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 시스템, 또는 이들 중 하나 이상의 조합을 구성한다. 전파되는 신호는 인공적(artificially)으로 생성되고, 데이터 처리 장치에 의한 실행을 위하여 적절한 수신 장치로 전송하기 위한 정보를 인코딩하기 위해 생성되는 신호로서, 예를 들어, 기계-생성 전기, 광, 또는 전자기 신호가 있다.
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 스크립트 또는 코드로도 알려짐)은 컴파일 또는 인터프리터 언어를 포함하는 모든 형태의 프로그래밍 언어로 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴, 또는 컴퓨터 환경에서 사용하기에 적합한 그 밖의 유닛을 포함하는 임의의 형태로도 배치될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 상응해야 하는 것은 아니다. 프로그램은 다른 프로그램 또는 데이터를 보유하는 파일의 일부에 저장되거나(예를 들어, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트), 당해 프로그램 전용의 단일 파일에 저장되거나, 또는 다수의 조화된(coordinated) 파일들(예를 들어, 하나 이상의 모듈, 서브프로그램, 코드의 부분을 저장하는 파일)에 저장될 수 있다. 컴퓨터 프로그램은 하나의 컴퓨터에서, 또는 한 위치에 배치되거나 또는 다수의 위치에 걸쳐서 분산되고 통신 네트워크에 의해 접속된 다수의 컴퓨터에서 실행되도록 배치될 수 있다.
본 명세서에 설명된 프로세스와 논리 흐름은 하나 이상의 프로그래머블 프로세서에 의해 수행될 수 있고, 이 프로그래머블 프로세서는 입력 데이터에 작용하여 출력을 생성함으로써 기능들을 수행하는 하나 이상의 컴퓨터 프로그램들을 실행한다. 예를 들어, FPGA(field programmable gate array) 또는 ASIC(application specific integrated circuit)과 같은 전용 논리 회로가 프로세스와 논리 흐름을 수행하거나, 장치를 구현할 수 있다.
컴퓨터 프로그램의 실행에 적합한 프로세서에는, 예를 들어, 범용 및 전용 마이크로프로세서, 및 임의 종류의 디지털 컴퓨터 중 하나 이상의 프로세서가 있다. 일반적으로, 프로세서는 판독 전용 메모리(ROM), 또는 랜덤 액세스 메모리(RAM), 또는 양자로부터 인스트럭션과 데이터를 수신한다. 컴퓨터의 필수 구성요소는 인스트럭션을 실행하는 프로세서, 및 인스트럭션과 데이터를 저장하는 하나 이상의 메모리 디바이스이다. 일반적으로, 컴퓨터는 데이터를 저장하기 위한 하나 이상의 대용량 저장 디바이스(예를 들어, 자기 디스크, 광자기 디스크, 또는 광디스크)를 포함하거나, 또는 이 디바이스와 데이터를 송수신하기 위하여 동작적으로(operatively) 결합될 수 있다. 하지만 컴퓨터는 이러한 디바이스를 반드시 구비할 필요는 없다. 더욱이, 컴퓨터는 예를 들어, 타블렛 컴퓨터, 모바일 전화기, 개인 정보 단말(PDA), 모바일 오디오 재생기, GPS(global positioning system) 수신기 등과 같은 다른 디바이스에 내장될 수 있다. 컴퓨터 프로그램 인스트럭션과 데이터를 저장하기 적합한 컴퓨터 판독가능 매체에는, 예를 들어, 반도체 메모리 디바이스(예를 들어, EPROM, EEPROM, 플래시 메모리 디바이스); 자기 디스크(예를 들어, 내부 하드디스크, 착탈식 디스크); 광자기 디스크; 및 CD ROM과 DVD-ROM 디스크를 포함하는 모든 형태의 비휘발성 메모리, 매체 및 메모리 디바이스가 포함된다. 프로세서와 메모리는 전용 논리 회로에 의해 보완되거나 또는 전용 논리 회로에 통합될 수 있다.
사용자와의 상호작용을 제공하기 위하여, 실시예들은, 정보를 사용자에게 디스플레이하기 위한 디스플레이 디바이스(예를 들어, CRT(cathode ray tube) 또는 LCD(liquid crystal display) 모니터), 키보드 및 포인팅 디바이스(예를 들어, 마우스 또는 트랙볼)를 구비한 컴퓨터에 구현될 수 있다. 사용자는 키보드와 포인팅 디바이스를 이용하여 컴퓨터에 입력을 제공할 수 있다. 사용자와의 상호작용을 제공하기 위하여 다른 종류의 디바이스가 또한 사용될 수 있다. 예를 들어, 사용자에게 제공되는 피드백(feedback)은 예를 들어, 시각 피드백, 청각 피드백 또는 촉각 피드백인 임의 형태의 감각 피드백일 수 있고, 사용자로부터의 입력은 음향, 음성 또는 촉각 입력을 포함하는 임의의 형태로 수신될 수 있다.
실시예들은, 예를 들어, 데이터 서버와 같은 백엔드(back-end) 구성요소를 구비하는 컴퓨팅 시스템; 또는 예를 들어, 애플리케이션 서버와 같은 미들웨어 구성요소를 구비하는 컴퓨팅 시스템; 또는 예를 들어, 사용자가 구현예와 상호작용할 수 있는 그래픽 사용자 인터페이스 또는 웹브라우저를 구비한 클라이언트 컴퓨터와 같은 프론트엔드(front-end) 구성요소를 구비하는 컴퓨터 시스템; 또는 이러한 백엔드, 미들웨어 또는 프론트엔드 구성요소들의 임의 조합을 구비하는 컴퓨팅 시스템으로 구현될 수 있다. 시스템의 구성요소는 디지털 데이터 통신의 임의 형태 또는 매체(예를 들어, 통신 네트워크)에 의해 상호접속될 수 있다. 통신 네트워크의 예에는 근거리 네트워크(LAN)와 인터넷과 같은 광역 네트워크(WAN: 예컨대, 인터넷)가 포함된다.
컴퓨팅 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 보통 서로 떨어져 있으며, 일반적으로는 통신 네트워크를 통하여 상호작용한다. 클라이언트와 서버의 관계는 각각의 컴퓨터상에서 실행되고 상호 클라이언트-서버 관계를 갖는 컴퓨터 프로그램에 의하여 발생한다.
본 명세서가 다수의 특정 사항을 포함하고 있지만, 이는 임의 발명의 범위나 청구할 사항의 범위에 대한 어떠한 제약으로서도 이해되어서는 안 되며, 특정한 실시예들에 대한 고유한 특징의 설명으로서 이해되어야 한다. 별개의 실시예의 문맥으로 본 명세서에서 설명된 소정 특징은 조합되어 단일 실시예로 구현될 수 있다. 반대로, 단일 실시예의 문맥에서 설명한 다양한 특징은 복수의 실시예에서 별개로 구현되거나 어떤 적당한 하위 조합으로서도 구현 가능하다. 또한, 앞에서 특징이 소정 조합에서 동작하는 것으로서 설명되고 그와 같이 청구되었지만, 청구된 조합으로부터의 하나 이상의 특징은 일부 경우에 해당 조합으로부터 삭제될 수 있으며, 청구된 조합은 하위 조합이나 하위 조합의 변형으로 될 수 있다.
마찬가지로, 도면에서 특정한 순서로 동작을 묘사하고 있지만, 그러한 동작이 바람직한 결과를 얻기 위해, 도시한 특정 순서나 순차적인 순서로 수행되어야 한다거나, 설명한 모든 동작이 수행되어야 한다는 것을 의미하는 것은 아니다. 소정 환경에서, 멀티태스킹 및 병렬 프로세싱이 바람직할 수 있다. 또한, 상술한 실시예에 있어서 다양한 시스템 구성요소의 분리는 모든 실시예에서 그러한 분리를 요구하는 것으로 이해되어서는 안 되며, 설명한 프로그램 구성요소와 시스템은 단일 소프트웨어 제품으로 통합되거나 또는 복수의 소프트웨어 제품으로 패키지될 수 있다는 점을 이해되어야 한다.
HTML 파일이 언급된 각 경우에, 다른 파일 유형들 또는 포맷들이 적합할 수 있다. 예를 들어, HTML 파일은 XML, JSON, 플레인 텍스트(plain text), 또는 다른 유형의 파일들로 대체될 수 있다. 또한, 테이블 또는 해쉬 테이블이 언급되는 경우, 다른 데이터 구조들(예컨대, 스프레드시트들, 관계형 데이터베이스들, 또는 구조화된 파일들)이 사용될 수 있다.
따라서 특정 실시예들이 기술되었다. 그 밖의 실시예들은 후술하는 청구범위 내에 속한다. 예를 들어, 청구항에 인용된 동작들은 상이한 순서로 수행될 수 있지만, 여전히 바람직한 결과를 달성한다.
102: 서버
103: 프로세서들
111: 연락처 목록
112: 친근성 데이터
113: 이력 데이터
114: 친근성 점수들
138: 음성 인식
141: 통신 애플리케이션
103: 프로세서들
111: 연락처 목록
112: 친근성 데이터
113: 이력 데이터
114: 친근성 점수들
138: 음성 인식
141: 통신 애플리케이션
Claims (20)
- 하나 이상의 컴퓨터; 및
상기 하나 이상의 컴퓨터에 연결되고, 그 내부에 저장된 명령어를 구비한 컴퓨터-판독가능 매체를 포함하는 시스템으로서,
상기 명령어는 상기 하나 이상의 컴퓨터에 의해 실행되었을 때, 상기 하나 이상의 컴퓨터로 하여금
오디오 신호를 수신하는 동작,
연락처 정보(contact informatioon)의 둘 이상의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수(frequency)를 근거로 하고, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션(past interaction)에 대한 최신성(recency)을 추가적인 근거로 하여, 친근성 점수(affinity score)를 생성하는 동작,
연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목에 대해 생성된 상기 친근성 점수를 근거로 하여, 상기 사용자가 연락처 정보의 상기 항목을 사용하여 통신을 개시하려고 의도할 확률을 추정(infer)하는 동작,
연락처 정보의 상기 항목 각각에 연관된 하나 이상의 트랜지션(transition)을 포함하는 통신 개시 문법(communication initiation grammer)를 생성하는 동작―연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목과 연관된 상기 하나 이상의 트랜지션은 연락처 정보의 상기 항목에 대해 추정된 상기 확률에 따라 가중화됨―;
연락처 정보의 특정 항목을 선택하기 위해, 상기 통신 개시 문법을 이용하여 상기 오디오 신호에 대해 음성 인식을 수행하는 동작; 및
상기 연락처 정보의 특정 항목을 사용하여 상기 통신을 개시하는 동작을 수행하도록 하는 시스템. - 청구항 1에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 연락처를 다이얼한, 보이스 다이얼 음성 인식의 결과를 사용자가 수용한 빈도수를 판단하는 동작; 및
상기 보이스 다이얼 음성 인식의 결과를 상기 사용자가 수용한 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자가 수동으로 상기 연락처를 다이얼한 빈도수를 판단하는 동작; 및
상기 사용자가 수동으로 상기 연락처를 다이얼한 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자가 상기 연락처로 SMS(Short Message Service) 메시지를 송신하였거나 상기 연락처로부터 SMS 메시지를 수신하였던 빈도수를 판단하는 동작; 및
상기 사용자가 상기 연락처로 SMS 메시지를 송신하였거나 상기 연락처로부터 SMS 메시지를 수신하였던 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자가 상기 연락처로 이메일 메시지를 송신하였거나 상기 연락처로부터 이메일 메시지를 수신하였던 빈도수를 판단하는 동작; 및
상기 사용자가 상기 연락처로 이메일 메시지를 송신하였거나 상기 연락처로부터 이메일 메시지를 수신하였던 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 연락처가 소정의 기간 내에 상기 사용자의 주소록에 추가되었는지를 판단하는 동작; 및
상기 연락처가 소정의 기간 내에 상기 사용자의 주소록에 추가되었는지에 대한 판단를 근거로 상기 친근성 점수를 생성하는 동작을 더 포함하는 시스템. - 청구항 1에 있어서,
상기 사용자와 연관된 현재 콘텍스트를 참조하는 데이터를 수신하는 동작,
상기 사용자와 상기 연락처 간에 둘 이상의 과거 인터렉션들 각각에 대해, 상기 과거 인터렉션과 연관된 콘텍스트를 참조하는 데이터를 수신하는 동작, 및
상기 사용자와 연관된 상기 현재 콘텍스트와, 상기 과거 인터렉션과 연관된 상기 콘텍스트들과의 비교를 근거로 하여, 상기 둘 이상의 과거 인터렉션의 서브셋을 선택하는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 두 개 이상의 연락처 정보의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
사용자가 이전에 제1 통신 채널을 이용하여 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 제1 부분 친근성 점수(a first partial affinity score)를 생성하는 동작,
사용자가 이전에 제2 통신 채널을 이용하여 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 제2 부분 친근성 점수를 생성하는 동작,
상기 제1 부분 친근성 점수와 상기 제2 부분 친근성 점수에 가중치를 부여하는 동작, 및
상기 친근성 점수를 생성하기 위해, 가중된 제1 부분 친근성 점수와 가중된 부분 친근성 점수를 결합하는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 두 개 이상의 연락처 정보의 항목 각각에 대해, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자와 연락처 정보의 상기 항목 간에 하나 이상의 과거 인터렉션이 발생했을 때, 참조하는 데이터에 지수 감쇠 함수(exponential decay function)를 적용하는 동작을 더 포함하는 시스템. - 청구항 1에 있어서, 두 개 이상의 연락처 정보의 항목 각각에 대해, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 동작은
소정의 기간 내에서 발생하였던 하나 이상의 과거 인터렉션의 서브셋을 선택하는 동작을 더 포함하는 시스템. - 컴퓨터로 구현되는 방법으로서,
오디오 신호를 수신하는 단계,
두 개 이상의 연락처 정보의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하고, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성을 추가적인 근거로 하여, 친근성 점수를 생성하는 단계,
연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목에 대해 생성된 상기 친근성 점수를 근거로 하여, 상기 사용자가 연락처 정보의 상기 항목을 사용하여 통신을 개시하려고 의도할 확률을 추정하는 단계,
연락처 정보의 상기 항목 각각에 연관된 하나 이상의 트랜지션을 포함하는 통신 개시 문법을 생성하는 단계―연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목과 연관된 상기 하나 이상의 트랜지션은 연락처 정보의 상기 항목에 대해 추정된 상기 확률에 따라 가중화됨―;
연락처 정보의 특정 항목을 선택하기 위해, 상기 통신 개시 문법을 사용하여 상기 오디오 신호에 대해 음성 인식을 수행하는 단계;
상기 연락처 정보의 특정 항목을 사용하여 상기 통신을 개시하는 단계를 포함하는 방법. - 인스트럭션을 포함하는 컴퓨터 프로그램으로 인코딩된 컴퓨터 저장 매체로서, 상기 인스트럭션은 상기 하나 이상의 컴퓨터에 의해 실행되었을 때 상기 하나 이상의 컴퓨터로 하여금
오디오 신호를 수신하는 동작,
두 개 이상의 연락처 정보의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하고, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성을 추가적인 근거로 하여, 친근성 점수를 생성하는 동작,
연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목에 대해 생성된 상기 친근성 점수를 근거로 하여, 상기 사용자가 연락처 정보의 상기 항목을 사용하여 통신을 개시하려고 의도할 확률을 추정하는 동작,
연락처 정보의 상기 항목 각각에 연관된 하나 이상의 트랜지션을 포함하는 통신 개시 문법을 생성하는 동작―연락처 정보의 상기 항목 각각에 대해, 연락처 정보의 상기 항목과 연관된 상기 하나 이상의 트랜지션은 연락처 정보의 상기 항목에 대해 추정된 상기 확률에 따라 가중화됨―; 및
연락처 정보의 특정 항목을 선택하기 위해, 상기 통신 개시 문법을 사용하여 상기 오디오 신호에 대해 음성 인식을 수행하는 동작;
상기 연락처 정보의 특정 항목을 사용하여 상기 통신을 개시하는 동작을 수행하도록 하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 연락처를 다이얼한, 보이스 다이얼 음성 인식의 결과를 사용자가 수용한 빈도수를 판단하는 동작; 및
상기 보이스 다이얼 음성 인식의 결과를 상기 사용자가 수용한 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자가 수동으로 상기 연락처를 다이얼한 빈도수를 판단하는 동작; 및
상기 사용자가 수동으로 상기 연락처를 다이얼한 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자가 상기 연락처로 SMS 메시지를 송신하였거나 상기 연락처로부터 SMS 메시지를 수신하였던 빈도수를 판단하는 동작; 및
상기 사용자가 상기 연락처로 SMS 메시지를 송신하였거나 상기 연락처로부터 SMS 메시지를 수신하였던 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자가 상기 연락처로 이메일 메시지를 송신하였거나 상기 연락처로부터 이메일 메시지를 수신하였던 빈도수를 판단하는 동작; 및
상기 사용자가 상기 연락처로 이메일 메시지를 송신하였거나 상기 연락처로부터 이메일 메시지를 수신하였던 빈도수를 근거로 하여, 상기 친근성 점수를 증가시키는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 연락처가 소정의 기간 내에 상기 사용자의 주소록에 추가되었는지를 판단하는 동작; 및
상기 연락처가 소정의 기간 내에 상기 사용자의 주소록에 추가되었는지에 대한 판단를 근거로 상기 친근성 점수를 생성하는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서,
상기 사용자와 연관된 현재 콘텍스트를 참조하는 데이터를 수신하는 동작,
상기 사용자와 상기 연락처 간에 둘 이상의 과거 인터렉션들 각각에 대해, 상기 과거 인터렉션과 연관된 콘텍스트를 참조하는 데이터를 수신하는 동작, 및
상기 사용자와 연관된 상기 현재 콘텍스트와, 상기 과거 인터렉션과 연관된 상기 콘텍스트들과의 비교를 근거로 하여, 상기 둘 이상의 과거 인터렉션의 서브셋을 선택하는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 두 개 이상의 연락처 정보의 항목 각각에 대해, 사용자가 이전에 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여, 친근성 점수를 생성하는 동작은
사용자가 이전에 제1 통신 채널을 이용하여 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여,제1 부분 친근성 점수(a first partial affinity score)를 생성하는 동작,
사용자가 이전에 제2 통신 채널을 이용하여 연락처 정보의 상기 항목과 연관된 연락처와 통신했던 빈도수를 근거로 하여,제2 부분 친근성 점수를 생성하는 동작,
상기 제1 부분 친근성 점수와 상기 제2 부분 친근성 점수에 가중치를 부여하는 동작, 및
상기 친근성 점수를 생성하기 위해, 가중된 제1 부분 친근성 점수와 가중된 부분 친근성 점수를 결합하는 동작을 더 포함하는 컴퓨터 저장 매체. - 청구항 12에 있어서, 두 개 이상의 연락처 정보의 항목 각각에 대해, 상기 사용자와 연락처 정보의 상기 항목에 연관된 상기 연락처 간의 하나 이상의 과거 인터렉션에 대한 최신성를 근거로 하여, 친근성 점수를 생성하는 동작은
상기 사용자와 연락처 정보의 상기 항목 간에 하나 이상의 과거 인터렉션이 발생했을 때, 참조하는 데이터에 지수 감쇠 함수를 적용하는 동작을 더 포함하는 컴퓨터 저장 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/782,862 US8694313B2 (en) | 2010-05-19 | 2010-05-19 | Disambiguation of contact information using historical data |
US12/782,862 | 2010-05-19 | ||
PCT/US2011/036984 WO2011146605A1 (en) | 2010-05-19 | 2011-05-18 | Disambiguation of contact information using historical data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167016277A Division KR101816229B1 (ko) | 2010-05-19 | 2011-05-18 | 이력 데이터를 이용한 연락처 정보의 명확화 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130113307A true KR20130113307A (ko) | 2013-10-15 |
KR101803048B1 KR101803048B1 (ko) | 2017-11-29 |
Family
ID=44121319
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177037939A KR101921691B1 (ko) | 2010-05-19 | 2011-05-18 | 이력 데이터를 이용한 연락처 정보의 명확화 |
KR1020127030128A KR101803048B1 (ko) | 2010-05-19 | 2011-05-18 | 이력 데이터를 이용한 연락처 정보의 명확화 |
KR1020167016277A KR101816229B1 (ko) | 2010-05-19 | 2011-05-18 | 이력 데이터를 이용한 연락처 정보의 명확화 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177037939A KR101921691B1 (ko) | 2010-05-19 | 2011-05-18 | 이력 데이터를 이용한 연락처 정보의 명확화 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167016277A KR101816229B1 (ko) | 2010-05-19 | 2011-05-18 | 이력 데이터를 이용한 연락처 정보의 명확화 |
Country Status (6)
Country | Link |
---|---|
US (3) | US8694313B2 (ko) |
EP (2) | EP2572497B1 (ko) |
KR (3) | KR101921691B1 (ko) |
CN (1) | CN103039064B (ko) |
AU (1) | AU2011255614B2 (ko) |
WO (1) | WO2011146605A1 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180084591A (ko) * | 2017-01-16 | 2018-07-25 | 주식회사 케이티 | 음성 명령에 기반하여 서비스를 제공하는 서버 및 단말 |
US10311877B2 (en) | 2016-07-04 | 2019-06-04 | Kt Corporation | Performing tasks and returning audio and visual answers based on voice command |
US10553219B2 (en) | 2015-09-23 | 2020-02-04 | Samsung Electronics Co., Ltd. | Voice recognition apparatus, voice recognition method of user device, and non-transitory computer readable recording medium |
US10650816B2 (en) | 2017-01-16 | 2020-05-12 | Kt Corporation | Performing tasks and returning audio and visual feedbacks based on voice command |
US10726836B2 (en) | 2016-08-12 | 2020-07-28 | Kt Corporation | Providing audio and video feedback with character based on voice command |
Families Citing this family (402)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU6630800A (en) * | 1999-08-13 | 2001-03-13 | Pixo, Inc. | Methods and apparatuses for display and traversing of links in page character array |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
ITFI20010199A1 (it) * | 2001-10-22 | 2003-04-22 | Riccardo Vieri | Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico |
US7669134B1 (en) * | 2003-05-02 | 2010-02-23 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US20120253823A1 (en) * | 2004-09-10 | 2012-10-04 | Thomas Barton Schalk | Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8134727B1 (en) | 2006-11-27 | 2012-03-13 | Ringcentral, Inc. | Message preview control |
US20080129520A1 (en) * | 2006-12-01 | 2008-06-05 | Apple Computer, Inc. | Electronic device with enhanced audio feedback |
US7912828B2 (en) * | 2007-02-23 | 2011-03-22 | Apple Inc. | Pattern searching methods and apparatuses |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
ITFI20070177A1 (it) | 2007-07-26 | 2009-01-27 | Riccardo Vieri | Sistema per la creazione e impostazione di una campagna pubblicitaria derivante dall'inserimento di messaggi pubblicitari all'interno di uno scambio di messaggi e metodo per il suo funzionamento. |
US9053089B2 (en) * | 2007-10-02 | 2015-06-09 | Apple Inc. | Part-of-speech tagging using latent analogy |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8595642B1 (en) | 2007-10-04 | 2013-11-26 | Great Northern Research, LLC | Multiple shell multi faceted graphical user interface |
US8364694B2 (en) | 2007-10-26 | 2013-01-29 | Apple Inc. | Search assistant for digital media assets |
US8620662B2 (en) | 2007-11-20 | 2013-12-31 | Apple Inc. | Context-aware unit selection |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) * | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8327272B2 (en) | 2008-01-06 | 2012-12-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8289283B2 (en) * | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8768702B2 (en) * | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8898568B2 (en) * | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8355919B2 (en) * | 2008-09-29 | 2013-01-15 | Apple Inc. | Systems and methods for text normalization for text to speech synthesis |
US8712776B2 (en) * | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8352272B2 (en) * | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for text to speech synthesis |
US8583418B2 (en) | 2008-09-29 | 2013-11-12 | Apple Inc. | Systems and methods of detecting language and natural language strings for text to speech synthesis |
US8352268B2 (en) * | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis |
US20100082328A1 (en) * | 2008-09-29 | 2010-04-01 | Apple Inc. | Systems and methods for speech preprocessing in text to speech synthesis |
US8396714B2 (en) * | 2008-09-29 | 2013-03-12 | Apple Inc. | Systems and methods for concatenation of words in text to speech synthesis |
US8676904B2 (en) * | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
USD625733S1 (en) | 2009-03-04 | 2010-10-19 | Apple Inc. | Graphical user interface for a display screen or portion thereof |
US8380507B2 (en) * | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US20110010179A1 (en) * | 2009-07-13 | 2011-01-13 | Naik Devang K | Voice synthesis and processing |
US20110066438A1 (en) * | 2009-09-15 | 2011-03-17 | Apple Inc. | Contextual voiceover |
US8682649B2 (en) * | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
US11416214B2 (en) | 2009-12-23 | 2022-08-16 | Google Llc | Multi-modal input on an electronic device |
EP2339576B1 (en) | 2009-12-23 | 2019-08-07 | Google LLC | Multi-modal input on an electronic device |
US8600743B2 (en) * | 2010-01-06 | 2013-12-03 | Apple Inc. | Noise profile determination for voice-related feature |
US20110167350A1 (en) * | 2010-01-06 | 2011-07-07 | Apple Inc. | Assist Features For Content Display Device |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8694313B2 (en) * | 2010-05-19 | 2014-04-08 | Google Inc. | Disambiguation of contact information using historical data |
US8639516B2 (en) | 2010-06-04 | 2014-01-28 | Apple Inc. | User-specific noise suppression for voice quality improvements |
CN101895843B (zh) * | 2010-06-09 | 2016-03-30 | 中兴通讯股份有限公司 | 无线公话网管短消息校验的方法及装置 |
US8713021B2 (en) | 2010-07-07 | 2014-04-29 | Apple Inc. | Unsupervised document clustering using latent semantic density analysis |
US9104670B2 (en) | 2010-07-21 | 2015-08-11 | Apple Inc. | Customized search or acquisition of digital media assets |
US8719006B2 (en) | 2010-08-27 | 2014-05-06 | Apple Inc. | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
US8566328B2 (en) | 2010-12-21 | 2013-10-22 | Facebook, Inc. | Prioritization and updating of contact information from multiple sources |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US20170270195A1 (en) * | 2010-12-23 | 2017-09-21 | Nokia Technologies Oy | Providing token-based classification of device information |
US8352245B1 (en) | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
US8296142B2 (en) | 2011-01-21 | 2012-10-23 | Google Inc. | Speech recognition using dock context |
US8781836B2 (en) | 2011-02-22 | 2014-07-15 | Apple Inc. | Hearing assistance system for providing consistent human speech |
US8688453B1 (en) * | 2011-02-28 | 2014-04-01 | Nuance Communications, Inc. | Intent mining via analysis of utterances |
US8332488B1 (en) | 2011-03-04 | 2012-12-11 | Zynga Inc. | Multi-level cache with synch |
US8745134B1 (en) | 2011-03-04 | 2014-06-03 | Zynga Inc. | Cross social network data aggregation |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US8347322B1 (en) | 2011-03-31 | 2013-01-01 | Zynga Inc. | Social network application programming interface |
US10135776B1 (en) * | 2011-03-31 | 2018-11-20 | Zynga Inc. | Cross platform social networking messaging system |
TW201243710A (en) * | 2011-04-27 | 2012-11-01 | Hon Hai Prec Ind Co Ltd | Electronic device with voice control function and voice control method thereof |
US20120297316A1 (en) * | 2011-05-17 | 2012-11-22 | Ferring B.V. | Methods and apparatus for handling outgoing electronic messages in a user terminal |
US20120296458A1 (en) * | 2011-05-18 | 2012-11-22 | Microsoft Corporation | Background Audio Listening for Content Recognition |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10078819B2 (en) * | 2011-06-21 | 2018-09-18 | Oath Inc. | Presenting favorite contacts information to a user of a computing device |
US8812294B2 (en) | 2011-06-21 | 2014-08-19 | Apple Inc. | Translating phrases from one language into another using an order-based set of declarative rules |
US8706472B2 (en) | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
US9530167B2 (en) * | 2011-08-12 | 2016-12-27 | Facebook, Inc. | Coefficients attribution for different objects based on natural language processing |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US9159055B2 (en) | 2011-09-07 | 2015-10-13 | Elwha Llc | Computational systems and methods for identifying a communications partner |
US9473647B2 (en) | 2011-09-07 | 2016-10-18 | Elwha Llc | Computational systems and methods for identifying a communications partner |
US9928485B2 (en) | 2011-09-07 | 2018-03-27 | Elwha Llc | Computational systems and methods for regulating information flow during interactions |
US9432190B2 (en) | 2011-09-07 | 2016-08-30 | Elwha Llc | Computational systems and methods for double-encrypting data for subsequent anonymous storage |
US9141977B2 (en) * | 2011-09-07 | 2015-09-22 | Elwha Llc | Computational systems and methods for disambiguating search terms corresponding to network members |
US9690853B2 (en) | 2011-09-07 | 2017-06-27 | Elwha Llc | Computational systems and methods for regulating information flow during interactions |
US10546306B2 (en) | 2011-09-07 | 2020-01-28 | Elwha Llc | Computational systems and methods for regulating information flow during interactions |
US9491146B2 (en) | 2011-09-07 | 2016-11-08 | Elwha Llc | Computational systems and methods for encrypting data for anonymous storage |
US10606989B2 (en) | 2011-09-07 | 2020-03-31 | Elwha Llc | Computational systems and methods for verifying personal information during transactions |
US10546295B2 (en) | 2011-09-07 | 2020-01-28 | Elwha Llc | Computational systems and methods for regulating information flow during interactions |
US10523618B2 (en) | 2011-09-07 | 2019-12-31 | Elwha Llc | Computational systems and methods for identifying a communications partner |
US9195848B2 (en) | 2011-09-07 | 2015-11-24 | Elwha, Llc | Computational systems and methods for anonymized storage of double-encrypted data |
US9747561B2 (en) | 2011-09-07 | 2017-08-29 | Elwha Llc | Computational systems and methods for linking users of devices |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
USD671558S1 (en) | 2011-10-04 | 2012-11-27 | Apple Inc. | Display screen or portion thereof with icon |
US8989818B2 (en) | 2011-11-04 | 2015-03-24 | Facebook, Inc. | Device actions based on device power |
US8954100B2 (en) * | 2011-11-04 | 2015-02-10 | Facebook, Inc. | Server-side rate-limiting algorithms for piggybacking social updates for mobile devices |
US8972263B2 (en) * | 2011-11-18 | 2015-03-03 | Soundhound, Inc. | System and method for performing dual mode speech recognition |
US8788269B2 (en) | 2011-12-15 | 2014-07-22 | Microsoft Corporation | Satisfying specified intent(s) based on multimodal request(s) |
USD692910S1 (en) | 2012-02-07 | 2013-11-05 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US10209954B2 (en) * | 2012-02-14 | 2019-02-19 | Microsoft Technology Licensing, Llc | Equal access to speech and touch input |
US20130218902A1 (en) * | 2012-02-17 | 2013-08-22 | Ring Central, Inc. | Shared directory system |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
USD703231S1 (en) | 2012-03-06 | 2014-04-22 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
USD705808S1 (en) | 2012-03-27 | 2014-05-27 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US8775442B2 (en) | 2012-05-15 | 2014-07-08 | Apple Inc. | Semantic search using a single-source semantic model |
US10019994B2 (en) | 2012-06-08 | 2018-07-10 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
USD703695S1 (en) | 2012-06-10 | 2014-04-29 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD711408S1 (en) * | 2012-06-10 | 2014-08-19 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD754159S1 (en) * | 2012-06-11 | 2016-04-19 | Apple Inc. | Display screen or portion thereof with graphical user interface |
CN102739869A (zh) * | 2012-06-26 | 2012-10-17 | 华为终端有限公司 | 语音查找目标联系人的信息的方法及终端 |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9053708B2 (en) * | 2012-07-18 | 2015-06-09 | International Business Machines Corporation | System, method and program product for providing automatic speech recognition (ASR) in a shared resource environment |
US8744995B1 (en) * | 2012-07-30 | 2014-06-03 | Google Inc. | Alias disambiguation |
US8583750B1 (en) | 2012-08-10 | 2013-11-12 | Google Inc. | Inferring identity of intended communication recipient |
US8520807B1 (en) | 2012-08-10 | 2013-08-27 | Google Inc. | Phonetically unique communication identifiers |
US8571865B1 (en) | 2012-08-10 | 2013-10-29 | Google Inc. | Inference-aided speaker recognition |
KR101679311B1 (ko) | 2012-09-04 | 2016-11-24 | 에스케이플래닛 주식회사 | 주소록 관리 시스템 및 방법 |
EP2894939A4 (en) * | 2012-09-04 | 2016-04-20 | Sk Planet Co Ltd | SYSTEM AND METHOD FOR SUPPORT FOR CONTACT COMMUNICATION |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
US9117197B1 (en) * | 2012-10-19 | 2015-08-25 | Google Inc. | Alert system for social network users |
US10497374B2 (en) | 2012-11-21 | 2019-12-03 | Blackberry Limited | Contact prioritized communication for voice commands |
ES2784143T3 (es) * | 2012-12-06 | 2020-09-22 | Blackberry Ltd | Método de identificación de contactos para iniciar una comunicación usando reconocimiento de habla |
US9723118B2 (en) | 2012-12-06 | 2017-08-01 | Blackberry Limited | Method of identifying contacts for initiating a communication using speech recognition |
US9190057B2 (en) | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
US8670529B1 (en) | 2012-12-17 | 2014-03-11 | Ringcentral, Inc. | Context aware help system |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
US10402914B2 (en) * | 2013-02-22 | 2019-09-03 | Nokia Technologies Oy | Apparatus and method for providing contact-related information items |
US10255327B2 (en) | 2013-02-22 | 2019-04-09 | Nokia Technology Oy | Apparatus and method for providing contact-related information items |
US20140279906A1 (en) * | 2013-03-13 | 2014-09-18 | Bart Michael Peintner | Apparatus, system and method for multiple source disambiguation of social media communications |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
KR102014665B1 (ko) | 2013-03-15 | 2019-08-26 | 애플 인크. | 지능형 디지털 어시스턴트에 의한 사용자 트레이닝 |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
AU2014251347B2 (en) | 2013-03-15 | 2017-05-18 | Apple Inc. | Context-sensitive handling of interruptions |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US9218568B2 (en) * | 2013-03-15 | 2015-12-22 | Business Objects Software Ltd. | Disambiguating data using contextual and historical information |
US8909559B1 (en) | 2013-03-28 | 2014-12-09 | Linkedin Corporation | Techniques to facilitate recommendations for non-member connections |
US10798150B2 (en) * | 2013-03-29 | 2020-10-06 | Here Global B.V. | Method and apparatus for coordinating tasks among a plurality of users |
US20140344259A1 (en) * | 2013-05-15 | 2014-11-20 | Google Inc. | Answering people-related questions |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2014200728A1 (en) | 2013-06-09 | 2014-12-18 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
US8831191B1 (en) | 2013-06-28 | 2014-09-09 | Ringcentral, Inc. | Call preview system |
USD734358S1 (en) * | 2013-06-28 | 2015-07-14 | Microsoft Corporation | Display screen with graphical user interface |
US20150031416A1 (en) * | 2013-07-23 | 2015-01-29 | Motorola Mobility Llc | Method and Device For Command Phrase Validation |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
KR102158315B1 (ko) * | 2013-10-14 | 2020-09-21 | 삼성전자주식회사 | 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US8862467B1 (en) * | 2013-12-11 | 2014-10-14 | Google Inc. | Contextual speech recognition |
USD755830S1 (en) | 2013-12-18 | 2016-05-10 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD755819S1 (en) * | 2013-12-30 | 2016-05-10 | Beijing Qihoo Technology Co., Ltd. | Display screen with animated graphical user interface |
US9571427B2 (en) * | 2013-12-31 | 2017-02-14 | Google Inc. | Determining strength of association between user contacts |
US9965521B1 (en) * | 2014-02-05 | 2018-05-08 | Google Llc | Determining a transition probability from one or more past activity indications to one or more subsequent activity indications |
US9842592B2 (en) | 2014-02-12 | 2017-12-12 | Google Inc. | Language models using non-linguistic context |
USD765092S1 (en) | 2014-03-03 | 2016-08-30 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD766318S1 (en) | 2014-03-07 | 2016-09-13 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
US10929858B1 (en) * | 2014-03-14 | 2021-02-23 | Walmart Apollo, Llc | Systems and methods for managing customer data |
US9412365B2 (en) | 2014-03-24 | 2016-08-09 | Google Inc. | Enhanced maximum entropy models |
KR102124321B1 (ko) * | 2014-04-30 | 2020-06-18 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 연락처와 통신하는 방법 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
EP3480811A1 (en) | 2014-05-30 | 2019-05-08 | Apple Inc. | Multi-command single utterance input method |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
USD771112S1 (en) | 2014-06-01 | 2016-11-08 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US9253302B2 (en) * | 2014-06-04 | 2016-02-02 | Google Inc. | Populating user contact entries |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
DE102014010305A1 (de) * | 2014-07-11 | 2016-01-14 | Unify Gmbh & Co. Kg | Verfahren und Verwaltung eines Anrufjournals, Vorrichtung, Computerprogramm und Softwareprodukt hierfür |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9953646B2 (en) | 2014-09-02 | 2018-04-24 | Belleau Technologies | Method and system for dynamic speech recognition and tracking of prewritten script |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
CN104320766A (zh) * | 2014-10-16 | 2015-01-28 | 小米科技有限责任公司 | 垃圾短信识别方法、装置及设备 |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US10134394B2 (en) | 2015-03-20 | 2018-11-20 | Google Llc | Speech recognition using log-linear model |
US9552810B2 (en) | 2015-03-31 | 2017-01-24 | International Business Machines Corporation | Customizable and individualized speech recognition settings interface for users with language accents |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9472196B1 (en) * | 2015-04-22 | 2016-10-18 | Google Inc. | Developer voice actions system |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
USD760746S1 (en) | 2015-06-04 | 2016-07-05 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10387787B1 (en) | 2015-10-28 | 2019-08-20 | Intuit Inc. | Method and system for providing personalized user experiences to software system users |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US9860355B2 (en) * | 2015-11-23 | 2018-01-02 | International Business Machines Corporation | Call context metadata |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10373064B2 (en) | 2016-01-08 | 2019-08-06 | Intuit Inc. | Method and system for adjusting analytics model characteristics to reduce uncertainty in determining users' preferences for user experience options, to support providing personalized user experiences to users with a software system |
US10861106B1 (en) | 2016-01-14 | 2020-12-08 | Intuit Inc. | Computer generated user interfaces, computerized systems and methods and articles of manufacture for personalizing standardized deduction or itemized deduction flow determinations |
US11069001B1 (en) | 2016-01-15 | 2021-07-20 | Intuit Inc. | Method and system for providing personalized user experiences in compliance with service provider business rules |
US11030631B1 (en) | 2016-01-29 | 2021-06-08 | Intuit Inc. | Method and system for generating user experience analytics models by unbiasing data samples to improve personalization of user experiences in a tax return preparation system |
EP3206382B1 (en) * | 2016-02-12 | 2018-12-05 | Wipro Limited | System and method for managing an unsuccessful communication session between a source user and a target user |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9978367B2 (en) | 2016-03-16 | 2018-05-22 | Google Llc | Determining dialog states for language models |
US10621597B2 (en) | 2016-04-15 | 2020-04-14 | Intuit Inc. | Method and system for updating analytics models that are used to dynamically and adaptively provide personalized user experiences in a software system |
US10621677B2 (en) | 2016-04-25 | 2020-04-14 | Intuit Inc. | Method and system for applying dynamic and adaptive testing techniques to a software system to improve selection of predictive models for personalizing user experiences in the software system |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10346927B1 (en) | 2016-06-06 | 2019-07-09 | Intuit Inc. | Method and system for providing a personalized user experience in a tax return preparation system based on predicted life events for a user |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10282218B2 (en) * | 2016-06-07 | 2019-05-07 | Google Llc | Nondeterministic task initiation by a personal assistant module |
US10462619B2 (en) * | 2016-06-08 | 2019-10-29 | Google Llc | Providing a personal assistant module with a selectively-traversable state machine |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
USD798893S1 (en) | 2016-06-11 | 2017-10-03 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US20170357411A1 (en) * | 2016-06-11 | 2017-12-14 | Apple Inc. | User interface for initiating a telephone call |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
CN106205622A (zh) * | 2016-06-29 | 2016-12-07 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
US20180025088A1 (en) * | 2016-07-21 | 2018-01-25 | Linkedin Corporation | Filtering irrelevant actor updates from content feeds |
USD809542S1 (en) * | 2016-08-16 | 2018-02-06 | Miltech Platform, Inc. | Display screen or a portion thereof with an express chat graphical user interface |
US10832664B2 (en) | 2016-08-19 | 2020-11-10 | Google Llc | Automated speech recognition using language models that selectively use domain-specific model components |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10403273B2 (en) | 2016-09-09 | 2019-09-03 | Oath Inc. | Method and system for facilitating a guided dialog between a user and a conversational agent |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
KR101700301B1 (ko) * | 2016-09-30 | 2017-01-26 | 에스케이플래닛 주식회사 | 주소록 관리 시스템 및 방법 |
USD796545S1 (en) * | 2016-11-18 | 2017-09-05 | Google Inc. | Display screen with graphical user interface |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
USD810760S1 (en) | 2016-12-22 | 2018-02-20 | Palantir Technologies, Inc. | Display screen or portion thereof with transitional graphical user interface |
USD808991S1 (en) * | 2016-12-22 | 2018-01-30 | Palantir Technologies, Inc. | Display screen or portion thereof with graphical user interface |
USD810101S1 (en) | 2016-12-22 | 2018-02-13 | Palantir Technologies, Inc. | Display screen or portion thereof with graphical user interface |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10810569B2 (en) * | 2017-01-30 | 2020-10-20 | Square, Inc. | Contacts for misdirected payments and user authentication |
US10311860B2 (en) | 2017-02-14 | 2019-06-04 | Google Llc | Language model biasing system |
US10943309B1 (en) | 2017-03-10 | 2021-03-09 | Intuit Inc. | System and method for providing a predicted tax refund range based on probabilistic calculation |
US10158828B2 (en) * | 2017-04-05 | 2018-12-18 | Facebook, Inc. | Customized graphics for video conversations |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US20180343233A1 (en) * | 2017-05-24 | 2018-11-29 | Lenovo (Singapore) Pte. Ltd. | Contextual name association |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10565191B2 (en) | 2017-06-05 | 2020-02-18 | International Business Machines Corporation | Cognitive program suite for a cognitive device and a mobile device |
US10410635B2 (en) | 2017-06-09 | 2019-09-10 | Soundhound, Inc. | Dual mode speech recognition |
US10572107B1 (en) * | 2017-06-23 | 2020-02-25 | Amazon Technologies, Inc. | Voice communication targeting user interface |
USD843442S1 (en) | 2017-09-10 | 2019-03-19 | Apple Inc. | Type font |
USD869476S1 (en) * | 2017-09-19 | 2019-12-10 | Robert Bosch Tool Corporation | Display screen or portion thereof with graphical user interface |
USD868808S1 (en) | 2017-09-19 | 2019-12-03 | Robert Bosch Tool Corporation | Display screen or portion thereof with a graphical user interface |
US10854191B1 (en) * | 2017-09-20 | 2020-12-01 | Amazon Technologies, Inc. | Machine learning models for data driven dialog management |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10672379B1 (en) * | 2017-09-25 | 2020-06-02 | Amazon Technologies, Inc. | Systems and methods for selecting a recipient device for communications |
US10372298B2 (en) * | 2017-09-29 | 2019-08-06 | Apple Inc. | User interface for multi-user communication session |
USD910046S1 (en) | 2017-09-29 | 2021-02-09 | Apple Inc. | Electronic device with graphical user interface |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
USD857033S1 (en) | 2017-11-07 | 2019-08-20 | Apple Inc. | Electronic device with graphical user interface |
US10841411B1 (en) * | 2017-11-09 | 2020-11-17 | Amazon Technologies, Inc. | Systems and methods for establishing a communications session |
KR102071865B1 (ko) * | 2017-11-30 | 2020-01-31 | 주식회사 인텔로이드 | 서버인식 결과를 이용하여 호출어를 인식하는 장치 및 방법 |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
USD916886S1 (en) | 2017-12-20 | 2021-04-20 | Microsoft Corporation | Display screen with icon |
USD857040S1 (en) * | 2017-12-20 | 2019-08-20 | Microsoft Corporation | Display screen with graphical user interface |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
KR102019963B1 (ko) * | 2018-02-12 | 2019-09-06 | 슈어소프트테크주식회사 | 모델 내 서브시스템의 유사도 측정 장치 및 유사도 측정 방법 |
CN108650165B (zh) * | 2018-02-28 | 2021-10-29 | 创新先进技术有限公司 | 一种通讯数据的恢复方法、装置及设备 |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180130B1 (da) | 2018-05-07 | 2020-06-02 | Apple Inc. | Multi-participant live communication user interface |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
USD879132S1 (en) | 2018-06-03 | 2020-03-24 | Apple Inc. | Electronic device with graphical user interface |
US10811009B2 (en) * | 2018-06-27 | 2020-10-20 | International Business Machines Corporation | Automatic skill routing in conversational computing frameworks |
CN108962261A (zh) * | 2018-08-08 | 2018-12-07 | 联想(北京)有限公司 | 信息处理方法、信息处理装置和蓝牙耳机 |
US10542157B1 (en) | 2018-09-13 | 2020-01-21 | Nokia Solutions And Networks Oy | Communications recommendation assistant |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10977687B2 (en) * | 2018-10-08 | 2021-04-13 | Microsoft Technology Licensing, Llc | Data collection and pattern analysis in a decentralized network |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
USD883319S1 (en) | 2018-10-29 | 2020-05-05 | Apple Inc. | Electronic device with graphical user interface |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
USD902221S1 (en) | 2019-02-01 | 2020-11-17 | Apple Inc. | Electronic device with animated graphical user interface |
USD900871S1 (en) | 2019-02-04 | 2020-11-03 | Apple Inc. | Electronic device with animated graphical user interface |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11615790B1 (en) * | 2019-09-30 | 2023-03-28 | Amazon Technologies, Inc. | Disambiguating contacts using relationship data |
US11170800B2 (en) * | 2020-02-27 | 2021-11-09 | Microsoft Technology Licensing, Llc | Adjusting user experience for multiuser sessions based on vocal-characteristic models |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11917092B2 (en) * | 2020-06-04 | 2024-02-27 | Syntiant | Systems and methods for detecting voice commands to generate a peer-to-peer communication link |
USD949184S1 (en) | 2020-06-17 | 2022-04-19 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112751749B (zh) * | 2020-12-30 | 2022-10-11 | 上海掌门科技有限公司 | 一种在音视频呼叫过程中呈现信息的方法与设备 |
US11431891B2 (en) | 2021-01-31 | 2022-08-30 | Apple Inc. | User interfaces for wide angle video conference |
US11360634B1 (en) | 2021-05-15 | 2022-06-14 | Apple Inc. | Shared-content session user interfaces |
US11893214B2 (en) | 2021-05-15 | 2024-02-06 | Apple Inc. | Real-time communication user interface |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
US11693529B2 (en) | 2021-08-31 | 2023-07-04 | Apple Inc. | Methods and interfaces for initiating communications |
US11812135B2 (en) | 2021-09-24 | 2023-11-07 | Apple Inc. | Wide angle video conference |
EP4203449A1 (de) * | 2021-12-22 | 2023-06-28 | Deutsche Telekom AG | Verbindungsdienst für ein mobilfunknetz |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69326431T2 (de) * | 1992-12-28 | 2000-02-03 | Toshiba Kawasaki Kk | Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist |
US5950157A (en) | 1997-02-28 | 1999-09-07 | Sri International | Method for establishing handset-dependent normalizing models for speaker recognition |
US6499013B1 (en) | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
US6574599B1 (en) * | 1999-03-31 | 2003-06-03 | Microsoft Corporation | Voice-recognition-based methods for establishing outbound communication through a unified messaging system including intelligent calendar interface |
US6553345B1 (en) | 1999-08-26 | 2003-04-22 | Matsushita Electric Industrial Co., Ltd. | Universal remote control allowing natural language modality for television and multimedia searches and requests |
US6760704B1 (en) | 2000-09-29 | 2004-07-06 | Intel Corporation | System for generating speech and non-speech audio messages |
US6704707B2 (en) | 2001-03-14 | 2004-03-09 | Intel Corporation | Method for automatically and dynamically switching between speech technologies |
US6985862B2 (en) | 2001-03-22 | 2006-01-10 | Tellme Networks, Inc. | Histogram grammar weighting and error corrective training of grammar weights |
US7526431B2 (en) * | 2001-09-05 | 2009-04-28 | Voice Signal Technologies, Inc. | Speech recognition using ambiguous or phone key spelling and/or filtering |
US7203644B2 (en) | 2001-12-31 | 2007-04-10 | Intel Corporation | Automating tuning of speech recognition systems |
US7570943B2 (en) * | 2002-08-29 | 2009-08-04 | Nokia Corporation | System and method for providing context sensitive recommendations to digital services |
JP2005025381A (ja) | 2003-06-30 | 2005-01-27 | Toshiba Corp | 電子機器および電力制御方法 |
US20050204009A1 (en) | 2004-03-09 | 2005-09-15 | Devapratim Hazarika | System, method and computer program product for prioritizing messages |
US20050246325A1 (en) * | 2004-04-30 | 2005-11-03 | Microsoft Corporation | Method and system for recording and accessing usage of an item in a computer system |
US20060009974A1 (en) | 2004-07-09 | 2006-01-12 | Matsushita Electric Industrial Co., Ltd. | Hands-free voice dialing for portable and remote devices |
US7580363B2 (en) * | 2004-08-16 | 2009-08-25 | Nokia Corporation | Apparatus and method for facilitating contact selection in communication devices |
US8009678B2 (en) * | 2005-03-17 | 2011-08-30 | Microsoft Corporation | System and method for generating a dynamic prioritized contact list |
US20070060114A1 (en) * | 2005-09-14 | 2007-03-15 | Jorey Ramer | Predictive text completion for a mobile communication facility |
JP4197344B2 (ja) * | 2006-02-20 | 2008-12-17 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声対話システム |
ATE405088T1 (de) * | 2006-08-30 | 2008-08-15 | Research In Motion Ltd | Verfahren, computerprogramm und vorrichtung zur eindeutigen identifizierung von einem kontakt in einer kontaktdatenbank durch eine einzige sprachäusserung |
JP5127201B2 (ja) * | 2006-11-08 | 2013-01-23 | キヤノン株式会社 | 情報処理装置及び方法並びにプログラム |
US8060373B2 (en) * | 2007-03-21 | 2011-11-15 | At&T Intellectual Property I, L.P. | System and method of identifying contact information |
US7523012B2 (en) | 2007-07-03 | 2009-04-21 | Motorola, Inc. | Method and system for controlling a handheld electronic device |
US20090037413A1 (en) | 2007-07-30 | 2009-02-05 | Research In Motion Limited | Method and system for generating address lists |
US20090228513A1 (en) * | 2008-03-06 | 2009-09-10 | Nokia Corporation | Methods, apparatuses, and computer program products for modeling contact networks |
US8694313B2 (en) * | 2010-05-19 | 2014-04-08 | Google Inc. | Disambiguation of contact information using historical data |
-
2010
- 2010-05-19 US US12/782,862 patent/US8694313B2/en active Active
-
2011
- 2011-05-18 EP EP11722688.6A patent/EP2572497B1/en active Active
- 2011-05-18 EP EP17202572.8A patent/EP3313055B1/en active Active
- 2011-05-18 CN CN201180024739.0A patent/CN103039064B/zh active Active
- 2011-05-18 KR KR1020177037939A patent/KR101921691B1/ko active IP Right Grant
- 2011-05-18 KR KR1020127030128A patent/KR101803048B1/ko active IP Right Grant
- 2011-05-18 AU AU2011255614A patent/AU2011255614B2/en active Active
- 2011-05-18 WO PCT/US2011/036984 patent/WO2011146605A1/en active Application Filing
- 2011-05-18 KR KR1020167016277A patent/KR101816229B1/ko active IP Right Grant
- 2011-09-30 US US13/249,565 patent/US8386250B2/en active Active
-
2012
- 2012-07-10 US US13/545,744 patent/US8688450B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10553219B2 (en) | 2015-09-23 | 2020-02-04 | Samsung Electronics Co., Ltd. | Voice recognition apparatus, voice recognition method of user device, and non-transitory computer readable recording medium |
US10311877B2 (en) | 2016-07-04 | 2019-06-04 | Kt Corporation | Performing tasks and returning audio and visual answers based on voice command |
US10726836B2 (en) | 2016-08-12 | 2020-07-28 | Kt Corporation | Providing audio and video feedback with character based on voice command |
KR20180084591A (ko) * | 2017-01-16 | 2018-07-25 | 주식회사 케이티 | 음성 명령에 기반하여 서비스를 제공하는 서버 및 단말 |
US10650816B2 (en) | 2017-01-16 | 2020-05-12 | Kt Corporation | Performing tasks and returning audio and visual feedbacks based on voice command |
Also Published As
Publication number | Publication date |
---|---|
US20120278076A1 (en) | 2012-11-01 |
WO2011146605A1 (en) | 2011-11-24 |
AU2011255614A1 (en) | 2012-11-08 |
KR20160077223A (ko) | 2016-07-01 |
EP2572497B1 (en) | 2018-01-24 |
KR101803048B1 (ko) | 2017-11-29 |
US8694313B2 (en) | 2014-04-08 |
US20110288868A1 (en) | 2011-11-24 |
EP3313055B1 (en) | 2019-07-10 |
EP3313055A1 (en) | 2018-04-25 |
KR101921691B1 (ko) | 2018-11-26 |
US8386250B2 (en) | 2013-02-26 |
US20120022874A1 (en) | 2012-01-26 |
US8688450B2 (en) | 2014-04-01 |
CN103039064A (zh) | 2013-04-10 |
EP2572497A1 (en) | 2013-03-27 |
CN103039064B (zh) | 2016-04-13 |
AU2011255614B2 (en) | 2014-03-27 |
KR101816229B1 (ko) | 2018-01-08 |
KR20180004842A (ko) | 2018-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101921691B1 (ko) | 이력 데이터를 이용한 연락처 정보의 명확화 | |
US10089986B2 (en) | Systems and methods to present voice message information to a user of a computing device | |
US9418659B2 (en) | Computer-implemented system and method for transcribing verbal messages | |
US8880403B2 (en) | Methods and systems for obtaining language models for transcribing communications | |
US7590536B2 (en) | Voice language model adjustment based on user affinity | |
US8676577B2 (en) | Use of metadata to post process speech recognition output | |
US8595015B2 (en) | Audio communication assessment | |
US8542803B2 (en) | System and method for integrating and managing E-mail, voicemail, and telephone conversations using speech processing techniques | |
US20080273677A1 (en) | Method and System for Communicating and Displaying Data With a Voice Call | |
US20150220507A1 (en) | Method for embedding voice mail in a spoken utterance using a natural language processing computer system | |
US8744995B1 (en) | Alias disambiguation | |
US20120259633A1 (en) | Audio-interactive message exchange | |
CN1842842A (zh) | 一种根据辅助信息提高语音识别的方法和设备 | |
WO2012106198A1 (en) | Posting to social networks by voice | |
US9462102B1 (en) | Call context metadata | |
AU2014201000B2 (en) | Disambiguation of contact information using historical data | |
CN113170020A (zh) | 在支持语音的共享设备上指示呼入话音呼叫的呼叫方 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |