KR20140025361A - Location-based conversational understanding - Google Patents

Location-based conversational understanding Download PDF

Info

Publication number
KR20140025361A
KR20140025361A KR20137025540A KR20137025540A KR20140025361A KR 20140025361 A KR20140025361 A KR 20140025361A KR 20137025540 A KR20137025540 A KR 20137025540A KR 20137025540 A KR20137025540 A KR 20137025540A KR 20140025361 A KR20140025361 A KR 20140025361A
Authority
KR
Grant status
Application
Patent type
Prior art keywords
query
based
environmental context
associated
location
Prior art date
Application number
KR20137025540A
Other languages
Korean (ko)
Inventor
래리 폴 헤크
마두수단 친사쿤타
데이비드 미트비
리자 스티펠만
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/30Information retrieval; Database structures therefor ; File system structures therefor
    • G06F17/30943Information retrieval; Database structures therefor ; File system structures therefor details of database functions independent of the retrieved data type
    • G06F17/30964Querying
    • G06F17/30967Query formulation
    • G06F17/30976Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/30Information retrieval; Database structures therefor ; File system structures therefor
    • G06F17/3061Information retrieval; Database structures therefor ; File system structures therefor of unstructured textual data
    • G06F17/30634Querying
    • G06F17/30637Query formulation
    • G06F17/30654Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/30Information retrieval; Database structures therefor ; File system structures therefor
    • G06F17/30861Retrieval from the Internet, e.g. browsers
    • G06F17/30864Retrieval from the Internet, e.g. browsers by querying, e.g. search engines or meta-search engines, crawling techniques, push systems

Abstract

본 발명에 따르면 위치-기반 대화 해석이 제공된다. In accordance with the present invention location-based conversation analysis it is provided. 사용자로부터 쿼리를 수신하면, 쿼리와 연관된 환경적 맥락이 생성된다. When receiving the query from the user, the environmental context associated with the query is generated. 쿼리는 이 환경적 맥락에 따라 해석될 수 있다. Queries can be interpreted according to the environmental context. 해석된 쿼리는 실행될 수 있으며 쿼리와 연관된 적어도 하나의 결과가 사용자에게 제공될 수 있다. The Analysis query is executed and there is at least one of the results associated with the query can be provided to the user.

Description

위치-기반 대화 해석{LOCATION-BASED CONVERSATIONAL UNDERSTANDING} The location-based conversations interpretation {LOCATION-BASED CONVERSATIONAL UNDERSTANDING}

위치-기반 대화 해석은 환경적 맥락을 활용하여 쿼리 실행 및 결과들을 향상시키는 메커니즘을 제공한다. The location-based conversation analysis provides a mechanism to improve the query execution and result by utilizing the environmental context. 종래의 음석 인식 프로그램들은 한 사용자로부터 다른 사용자로의 정보(예컨대, 음성 어조(speech utterance), 지리적 데이터, 소정 위치들의 음향적 환경, 특정 위치로부터 만들어지는 전형적인 쿼리들)를 활용하여 새로운 사용자들 및/또는 기존 사용자들로부터 새로운 쿼리들의 품질과 정확성을 향상시키는 기법을 가지지 않았다. Utilizing (typical query the created from the acoustic environment, the specific locations of, for example, the audio tone (speech utterance), the geographical data, a predetermined position), the conventional eumseok recognition programs from the user information to other users, the new user, and / or it did not have a mechanism to improve the quality and accuracy of the new query from an existing user. 어떤 경우는 대화 해석에 있어 유사하거나 잠재적으로 관련된 쿼리들을 이용하지 못하고 음성-텍스트 변환이 행해져야만 했다. In some cases, it does not interpret the conversation using a query relating to similar or potential voice-text conversion had to be done.

음성-텍스트 변환(즉, 음성 인식)은 컴퓨팅 시스템에 의해 처리될 수 있는 음성 표현의 텍스트 표현으로의 변환을 포함할 수 있다. Voice-text conversion (i.e., speech recognition) may include a conversion to the text representation of the phonetic representation that can be processed by a computing system. 음향 모델링 및/또는 언어 모델링이 현대적인 통계-기반 음성 인식 알고리즘에서 사용될 수 있다. It can be used based on the speech recognition algorithms - acoustic modeling and / or statistical language modeling modern. 'Hidden Markov model(HMMs)'은 많은 종래의 시스템에서 널리 사용되고 있다. 'Hidden Markov model (HMMs)' is widely used in many conventional systems. HMMs는 심볼이나 퀀티티(quantities)의 시퀀스를 출력할 수 있는 통계적 모델들을 포함할 수 있다. HMMs it may comprise a statistical model that is capable of outputting a sequence of symbols and quantize entity (quantities). HMMs는 음성 신호를 단편적인 정적 신호(piecewise stationary signal) 또는 짧은 시간 동안 정적 신호(short-time stationary signal)로 볼 수 있기 때문에 음성 인식에 사용될 수 있다. HMMs can be used in the speech recognition, because available (piecewise stationary signal) fragmentary static signal or a speech signal short-time stationary signals (short-time stationary signal) for. 짧은 시간(예컨대, 10 밀리초) 동안에, 음성은 정적 프로세스로 근사될 수 있다. For a short time (e.g., 10 ms), voice can be approximated as a static process. 그러므로 음성은 많은 확률론적 용도를 위해 Markov 모델로 고려될 수 있다. Therefore speech can be considered as a Markov model for many stochastic purposes.

이 개요는 아래에서 상세한 설명에서 더 설명할 일부 선택된 개념들을 단순한 형태로 소개하기 위해 제공된다. This summary is provided to introduce in simplified form a part of the selected concept will be further described in the detailed description below. 이 개요는 청구된 주제의 핵심 특징 또는 필수 특징을 식별하기 위한 것이 아니고, 청구된 주제의 범위를 제한하는데 사용되려는 것도 아니다. This summary is not intended to identify key features or essential features of the claimed subject matter, nor is it to become used to limit the scope of the claimed subject matter.

위치-기반 대화 해석이 제공된다. Location-based dialogue interpretation is provided. 사용자로부터 쿼리를 수신하면, 쿼리와 연관된 환경적 맥락이 생성된다. When receiving the query from the user, the environmental context associated with the query is generated. 쿼리는 이 환경적 맥락에 따라 해석될 수 있다. Queries can be interpreted according to the environmental context. 해석된 쿼리는 실행될 수 있으며 쿼리와 연관된 적어도 하나의 결과가 사용자에게 제공될 수 있다. The Analysis query is executed and there is at least one of the results associated with the query can be provided to the user.

전술한 일반적 설명 및 후술할 상세한 설명은 모두 예시이며 예시적인 용도로만 사용된 것이다. The foregoing general description and the following detailed description is illustrative of both is used only for illustrative purposes. 따라서, 전술한 일반적 설명 및 후술할 상세한 설명은 제한적인 의미로 고려되어서는 안된다. Accordingly, the foregoing general description and the following detailed description is not to be considered in a limiting sense. 오히려, 다른 특징 또는 변형이 여기에 설명된 것에 더하여 제공될 수 있다. Rather, other features or variations may be provided in addition to those described herein. 예를 들어, 실시예들은 상세한 설명에 기술된 다양한 특징들의 조합들 또는 하위 조합들에 대한 것일 수 있다. For example, embodiments may be for the combinations or sub-combinations of the various features described in the Detailed Description.

첨부된 도면들은 본 명세서에 통합되어 본 명세서의 일부를 이루며, 본 발명의 다양한 실시예를 도시한다. The accompanying drawings are incorporated herein constitute a part of this specification, illustrate various embodiments of the present invention. 도면에서, In the drawings,
도 1은 동작 환경에 대한 블록도이다. Figure 1 is a block diagram of the operation environment.
도 2는 위치-기반 대화 해석을 제공하는 방법에 대한 흐름도이다. 2 is located a flow diagram for a method of providing a conversation-based analysis.
도 3은 컴퓨팅 장치를 포함하는 시스템의 블록도이다. Figure 3 is a block diagram of a system including a computing device.

후술하는 상세한 설명은 첨부된 도면들을 참조한다. The following description refers to the accompanying drawings. 가능한 경우, 동일한 참조번호가 도면 및 후술할 설명에서 동일하거나 유사한 구성 요소들을 지칭한다. When possible, the same or similar components referred to with the same reference numerals in the description to the drawings and described below. 본 발명의 실시예들이 기술되었지만, 변경, 적응 및 다른 구현들이 가능하다. Although the embodiment of the present invention have been described, it is possible to change, adaptations and other implementations. 예를 들어, 도면에 도시된 요소들에 대한 대체, 추가 또는 변경이 있을 수 있으며, 여기에 개시된 방법들이 개시된 방법들이 개시된 방법들에 단계를 대체, 재구성, 추가하는 것에 의해 변경될 수 있다. For example, there may be substitution, addition or changes to the elements shown in the Figures, how the methods disclosed herein are disclosed to replace a step in the disclosed method, it is possible to change by adding reconfiguration. 따라서, 후술할 상세한 설명은 발명을 한정하는 것이 아니다. Therefore, detailed description is not intended to limit the invention. 발명의 적절한 범위는 첨부된 청구범위에 의해 정의된다. Suitable range of the invention is defined by the appended claims.

위치-기반 대화 해석이 제공된다. Location-based dialogue interpretation is provided. 예를 들어, 변환 및 변환된 진술에 포함된 쿼리 결과의 정확성을 향상시키기 위하여 복수의 사용자들로부터의 정보를 서로 연관시키는 음성-텍스트 변환 시스템이 제공될 수 있다. For example, information from a plurality of user speech that correlate to improve the accuracy of the query results included in the conversion, and the converted statement may be provided with a transcription system. 본 발명의 실시예에 따라, 개인 보조 프로그램(personal assistant program)은 복수의 위치에서 사용자들로부터의 음성-기반 쿼리들을 수신할 수 있다. , Personal Assistant (personal assistant program) according to an embodiment of the present invention, the voice from the user in a plurality of location-based query may receive. 각각의 쿼리들에 대해 음향적 및/또는 환경적 특성들이 분석되며, 이러한 특성들은 저장되고 그 쿼리가 수신된 위치와 연관될 수 있다. Properties acoustically and / or the environment to be analyzed for each of the query, such characteristics may be stored and associated with the position that the query is received. 예를 들어, 지하철역에 있는 사용자로부터 수신된 쿼리는 군중들이나 지하철에 의한 배경음 및/또는 타일 벽의 음향적 에코의 존재를 탐지할 수 있다. For example, the query received from a user in the subway station may detect the presence of the acoustic echo of the background sound, and / or wall tiles by the crowd or subway. 그리고 나서 이 특성들이 그 위치에서 수신되는 장래의 쿼리들로부터는 필터링(filitered out)되도록 나타냄으로서, 그 쿼리들의 변환에 더 큰 정확성을 허용할 수 있다. Then from future queries that this characteristic have been received at that position are indicated as such filter (filitered out), it may allow for greater accuracy in the conversion of the query. 본 발명의 실시예들에 따라, 예를 들어 사용자의 GPS(Global Positioning System) 위치, 사용자와 연관된 지역 코드, 사용자와 연관된 우편번호 및/또는 사용자가 랜드마크(예컨대, 기차역, 체육관, 박물관, 오피스 빌딩 등)에 가까운 정도 등에 의해 위치가 정의될 수 있다. In accordance with embodiments of the present invention, such as the user's GPS (Global Positioning System) position, the area code associated with a user associated with the user postal code and / or the user and the landmark (e.g., a train station, a gym, museums, offices the position may be defined by a degree close to the building, and so on).

쿼리를 처리하는 것은 그 쿼리를 음향 모델(acoustic model)에 따라 조정하는 것을 포함할 수 있다. The process queries may include adjustments based on that query, the acoustic model (acoustic model). 예를 들어, 음향 모델은 특정 위치에 존재한다고 알려진 배경음을 포함할 수 있다. For example, the acoustic model may include background noise known to be present in a particular position. 음향 모델을 적용하는 것은 쿼리로 하여금 관계없는 소리를 무시함으로서 좀 더 정확하게 변환될 수 있도록 해준다. Applying acoustic models allow you to be more accurately converted by ignoring the sounds do not allow the relationship to the query. 음향 모델은 또한 쿼리와 연관된 어떠한 결과들의 디스플레이를 변경할 수 있게 해줄 수 있다. Acoustic model that will also be able to change the display of any consequences associated with the query. 예를 들어, 특정한 시끄러운 환경에서, 결과들을 오디오보다는 스크린에 디스플레이되도록 할 수 있다. For example, in certain noisy environments, it can be displayed in the result screen rather than audio. 환경적 맥락은 음성-텍스트 변환을 돕기 위해 해석 모델과도 연관될 수 있다. Environmental context is voice - can also be associated with the analytical model to help transform the text. 예를 들어, 해석 모델은 HMM(Hidden Markov Model)을 포함할 수 있다. For example, the analysis model may include an HMM (Hidden Markov Model). 환경적 맥락은 쿼리를 실행하는 것을 돕기 위해 시맨틱 모델(semantic model)과 더 연관될 수 있다. Environmental context can be further associated with a semantic model (semantic model) to help run the query. 예를 들어, 시맨틱 모델은 온톨로지(ontology)를 포함할 수 있다. For example, the semantic model may include an ontology (ontology).

또한, 쿼리의 주제는 미래의 쿼리들에 대한 결과를 향상시키는데 사용될 수 있다. In addition, the subject of the query can be used to improve the results for future queries. 예를 들어, 지하철역에 있는 사용자들이 "다음은 언제인가?"라는 쿼리를 주면, 개인 보조 프로그램은 몇몇 쿼리들을 거치는 동안, 사용자가 원하는 것이 다음 기차가 언제 도착하는가라는 것을 판단할 수 있다. For example, it may be determined that the user does in the subway station to give a query of "When is the next?", A personal assistant program moves through several queries, the user would then train arrive wanted. 이것은 처음 사용자로부터의 쿼리에 대한 추가 설명을 요청하고, 장래에 사용하기 위해 그 설명을 저장하는 것에 의해 달성될 수 있다. This can be achieved by storing the description for further explanation of the query from the first user, for use in the future. 다른 예로서, 만약 한 사용자가 "다음은 언제인가?"라는 쿼리를 주고 다른 사용자가 "다음 기차는 언제인가?"라는 쿼리를 주면, 프로그램은 이들 쿼리들을 관련짓고 두 사용자 모두 동일한 정보를 요청하고 있다는 가정을 할 수 있다. As another example, if a user gives a query called "Here When it is?" Another user "When is the next train?" Give the named query, the program requests the same information for both users associate these queries and there may be home.

도 1은 위치-기반 대화 해석을 제공하는 동작 환경 (100)의 블록도이다. 1 is located - a block diagram of an operating environment 100 to provide a dialogue-based analysis. 동작 환경(100)은 개인 보조 프로그램 (112), 음성-텍스트 변환기 (114) 및 맥락 데이터베이스(116)를 포함하는 음성 대화 시스템(spoken dialog system, SDS)(110)을 포함할 수 있다. Operational environment 100 includes a personal accessory 112, the voice may include the text converter 114, and a context database 116 speech dialog system (spoken dialog system, SDS) containing 110. 개인 보조 프로그램(112)은 제1 위치(140)에서 제1 복수의 사용자들(130(A)-(C)) 및/또는 제2 위치(160)에서 제2 복수의 사용자들(150(A)-(C))로부터 네트워크(120)를 통해 쿼리들을 수신할 수 있다. Individual accessory 112 is of a first plurality of users in a first position (140) (130 (A) - (C)) and / or the second plurality of users in a second position (160) (150 (A ) - (may receive the query over the network 120 from C)). 맥락 데이터베이스(116)는 제1 복수의 사용자들(130(A)-(C)) 및/또는 제2 복수의 사용자들(150(A)-(C))과 같은 사용자들로부터 수신된 쿼리들과 연관된 맥락 데이터를 저장할 수 있다. The query received from a user, such as a context database (116) includes a first plurality of users (130 (A) - - (C)) and / or the second plurality of users ((C) 150 (A)) and you can store the data associated with the context. 맥락 데이터는 음향적 및/또는 환경적 특성들과 쿼리 주제, 쿼리의 시간/날짜, 사용자 세부사항, 및/또는 쿼리가 만들어진 장소와 같은 쿼리 맥락 정보를 포함할 수 있다. Context data may include a query context information, such as acoustic and / or environmental properties and query subjects, query time / date, user details, and / or queries made place. 본 발명의 실시예들에 따르면, 네트워크(120)는 예를 들어, 사설 데이터 네트워크(예컨대 인트라넷), 셀룰러 데이터 네트워크, 및/또는 인터넷과 같은 공용 네트워크를 포함할 수 있다. According to embodiments of the invention, network 120 is, for example, may include a public network such as a private data network (e.g., intranet), a cellular data network, and / or the Internet.

에이전트(agent)는 음성 대화 시스템(SDS)과 연관될 수 있다. Agent (agent) may be associated with speech dialogue system (SDS). 이러한 시스템들은 사람들이 그들의 목소리로 컴퓨터들과 상호작용을 할 수 있도록 해준다. These systems allow people to interact with computers in their voices. SDS를 동작시키는 주요 컴포넌트는 다이얼로그 관리자(dialog manager)를 포함할 수 있는데, 이 컴포넌트는 사용자와의 다이얼로그-기반 대화를 관리한다. The main component of operating an SDS may include a dialog manager (dialog manager), a component of the dialogue with the user-based management dialogue. 다이얼로그 관리자는 음성 인식이나 자연어 해석 컴포넌트 출력들, 이전 차례의 대화에서의 맥락, 사용자 문맥, 및/또는 지식 베이스(예컨대 검색 엔진)로부터 반환된 결과들과 같은 복수의 입력 소스들로부터의 조합을 통해 사용자의 의도를 판단할 수 있다. Dialog manager through the combination from the speech recognition or natural language analysis component output, a plurality of input sources, such as the results that are returned from the previous context in the time conversation, the user context and / or knowledge base (e.g. a search engine) It can determine the user's intent. 의도를 판단한 후에, 다이얼로그 관리자는 최종 결과들을 사용자에게 디스플레이하거나 및/또는 그들의 의도를 만족시키기 위한 사용자와의 다이얼로그를 계속하는 것과 같은 행동을 취할 수 있다. After determining the intention, dialog manager can take action, such as to continue the dialogue with the users to meet the display to the user and / or their intentions the final result. 음성 대화 시스템은 위치 및/또는 음성-기반 입력들을 처리하기 위한 음성 언어 해석 모델과 연관된 음향 모델과 같은 복수의 대화 해석 모델을 포함할 수 있다. Speech dialog system position and / or audio may include a plurality of conversation analysis model, such as voice language interpretation model and the associated acoustic models for processing based on the input.

도 2는 위치-기반 대화 해석을 제공하기 위한 본 발명의 실시예에 따른 방법(200)과 연관된 일반적인 단계들의 흐름도이다. 2 is located a flow diagram of the general steps associated with the method 200 in accordance with an embodiment of the present invention to provide a dialogue-based analysis. 방법(200)은 도 3과 관련하여 아래에서 더 자세히 설명될 컴퓨팅 장치(300)를 사용하여 구현될 수 있다. The method 200 can be implemented using a computing device 300 will be described in more detail below with respect to FIG. 방법(200)의 단계들을 구현하는 방법이 이하에서 더 상세히 설명될 것이다. The way to implement the steps of the method 200 will be described in further detail below. 방법(200)은 시작 블록(205)에서 시작하여 컴퓨팅 장치(300)가 한 위치에 있는 사용자로부터 음성-기반 쿼리를 수신할 수 있는 단계(210)로 진행한다. The method 200 speech from a user in the one position the computing device 300 beginning at the starting block (205) proceeds to step 210, which may receive a query-based. 예를 들어, 사용자(130(A))는 셀룰러 전화기와 같은 장치를 통해 쿼리를 SDS(110)로 송신할 수 있다. For example, the user (130 (A)) may transmit a query through a device such as a cellular telephone as SDS (110).

방법(200)은 단계(210)로부터 단계(215)로 진행하여 위치와 연관된 환경적 맥락이 메모리 저장장치에 존재하는지 여부를 컴퓨팅 장치(300)가 판단하도록 한다. The method 200 whether or not the process proceeds to step 215 from step 210 if the environmental context associated with the location in memory storage device and to determine that the computing device (300). 예를 들어, SDS(110)는 쿼리가 수신된 위치(예컨대, 제1 위치(140))를 식별하고, 그 위치와 연관된 환경적 맥락이 맥락 데이터베이스(116)에 존재하는지 여부를 판단할 수 있다. For example, SDS (110) may determine whether the environmental context identifying the query is received, the location (e.g., a first position 140), and, associated with that position is present in the context database 116 .

만약 그 위치와 연관된 맥락이 존재하지 않는다면, 방법(200)은 단계(220)로 진행하여 컴퓨팅 장치(300)가 음성-기반 쿼리에서의 적어도 하나의 음향 간섭(acoustic interference)을 식별하도록 한다. If the context associated with that location is not present, the method 200 proceeds to computing device 300 in step 220, the voice-and to identify at least one acoustic interference (acoustic interference) based on the query. 예를 들어, SDS(110)는 쿼리의 오디오를 분석하고 사용자(130(A)) 주변의 많은 군중들 및/또는 지나가는 기차와 연관된 것과 같은 배경 잡음을 식별할 수 있다. For example, SDS (110) may analyze the audio from the query and identify the background noise, such as the user (130 (A)) to crowd around and / or associated with a passing train.

그리고 나서 방법(200)은 단계(225)로 나아가 컴퓨팅 장치(300)가 음성-기반 쿼리와 연관된 적어도 하나의 주제를 식별하도록 한다. Then, the method 200 further computing device 300 in step 225 is negative - and to identify the at least one subject associated with the query based. 예를 들어, 쿼리가 "다음 도착은 언제인가?"라는 질문을 포함한다면, SDS(110)는 사용자가 기차역에 있을 때 기차 시간표를 쿼리의 주제로 식별할 수 있다. For example, if the query contains the question: "When is the next destination?", And SDS (110), users can identify when a train timetable at the railway station as the subject of the query.

그리고 나서 방법(200)은 단계(230)으로 진행하여 컴퓨팅 장치(300)가 메모리 저장장치에 저장하기 위해 위치와 연관된 새로운 환경적 맥락을 생성하도록 한다. Then the method 200 proceeds to step 230 and to generate a new position and the environmental context is associated to store the computing device 300 is a memory storage device. 예를 들어, SDS(110)는 식별된 음향 간섭 및 쿼리 주제를 사용자의 위치와 연관된 것으로 맥락 데이터베이스(116)에 저장할 수 있다. For example, SDS (110) has the identified acoustic interference and query topics can be associated with the location of the user stored in the context database 116.

만약 위치와 연관된 맥락이 존재한다면, 방법(200)은 단계(235)로 진행하여 컴퓨팅 장치(300)가 그 위치와 연관된 환경적 맥락을 로딩하도록 한다. If a position associated with the context exists, the method 200 the computing device 300 proceeds to step 235 to load the environmental context associated with that location. 예를 들어, SDS(110)는 전술한 것과 같이 환경적 맥락을 맥락 데이터베이스(116)로부터 로딩할 수 있다. For example, SDS (110) may be loaded from the context of the environment context, such as the above-described database 116.

단계(240)에서 환경적 맥락을 생성하거나 또는 단계(235)에서 맥락을 로딩한 후에, 방법(200)은 단계(240)로 진행하여 컴퓨팅 장치(300)가 환경적 맥락에 따라 음성-기반 쿼리를 텍스트-기반 쿼리로 변환하도록 한다. After generating the environmental context in step 240, or loading a context, in step 235, the method 200 is negative, depending on the environmental context of the computing device 300 proceeds to step 240-based query the text-based query and to convert. 예를 들어, SDS(110)는 환경적 맥락과 연관된 적어도 하나의 음향 간섭을 제거하는 필터를 적용하는 것에 의해 음성-기반 쿼리를 텍스트-기반 쿼리로 변환할 수 있다. For example, SDS (110) is negative by applying a filter to remove at least one of the acoustic interference associated with the environmental context-based queries can be converted to - a text-based query.

그리고 나서 방법(200)은 단계(245)로 진행하여 컴퓨팅 장치(300)가 환경적 맥락에 따라 텍스트-기반 쿼리를 실행하도록 한다. Then the method 200 proceeds to step 245, the text in accordance with the environmental context of the computing device (300) and to execute a query based. 예를 들어, SDS(110)는 환경적 맥락과 연관된 적어도 하나의 주제와 연관하여 검색 영역(예컨대, 기차 시간표) 내에서 쿼리(예컨대, "다음 도착은 언제인가?")를 실행할 수 있다. For example, SDS (110) can execute ( "What is the next destination when?", For example,) queries in association with at least one theme associated with the environmental context of the search area (eg, train timetables).

그리고 나서 방법(200)은 단계(250)로 진행하여 컴퓨팅 장치(300)가 실행된 텍스트-기반 쿼리의 적어도 하나의 결과를 사용자에게 제공하도록 한다. Then the method 200 text the computing device 300 executing the process advances to step (250) and to provide at least one of the results of the query based on the user. 예를 들어, SDS(110)는 디스플레이를 위해 사용자(130(A))와 연관된 장치(예컨대, 셀룰러 전화기)에 결과를 전송할 수 있다. For example, SDS (110) may send the results to the user (130 (A)) and associated devices (e.g., cellular telephone) for display. 그리고 나서 방법(200)은 단계(255)에서 종료된다. Then the method 200 ends in step 255.

본 발명에 따른 일 실시예는 위치-기반 대화 해석을 제공하는 시스템을 포함할 수 있다. One embodiment according to the invention is located may include a system for providing a talk-based analysis. 시스템은 메모리 저장장치와 메모리 저장장치에 결합된 프로세싱 유닛을 포함할 수 있다. The system may include a processing unit coupled to the memory storage device and a memory storage device. 프로세싱 유닛은 사용자로부터 쿼리를 수신하여, 그 쿼리와 연관된 환경적 맥락을 생성하고, 그 쿼리를 환경적 맥락에 따라 해석하고, 해석된 쿼리를 실행하고, 쿼리의 적어도 하나의 결과를 사용자에게 제공할 수 있다. The processing unit receives a query from a user, generate environmental context associated with that query, the query and the analysis depending on the environmental context, and executing the interpreted query, to provide at least one result of the query to the user can. 쿼리는, 예를 들어, 프로세싱 유닛이 이를 컴퓨터-판독가능 텍스트로 변환하는 음성 쿼리를 포함할 수 있다. Queries are, for example, the processing unit is a computer it can include a voice query to convert readable text. 본 발명의 실시예들에 따라, 음성-텍스트 변환은 해석 모델 및/또는 시맨틱 모델과 연관된 시맨틱 개념들과 연관된 다양한 가능한 용어들에 대한 통계적 가중치를 주는 것을 포함하는 Hidden Markov 모델 알고리즘을 활용할 수 있다. In accordance with embodiments of the present invention, the voice-text conversion may take advantage of the Hidden Markov Model algorithm which comprises giving a statistical weighting to the various possible terms that are associated with the semantic concept associated with the analytical model and / or the semantic model. 프로세싱 유닛은, 예를 들어, 그 위치로부터 수신된 적어도 하나의 이전 쿼리에 따라 적어도 하나의 예측된 단어에 대한 통계적 가중치를 증가시키거나, 그 통계적 가중치를 환경적 맥락의 일부로서 저장할 수 있다. A processing unit, for example, to increase the statistical weights for the at least one of the predicted words in accordance with the at least one previous queries received from that location, or may store the statistical weights as part of the environmental context.

환경적 맥락은 그 쿼리가 수신된 위치와 연관된 음향 모델을 포함할 수 있다. Environmental context may include acoustic models associated with that query is received position. 프로세싱 유닛은 음향 모델에 따라 음성-기반 쿼리의 적어도 하나의 배경음에 따라 쿼리를 조정할 수 있다. Processing unit depending on speech acoustic models - can be adjusted according to the query, at least one of the background sound based query. 예를 들어, 주어진 위치(예컨대, 기차역)로부터 수신된 음성 쿼리들에 배경음(예컨대, 기차의 기적소리)이 존재한다는 것이 알려져 있을 수 있다. For example, it may be known that the background sound (e.g., sound of a train whistle) present in the speech query received from a given location (e.g., a train station). 배경음은 탐지되고, 음의 높이(pitch), 진폭 및 다른 음향 특성들이 측정될 수 있다. The background sound has been detected, the height of the sound (pitch), amplitude, and other acoustic characteristics can be measured. 쿼리는 그런 소리들을 무시하도록 조정될 수 있고, 그 소리는 그 위치로부터의 미래의 쿼리들에 적용되기 위해 계산되고 저장될 수 있다. The query can be adjusted to ignore those sounds, the sound can be calculated and stored to be applied to future queries from that position. 프로세싱 유닛은 또한 제2 사용자로부터 제2 음성-기반 쿼리를 수신하여 갱신된 음향 모델에 따라 동일한 배경음을 제거하도록 쿼리를 조정할 수 있다. The processing unit is further second sound from the second user - it is possible to adjust the query to remove the same background sound according to the acoustic model updating receives based query. 프로세싱 유닛은 또 복수의 사용자들로부터의 복수의 쿼리들과 연관된 환경적 맥락들을 종합하여 그 위치와 연관된 종합된 환경적 맥락들(aggregated environmental contexts)로서 저장할 수 있다. The processing unit is also in general the environmental context is associated with a plurality of queries from a plurality of users can be stored as the synthesis of environmental context associated with that location (aggregated environmental contexts).

본 발명에 따른 다른 실시예는 위치-기반 대화 해석을 제공하는 시스템을 포함할 수 있다. Other embodiments according to the present invention, location can include a system for providing a talk-based analysis. 시스템은 메모리 저장장치와 메모리 저장장치에 결합된 프로세싱 유닛을 포함할 수 있다. The system may include a processing unit coupled to the memory storage device and a memory storage device. 프로세싱 유닛은 한 위치에 있는 사용자로부터 음성-기반 쿼리를 수신하고, 그 위치와 연관된 환경적 맥락을 로딩하고, 음성-기반 쿼리를 환경적 맥락에 따라 텍스트로 변환하고, 환경적 맥락에 따라 변환된 쿼리를 실행하고, 실행된 쿼리와 연관된 적어도 하나의 결과를 사용자에게 제공할 수 있다. Processing unit is a voice from the user in a position-converted based query to a text according to the environmental context, and converted in accordance with the environmental context-receiving-based query, and loading the environmental context associated with that position, and voice you can run a query, and provide at least one of the results associated with the query execution to the user. 환경적 맥락은, 예를 들어, 적어도 하나의 이전 쿼리의 시간, 적어도 하나의 이전 쿼리의 날짜, 적어도 하나의 이전 쿼리의 주제, 온톨로지를 포함하는 시맨틱 모델, 해석 모델, 그 위치의 음향 모델을 포함할 수 있다. Environmental context, for example, contains a subject, the semantic model, which includes an ontology, analysis model, the acoustic model of the position of at least one previous time query, the date of at least one of the previous query, at least one of the previous query can do. 프로세싱 유닛은 또한 그 위치와 연관된 알려진 음향 간섭에 따라 쿼리를 조정할 수 있다. The processing unit is further possible to adjust the query according to known acoustic interference associated with that location. 프로세싱 유닛은 또한 복수의 사용자로부터 수신된 복수의 쿼리들에 따라 종합된 복수의 위치와 연관된 복수의 환경적 맥락들을 저장할 수 있다. The processing unit may also store a plurality of associated environmental context of the Global Multi-position and according to a plurality of queries received from a plurality of users. 프로세싱 유닛은 또한 사용자로부터 변환된 텍스트에 대한 교정을 수신하고 그 교정에 따라 환경적 맥락을 갱신할 수 있다. The processing unit may also receive a calibration for converted text from the user and updates the environmental context in accordance with the calibration. 프로세싱 유닛은 또한 제2 위치에 있는 사용자로부터 제2 음성-기반 쿼리를 수신하고, 제2 위치와 연관된 제2 환경적 맥락을 로딩하고, 제2 음성-기반 쿼리를 제2 환경적 맥락에 따라 텍스트로 변환하고, 변환된 쿼리를 제2 환경적 맥락에 따라 실행하고, 실행된 쿼리와 연관된 적어도 하나의 제2 결과를 사용자에게 제공할 수 있다. The processing unit is further second speech from a user in the second position-receiving-based query, and loading the second environmental context associated with a second location, a second voice-based query along to the second environmental context text conversion, and the converted query performed in accordance with a second environmental context in, and it is possible to provide a second result of the at least one associated with the executed query to the user.

본 발명에 의한 또다른 실시예는 맥락-이해(context-aware) 환경을 제공하는 시스템을 포함한다. Another embodiment according to the invention is context-includes a system that provides the understanding (context-aware) environment. 시스템은 메모리 저장장치와 메모리 저장장치에 결합된 프로세싱 유닛을 포함할 수 있다. The system may include a processing unit coupled to the memory storage device and a memory storage device. 프로세싱 유닛은 한 위치에 있는 사용자로부터 음성-기반 쿼리를 수신하고 그 위치와 연관된 환경적 맥락이 메모리 저장장치에 존재하는지 여부를 판단한다. Voice processing unit by a user in a location-determining whether the received query and based on the environmental context associated with the location in memory storage devices. 환경적 맥락이 존재하지 않는다는 판단에 응답하여, 프로세싱 유닛은 음성-기반 쿼리 내의 적어도 하나의 음향 간섭을 식별하고, 그 음성-기반 쿼리와 연관된 적어도 하나의 주제를 식별하고, 메모리 저장장치에 저장할 그 위치와 연관된 새로운 환경적 맥락을 생성한다. In response to determining the environmental context is not present, the processing unit is a voice-based identification the at least one acoustic interference in the query, and the speech-that identifies at least one of the subject associated with the base query, and store in the memory storage device to create a new environment, location and context associated with it. 환경적 맥락이 존재한다는 판단에 응답하여, 프로세싱 유닛은 그 환경적 맥락을 로딩한다. In response to determining that the environmental context exists, the processing unit loads the environmental context. 그리고 나서 프로세싱 유닛은 환경적 맥락에 따라 음성-기반 쿼리를 텍스트-기반 쿼리로 변환하고 (환경적 맥락에 따라 음성-기반 쿼리를 텍스트-기반 쿼리로 변환하는 것은 그 환경적 맥락과 연관된 적어도 하나의 음향 간섭을 제거하는 필터를 적용하는 것을 포함함), 텍스트-기반 쿼리를 환경적 맥락에 따라 실행하며 (환경적 맥락에 따라 텍스트-기반 쿼리를 실행하는 것은 적어도 하나의 음향 간섭이 음향 모델과 연관되고 적어도 하나의 식별된 주제가 환경적 맥락과 연관된 시맨틱 모델과 연관된 쿼리를 실행하는 것을 포함함), 실행된 텍스트-기반 쿼리의 적어도 하나의 결과를 사용자에게 제공할 수 있다. Then the processing unit is in accordance with the environmental context of a voice-based query text-converted to the base query, and (sound according to the environmental context-based query text-it is to convert based on a query of its environmental context and at least one associated including applying a filter to remove sound interference), text-based run the query in the environmental context, and (depending on the environmental context for text - associated with the running-based query least one acoustic interference acoustic model It may provide at least one query based on a result of the user - and at least one of the identified theme also comprises the execution of a query associated with a semantic model associated with the environmental context), the running text.

도 3은 컴퓨팅 장치(300)를 포함하는 시스템의 블록도이다. Figure 3 is a block diagram of a system including a computing device 300. 본 발명의 실시예에 따르면, 전술한 메모리 저장장치와 프로세싱 유닛은 도 3의 컴퓨팅 장치(300)와 같은 컴퓨팅 장치에 구현될 수 있다. According to an embodiment of the invention, the processing units described above memory device may be implemented on a computing device, such as computing device 300 of FIG. 하드웨어, 소프트웨어, 또는 펌웨어의 어떠한 적절한 조합이라도 메모리 저장장치와 프로세싱 유닛을 구현하기 위해 사용될 수 있다. Hardware, software, or any suitable combination of the firmware can be used to implement the memory storage and processing unit. 예를 들어, 메모리 저장장치와 프로세싱 유닛은 컴퓨팅 장치(300)와 함께 구현되거나, 또는 컴퓨팅 장치(300)와 결합된 다른 어떤 컴퓨팅 장치(318)와 함께 구현될 수 있다. For example, the memory storage device and the processing units may be implemented with computing device 300, or implemented with, or any other computing device, the computing device 318 is coupled to 300. 전술한 시스템, 장치, 및 프로세서들은 예시적인 것으로 이와 다른 시스템, 장치, 및 프로세서가 본 발명의 실시예에 따라 전술한 메모리 저장장치와 프로세싱 유닛을 포함할 수 있다. The above-described systems, devices, and processors may comprise the aforementioned memory storage and processing unit in accordance with an embodiment of this is a different system, device, and the processor of this invention as illustrative. 게다가, 컴퓨팅 장치(300)는 상술한 대로 시스템(100)에 대한 운영 환경을 포함할 수 있다. In addition, computing device 300 may comprise an operating environment for system 100 as described above. 시스템(100)은 다른 환경에서 동작할 수 있으며 본 컴퓨터 장치(300)에 제한되지 않는다. The system 100 may operate in other environments and is not limited to the computer device 300.

도 3을 참조하면, 본 발명의 실시예에 따른 시스템은 컴퓨팅 장치(300)와 같은 컴퓨팅 장치를 포함한다. 3, a system according to an embodiment of the invention includes a computing device, such as computing device 300. 기본적인 구성에서, 컴퓨팅 장치(300)는 적어도 하나의 프로세싱 유닛(302)과 시스템 메모리(304)를 포함할 수 있다. In the basic configuration, computing device 300 may include at least one processing unit 302 and system memory 304. 구성 및 컴퓨팅 장치의 유형에 따라, 시스템 메모리(304)는, 휘발성(예컨대, 랜덤 액세스 메모리(RAM)), 비휘발성(예컨대, 판독 전용 메모리(ROM)), 플래시 메모리, 또는 어떤 조합이라도 포함할 수 있으며 이에 제한되지 않는다. Depending on the type of configuration and computing device, system memory 304, volatile (e.g., Random Access Memory (RAM)), non-volatile (e.g., Read-Only Memory (ROM)), flash memory, or can include any combination and it can not be limited. 시스템 메모리(304)는 운영 체제(305), 하나 이상의 프로그램 모듈(306)을 포함할 수 있고, 개인 보조 프로그램(112)을 포함할 수 있다. System memory 304 may include an operating system 305, one or more program modules 306, and may include personal accessory 112. The 운영 체제(305)는, 예를 들면, 컴퓨팅 장치(300)의 동작을 제어하는 데 적합할 수 있다. Operating system 305 may be, for example, it is adapted to control the operation of computing device 300. 게다가, 본 발명의 실시예는 그래픽 라이브러리, 다른 운영 체제, 또는 다른 애플리케이션 프로그램과 함께 실시될 수 있으며 어떤 특정한 프로그램 또는 시스템으로 제한되지 않는다. In addition, embodiments of the present invention may be practiced with a graphics library, other operating systems, or other application program and is not limited to any particular application or system. 이 기본적인 구성이 도 3에서 점선(308)내의 컴포넌트들로서 도시되어 있다. In this basic configuration 3 is illustrated as components in the dashed line 308.

컴퓨팅 장치(300)는 부가적인 특징 또는 기능을 가질 수 있다. Computing device 300 may have additional features or functionality. 예를 들어, 컴퓨팅 장치(300)는 또한 자기 디스크, 광학 디스크, 또는 테이프와 같은 추가적인 (착탈식 및/또는 고정식) 데이터 저장 장치를 포함할 수 있다. For example, computing device 300 may also include an additional (removable and / or fixed) data storage devices such as magnetic disks, optical disks, or tape. 그러한 추가적인 저장장치들이 도 3에서 착탈식 저장장치(309)와 고정식 저장장치(310)로 도시되어 있다. Such additional storage devices are illustrated in Figure 3 by removable storage 309 and the fixed storage device 310. The 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 다른 데이터와 같은 정보를 저장하기 위한 어떤 방법 또는 기술이 구현된 휘발성 및 비휘발성, 착탈식 및 고정식 매체를 포함할 수 있다. Computer storage media may comprise computer readable instructions, data structures, program modules, or any method or technology implementation volatile and nonvolatile, removable and non-removable media for storage of information such as other data. 시스템 메모리(304), 착탈식 저장장치(309), 및 고정식 저장장치(310)는 모두 컴퓨터 저장 매체(즉, 메모리 저장장치)의 예시이다. System memory 304, removable storage 309, and non-removable storage 310 are all examples of computer storage media (i.e., memory storage). 컴퓨터 저장 매체는, RAM, ROM, 전자적으로 지울 수 있는 판독-전용 메모리(EEPROM), 플래시 메모리나 다른 메모리 기술, CD-ROM, DVD 또는 다른 광학 저장장치, 자기 카세트, 자기 테이프, 자기 디스크 저장장치나 다른 자기 저장장치, 또는 정보를 저장하는데 사용될 수 있고 컴퓨팅 장치(300)에 의해 접속될 수 있는 어떠한 다른 매체를 포함하며, 이에 제한되지 않는다. Computer storage media includes, but is not read for clearing a RAM, ROM, electronically-only memory (EEPROM), flash memory or other memory technology, CD-ROM, DVD or other optical storage, magnetic cassettes, magnetic tape, magnetic disk storage and and be used to store the other magnetic storage devices, or any other medium from which the information and which can be accessed by the computing device 300 is not limited thereto. 그러한 어떠한 컴퓨터 저장 매체라도 장치(300)의 부분이 될 수 있다. Any Any such computer storage media may be part of device 300. 컴퓨팅 장치(300)는 또한 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등과 같은 입력 장치(들)(312)를 포함할 수 있다. Computing device 300 may also include input device (s) 312 such as keyboard, mouse, pen, voice input device, touch input device. 디스플레이, 스피커, 프린터 등과 같은 출력 장치(들)(314)도 포함될 수 있다. Output device (s) 314 such as a display, speakers, printer, may also be included. 전술한 장치들은 예시적인 것이며 다른 것들도 사용될 수 있다. The aforementioned devices are exemplary and other things can be used.

컴퓨팅 장치(300)는 또한 장치(300)로 하여금 예를 들어 인터넷이나 인트라넷과 같은 분산 컴퓨팅 환경의 네트워크를 통하는 것과 같이 다른 컴퓨팅 장치(318)와 통신하도록 해주는 통신 접속부(316)를 포함할 수 있다. Computing device 300 may also include a communication connection 316 that allow the device 300, for example to communicate with other computing devices 318, such as via a network in a distributed computing environment, such as the Internet or an intranet . 통신 접속부(316)는 통신 매체의 한 에시이다. Communication connection 316 is one Ecija of communication media. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파나 다른 전송 메커니즘과 같은 변조된 데이터 신호의 다른 데이터에 의해 구현되며, 어떠한 정보 전달 매체라도 포함한다. The communication media typically includes being implemented by different data in a modulated data signal such as computer readable instructions, data structures, program modules, or carrier wave or other transport mechanism, any information delivery media. "변조된 데이터 신호"라는 용어는 하나 이상의 특성 집합을 가지거나 신호 중에 정보를 암호화하는 등의 방식으로 변화된 신호를 기술할 수 있다. The term "modulated data signal" may describe a signal changed in a manner such as to encode information in the set of one or more characteristics or signal. 예시로서, 통신 매체는 유선 네트워크나 직접-유선 연결과 같은 유선 매체, 음파, 라디오 주파수(RF), 적외선, 또는 다른 무선 매체와 같은 무선 매체를 포함하며, 이에 제한되지 않는다. By way of example, communication media includes wired network or direct- includes wired media such as a wired medium, sound waves, radio frequency (RF), infrared, or other wireless media such as a wired connection, but is not limited thereto. 여기서 사용되는 컴퓨터 판독가능 매체라는 용어는 저장 매체와 통신 매체 모두를 포함한다. The term computer readable media as used herein includes both storage media and communication media.

전술한 바와 같이, 시스템 메모리(304)에 운영 체제(305)를 포함하는 몇몇 프로그램 모듈과 데이터 파일이 저장될 수 있다. As described above, it may be several program modules and data files, including an operating system 305, a system memory 304 stores. 프로세싱 유닛(302)에서 실행되는 동안, 프로그래밍 모듈(306)(예컨대, 개인 보조 프로그램(112))은 예를 들어, 전술한 대로 방법(200)의 단계 중의 하나 이상을 포함하는 프로세스를 수행할 수 있다. While running in the processing unit 302, programming modules 306 (e.g., a personal accessory 112), for example, to perform a process comprising at least one of the steps of method 200 as described above have. 전술된 프로세스는 예시적인 것이며, 프로세싱 유닛(302)은 이와 다른 프로세스들을 수행할 수 있다. The process described above are exemplary, the processing unit 302 may carry out this other process. 본 발명의 실시예들에 따라 사용될 수 있는 다른 프로그래밍 모듈들은 전자 메일 및 연락처 애플리케이션, 워드 프로세싱 애플리케이션, 스프레드쉬트 애플리케이션, 데이터베이스 애플리케이션, 슬라이드 프레젠테이션 애플리케이션, 드로잉 또는 컴퓨터-보조 애플리케이션 프로그램 등을 포함할 수 있다. Other programming modules that may be used in accordance with embodiments of the present invention are e-mail and contacts applications, word processing applications, spreadsheet applications, database applications, slide presentation applications, drawing or computer - may include a secondary application program.

일반적으로, 본 발명의 실시예들에 따라, 프로그램 모듈들은 루틴, 프로그램, 컴포넌트, 데이터 구조, 및 특정 과제를 수행할 수 있거나 특정 추상 데이터 유형을 구현할 수 있는 다른 유형의 구조체를 포함한다. In general, according to embodiments of the present invention, program modules, or to perform the routines, programs, components, data structures, and particular challenges include other types of structures that may implement particular abstract data types. 게다가, 본 발명의 실시예들은 휴대용 장치, 멀티프로세서 시스템, 마이크로프로세서-기반 또는 프로그래머블 소비자 가전, 미니컴퓨터, 메인프레임 컴퓨터 등의 다른 컴퓨터 시스템 구성들에서 실시될 수 있다. In addition, embodiments of the invention are hand-held devices, multiprocessor systems, microprocessor-based or may be performed in programmable consumer electronics, minicomputers, other computer system configurations, such as mainframe computers. 본 발명의 실시예들은 또한 통신 네트워크를 통해 연결된 원격 프로세싱 장치들에 의해 작업이 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. Embodiments of the invention may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. 분산 컴퓨팅 환경에서, 프로그램 모듈들은 지역 및 원격 메모리 저장장치 양쪽에 위치할 수 있다. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

게다가, 본 발명의 실시예들은 이산 전자 소자(discrete electronic element)를 포함하는 전기 회로, 논리 게이트를 포함하는 패키징된 또는 통합된 전기 칩, 마이크로프로세서를 활용하는 회로, 또는 전자 소자나 마이크로프로세서를 포함하는 단일 칩 상에서 실시될 수 있다. In addition, embodiments of the present invention include discrete electronic components (discrete electronic element) packaged or integrated electrical chip, a circuit utilizing a microprocessor, or the electronic element, a microprocessor electronic circuit, comprising a logic gate comprising a which it may be carried on a single chip. 본 발명의 실시예들은 또한 기계적, 광학적, 유체의 또는 양자 기술을 포함하는 그러나 이에 제한되지 않는, 예를 들어, AND, OR, 및 NOT과 같은 논리적 동작을 수행할 수 있는 다른 기술들을 사용하여 실시될 수 있다. Embodiments of the invention also mechanical, optical, does not, however, limited to including the fluid or both techniques, for example, using different technologies that can perform logical operations such as AND, OR, and NOT conducted It can be. 이에 더하여, 본 발명의 실시예들은 범용 목적 컴퓨터나 또는 어떤 다른 회로나 시스템 내에서 실시될 수 있다. In addition, embodiments of the present invention can be practiced within a general purpose computer, or any other circuit or system.

본 발명의 실시예들은, 컴퓨터 프로그램 제품 또는 컴퓨터 판독가능 매체와 같은, 예를 들어, 컴퓨터 프로세스(메소드), 컴퓨팅 시스템, 또는 제조품으로 구현될 수 있다. Embodiments of the present invention, for, for example, such as a computer program product or computer readable media, may be implemented as a computer process (method), a computing system, or article of manufacture. 컴퓨터 프로그램 제품은 컴퓨터 시스템에 의해 판독가능하고 컴퓨터 프로세스를 실행하기 위한 명령어들의 컴퓨터 프로그램을 인코딩한 컴퓨터 저장 매체일 수 있다. The computer program product may be a computer storage media readable by a computer and encoding a program of instructions for executing a computer process in a computer system. 컴퓨터 프로그램 제품은 또한 컴퓨팅 시스템에 의해 판독가능한 전파 신호나 캐리어이고 컴퓨터 프로세스를 실행하기 위한 명령어들의 컴퓨터 프로그램을 인코딩한 것일 수 있다. The computer program product also may be one encoding a computer program of instructions for executing a computer-readable propagated signal, or the carrier is processed by the computing system. 따라서, 본 발명은 하드웨어 및/또는 (펌웨어, 레지던트 애플리케이션, 마이크로-코드 등을 포함하는) 소프트웨어에서 구현될 수 있다. Accordingly, the invention is hardware and / or may be implemented in a (firmware, resident applications, micro-code, etc. comprising a) software. 바꿔 말하면, 본 발명의 실시예들은 명령어 실행 시스템에 의해 사용되거나 그에 연결된 매체에서 구현되는 컴퓨터-사용가능 또는 컴퓨터-판독가능 프로그램 코드를 가진 컴퓨터에서 사용가능한 또는 컴퓨터-판독가능한 저장 매체 상의 컴퓨터 프로그램 제품의 형태를 취할 수 있다. In other words, embodiments of the present invention or used by the instruction execution system, computer implemented in a thereto connected medium - a computer program product on a readable storage medium-available or computer-readable program code for using the computer as possible, or a computer with in may take the form. 컴퓨터-사용가능 또는 컴퓨터-판독가능 매체는 명령어 실행 프로그램, 기구 또는 장치에 의해 사용되거나 그에 연결되는 프로그램을 포함하고, 저장하고, 통신하고, 전파하고, 또는 전송하는 어떠한 매체라도 될 수 있다. Computer-usable or computer-readable medium may be any medium containing a program to be used in or connected thereto by the command execution program, the apparatus or device, and storage and communication, and radio wave, or transmission.

컴퓨터-사용가능 또는 컴퓨터-판독가능 매체는, 예를 들어, 전기, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템, 기구, 장치, 또는 전파 매체일 수 있으나, 이에 제한되지 않는다. Computer-usable or computer-readable media include, for example, electric and may be a magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, device, or propagation medium, not limited to this. 더 구체적인 컴퓨터-판독가능 매체의 예로는 (비한정적 목록임) 하나 이상의 전선들을 포함하는 전기적 접속부, 포터블 컴퓨터 디스켓, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 지울 수 있는 프로그램가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 및 포터블 컴팩트 디스크 판독 전용 메모리(CD-ROM)가 있다. More specific computer-examples of readable media (non-limiting list Im) electric connection, a portable computer diskette, which comprises one or more wires, a random access memory (RAM), read only memory (ROM), programmable erasable read only a memory (EPROM or flash memory), an optical fiber, and a portable compact disc read-only memory (CD-ROM). 컴퓨터-사용가능 또는 컴퓨터 판독가능 매체는 프로그램이 인쇄된 종이나 다른 적합한 매체일 수도 있음을 주목해야 하는데, 프로그램이 종이나 다른 매체의 예컨대 광학적 스캐닝을 통해 전기적으로 캡춰되고, 그리고 나서 컴파일되고, 해석되고, 또는 필요한 경우 적절한 방법으로 처리되어, 컴퓨터 메모리에 저장될 수 있기 때문이다. Computer-usable or computer-readable media to be noted that there may be paper or another suitable medium on which the program is printed, and the compiled program is electrically captured via, for example optical scanning of the paper or other medium, then analysis and if, necessary, or is treated in a proper way, because it can be stored in a computer memory.

본 발명의 실시예들은, 예를 들어, 본 발명의 실시예들에 따른 방법, 시스템, 및 컴퓨터 프로그램 제품의 블록도 및/또는 동작 도시를 참조하여 전술되었다. Embodiments of the present invention, for example, the method according to embodiments of the present invention have been described above with reference to the system, and the block diagram and / or operation of the computer program shown. 블록들에 기록된 기능/동작들은 플로우차트에 도시된 것과 다른 순서대로 수행될 수도 있다. The features / operations recorded in the blocks may be performed in a different order as shown in the flowchart. 예를 들어, 연관된 기능/동작들에 따라 연속으로 보이는 두 블록들이 사실은 사실상 동시에 실행되거나 블럭들이 때로는 반대 순서로 실행될 수도 있다. For example, two blocks shown in succession in accordance with the associated function / operations are in fact may be implemented in virtually executed or blocks are sometimes reverse order at the same time.

본 발명의 몇몇 실시예들이 기술되었지만, 다른 실시예들이 존재할 수 있다. Although some embodiments of the invention have been described, there may be another embodiment. 그리고, 비록 본 발명의 실시예들이 메모리 및 다른 저장 매체에 저장된 데이터와 연관된 것으로 기술되었지만, 데이터는 하드디스크, 플로피디스크, CD-ROM, 인터넷으로부터의 전송파, RAM이나 ROM의 다른 형태들과 같은 보조적인 저장장치와 같은 다른 유형의 컴퓨터-판독가능 매체에 저장되거나 그로부터 판독될 수도 있다. Further, although embodiments of the invention have been described as being associated with data stored in memory and other storage medium, data can be a hard disk, a floppy disk, CD-ROM, such as the carrier wave, other forms of RAM or ROM from the Internet other types of computers, such as a subsidiary storage device stored in a readable medium, or from which it can be read out. 게다가, 본 명세서에 개시된 방법들의 단계들은 본 발명을 벗어나지 않으면서 단계들을 재정렬하거나 및/또는 단계들을 삽입 또는 삭제하는 것을 포함하는 임의의 방식으로도 수정될 수 있다. In addition, the steps of the methods disclosed herein may also be modified in any manner, including the insertion or deletion of rearranging the steps without departing from the invention, and / or steps.

여기에 포함된 코드의 저작권을 포함한 모든 권리는 출원인에게 부여된 출원인의 재산이다. Here all rights including copyright in the code included in the property of the applicant granted to the applicant. 출원인은 여기에 포함된 코드의 모든 권리를 보유하고 보존하며, 등록된 특허의 재생과 연계되어서만 그에 대한 재생을 허용하며, 다른 용도로는 허용하지 않는다. The applicant shall hold and retain all rights in the code included herein, and only be allowed to play against him in connection with reproduction of registered patents, it does not allow for any other purpose.

본 명세서는 여러 실시예들을 포함하지만, 본 발명의 범위는 후술될 청구범위에 의해 규정된다. Herein includes a number of examples, but the scope of the invention is defined by the claims to be described later. 또한, 본 명세서는 구조적 특징 및/또는 방법적 동작을 특정하는 언어로서 기술되었지만, 청구범위는 전술한 특징 또는 동작으로 한정되는 것이 아니다. In addition, the present disclosure has been described as a language for identifying the structural features and / or methodological operations, the claims are not limited to the features described above or the operation. 오히려, 전술된 특정한 특징들과 동작들은 본 발명의 실시예들의 예시로서 개시된 것이다. Rather, the specific features described above and the operation will described as an example of the embodiments of the present invention.

Claims (10)

  1. 위치-기반 대화 해석을 제공하는 방법으로서, As a way to provide dialog-based analysis, Location
    사용자로부터 쿼리를 수신하는 단계, Receiving a query from a user,
    상기 쿼리와 연관된 환경적 맥락(environmental context)을 생성하는 단계, Generating an environmental context (context environmental) associated with the query,
    상기 환경적 맥락에 따라 상기 쿼리를 해석하는 단계, The step of interpreting the query in accordance with the environmental context,
    상기 해석된 쿼리를 실행하는 단계, Step of executing the interpreted query,
    상기 쿼리의 적어도 하나의 결과를 상기 사용자에게 제공하는 단계 Providing at least one result of the query to the user
    를 포함하는 위치-기반 대화 해석 제공 방법. Analysis based dialog provides methods - including the location.
  2. 제 1 항에 있어서, According to claim 1,
    상기 쿼리를 해석하는 단계는 한 위치로부터 수신된 적어도 하나의 이전 쿼리에 따라 적어도 하나의 대화 해석 모델을 조정하는 단계를 포함하고, The method comprising the steps of analyzing the query to adjust the at least one dialog analysis model based on the at least one previous query received from a location,
    상기 적어도 하나의 대화 해석 모델은 상기 쿼리가 수신된 위치와 연관된 음향 모델(acoustic model)을 포함하는 The at least one analytical model of the conversation is to include an acoustic model (acoustic model) associated with the position where the query is received,
    위치-기반 대화 해석 제공 방법. The location-based conversations provide interpretation methods.
  3. 제 2 항에 있어서, 3. The method of claim 2,
    상기 쿼리를 해석하는 단계는 상기 음향 모델에 따라 상기 쿼리와 연관된 적어도 하나의 배경음(background sound)에 기초하여 상기 쿼리를 조정하는 단계를 더 포함하고, The step of interpreting the query further comprises the step of adjusting the query based on at least one of the background sound (background sound) associated with the query based on the acoustic model,
    상기 배경음은 상기 쿼리 내에서 측정되는 The background noise is being measured in the query
    위치-기반 대화 해석 제공 방법. The location-based conversations provide interpretation methods.
  4. 제 3 항에 있어서, 4. The method of claim 3,
    상기 배경음을 상기 위치와 연관된 음향 특성(acoustic characteristic)으로서 저장하는 단계를 더 포함하는 Further comprising the step of storing an acoustic characteristics associated with the background sounds, the position (acoustic characteristic)
    위치-기반 대화 해석 제공 방법. The location-based conversations provide interpretation methods.
  5. 제 1 항에 있어서, According to claim 1,
    복수의 사용자들로부터의 복수의 쿼리들과 연관된 환경적 맥락들을 종합(aggregating)하는 단계, The method comprising the environmental context is associated with a plurality of queries from a plurality of user synthesis (aggregating),
    상기 위치와 연관된 상기 종합된 환경적 맥락들을 저장하는 단계, Storing said general the environmental context associated with the location,
    제2 사용자로부터 제2 음성-기반 쿼리를 수신하는 단계, Receiving a query based, - a second sound from the second user
    상기 종합된 환경적 맥락들에 따라 상기 제2 음성-기반 쿼리를 해석하는 단계 The step of interpreting the query based on said second voice in accordance with the above general environmental context
    를 더 포함하는 위치-기반 대화 해석 제공 방법. Further comprising a position-based dialog provides interpretation methods.
  6. 제 5 항에 있어서, 6. The method of claim 5,
    상기 쿼리를 해석하는 단계는 상기 위치로부터 수신된 상기 위치와 연관된 상기 종합된 환경적 맥락들에 따라 적어도 하나의 예상된 시맨틱 개념(semantic concept)의 통계적 가중치를 증가시키는 단계를 포함하는 The step of interpreting the query comprising the step of increasing the statistical weight of the at least one semantic concept (semantic concept) expected in accordance with the synthesis of environmental context associated with the position received from the position
    위치-기반 대화 해석 제공 방법. The location-based conversations provide interpretation methods.
  7. 실행될 경우 위치-기반 대화 해석을 제공하는 방법을 수행하는 명령어들의 집합을 저장한 컴퓨터-판독가능 저장 매체로서, If run position - which stores a set of instructions for performing a method for providing a computer-based dialog analysis-readable storage medium,
    상기 명령어들의 집합에 의해 실행되는 상기 방법은, The method executed by the set of instructions,
    한 위치에 있는 사용자로부터 음성-기반 쿼리를 수신하는 단계, Receiving a query-based - speech from a user in one location
    상기 위치와 연관된 환경적 맥락을 로딩하는 단계, Loading the environmental context associated with the location,
    상기 환경적 맥락에 따라 상기 음성-기반 쿼리를 텍스트로 변환하는 단계, Converting a text based query, wherein the sound according to the environmental context
    상기 환경적 맥락에 따라 상기 변환된 쿼리를 실행하는 단계, Executing the converted query based on the environmental context,
    상기 실행된 쿼리와 연관된 적어도 하나의 결과를 상기 사용자에게 제공하는 단계 Providing at least one result associated with the executed query to the user
    를 포함하는 방법인 The method comprising the
    컴퓨터-판독가능 저장 매체. The computer-readable storage medium.
  8. 제 7 항에 있어서, The method of claim 7,
    상기 방법은, The method comprising the steps of:
    상기 사용자로부터 상기 변환된 텍스트에 대한 교정을 수신하는 단계, Receiving a correction to the converted text from the user,
    상기 교정에 따라 상기 환경적 맥락을 갱신하는 단계 - 상기 환경적 맥락을 갱신하는 단계는 장래의 쿼리에 적용하기 위해 상기 교정의 적어도 하나의 단어와 연관된 확률(probability)을 수정하는 단계를 포함함 - Updating the environmental context in response to the correction-including the step of modifying the likelihood (probability) associated with the at least one word of the correction for updating the environmental context is to be applied to future queries -
    를 더 포함하는 방법인 The method further comprising:
    컴퓨터-판독가능 저장 매체. The computer-readable storage medium.
  9. 제 7 항에 있어서, The method of claim 7,
    상기 방법은, The method comprising the steps of:
    제2 위치에서 상기 사용자로부터의 제2 음성-기반 쿼리를 수신하는 단계, Receiving a query based, - a second voice from the user in the second position
    상기 제2 위치와 연관된 제2 환경적 맥락을 로딩하는 단계, A step of loading a first environmental context associated with the second location,
    상기 제2 환경적 맥락에 따라 상기 제2 음성-기반 쿼리를 텍스트로 변환하는 단계, Converting a text-based queries, - in accordance with the second environmental context and the second voice
    상기 제2 환경적 맥락에 따라 상기 변환된 쿼리를 실행하는 단계, Executing the converted query according to the second environmental context,
    상기 실행된 쿼리와 연관된 적어도 하나의 제2 결과를 상기 사용자에게 제공하는 단계 Providing a second at least one result associated with the executed query to the user
    를 더 포함하는 방법인 The method further comprising:
    컴퓨터-판독가능 저장 매체. The computer-readable storage medium.
  10. 위치-기반 대화 해석을 제공하는 시스템으로서, A system that provides the dialogue-based analysis, Location
    메모리 저장장치, A memory storage device,
    상기 메모리 저장장치와 결합된 프로세싱 유닛을 포함하되, Comprising a processing unit coupled to the memory storage device,
    상기 프로세싱 유닛은, Said processing unit,
    한 위치에 있는 사용자로부터 음성-기반 쿼리를 수신하고, Voice from users in a location-based queries and receive,
    상기 위치와 연관된 환경적 맥락이 상기 메모리 저장장치에 존재하는지 여부를 판단하고, The environmental context associated with the location, and determining whether there is, in the memory device,
    상기 환경적 맥락이 존재하지 않는다고 판단되면, 상기 음성-기반 쿼리 내의 적어도 하나의 음향 간섭(acoustic interference) - 상기 적어도 하나의 음향 간섭은 음향 모델과 연관됨 - 을 식별하고, 상기 음성-기반 쿼리와 연관된 적어도 하나의 주제 - 상기 적어도 하나의 식별된 주제는 시맨틱 모델과 연관됨 - 를 식별하며, 상기 메모리 저장장치에 저장하기 위한 상기 위치와 연관된 새로운 환경적 맥락을 생성하고, If it is determined the environmental context is not present, the voice-based at least one of the acoustic interference (acoustic interference) in the query, wherein the at least one acoustic interference is associated with the acoustic model identification, and the speech-based queries and at least one theme is associated - identify the subject matter of the at least one being associated with the semantic model identifies the, and create a new environmental context associated with the location for storing in the memory storage unit,
    상기 환경적 맥락이 존재한다고 판단되면, 상기 환경적 맥락을 로딩하고, When determining that the environmental context is present, and loading the environmental context,
    상기 환경적 맥락에 따라 상기 음성-기반 쿼리를 텍스트-기반 쿼리로 변환하며 - 상기 환경적 맥락에 따라 상기 음성-기반 쿼리를 텍스트-기반 쿼리로 변환하는 것은 상기 환경적 맥락과 연관된 적어도 하나의 음향 간섭에 따라 상기 쿼리를 조정하는 것을 포함함 -, Depending on the environmental context of the voice-based query text-converted to the base query, and - is at least one of the sound associated with the environmental context to convert based on a query-based query text - the speech in response to the environmental context according to the interference also include adjusting the query -,
    상기 환경적 맥락에 따라 상기 텍스트-기반 쿼리를 실행하고 - 상기 환경적 맥락에 따라 상기 텍스트-기반 쿼리를 실행하는 것은 상기 환경적 맥락과 연관된 상기 시맨틱 모델에 따라 상기 쿼리를 실행하는 것을 포함함 -, Depending on the environmental context of the text-run based on the query and said text in accordance with the environmental context - Running based query including the execution of the query based on the semantic model associated with the environmental context - ,
    상기 실행된 텍스트-기반 쿼리의 적어도 하나의 결과를 상기 사용자에게 제공하도록 동작하는, Operative to provide at least one query based on a result of to the user, - the executed text
    위치-기반 대화 해석을 제공하는 시스템. The location-based analysis system that provides the dialogue.
KR20137025540A 2011-03-31 2012-03-27 Location-based conversational understanding KR20140025361A (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
US13077431 US20120254227A1 (en) 2011-03-31 2011-03-31 Augmented Conversational Understanding Architecture
US13/077,368 2011-03-31
US13/077,233 2011-03-31
US13/076,862 2011-03-31
US13076862 US9760566B2 (en) 2011-03-31 2011-03-31 Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US13077233 US20120253789A1 (en) 2011-03-31 2011-03-31 Conversational Dialog Learning and Correction
US13/077,396 2011-03-31
US13077396 US9842168B2 (en) 2011-03-31 2011-03-31 Task driven user intents
US13077455 US9244984B2 (en) 2011-03-31 2011-03-31 Location based conversational understanding
US13/077,303 2011-03-31
US13/077,455 2011-03-31
US13077303 US9858343B2 (en) 2011-03-31 2011-03-31 Personalization of queries, conversations, and searches
US13/077,431 2011-03-31
US13077368 US9298287B2 (en) 2011-03-31 2011-03-31 Combined activation for natural user interface systems
PCT/US2012/030730 WO2012135210A3 (en) 2011-03-31 2012-03-27 Location-based conversational understanding

Publications (1)

Publication Number Publication Date
KR20140025361A true true KR20140025361A (en) 2014-03-04

Family

ID=46931884

Family Applications (3)

Application Number Title Priority Date Filing Date
KR20137025586A KR20140025362A (en) 2011-03-31 2012-03-27 Augmented conversational understanding architecture
KR20137025578A KR20140014200A (en) 2011-03-31 2012-03-27 Conversational dialog learning and correction
KR20137025540A KR20140025361A (en) 2011-03-31 2012-03-27 Location-based conversational understanding

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR20137025586A KR20140025362A (en) 2011-03-31 2012-03-27 Augmented conversational understanding architecture
KR20137025578A KR20140014200A (en) 2011-03-31 2012-03-27 Conversational dialog learning and correction

Country Status (5)

Country Link
EP (6) EP2691870A4 (en)
JP (4) JP2014512046A (en)
KR (3) KR20140025362A (en)
CN (8) CN102737096B (en)
WO (7) WO2012135229A3 (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
EP2946322A1 (en) * 2013-03-01 2015-11-25 Nuance Communications, Inc. Methods and apparatus for determining a clinician's intent to order an item
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9436287B2 (en) * 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
WO2014197334A3 (en) 2013-06-07 2015-01-29 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9728184B2 (en) 2013-06-18 2017-08-08 Microsoft Technology Licensing, Llc Restructuring deep neural network acoustic models
US9589565B2 (en) * 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
CN104714954A (en) * 2013-12-13 2015-06-17 中国电信股份有限公司 Information searching method and system based on context understanding
US20150170053A1 (en) * 2013-12-13 2015-06-18 Microsoft Corporation Personalized machine learning models
US10015770B2 (en) 2014-03-24 2018-07-03 International Business Machines Corporation Social proximity networks for mobile phones
US20150278370A1 (en) * 2014-04-01 2015-10-01 Microsoft Corporation Task completion for natural language input
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
JP6275569B2 (en) * 2014-06-27 2018-02-07 株式会社東芝 Interaction device, method and program
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
KR20160056591A (en) * 2014-11-12 2016-05-20 삼성전자주식회사 Query processing apparatus and method
WO2016129767A1 (en) * 2015-02-13 2016-08-18 주식회사 팔락성 Online site linking method
KR20170033722A (en) * 2015-09-17 2017-03-27 삼성전자주식회사 Apparatus and method for processing user's locution, and dialog management apparatus
US9905248B2 (en) 2016-02-29 2018-02-27 International Business Machines Corporation Inferring user intentions based on user conversation data and spatio-temporal data
US9978396B2 (en) 2016-03-16 2018-05-22 International Business Machines Corporation Graphical display of phone conversations
US20170351532A1 (en) * 2016-06-07 2017-12-07 Google Inc. Nondeterministic task initiation by a personal assistant module
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) * 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US9940390B1 (en) * 2016-09-27 2018-04-10 Microsoft Technology Licensing, Llc Control system using scoped search and conversational interface
CN107885744A (en) * 2016-09-29 2018-04-06 微软技术许可有限责任公司 Interactive data analysis

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5265014A (en) * 1990-04-10 1993-11-23 Hewlett-Packard Company Multi-modal user interface
US5748974A (en) * 1994-12-13 1998-05-05 International Business Machines Corporation Multimodal natural language interface for cross-application tasks
US5970446A (en) * 1997-11-25 1999-10-19 At&T Corp Selective noise/channel/coding models and recognizers for automatic speech recognition
WO2000011571A1 (en) * 1998-08-24 2000-03-02 Bcl Computers, Inc. Adaptive natural language interface
US6499013B1 (en) * 1998-09-09 2002-12-24 One Voice Technologies, Inc. Interactive user interface using speech recognition and natural language processing
US6332120B1 (en) * 1999-04-20 2001-12-18 Solana Technology Development Corporation Broadcast speech recognition system for keyword monitoring
JP3530109B2 (en) * 1999-05-31 2004-05-24 日本電信電話株式会社 Voice interactive information retrieval method for large information database, apparatus and a recording medium
EP1236096A1 (en) * 1999-06-01 2002-09-04 Geoffrey M. Jacquez Help system for a computer related application
US6598039B1 (en) * 1999-06-08 2003-07-22 Albert-Inc. S.A. Natural language interface for searching database
JP3765202B2 (en) * 1999-07-09 2006-04-12 日産自動車株式会社 Interactive information retrieval apparatus, the interactive information retrieval method and interactive information retrieval processing computer readable medium recording a program for using a computer
JP2001125896A (en) * 1999-10-26 2001-05-11 Victor Co Of Japan Ltd Natural language interactive system
US7050977B1 (en) * 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
JP2002024285A (en) * 2000-06-30 2002-01-25 Sanyo Electric Co Ltd Method and device for user support
JP2002082748A (en) * 2000-09-06 2002-03-22 Sanyo Electric Co Ltd User support device
US7197120B2 (en) * 2000-12-22 2007-03-27 Openwave Systems Inc. Method and system for facilitating mediated communication
GB2372864B (en) * 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
JP2003115951A (en) * 2001-10-09 2003-04-18 Casio Comput Co Ltd Topic information providing system and topic information providing method
US7224981B2 (en) * 2002-06-20 2007-05-29 Intel Corporation Speech recognition of mobile devices
US7693720B2 (en) * 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
EP1411443A1 (en) * 2002-10-18 2004-04-21 Hewlett Packard Company, a Delaware Corporation Context filter
JP2004212641A (en) * 2002-12-27 2004-07-29 Toshiba Corp Voice input system and terminal device equipped with voice input system
JP2004328181A (en) * 2003-04-23 2004-11-18 Sharp Corp Telephone and telephone network system
JP4441782B2 (en) * 2003-05-14 2010-03-31 日本電信電話株式会社 Information presentation method and information presentation device
JP2005043461A (en) * 2003-07-23 2005-02-17 Canon Inc Voice recognition method and voice recognition device
KR20050032649A (en) * 2003-10-02 2005-04-08 (주)이즈메이커 Method and system for teaching artificial life
US7720674B2 (en) * 2004-06-29 2010-05-18 Sap Ag Systems and methods for processing natural language queries
JP4434972B2 (en) * 2005-01-21 2010-03-17 日本電気株式会社 Information providing system, information providing method, and a program
EP1686495B1 (en) * 2005-01-31 2011-05-18 Ontoprise GmbH Mapping web services to ontologies
GB0502259D0 (en) * 2005-02-03 2005-03-09 British Telecomm Document searching tool and method
CN101120341A (en) * 2005-02-06 2008-02-06 凌圭特股份有限公司 Method and equipment for performing mobile information access using natural language
US20060206333A1 (en) * 2005-03-08 2006-09-14 Microsoft Corporation Speaker-dependent dialog adaptation
US7409344B2 (en) * 2005-03-08 2008-08-05 Sap Aktiengesellschaft XML based architecture for controlling user interfaces with contextual voice commands
US7734557B2 (en) * 2005-04-05 2010-06-08 The Board Of Trustees Of Leland Stanford Junior University Methods, software, and systems for knowledge base coordination
US7991607B2 (en) * 2005-06-27 2011-08-02 Microsoft Corporation Translation and capture architecture for output of conversational utterances
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7620549B2 (en) * 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US7627466B2 (en) * 2005-11-09 2009-12-01 Microsoft Corporation Natural language interface for driving adaptive scenarios
US7822699B2 (en) 2005-11-30 2010-10-26 Microsoft Corporation Adaptive semantic reasoning engine
US20070136222A1 (en) * 2005-12-09 2007-06-14 Microsoft Corporation Question and answer architecture for reasoning and clarifying intentions, goals, and needs from contextual clues and content
US20070143410A1 (en) * 2005-12-16 2007-06-21 International Business Machines Corporation System and method for defining and translating chat abbreviations
CN100373313C (en) * 2006-01-12 2008-03-05 广东威创视讯科技股份有限公司 Intelligent recognition coding method for interactive input apparatus
US8209407B2 (en) * 2006-02-10 2012-06-26 The United States Of America, As Represented By The Secretary Of The Navy System and method for web service discovery and access
US20080005068A1 (en) * 2006-06-28 2008-01-03 Microsoft Corporation Context-based search, retrieval, and awareness
US7747601B2 (en) * 2006-08-14 2010-06-29 Inquira, Inc. Method and apparatus for identifying and classifying query intent
CN1963752A (en) * 2006-11-28 2007-05-16 李博航 Man-machine interactive interface technique of electronic apparatus based on natural language
US20080172359A1 (en) * 2007-01-11 2008-07-17 Motorola, Inc. Method and apparatus for providing contextual support to a monitored communication
US20080172659A1 (en) 2007-01-17 2008-07-17 Microsoft Corporation Harmonizing a test file and test configuration in a revision control system
US20080201434A1 (en) 2007-02-16 2008-08-21 Microsoft Corporation Context-Sensitive Searches and Functionality for Instant Messaging Applications
US7720856B2 (en) * 2007-04-09 2010-05-18 Sap Ag Cross-language searching
US8762143B2 (en) * 2007-05-29 2014-06-24 At&T Intellectual Property Ii, L.P. Method and apparatus for identifying acoustic background environments based on time and speed to enhance automatic speech recognition
US20090076917A1 (en) * 2007-08-22 2009-03-19 Victor Roditis Jablokov Facilitating presentation of ads relating to words of a message
US7788276B2 (en) * 2007-08-22 2010-08-31 Yahoo! Inc. Predictive stemming for web search with statistical machine translation models
JP5501967B2 (en) * 2007-08-31 2014-05-28 マイクロソフト コーポレーション Identification of semantic relationships in the indirect discourse
US8165886B1 (en) * 2007-10-04 2012-04-24 Great Northern Research LLC Speech interface system and method for control and interaction with applications on a computing system
US8504621B2 (en) * 2007-10-26 2013-08-06 Microsoft Corporation Facilitating a decision-making process
JP2009116733A (en) * 2007-11-08 2009-05-28 Nec Corp Application retrieval system, application retrieval method, monitor terminal, retrieval server, and program
JP5158635B2 (en) * 2008-02-28 2013-03-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods for personal service support, system, and equipment
US20090234655A1 (en) * 2008-03-13 2009-09-17 Jason Kwon Mobile electronic device with active speech recognition
WO2009129315A1 (en) * 2008-04-15 2009-10-22 Mobile Technologies, Llc System and methods for maintaining speech-to-speech translation in the field
CN101499277B (en) * 2008-07-25 2011-05-04 中国科学院计算技术研究所 Service intelligent navigation method and system
US8874443B2 (en) * 2008-08-27 2014-10-28 Robert Bosch Gmbh System and method for generating natural language phrases from user utterances in dialog systems
JP2010128665A (en) * 2008-11-26 2010-06-10 Kyocera Corp Information terminal and conversation assisting program
JP2010145262A (en) * 2008-12-19 2010-07-01 Pioneer Electronic Corp Navigation apparatus
US8326637B2 (en) * 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
JP2010230918A (en) * 2009-03-26 2010-10-14 Aisin Aw Co Ltd Retrieving device
US8700665B2 (en) * 2009-04-27 2014-04-15 Avaya Inc. Intelligent conference call information agents
US20100281435A1 (en) * 2009-04-30 2010-11-04 At&T Intellectual Property I, L.P. System and method for multimodal interaction using robust gesture processing
KR101622111B1 (en) * 2009-12-11 2016-05-18 삼성전자 주식회사 Dialog system and conversational method thereof
KR101007336B1 (en) * 2010-06-25 2011-01-13 한국과학기술정보연구원 Personalizing service system and method based on ontology

Also Published As

Publication number Publication date Type
JP6087899B2 (en) 2017-03-01 grant
CN102737096B (en) 2017-08-25 grant
CN102750270A (en) 2012-10-24 application
WO2012135157A2 (en) 2012-10-04 application
WO2012135791A2 (en) 2012-10-04 application
WO2012135218A3 (en) 2013-01-03 application
EP2691877A4 (en) 2015-06-24 application
JP2017123187A (en) 2017-07-13 application
CN102750270B (en) 2017-06-09 grant
CN102737101A (en) 2012-10-17 application
WO2012135783A2 (en) 2012-10-04 application
EP2691949A2 (en) 2014-02-05 application
WO2012135229A2 (en) 2012-10-04 application
JP2014515853A (en) 2014-07-03 application
CN102737104B (en) 2017-05-24 grant
WO2012135226A1 (en) 2012-10-04 application
KR20140014200A (en) 2014-02-05 application
CN102750271A (en) 2012-10-24 application
WO2012135783A3 (en) 2012-12-27 application
CN102750271B (en) 2017-10-17 grant
EP2691870A4 (en) 2015-05-20 application
CN102737096A (en) 2012-10-17 application
WO2012135791A3 (en) 2013-01-10 application
WO2012135210A3 (en) 2012-12-27 application
EP2691885A1 (en) 2014-02-05 application
EP2691875A2 (en) 2014-02-05 application
CN102737101B (en) 2018-09-04 grant
EP2691885A4 (en) 2015-09-30 application
CN106383866A (en) 2017-02-08 application
JP2014512046A (en) 2014-05-19 application
EP2691870A2 (en) 2014-02-05 application
CN102750311B (en) 2018-07-20 grant
EP2691875A4 (en) 2015-06-10 application
WO2012135218A2 (en) 2012-10-04 application
EP2691876A2 (en) 2014-02-05 application
EP2691877A2 (en) 2014-02-05 application
CN102737099B (en) 2017-12-19 grant
WO2012135210A2 (en) 2012-10-04 application
CN102737099A (en) 2012-10-17 application
EP2691876A4 (en) 2015-06-10 application
JP6305588B2 (en) 2018-04-04 grant
JP2014509757A (en) 2014-04-21 application
JP6105552B2 (en) 2017-03-29 grant
EP2691949A4 (en) 2015-06-10 application
KR20140025362A (en) 2014-03-04 application
CN102750311A (en) 2012-10-24 application
WO2012135157A3 (en) 2013-01-10 application
CN102737104A (en) 2012-10-17 application
WO2012135229A3 (en) 2012-12-27 application

Similar Documents

Publication Publication Date Title
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US6711543B2 (en) Language independent and voice operated information management system
US9070366B1 (en) Architecture for multi-domain utterance processing
US20020143535A1 (en) Method of providing concise forms of natural commands
US20130080162A1 (en) User Query History Expansion for Improving Language Model Adaptation
US20100082343A1 (en) Sequential speech recognition with two unequal asr systems
US20110288863A1 (en) Voice stream augmented note taking
US20100070281A1 (en) System and method for audibly presenting selected text
US20120022860A1 (en) Speech and Noise Models for Speech Recognition
US20100185448A1 (en) Dealing with switch latency in speech recognition
US20140365209A1 (en) System and method for inferring user intent from speech inputs
Rabiner et al. Theory and applications of digital speech processing
US20130090921A1 (en) Pronunciation learning from user correction
US20090271189A1 (en) Testing A Grammar Used In Speech Recognition For Reliability In A Plurality Of Operating Environments Having Different Background Noise
US7016849B2 (en) Method and apparatus for providing speech-driven routing between spoken language applications
US20110055256A1 (en) Multiple web-based content category searching in mobile search application
US20110054894A1 (en) Speech recognition through the collection of contact information in mobile dictation application
US20110054895A1 (en) Utilizing user transmitted text to improve language model in mobile dictation application
US20110054898A1 (en) Multiple web-based content search user interface in mobile search application
US7013275B2 (en) Method and apparatus for providing a dynamic speech-driven control and remote service access system
US20110066634A1 (en) Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search in mobile search application
US20110054896A1 (en) Sending a communications header with voice recording to send metadata for use in speech recognition and formatting in mobile dictation application
US20110060587A1 (en) Command and control utilizing ancillary information in a mobile voice-to-speech application
US20110054899A1 (en) Command and control utilizing content information in a mobile voice-to-speech application
US20110054900A1 (en) Hybrid command and control between resident and remote speech recognition facilities in a mobile voice-to-speech application

Legal Events

Date Code Title Description
N231 Notification of change of applicant
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)