KR102078889B1 - 콘텍스트 스위칭을 위한 음성 인식 - Google Patents

콘텍스트 스위칭을 위한 음성 인식 Download PDF

Info

Publication number
KR102078889B1
KR102078889B1 KR1020147012404A KR20147012404A KR102078889B1 KR 102078889 B1 KR102078889 B1 KR 102078889B1 KR 1020147012404 A KR1020147012404 A KR 1020147012404A KR 20147012404 A KR20147012404 A KR 20147012404A KR 102078889 B1 KR102078889 B1 KR 102078889B1
Authority
KR
South Korea
Prior art keywords
context
game
application
user
attributes
Prior art date
Application number
KR1020147012404A
Other languages
English (en)
Other versions
KR20140082790A (ko
Inventor
매튜 제이 몬슨
윌리엄 피 기이스
대니얼 제이 그린어월트
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20140082790A publication Critical patent/KR20140082790A/ko
Application granted granted Critical
Publication of KR102078889B1 publication Critical patent/KR102078889B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • A63F13/10
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

다양한 실시형태는 콘텍스트 스위칭을 위한 음성 인식을 구현하기 위한 기술들을 제공한다. 적어도 일부 실시형태에서, 이 기술들은 유저가 음성 명령을 통해 애플리케이션의 상이한 콘텍스트 및/또는 유저 인터페이스 사이에서 스위칭하게 할 수 있다. 적어도 일부 실시형태에서, 음성 명령을 통해 조종될 수 있는 애플리케이션을 위해 이용가능한 콘텍스트를 열거(list)하는 콘텍스트 메뉴가 제공된다. 구현에 있어서, 콘텍스트 메뉴에 표시되는 콘텍스트들은 다양한 콘텍스트 필터링 기준에 기초하여 필터링되는 콘텍스트들의 더 큰 세트의 서브세트를 포함한다. 유저는 콘텍스트들 중 하나와 연관된 유저 인터페이스로의 조종을 초래하기 위한 콘텍스트 메뉴에 표시되는 콘텍스트들 중 하나를 말할 수 있다.

Description

콘텍스트 스위칭을 위한 음성 인식{SPEECH RECOGNITION FOR CONTEXT SWITCHING}
본 발명은 콘텍스트 스위칭(context switching)을 위한 음성 인식에 관한 것이다.
다수의 컴퓨터 애플리케이션은 유저가 애플리케이션과 상호 작용할 수 있는 다양하고 상이한 콘텍스트와 그래픽 유저 인터페이스를 제공한다. 예컨대, 비디오 게임은 통상적으로 유저가 비디오 게임에 의해 제공되는 다양한 기능들에 액세스할 수 있게 하는 상이한 유저 인터페이스를 포함한다. 일부 유저 인터페이스는 게임 플레이를 위한 게임 아레나(game arena), 게임 플레이를 위해 이용가능한 차량들 등의 게임의 어떤 부분을 유저가 커스터마이즈(costomize)하게 할 수 있다. 다른 유저 인터페이스는 싱글 플레이어 게임 플레이, 멀티플레이어 게임 플레이 등의 다양한 타입의 게임 플레이에 유저가 참가하게 할 수 있다. 이러한 상이한 유저 인터페이스가 더 많은 흥미와 다양한 게임 경험을 제공할 수 있지만, 다양한 유저 인터페이스들 사이에서의 현재의 조종(navigating) 방법이 복잡하게 될 수 있다.
이하 상세한 설명에서 더 개시되는 간략한 형태의 컨셉의 선택을 소개하기 위해 본 요약(summary)이 제공된다. 본 요약은 청구되는 대상(subject matter)의 본질적 특징이나 주요 특징(key feature)의 확인을 의도하지 않고, 청구되는 대상의 범위를 결정하는데 사용되는 것을 의도하지도 않는다.
다양한 실시형태는 콘텍스트 스위칭을 위한 음성 인식을 구현하기 위한 기술들을 제공한다. 적어도 일부 실시형태에서, 이 기술들은 유저가 음성 명령을 통해 애플리케이션의 상이한 콘텍스트 및/또는 유저 인터페이스 사이에서 스위칭하게 할 수 있다. 예컨대, 게임 애플리케이션은 상이한 상호작용 콘텍스트와 기능들을 제공하는 다양하고 상이한 유저 인터페이스를 포함할 수 있다. 다른 유저 인터페이스는 게임 맞춤 기능들을 제공할 수 있는데 반해, 일부 유저 인터페이스는 게임 플레이 기능을 제공할 수 있다. 여기서 논의되는 기술들은 유저가 음성 명령을 발행(issue)함으로써 다양한 유저 인터페이스 중에서 조종하게 할 수 있다.
적어도 일부 실시형태에서, 음성 명령을 통해 조종될 수 있는 애플리케이션을 위해 이용가능한 콘텍스트를 열거(list)하는 콘텍스트 메뉴가 제공된다. 예컨대, 애플리케이션의 특정 콘텍스트를 위한 유저 인터페이스가 디스플레이되는 동안 유저는 트리거 워드(trigger word)를 말할 수 있다. 트리거 워드의 인식은 유저 인터페이스의 일부로서 콘텍스트 메뉴가 디스플레이되게 할 수 있다. 콘텍스트 메뉴는 음성 명령을 통해 조종될 수 있는 다른 콘텍스트를 포함할 수 있다. 구현에 있어서, 콘텍스트 메뉴에 표시되는 다른 콘텍스트들은 다양한 콘텍스트 필터링 기준에 기초하여 필터링되는 콘텍스트들의 더 큰 세트의 서브세트를 포함한다. 유저는 상이한 콘텍스트와 연관된 유저 인터페이스로의 조종을 초래하기 위한 콘텍스트 메뉴에 표시되는 콘텍스트들 중 하나를 말할 수 있다.
상세한 설명은 첨부 도면을 참조하여 묘사된다. 도면에서, 도면부호의 가장 좌측의 숫자(digit)는 도면부호가 처음 나타나는 도면을 나타낸다. 설명과 도면에 있어서 상이한 경우에 동일한 도면부호의 사용은 유사 또는 동일한 아이템을 나타낼 수 있다.
도 1은 하나 이상의 실시형태에 의한 여기서 논의되는 기술을 채택하기 위해 동작가능한 예시적 동작 환경의 예시이다.
도 2는 하나 이상의 실시형태에 의한 예시적 콘텍스트 스위칭 시나리오의 예시이다.
도 3은 하나 이상의 실시형태에 의한 예시적 콘텍스트 스위칭 시나리오의 예시이다.
도 4는 하나 이상의 실시형태에 의한 방법에서의 단계들을 설명하는 플로우 다이어그램이다.
도 5는 하나 이상의 실시형태에 의한 방법에서의 단계들을 설명하는 플로우 다이어그램이다.
도 6은 하나 이상의 실시형태에 따른, 도 1 및 도 7을 참조하여 설명하는 바와 같은 컴퓨팅 장치를 포함하는 예시적 시스템을 나타낸다.
도 7은 여기서 설명하는 다양한 실시형태를 구현하기 위해 사용될 수 있는 예시적 컴퓨팅 장치를 나타낸다.
개관
다양한 실시형태는 콘텍스트 스위칭을 위한 음성 인식을 구현하기 위한 기술들을 제공한다. 적어도 일부 실시형태에서, 이 기술들은 유저가 음성 명령을 통해 애플리케이션의 상이한 콘텍스트 및/또는 유저 인터페이스 사이에서 스위칭하게 할 수 있다. 예컨대, 게임 애플리케이션은 상이한 상호작용 콘텍스트와 기능들을 제공하는 다양하고 상이한 유저 인터페이스를 포함할 수 있다. 다른 유저 인터페이스는 게임 맞춤 기능들을 제공할 수 있는데 반해, 일부 유저 인터페이스는 게임 플레이 기능을 제공할 수 있다. 여기서 논의되는 기술들은 유저가 음성 명령을 발행(issue)함으로써 다양한 유저 인터페이스 중에서 조종하게 할 수 있다.
적어도 일부 실시형태에서, 음성 명령을 통해 조종될 수 있는 애플리케이션을 위해 이용가능한 콘텍스트를 열거(list)하는 콘텍스트 메뉴가 제공된다. 예컨대, 애플리케이션의 특정 콘텍스트를 위한 유저 인터페이스가 디스플레이되는 동안 유저는 트리거 워드(trigger word)를 말할 수 있다. 트리거 워드의 인식은 유저 인터페이스의 일부로서 콘텍스트 메뉴가 디스플레이되게 할 수 있다. 콘텍스트 메뉴는 음성 명령을 통해 조종될 수 있는 다른 콘텍스트를 포함할 수 있다. 구현에 있어서, 콘텍스트 메뉴에 표시되는 다른 콘텍스트들은 다양한 콘텍스트 필터링 기준에 기초하여 필터링되는 콘텍스트들의 더 큰 세트의 서브세트를 포함한다. 유저는 상이한 콘텍스트와 연관된 유저 인터페이스로의 조종을 초래하기 위한 콘텍스트 메뉴에 표시되는 콘텍스트들 중 하나를 말할 수 있다.
이하의 논의에서, "동작 환경"이라는 제목의 섹션이 제공되고, 하나 이상의 실시형태가 채택될 수 있는 환경을 설명한다. 이에 후속하여, "예시적 콘텍스트 스위칭 시나리오"라는 제목의 섹션은 하나 이상의 실시형태에 의한 예시적 콘텍스트 스위칭 시나리오를 설명한다. 이어서, "예시적 방법"이라는 제목의 섹션은 하나 이상의 실시형태에 의한 예시적 방법을 설명한다. 마지막으로, "예시적 시스템 및 장치"라는 제목의 섹션은 하나 이상의 실시형태를 구현하기 위해 사용될 수 있는 예시적 시스템 및 예시적 장치를 설명한다.
동작 환경
도 1은 일반적으로 100에서 하나 이상의 실시형태에 의한 동작 환경을 나타낸다. 동작 환경(100)은 다양한 방식으로 구성될 수 있는 컴퓨팅 장치(102)를 포함한다. 예컨대, 컴퓨팅 장치(102)는, 한정이 아닌 예시로서 PDA(personal digital assistant), 셀폰 등의 핸드헬드 컴퓨터(handheld computer), 휴대용 컴퓨터, 데스크탑 컴퓨터, 게임 콘솔과 같은 임의의 적합한 컴퓨팅 장치로서 구현될 수 있다. 컴퓨팅 장치(102)의 일례의 구성은 도 7에 도시되어 있고, 아래에서 설명한다.
컴퓨팅 장치(102)의 일부로서 포함되는 것은, 컴퓨팅 장치(102)를 통해 광범위한 작업이 수행되게 하는 기능의 대표적인 사례인 하나 이상의 애플리케이션(104)이다. 예컨대, 애플리케이션(104)은 비디오 게임, 워드 프로세싱, 전자우편, 스프레드시트(spreadsheet), 매체 콘텐츠 소비 등의 기능을 제공하기 위해 컴퓨팅 장치(102)에 의해 실행될 수 있다.
컴퓨팅 장치(102)의 일부로서 더 포함되는 것은 정보를 송신 및 수신하기 위한 기능을 나타내는 입력/출력 모듈(106)이다. 예컨대, 입력/출력 모듈(106)은 키보드, 마우스, 터치패드, 게임 컨트롤러, 광학 스캐너 등의 입력 장치에 의해 생성되는 입력을 수신하도록 구성될 수 있다. 입력/출력 모듈(106)은 또한 음성 인식, 제스처 기반 입력(gesture-based input), 오브젝트 스캐닝(object scanning) 등의 비접촉 메카니즘(touchless mechanism)을 통해 수신되는 입력을 수신 및/또는 해석하도록 구성될 수 있다. 이러한 실시형태에서 또한, 컴퓨팅 장치(102)는 사람의 제스처의 시각적 인식, 오브젝트 스캐닝, 음성 입력, 컬러 입력 등을 통한 다양한 비접촉 입력을 수신하도록 구성되는 NUI(natural user interface) 장치(108)를 포함한다.
입력/출력 모듈(106)의 일부로서 포함되는 것은, (예컨대, NUI 장치(108)로부터의) 음성 입력을 인식하고 이 음성 입력을 작업을 수행하기 위한 다른 엔티티(entity)들에 의해 사용될 수 있는 형태로 변환하기 위한 기능의 대표적인 사례인 음성 인식 모듈(110)이다.
여기서 논의되는 기술들에 더하여, 애플리케이션(104)은, 다양한 콘텍스트들 및/또는 애플리케이션과 연관된 유저 인터페이스들 사이에서의 애플리케이션이 스위칭하게 하는 기능의 전형적인 사례가 되는 하나 이상의 콘텍스트 모듈(112)을 포함한다. 적어도 일부의 실시형태에서, 콘텍스트 모듈(112)은, 여기서 논의되는 기술을 구현하기 위해, 입력/출력 모듈(106) 및/또는 음성 인식 모듈(110)로부터 입력을 수신하도록 구성된다.
동작 환경(100)은 컴퓨팅 장치(102)에 연결되는 디스플레이 장치(114)를 더 포함한다. 적어도 일부의 실시형태에서, 디스플레이 장치(114)는, 애플리케이션(104)에 의해 생성되고 입력/출력 모듈(106)에 의해 디스플레이 장치(114)에 제공되는 유저 인터페이스와 같은, 컴퓨팅 장치(102)로부터의 출력을 수신하여 디스플레이하도록 구성된다. 구현에 있어서, 입력/출력 모듈(106)은, NUI 장치(108)로부터의 입력(예컨대, 음성 입력)을 수신할 수 있고, 애플리케이션(104)에 의해 제공되는 다양한 콘텍스트들 및/또는 유저 인터페이스들 사이에서 조종하기 위해 콘텍스트 모듈(112)과 유저가 상호작용하도록 상기 입력을 사용할 수 있다. 또한, 동작 환경(100)의 구현이 이하 논의된다.
일반적으로 여기에 개시된 기능들 중 어느 것이든 소프트웨어, 펌웨어, 하드웨어(예컨대 고정 로직 회로), 또는 이들 구현의 조합을 사용하여 구현될 수 있다. 여기에 사용된 용어 "모듈", "기능", 및 "로직"은, 일반적으로 소프트웨어, 펌웨어, 하드웨어 또는 이들의 조합을 나타낸다. 소프트웨어 구현의 경우에, 모듈, 기능, 또는 로직은 프로세서(예컨대, CPU 또는 CPU들) 상에서 실행시에 지정된 작업을 수행하는 프로그램 코드를 나타낸다. 프로그램 코드는 하나 이상의 컴퓨터 판독가능 메모리 장치에 저장될 수 있다. 이하 설명되는 기술들의 특징은 플랫폼에 독립적(platform-independent)이라는 것이고, 이것은 이 기술들이 다양한 프로세서를 구비한 다양한 상업 컴퓨팅 플랫폼 상에서 구현될 수 있는 것을 의미한다.
예컨대, 컴퓨팅 장치(102)는 또한 프로세서, 기능 블록 등의 컴퓨팅 장치(102)의 하드웨어가 동작을 수행하게 하는 엔티티(예컨대 소프트웨어)를 포함할 수 있다. 컴퓨팅 장치(102)는, 컴퓨팅 장치, 보다 구체적으로 컴퓨팅 장치(102)의 하드웨어가 동작을 수행하게 하는 명령어들을 유지하도록 구성될 수 있는 컴퓨터 판독가능 매체를 포함할 수 있다. 따라서, 명령어들은 동작을 수행하기 위한 하드웨어를 구성하도록 기능하고, 이러한 방식으로 기능을 수행하기 위한 하드웨어의 변환(transformation)이 이루어진다. 컴퓨터 판독가능 매체에 의해 명령어들은 다양하고 상이한 구성을 통해 컴퓨팅 장치(102)에 제공될 수 있다.
이러한 컴퓨터 판독가능 매체의 한가지 구성은 신호 포함 매체(signal bearing medium)이고, 이에 따라 네트워크 등을 통해 컴퓨팅 장치의 하드웨어에 명령들[예컨대, 캐리어 웨이브(carrier wave)]을 송신하도록 구성된다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체로서 구성될 수 있고 이에 따르면 신호 포함 매체가 아니다. 컴퓨터 판독가능 저장 매체의 예는, 명령어들과 다른 데이터를 저장하기 위한 자기, 광학, 및 다른 기술을 사용할 수 있는 RAM(random-access memory), ROM(read-only memory), 광학 디스크, 플래시 메모리, 하드디스크 메모리, 및 다른 메모리 장치를 포함한다.
예시적 콘텍스트 스위칭 시나리오
본 섹션은 여기서 논의되는 기술들에 의해 사용가능하게 될 수 있는 예시적 콘텍스트 스위칭 시나리오들을 논의한다. 적어도 일부 실시형태에서, 예시적 콘텍스트 스위칭 시나리오들은 위에서 논의된 동작 환경(100) 및/또는 후술하는 예시적 시스템(600)의 양상을 통해 구현될 수 있다. 따라서, 예시적 콘텍스트 스위칭 시나리오들 중 어떤 양상은 동작 환경(100) 및/또는 예시적 시스템(600)의 특징들을 참조하여 논의될 것이다. 이것은 단지 예시만을 목적으로 하며, 예시적 콘텍스트 스위칭 시나리오들의 양상은 청구된 실시형태의 사상 및 범위로부터 벗어나지 않는 다양하고 상이한 동작 환경 및 시스템으로 구현될 수 있다.
도 2는 일반적으로 200에서 예시적 콘텍스트 스위칭 시나리오를 나타낸다. 콘텍스트 스위칭 시나리오(200)의 상부에서, 디스플레이 장치(114)는 게임 애플리케이션과 연관된 커스터마이제이션 인터페이스(customization interface)(202)를 디스플레이한다. 구현에서, 커스터마이제이션 인터페이스(202)는, 게임 차량의 출력 파트(out part)를 스위칭하는 것, 차량의 컬러를 변경하는 것 등에 의해, 게임 애플리케이션의 다양한 양상을 유저가 커스터마이징할 수 있게 한다. 따라서, 커스터마이제이션 인터페이스(202)는 수행될 게임 애플리케이션과 연관되는 다양한 작업을 가능하게 하는 기능들의 특정한 세트와 연관된다.
콘텍스트 스위칭 시나리오의 상부에 더 도시된 것은 NUI 장치(108)로의 음성 입력(204)이다. 음성 입력(204)은, 유저에 의해 말해져서 NUI 장치(108)의 하나 이상의 오디오 감지 수단에 의해 감지될 수 있는 단어들 및/또는 다른 발성들을 나타낸다. 음성 입력(204)의 일부로서 포함되는 것은, 여기서 논의되는 음성 인식 기능들을 활성화하기 위해 말해질 수 있는 단어를 나타내는 트리거 워드(204)이다.
콘텍스트 스위칭 시나리오(200)의 하부에 이어서, 음성 입력(204)[예컨대, 트리거 워드(206)]의 인식은 커스터마이제이션 인터페이스(202)에 콘텍스트 메뉴(208)가 표시되게 한다. 콘텍스트 메뉴(208)는 게임 애플리케이션과 연관된 다른 콘텍스트로 조종하기 위해 선택될 수 있는 콘텍스트 옵션을 포함한다. 예컨대, 특정 콘텍스트 옵션을 선택하고 특정 콘텍스트 옵션과 연관된 그래픽 유저 인터페이스로의 조종이 이루어지게 하기 위해 콘텍스트 옵션이 말해질 수 있다. 콘텍스트 메뉴(208)에 표시된 콘텍스트 옵션은 하나 이상의 필터링 기준에 기초하여 필터링되는 필터링된 콘텍스트 옵션을 포함할 수 있다. 콘텍스트 옵션을 필터링하는 예시적 방법이 이하 논의된다.
도 3은 일반적으로 300에서 예시적 콘텍스트 스위칭 시나리오를 나타낸다. 구현에서, 콘텍스트 스위칭 시나리오(300)는 위에서 논의된 콘텍스트 스위칭 시나리오(200)의 연속을 나타낸다. 콘텍스트 스위칭 시나리오(300)의 상부에서, 커스터마이제이션 인터페이스(202)는 콘텍스트 메뉴(208)와 함께 디스플레이된다. 콘텍스트 워드(304)를 포함하는 음성 입력(302)은 NUI 장치(108)에서 수신된다. 본 실시예에서, 콘텍스트 워드(304)는 콘텍스트 메뉴(208)로부터 콘텍스트 옵션들 중 하나의 선택을 나타낸다.
콘텍스트 스위칭 시나리오(300)의 하부에 이어서, 음성 입력(204)[예컨대, 트리거 워드(302)]의 인식은 커스터마이제이션 인터페이스(114)에 콘텍스트 메뉴(306)가 표시되게 한다. 레이스(race) 인터페이스(306)는 게임 애플리케이션과 연관된 하나 이상의 레이스에 유저가 참가하게 한다. 따라서, 레이스 인터페이스(306)는 게임 플레이 관련 액션이 수행되게 하는 기능들의 특정한 세트와 연관될 수 있다. 구현에서, 레이스 인터페이스(306)에 의해 표시되는 기능들은 위에서 논의된 커스터마이제이션 인터페이스(202)에 의해 표시되는 기능들과 상이한다. 따라서, 여기서 논의되는 기술들은 음성 입력을 통해 기능들의 상이한 세트들 간의 스위칭을 가능하게 한다.
콘텍스트 스위칭 시나리오가 표시되는 콘텍스트 메뉴를 참조하여 논의되었지만, 적어도 일부의 실시형태는 콘텍스트 메뉴의 표시 없이 콘텍스트의 스위칭을 가능하게 할 수 있다. 예컨대, 유저는, 트리거 워드에 이어서 콘텍스트 워드를 말할 수 있고, 이 콘텍스트 워드는 하나의 콘텍스트로부터 콘텍스트 메뉴의 표시와는 독립적인 다른 콘텍스트로의 스위칭을 가능하게 할 수 있다. 따라서, 콘텍스트 워드는, 특정 콘텍스트, 유저 인터페이스, 및/또는 기능들의 세트를 호출(invoke)하기 위해 말해질 수 있는 워드를 나타낼 수 있다.
예시적 콘텍스트 스위칭 시나리오들을 설명하였지만, 이제 하나 이상의 실시형태에 따른 예시적 방법들의 논의를 고려한다.
예시적 방법들
여기서 논의된 기술들을 수행하기 위해 구현될 수 있는 다수의 방법들이 이하 논의된다. 상기 방법들의 양상은 하드웨어, 펌웨어, 또는 소프트웨어, 또는 이들의 조합으로 구현될 수 있다. 상기 방법들은 하나 이상의 장치에 의해 수행되는 동작을 명시(specify)하는 블록의 세트로서 도시되고, 개별 블록들에 의해 동작을 수행하기 위해 도시되는 순서에 한정될 필요는 없다. 또한, 특정 방법에 관하여 도시된 동작은 하나 이상의 구현과 연관된 상이한 방법의 동작과 결합 및/또는 교환될 수 있다. 상기 방법들의 양상은 환경(100)을 참조하고, 이하의 시스템(600)을 참조하여 논의되는 다양한 엔티티들 간의 상호작용을 통해 구현될 수 있다.
도 4는 하나 이상의 실시형태에 의한 방법에서의 단계들을 설명하는 플로우 다이어그램이다. 단계 400은 제1 콘텍스트와 연관된 그래픽 유저 인터페이스를 나타낸다. 예컨대, 기능들의 특정 세트와 연관된 게임 그래픽 유저 인터페이스가 디스플레이될 수 있다. 단계 402는 상이한 콘텍스트로의 잠재적 조종을 나타내는, 말해진 트리거 워드를 인식한다. 광범위한 상이한 트리거 워드들이 잠재적 조종을 나타내기 위해 구현될 수 있다.
단계 404는 조종될 수 있는 하나 이상의 상이한 콘텍스트들을 포함하는 콘텍스트 메뉴를 나타낸다. 하나 이상의 상이한 콘텍스트들은 다양하고 상이한 필터링 기준에 기초하여 콘텍스트들의 세트를 필터링함으로써 결정될 수 있다. 이러한 필터링 기준의 예들이 이하 논의된다. 구현에서, 콘텍스트 메뉴는 제1 콘텍스트와 연관된 그래픽 유저 인터페이스의 일부로서 디스플레이될 수 있다.
단계 406은 트리거 워드의 인식 이후에 특정 시간 간격 내에 콘텍스트 워드의 음성 입력이 인식되었는지의 여부를 결정한다. 예컨대, 타이머(timer)는 말해진 트리거 워드가 검출되고 그리고/또는 콘텍스트 메뉴가 표시된 이후의 시간의 경과(elapsing)를 시작할 수 있다. 특정 시간 간격 내에 콘텍스트 워드의 음성 입력이 인식되지 않으면("No"), 프로세스는 단계 400으로 리턴된다. 예컨대, 디스플레이로부터 콘텍스트 메뉴가 제거될 수 있고, 제1 콘텍스트와 연관된 그래픽 유저 인터페이스가 포커싱될 수 있다.
특정 시간 간격 내에 콘텍스트 워드의 음성 입력이 수신되면("Yes"), 단계 408은 제2 콘텍스트와 연관된 그래픽 유저 인터페이스로 진행한다. 제2 콘텍스트와 연관된 그래픽 유저 인터페이스는 제1 콘텍스트와 연관된 유저 인터페이스가 아닌 기능들의 상이한 세트와 연관될 수 있다. 구현에서, 제2 콘텍스트와 연관된 그래픽 유저 인터페이스는 음성 명령들(예컨대, 트리거 워드 및/또는 콘텍스트 워드)에 응답하여, 그리고 유저로부터의 추가 입력과 독립적으로 조종되고 디스플레이될 수 있다.
여기서 구현은 트리거 워드와 콘텍스트 워드의 조합에 관하여 논의되지만, 이것은 한정을 의도하지 않는다. 예컨대, 일부 구현들은 제1 콘텍스트와 연관된 유저 인터페이스로부터 제2 콘텍스트와 연관된 유저 인터페이스로 조종하기 위한 싱글 워드 및/또는 프레이즈(phrase)의 음성 인식을 채택할 수 있다.
도 5는 하나 이상의 실시형태에 의한 방법에서의 단계들을 설명하는 플로우 다이어그램이다. 구현에서, 상기 방법은 위에서 논의된 단계 404의 더 상세한 구현을 나타낼 수 있다. 적어도 일부 실시형태에서, 상기 방법은 하나 이상의 콘텍스트 모듈(112)에 의해 적어도 부분적으로 구현될 수 있다.
단계 500은 애플리케이션을 위한 콘텍스트 옵션들의 세트를 필터링한다. 예컨대, 콘텍스트 옵션들의 세트는, 애플리케이션의 속성, 애플리케이션이 실행되는 장치, 또는 장치의 유저 등의 하나 이상의 콘텍스트 특유 기준(context-specific criteria)에 기초하여 필터링될 수 있다. 구현에서, 콘텍스트 옵션들의 상이한 세트들은 상이한 버전의 애플리케이션에 대하여 이용가능하게 될 수 있다. 예컨대, 프리미엄 버전의 애플리케이션은 표준 버전의 애플리케이션보다 더 많은 콘텍스트 옵션들을 가질 수 있다. 예컨대, 프리미엄 버전은 표준 버전의 애플리케이션보다 더 많은 타입의 게임 플레이, 더 많은 커스터마이제이션 옵션들, 더 많은 멀티플레이어 옵션들 등에 대한 액세스를 가질 수 있다.
또한, 콘텍스트 옵션들을 필터링하기 위해 애플리케이션의 상태가 사용될 수도 있다. 예컨대, 게임 애플리케이션이 저장된 게임을 가지고 있지 않으면, 저장된 게임과 연관된 콘텍스트 옵션(예컨대, 이전 게임의 리플레이 보기)은 이용가능하게 되지 않을 수 있다.
또한, 장치의 속성이 이용가능한 콘텍스트 옵션들에 영향을 줄 수 있다. 예컨대, 장치가 네트워크(예컨대, 인터넷)에 접속되어 있지 않거나 장치의 네트워크 접속이 특정 문턱 대역폭(particular threshold bandwidth) 아래에 있으면, 어떤 네트워크 관련 콘텍스트 옵션들은 이용가능하지 않을 수 있다. 이러한 네트워크 관련 콘텍스트 옵션들은 멀티플레이어 네트워크 게임 플레이, 네트워크 리소스로부터 이용가능한 콘텐츠(예컨대, 차량, 게임 캐릭터들, 경기장 등), 네트워크 리소스를 이용하는 메시징 서비스를 포함할 수 있다.
또한, 장치의 특정 능력들은 이용가능한 콘텍스트 옵션들에도 영향을 줄 수 있다. 예컨대, 문턱 데이터(threshold data) 및/또는 그래픽 프로세싱 능력을 필요로 하는 어떤 게임 플레이 옵션들은 문턱 프로세싱 능력(threshold processing capability)들을 만족시키지 않는 장치 상에서 이용가능하지 않을 수 있다.
유저의 속성도 이용가능한 콘텍스트 옵션들에 영향을 줄 수 있다. 예컨대, 애플리케이션은, 상이한 리소스 및/또는 기능에 액세스하기 위해, 유저가 가입할 수 있는 상이한 어카운트 멤버쉽 레벨(account membership level)과 연관될 수 있다. 프리미엄 멤버쉽 레벨은, 표준 멤버쉽 레벨에 비해, 연장된 멀티플레이어 게임 시간, 더 많은 경기장 옵?들, 더 많은 치량 옵션들, 더 많은 게임플레이 캐릭터 옵션들 등의 확대된 액세스에 대한 자격을 부여할 수 있다.
또한, 유저의 속성은 유저 어카운트와 연관된 안전 관리를 고려할 수 있다. 예컨대, 나이가 많은 유저에 대하여 이용가능할 수 있는 어떤 게임 콘텐츠 및/또는 기능에 젊은 유저의 액세스가 방지될 수 있다. 따라서, 유저의 나이 및/또는 유저와 연관된 승인에 기초하여 콘텍스트 옵션이 필터링될 수 있다. 또한, 콘텍스트 옵션의 필터링시에 다양한 다른 고려사항이 참작될 수 있다.
단계 502는 애플리케이션을 위해 이용가능한 콘텍스트 옵션들의 세트를 생성한다. 예컨대, 이용가능한 콘텍스트 옵션은 위에서 논의된 콘텍스트 옵션들의 필터링되지 않은 세트인 콘텍스트 옵션들의 서브셋에 대응할 수 있다. 단계 504는, 상이한 콘텍스트로 조종하기 위해, 음성 명령을 통해, 이용가능한 콘텍스트 옵션이 선택될 수 있게 한다. 예컨대, 하나 이상의 이용가능한 콘텍스트 옵션이 위에서 논의된 콘텍스트 메뉴의 일부로서 디스플레이될 수 있다. 추가 또는 대안으로서, 하나 이상의 이용가능한 콘텍스트 옵션이 디스플레이되는 것과는 독립적으로 음성 입력을 통해 선택가능하게 될 수 있다.
하나 이상의 실시형태에 따른 방법들을 설명하였지만, 이제 하나 이상의 실시형태를 구현하기 위해 사용될 수 있는 예시적 시스템과 예시적 장치를 고려한다.
예시적 시스템 및 장치
도 6은 중앙 컴퓨팅 장치를 통해 멀티플 장치들이 상호접속되는 환경에서 구현되는 컴퓨팅 장치(102)를 도시하는 예시적 시스템(600)을 나타낸다. 중앙 컴퓨팅 장치는 멀티플 장치들에 위치되거나 멀티플 장치들로부터 떨어져서 위치될 수 있다. 일실시형태에서, 중앙 컴퓨팅 장치는, 네트워크 또는 인터넷 또는 다른 수단을 통해 멀티플 장치들에 접속되는 하나 이상의 서버 컴퓨터를 포함하는 "클라우드(cloud)" 서버 팜(server farm)이다.
일실시형태에서, 이 상호접속 구성은, 멀티플 장치들의 유저에게 평범하고 매끄러운 경험을 제공하기 위해, 멀티플 장치들에 걸쳐 기능이 전달되게 한다. 멀티플 장치들 각각은 상이한 물리적 필요조건들과 용량을 가질 수 있고, 중앙 컴퓨팅 장치는, 장치에 맞춰지고 또한 모든 장치들에 이미 공통인 장치에 대하여 경험의 전달을 가능하게 하기 위해 플랫폼(platform)을 사용한다. 일실시형태에서, 타겟 장치의 "등급(classs)"이 생성되고, 경험이 장치들의 일반 등급(generic class)에 맞춰진다. 장치의 등급은 장치들의 물리적 특징 또는 사용량 또는 다른 공통의 특성에 의해 규정될 수 있다. 예컨대, 이전에 설명한 바와 같이, 컴퓨팅 장치(102)가 모바일(602), 컴퓨터(604), 및 텔레비전(606)을 위한 사용 등의 다양하고 상이한 방식으로 구성될 수 있다. 이러한 구성들 각각은 전체적으로 대응하는 스크린 사이즈를 갖고, 이에 따라 컴퓨팅 장치(102)는 본 예시적 시스템(600)에서의 이들 장치 등급들 중 하나로서 구성될 수 있다. 예컨대, 컴퓨팅 장치(102)는 모바일 텔레폰, 뮤직 플레이어, 게임 장치 등을 포함하는 모바일(602) 등급의 장치를 상정할 수 있다.
또한, 컴퓨팅 장치(102)는 퍼스널 컴퓨터, 랩탑 컴퓨터, 노트북 등을 포함하는 컴퓨터(604) 등급의 장치를 상정할 수 있다. 텔레비전(606) 구성은, 캐주얼 환경(casual environment), 예컨대 텔레비전, 셋탑 박스, 게임 콘솔 등에서의 디스플레이를 포함하는 장치의 구성을 포함한다. 따라서, 여기에 개시된 기술들은 컴퓨팅 장치(102)의 이러한 다양한 구성에 의해 지원될 수 있고, 후속 섹션에서 설명되는 특정한 실시예에 한정되지 않는다.
클라우드(608)는 웹 서비스(612)를 위한 플랫폼(610)을 포함하는 것으로 도시되어 있다. 플랫폼(610)은 클라우드(608)의 하드웨어(예컨대, 서버) 및 소프트웨어 리소스의 아래 놓인 기능을 추출(abstract)하고, 이에 따라 "클라우드 운영체제"로서 작동할 수 있다. 예컨대, 플랫폼(610)은 컴퓨팅 장치(102)를 다른 컴퓨팅 장치들과 접속하기 위해 리소스를 추출할 수 있다. 또한, 플랫폼(610)은, 플랫폼(610)을 통해 구현되는 웹 서비스(612)를 위한 직면한 요구에 대한 대응하는 레벨의 스케일(scale)을 제공하기 위해 리소스의 스케일링(scaling)을 추출하는 역할을 할 수 있다. 서버 팜(server farm)에서의 서버의 로드 밸런싱(load balancing), 악의적인 단체(malicious party)(예컨대, 스팸, 바이러스, 및 다른 악성코드)에 대한 보호 등의 다양한 다른 예도 고려된다.
따라서, 인터넷 또는 다른 네트워크를 통해 컴퓨팅 장치(102)에 대해 이용가능하게 하는 소프트웨어 및 하드웨어 리소스에 관련되는 계획(strategy)의 일부로서 클라우드(608)가 포함된다. 예컨대, 여기서 논의되는 콘텍스트 스위칭을 위한 음성 인식 기술은 웹 서비스(612)를 지원하는 플랫폼(610)을 통해서 구현되는 것뿐만 아니라 컴퓨팅 장치(102) 상의 일부로 구현될 수 있다.
구현에서, 컴퓨팅 장치(102)에 대한 입력은, 컴퓨터(604) 구성의 트랙 패드(track pad) 기능, 모바일 구성(602)에서의 터치스크린 기능을 사용하여 검출되고, 특정한 입력 장치 등과의 접속을 포함하지 않는 NUI(natural user interface)의 지원의 일부로서 카메라에 의해 검출될 수 있다. 또한, 여기서 논의되는 기술을 구현하기 위한 동작의 퍼포먼스는 클라우드(608)의 플랫폼(610)에 의해 지원되는 웹 서비스(612) 및/또는 컴퓨팅 장치(102) 등에 의해 시스템(600)을 통해 배분될(distributed) 수 있다.
도 7은, 여기에 개시되는 콘텍스트 스위칭을 위한 음성 인식 기술의 실시형태를 구현하기 위해, 도 1과 도 6을 참조하여 설명한 바와 같은 휴대용 장치 및/또는 컴퓨터 장치 중 임의의 타입으로서 구현될 수 있는 예시적 장치(700)의 다양한 콤포넌트를 나타낸다. 장치(700)는 장치 데이터(704)(예컨대, 수신된 데이터, 수신되고 있는 데이터, 방송을 위해 스케쥴링된 데이터, 데이터의 데이터 패킷 등)의 유선 및/또는 무선 통신을 가능하게 하는 통신 장치(702)를 포함한다. 장치 데이터(704) 또는 다른 장치 콘텐츠는 장치의 구성 세팅, 장치 상에 저장된 매체 콘텐츠, 및/또는 장치의 유저와 연관된 정보를 포함할 수 있다. 장치(700)에 저장된 매체 콘텐츠는 오디오, 비디오, 및/또는 이미지 데이터 중 임의의 타입을 포함할 수 있다. 장치(700)는, 유저 선택가능 입력(user-selectable input), 메시지, 음악, 텔레비전 매체 콘텐츠, 기록된 비디오 콘텐츠, 및 임의의 콘텐츠 및/또는 데이터 소스로부터 수신되는 오디오, 비디오, 및/또는 이미지 데이터 중 임의의 다른 타입 등의 데이터, 매체 콘텐츠, 및/또는 입력 중 임의의 타입이 수신될 수 있는 하나 이상의 데이터 입력(706)을 포함한다.
또한, 장치(700)는 직렬 및/또는 병렬 인터페이스, 무선 인터페이스, 임의의 타입의 네트워크 인터페이스, 모뎀, 및 임의의 다른 타입의 통신 인터페이스 중 임의의 하나 이상으로서 구현될 수 있는 통신 인터페이스(708)를 포함한다. 통신 인터페이스(708)는, 장치(700)와 통신 네트워크 사이에 접속 및/또는 통신 링크를 제공하고, 이에 따라 다른 전자 장치, 컴퓨팅 장치, 및 통신 장치가 장치(700)와 데이터를 통신한다.
장치(700)는 장치(700)의 동작을 제어하고 상기 콘텍스트 스위칭 실시형태를 위한 음성 인식을 구현하기 위한 다양한 컴퓨터 실행가능 또는 판독가능 명령어를 프로세싱하는 하나 이상의 프로세서(710)(예컨대, 임의의 마이크로프로세서, 임의의 컨트롤러 등)를 포함한다. 대안 또는 추가로, 장치(700)는, 712에서 일반적으로 식별되는 프로세싱 및 제어 회로와의 접속으로 구현되는 고정 논리 회로, 펌웨어, 또는 하드웨어 중 임의의 하나 또는 조합으로 구현될 수 있다. 도시되지는 않았지만, 장치(700)는, 장치 내의 다양한 콤포넌트들을 연결하는 데이터 전송 시스템 또는 시스템 버스(system bus)를 포함할 수 있다. 시스템 버스는, 메모리 버스나 메모리 컨트롤러, 주변기기 버스, 범용 직렬 버스(universal serial bus), 및/또는 임의의 다양한 버스 아키텍처(bus architecture)를 사용하는 로컬 버스나 프로세서와 같은 상이한 버스 구조 중 임의의 하나 또는 조합을 포함할 수 있다.
또한, 장치(700)는, 예컨대 RAM(random access memory), 비휘발성 메모리[예컨대, ROM(read-only memory), 플래시 메모리, EPROM, EEPROM 중 임의의 하나 이상], 및 디스크 저장 장치를 포함하는 하나 이상의 메모리 콤포넌트와 같은 컴퓨터 판독가능 매체(714)를 포함한다. 디스크 저장 장치는, 하드 디스크 드라이브, 기록가능 및/또는 재기록가능 콤팩트 디스크(CD), 임의의 타입의 DVD(digital versatile disc) 등의 자기 또는 광학 저장 장치 중 임의의 타입으로서 구현될 수 있다. 또한, 장치(700)는 대량 저장 매체 장치(716)를 포함할 수 있다.
컴퓨터 판독가능 매체(714)는, 장치(700)의 동작 양상에 관련된 임의의 다른 타입의 정보 및/또는 데이터와 다양한 장치 애플리케이션(718)뿐만 아니라 장치 데이터(704)를 저장하기 위한 데이터 저장 기기를 제공한다. 예컨대, 운영체제(720)는, 컴퓨터 판독가능 매체(714)에 의해 컴퓨터 애플리케이션으로서 유지되고, 프로세서(710) 상에서 실행될 수 있다. 장치 애플리케이션(718)은, 웹 브라우저, 이미지 프로세싱 애플리케이션, 인스턴트 메시징 애플리케이션(instant messaging application), 워드 프로세싱 애플리케이션(word processing application)과 같은 통신 애플리케이션, 및 다양한 다른 애플리케이션을 포함할 수 있는 다른 애플리케이션뿐만 아니라 장치 매니저(예컨대, 제어 애플리케이션, 소프트웨어 애플리케이션, 신호 프로세싱 및 제어 모듈, 특정 장치에 고유한 코드, 특정 장치용 하드웨어 추상화 계층 등)를 포함할 수 있다. 또한, 장치 애플리케이션(718)은 여기에 개시된 콘텍스트 스위칭을 위한 음성 인식 기술의 실시형태를 구현하기 위한 시스템 콤포넌트 또는 모듈을 포함한다.
본 실시예에서, 장치 애플리케이션(718)은 소프트웨어 모듈 및/또는 컴퓨터 애플리케이션으로서 도시된 제스처 캡처(gesture-capture) 드라이버(724) 및 인터페이스 애플리케이션(722)을 포함한다. 제스처 캡처 드라이버(724)는 터치스크린, 트랙 패드, 카메라 등의 제스처를 캡처하도록 구성되는 장치와의 인터페이스를 제공하는데 사용되는 소프트웨어의 대표적인 사례이다. 대안 또는 추가로, 인터페이스 애플리케이션(722) 및 제스처 캡처 드라이버(724)는 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로서 구현될 수 있다.
또한, 디바이스(700)는, 오디오 시스템(728)에 오디오 데이터를 제공하고 그리고/또는 디스플레이 시스템(730)에 비디오 데이터를 제공하는 오디오 및/또는 비디오 입력-출력 시스템(726)을 포함한다. 오디오 시스템(728) 및/또는 디스플레이 시스템(730)은 오디오, 비디오, 및 이미지 데이터를 프로세싱하고, 디스플레이하고, 그리고/또는 렌더링(rendering)하는 임의의 장치를 포함할 수 있다. 비디오 신호 및 오디오 신호는, RF(radio frequency) 링크, S-비디오 링크, 복합 비디오 링크(composite video link), 콤포넌트 비디오 링크(component video link), DVI(digital video interface), 아날로그 오디오 접속 또는 다른 유사한 통신 링크를 통해, 장치(700)로부터 오디오 디바이스 및/또는 디스플레이 디바이스에 통신될 수 있다. 실시형태에서, 오디오 시스템(728) 및/또는 디스플레이 시스템(730)은 장치(700)에 대한 외부 콤포넌트로서 구현된다. 대안으로서, 오디오 시스템(728) 및/또는 디스플레이 시스템(730)은 예시적 장치(700)의 내부 콤포넌트로서 구현된다.
결론
다양한 실시형태는 콘텍스트 스위칭을 위한 음성 인식을 위한 기술들을 제공한다. 구조적 피쳐(feature) 또는 방법론적 동작에 대하여 특정한 랭귀지로 대상(subject matter)을 설명했지만, 특허청구범위에서 규정된 대상은 특정한 피쳐 또는 동작에 한정될 필요가 없다는 것이 이해될 것이다. 대신 상기 특정한 피쳐 및 동작은 특허청구범위를 구현하는 예시적 형태로서 개시된다.

Claims (20)

  1. 컴퓨터 구현 방법에 있어서,
    말해진 트리거 워드(trigger word)의 인식에 응답하여, 게임 애플리케이션을 위한 애플리케이션 콘텍스트(context)와 연관된 유저 인터페이스 내에 콘텍스트 메뉴를 표시하는(presenting) 단계;
    적어도 하나의 다른 애플리케이션 콘텍스트를 식별하기 위해, 상기 게임 애플리케이션이 실행가능한 디바이스의 속성(attribute)들에 기초하여 상기 게임 애플리케이션에 대한 애플리케이션 콘텍스트들의 세트를 필터링하는 단계로서, 상기 속성들은 상기 적어도 하나의 다른 애플리케이션 콘텍스트를 결정하기 위해 사용되는 콘텍스트 특유의(context-specific) 기준의 세트를 나타내고, 상기 속성들은 상기 디바이스의 문턱 프로세싱 능력(threshold processing capability) 및 상기 디바이스의 네트워크 접속의 대역폭을 포함하고, 상기 콘텍스트 특유의 기준은 상기 게임 애플리케이션의 하나 이상의 속성들 또는 상기 디바이스의 유저의 하나 이상의 속성들을 포함하는 것인, 상기 애플리케이션 콘텍스트들의 세트를 필터링하는 단계;
    상기 적어도 하나의 다른 애플리케이션 콘텍스트가 음성 입력 명령을 통해 조종될 수 있도록(navigable), 상기 콘텍스트 메뉴의 일부로서 상기 적어도 하나의 다른 애플리케이션 콘텍스트를 표시하는 단계;
    상기 말해진 트리거 워드의 상기 인식 이후의 특정한 시간 간격 내에, 상기 적어도 하나의 다른 애플리케이션 콘텍스트와 연관된 콘텍스트 워드(context word)의 음성 입력을 인식하는 단계; 및
    상기 특정한 시간 간격 내의 상기 콘텍스트 워드의 음성 입력의 인식에 응답하여, 상기 애플리케이션 콘텍스트와 연관된 유저 인터페이스로부터 상기 적어도 하나의 다른 애플리케이션 콘텍스트와 연관된 유저 인터페이스로 조종하는(navigating) 단계
    를 포함하는, 컴퓨터 구현 방법.
  2. 제1항에 있어서,
    상기 애플리케이션 콘텍스트와 연관된 유저 인터페이스는 상기 적어도 하나의 다른 애플리케이션 콘텍스트와 연관된 유저 인터페이스와 상이한 게임 기능 세트를 포함하는 것인, 컴퓨터 구현 방법.
  3. 제1항에 있어서,
    상기 게임 애플리케이션의 속성들은 상기 게임 애플리케이션의 버전(version)을 포함하는 것인, 컴퓨터 구현 방법.
  4. 제1항에 있어서,
    상기 디바이스의 상기 하나 이상의 속성들은 상기 디바이스의 네트워크 접속 상태를 더 포함하는 것인, 컴퓨터 구현 방법.
  5. 제1항에 있어서,
    상기 유저의 속성들은 상기 유저와 연관된 상기 게임 애플리케이션에 대한 어카운트 멤버쉽 레벨(account membership level), 상기 유저와 연관된 접근 허가들, 또는 상기 유저의 나이 중 하나 이상을 포함하는 것인, 컴퓨터 구현 방법.
  6. 제1항에 있어서,
    상기 조종하는 단계는, 상기 인식에 응답하여 그리고 유저로부터의 추가 입력과는 독립적으로 발생하는 것인, 컴퓨터 구현 방법.
  7. 컴퓨터 구현 방법에 있어서,
    게임 애플리케이션이 실행될 수 있는 디바이스의 속성들 및 상기 디바이스의 유저의 속성들에 기초하여 상기 게임 애플리케이션에 대한 콘텍스트 옵션들의 세트를 필터링하는 단계로서, 상기 디바이스의 속성들은 기존 네트워크 접속의 대역폭 및 상기 디바이스에 대한 문턱 프로세싱 능력을 포함하고, 상기 디바이스의 속성들 및 상기 유저의 속성들은 상기 게임 애플리케이션에 대한 상이한 애플리케이션 콘텍스트들을 결정하기 위해 사용되는 콘텍스트 특유의 기준의 세트를 나타내는 것인, 상기 게임 애플리케이션에 대한 콘텍스트 옵션들의 세트를 필터링하는 단계;
    상기 필터링에 기초하여 상기 게임 애플리케이션에 대한 이용가능한 콘텍스트 옵션들의 세트 - 상기 이용가능한 콘텍스트 옵션들은 상기 콘텍스트 옵션들의 세트의 서브셋을 포함함 - 를 생성하는 단계;
    상기 이용가능한 콘텍스트 옵션들의 세트 중 하나 이상의 이용가능한 콘텍스트 옵션들을 선택가능하게 하는 단계; 및
    상기 이용가능한 콘텍스트 옵션들의 세트로부터 이용가능한 콘텍스트 옵션의 음성 명령을 통한 유저 선택에 응답하여, 상기 게임 애플리케이션의 제1 콘텍스트와 연관된 유저 인터페이스로부터 상기 게임 애플리케이션의 제2 콘텍스트 - 상기 제1 콘텍스트는 상기 제2 콘텍스트와 상이함 - 와 연관된 유저 인터페이스로 조종하는 단계
    를 포함하는, 컴퓨터 구현 방법.
  8. 제7항에 있어서,
    상기 필터링하는 단계는, 상기 게임 애플리케이션과 연관된 트리거 워드의 음성 인식에 응답하여 발생하는 것인, 컴퓨터 구현 방법.
  9. 제7항에 있어서,
    상기 하나 이상의 이용가능한 콘텍스트 옵션들을 선택가능하게 하는 단계는, 상기 이용가능한 콘텍스트 옵션들의 세트 중 상기 하나 이상의 이용가능한 콘텍스트 옵션들을 포함하는 콘텍스트 메뉴가 디스플레이되게 하는 단계를 포함하는 것인, 컴퓨터 구현 방법.
  10. 제9항에 있어서,
    상기 콘텍스트 메뉴가 디스플레이되게 하는 단계는, 상기 콘텍스트 메뉴를 상기 제1 콘텍스트와 연관된 유저 인터페이스의 일부로서 디스플레이되게 하는 단계를 포함하는 것인, 컴퓨터 구현 방법.
  11. 제7항에 있어서,
    상기 하나 이상의 이용가능한 콘텍스트 옵션들을 선택가능하게 하는 단계는, 상기 하나 이상의 이용가능한 콘텍스트 옵션들을, 상기 하나 이상의 이용가능한 콘텍스트 옵션들이 디스플레이되는 것과는 독립적으로 선택가능하게 하는 단계를 포함하는 것인, 컴퓨터 구현 방법.
  12. 제7항에 있어서,
    상기 제1 콘텍스트와 연관된 유저 인터페이스는, 상기 제2 콘텍스트와 연관된 유저 인터페이스와 상이한 게임 기능 세트와 연관되는 것인, 컴퓨터 구현 방법.
  13. 시스템에 있어서,
    하나 이상의 프로세서들; 및
    상기 시스템으로 하여금 동작들을 수행하게 하도록 상기 하나 이상의 프로세서들에 의해 실행가능한 게임 애플리케이션을 저장하는 하나 이상의 컴퓨터 판독가능 저장 매체
    를 포함하고,
    상기 동작들은,
    상기 게임 애플리케이션의 제1 게임 콘텍스트와 연관된 유저 인터페이스가 컴퓨팅 디바이스 상에 디스플레이되는 동안 트리거 워드의 음성 입력의 표시를 수신하는 동작;
    하나 이상의 이용가능한 게임 콘텍스트들의 세트를 생성하기 위해 상기 게임 애플리케이션에 대한 하나 이상의 필터링 기준을 사용하여 게임 콘텍스트들의 세트를 필터링하는 동작으로서, 상기 필터링 기준은 상기 컴퓨팅 디바이스의 하나 이상의 속성들을 포함하고, 상기 하나 이상의 속성들은 상기 컴퓨팅 디바이스의 문턱 프로세싱 능력 및 상기 컴퓨팅 디바이스에 대한 네트워크 접속의 대역폭을 포함하는 것인, 상기 게임 콘텍스트들의 세트를 필터링하는 동작;
    상기 하나 이상의 이용가능한 게임 콘텍스트들의 세트가 상기 제1 게임 콘텍스트와 연관된 유저 인터페이스의 일부로서 디스플레이되게 하는 동작; 및
    상기 트리거 워드의 상기 음성 입력 이후의 특정한 시간 간격 내에 상기 이용가능한 게임 콘텍스트들 중 하나 이상의 게임 콘텍스트의 음성 선택의 표시에 응답하여, 상기 게임 애플리케이션의 제2 게임 콘텍스트와 연관된 유저 인터페이스로 조종하는 동작
    을 포함하는 것인, 시스템.
  14. 제13항에 있어서,
    상기 제1 게임 콘텍스트 또는 상기 제2 게임 콘텍스트 중 하나는 게임 커스터마이제이션(customization) 기능과 연관되고, 상기 제1 게임 콘텍스트 또는 상기 제2 게임 콘텍스트 중 다른 하나는 게임 플레이 기능과 연관되는 것인, 시스템.
  15. 제13항에 있어서,
    상기 필터링 기준은 상기 컴퓨팅 디바이스의 유저의 하나 이상의 속성들을 더 포함하는 것인, 시스템.
  16. 제13항에 있어서,
    상기 필터링 기준은 상기 컴퓨팅 디바이스의 활성 네트워크 접속의 대역폭을 더 포함하는 것인, 시스템.
  17. 제13항에 있어서,
    상기 필터링 기준은 상기 컴퓨팅 디바이스의 유저에 대한 어카운트 멤버쉽 레벨, 상기 유저와 연관된 접근 허가들, 또는 상기 유저의 나이 중 하나 이상을 더 포함하는 것인, 시스템.
  18. 제7항에 있어서,
    상기 디바이스의 유저의 속성들은 상기 유저에 대한 어카운트 멤버쉽 레벨, 상기 유저와 연관된 접근 허가, 또는 상기 유저의 나이 중 하나 이상을 포함하는 것인, 컴퓨터 구현 방법.
  19. 제7항에 있어서,
    제1 게임 콘텍스트 또는 제2 게임 콘텍스트 중 하나는 게임 커스터마이제이션(customization) 기능과 연관되고, 상기 제1 게임 콘텍스트 또는 상기 제2 게임 콘텍스트 중 다른 하나는 게임 플레이 기능과 연관되는 것인, 컴퓨터 구현 방법.
  20. 제13항에 있어서,
    상기 필터링하는 동작은 또한, 상기 컴퓨팅 디바이스의 유저의 하나 이상의 속성들에 기초하는 것인, 시스템.
KR1020147012404A 2011-10-10 2012-10-10 콘텍스트 스위칭을 위한 음성 인식 KR102078889B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/270,018 US9256396B2 (en) 2011-10-10 2011-10-10 Speech recognition for context switching
US13/270,018 2011-10-10
PCT/US2012/059410 WO2013055709A1 (en) 2011-10-10 2012-10-10 Speech recognition for context switching

Publications (2)

Publication Number Publication Date
KR20140082790A KR20140082790A (ko) 2014-07-02
KR102078889B1 true KR102078889B1 (ko) 2020-04-02

Family

ID=47968193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147012404A KR102078889B1 (ko) 2011-10-10 2012-10-10 콘텍스트 스위칭을 위한 음성 인식

Country Status (7)

Country Link
US (1) US9256396B2 (ko)
EP (1) EP2766791B1 (ko)
JP (1) JP2015501441A (ko)
KR (1) KR102078889B1 (ko)
CN (1) CN103019535B (ko)
TW (1) TWI601128B (ko)
WO (1) WO2013055709A1 (ko)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9737796B2 (en) 2009-07-08 2017-08-22 Steelseries Aps Apparatus and method for managing operations of accessories in multi-dimensions
US8719714B2 (en) 2009-07-08 2014-05-06 Steelseries Aps Apparatus and method for managing operations of accessories
US9604147B2 (en) 2013-03-15 2017-03-28 Steelseries Aps Method and apparatus for managing use of an accessory
US9687730B2 (en) 2013-03-15 2017-06-27 Steelseries Aps Gaming device with independent gesture-sensitive areas
US9423874B2 (en) 2013-03-15 2016-08-23 Steelseries Aps Gaming accessory with sensory feedback device
JP6229287B2 (ja) * 2013-04-03 2017-11-15 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9530410B1 (en) 2013-04-09 2016-12-27 Google Inc. Multi-mode guard for voice commands
US20140329589A1 (en) * 2013-05-03 2014-11-06 Steelseries Aps Method and apparatus for configuring a gaming environment
CN105122181B (zh) * 2013-05-16 2018-12-18 英特尔公司 用于基于情景的自然用户接口输入的技术
US9384013B2 (en) * 2013-06-03 2016-07-05 Microsoft Technology Licensing, Llc Launch surface control
US9747899B2 (en) * 2013-06-27 2017-08-29 Amazon Technologies, Inc. Detecting self-generated wake expressions
CN103442138A (zh) * 2013-08-26 2013-12-11 华为终端有限公司 语音控制方法、装置及终端
US9720567B2 (en) 2014-02-17 2017-08-01 Microsoft Technology Licensing, Llc Multitasking and full screen menu contexts
US9082407B1 (en) * 2014-04-15 2015-07-14 Google Inc. Systems and methods for providing prompts for voice commands
ES2703338T3 (es) * 2014-04-17 2019-03-08 Softbank Robotics Europe Ejecución de aplicaciones de software en un robot
CN104225916A (zh) * 2014-09-25 2014-12-24 苏州乐聚一堂电子科技有限公司 尖锐声音感应游戏系统
JP6229071B2 (ja) 2014-10-24 2017-11-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置、制御方法、プログラム及び情報記憶媒体
CN107077846B (zh) * 2014-10-24 2021-03-16 索尼互动娱乐股份有限公司 控制装置、控制方法、程序和信息存储介质
US10293260B1 (en) * 2015-06-05 2019-05-21 Amazon Technologies, Inc. Player audio analysis in online gaming environments
US10019992B2 (en) * 2015-06-29 2018-07-10 Disney Enterprises, Inc. Speech-controlled actions based on keywords and context thereof
US10049666B2 (en) * 2016-01-06 2018-08-14 Google Llc Voice recognition system
US20170315849A1 (en) * 2016-04-29 2017-11-02 Microsoft Technology Licensing, Llc Application target event synthesis
US11416212B2 (en) * 2016-05-17 2022-08-16 Microsoft Technology Licensing, Llc Context-based user agent
CN106205612B (zh) * 2016-07-08 2019-12-24 北京光年无限科技有限公司 面向智能机器人的信息处理方法及系统
US10845956B2 (en) * 2017-05-31 2020-11-24 Snap Inc. Methods and systems for voice driven dynamic menus
US10547708B2 (en) 2017-10-25 2020-01-28 International Business Machines Corporation Adding conversation context from detected audio to contact records
CN111627436B (zh) * 2018-05-14 2023-07-04 北京字节跳动网络技术有限公司 一种语音控制的方法及装置
US11134308B2 (en) 2018-08-06 2021-09-28 Sony Corporation Adapting interactions with a television user
KR102563314B1 (ko) * 2018-08-30 2023-08-04 삼성전자주식회사 전자 장치 및 단축 명령어의 바로가기 생성 방법
CN109788360A (zh) * 2018-12-12 2019-05-21 百度在线网络技术(北京)有限公司 基于语音的电视控制方法和装置
CN109847348B (zh) * 2018-12-27 2022-09-27 努比亚技术有限公司 一种操作界面的操控方法及移动终端、存储介质
US11367444B2 (en) 2020-01-07 2022-06-21 Rovi Guides, Inc. Systems and methods for using conjunctions in a voice input to cause a search application to wait for additional inputs
US11604830B2 (en) * 2020-01-07 2023-03-14 Rovi Guides, Inc. Systems and methods for performing a search based on selection of on-screen entities and real-world entities
CN112397069A (zh) * 2021-01-19 2021-02-23 成都启英泰伦科技有限公司 一种语音遥控方法及装置
CN114121013A (zh) * 2021-12-07 2022-03-01 杭州逗酷软件科技有限公司 语音控制方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060069561A1 (en) 2004-09-10 2006-03-30 Beattie Valerie L Intelligent tutoring feedback
US20060190270A1 (en) 2001-05-14 2006-08-24 Sony Computer Entertainment America Inc. Menu-driven voice control of characters in a game environment

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4984177A (en) * 1988-02-05 1991-01-08 Advanced Products And Technologies, Inc. Voice language translator
GB2310970A (en) * 1996-03-05 1997-09-10 Ibm Voice mail on the Internet
US6021403A (en) 1996-07-19 2000-02-01 Microsoft Corporation Intelligent user assistance facility
US7085710B1 (en) * 1998-01-07 2006-08-01 Microsoft Corporation Vehicle computer system audio entertainment system
JP2000076085A (ja) * 1998-08-28 2000-03-14 Nec Software Kobe Ltd 情報処理装置とリソース不足通知方法および記録媒体
TW495710B (en) * 1998-10-15 2002-07-21 Primax Electronics Ltd Voice control module for control of game controller
JP2000148177A (ja) * 1998-11-06 2000-05-26 Harness Syst Tech Res Ltd 車載用操作入力装置および入力方法
JP2000181676A (ja) * 1998-12-11 2000-06-30 Nintendo Co Ltd 画像処理装置
US6937984B1 (en) * 1998-12-17 2005-08-30 International Business Machines Corporation Speech command input recognition system for interactive computer display with speech controlled display of recognized commands
US6862347B1 (en) * 1999-01-28 2005-03-01 Siemens Communications, Inc. Method and apparatus for extending a telephone's capabilities
JP4292646B2 (ja) * 1999-09-16 2009-07-08 株式会社デンソー ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
US6554707B1 (en) 1999-09-24 2003-04-29 Nokia Corporation Interactive voice, wireless game system using predictive command input
JP3343099B2 (ja) * 2000-03-08 2002-11-11 株式会社コナミコンピュータエンタテインメント大阪 キャラクタ育成制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US6785653B1 (en) 2000-05-01 2004-08-31 Nuance Communications Distributed voice web architecture and associated components and methods
US20020023265A1 (en) 2000-08-08 2002-02-21 Metcalf Darrell J. Wireless controller with publicly-accessible communications link for controlling the content seen on large-screen systems
US7162426B1 (en) * 2000-10-02 2007-01-09 Xybernaut Corporation Computer motherboard architecture with integrated DSP for continuous and command and control speech processing
GB2372864B (en) 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
WO2002099597A2 (en) 2001-06-07 2002-12-12 Unwired Express, Inc. Method and system for providing context awareness
US7369997B2 (en) * 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
EP1604350A4 (en) 2002-09-06 2007-11-21 Voice Signal Technologies Inc METHODS, SYSTEMS AND PROGRAMMING FOR REALIZING VOICE RECOGNITION
US7720683B1 (en) * 2003-06-13 2010-05-18 Sensory, Inc. Method and apparatus of specifying and performing speech recognition operations
JP2005080385A (ja) * 2003-08-29 2005-03-24 Toshiba Corp 情報処理装置及び情報処理装置のバッテリ残容量表示方法
US20060041926A1 (en) 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
US7408886B2 (en) * 2004-09-20 2008-08-05 Sony Ericsson Mobile Communication Ab Method for providing mobile phone user with accurate capability indicator
US8825482B2 (en) * 2005-09-15 2014-09-02 Sony Computer Entertainment Inc. Audio, video, simulation, and user interface paradigms
EP1857930A3 (en) 2006-05-17 2008-07-23 Ipreo Holdings LLC System, method, and apparatus to allow for a design, administration, and presentation of computer software applications
US8751672B2 (en) * 2006-06-21 2014-06-10 Verizon Data Services Llc Personal video channels
WO2008084575A1 (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corporation 車載用音声認識装置
US7822608B2 (en) 2007-02-27 2010-10-26 Nuance Communications, Inc. Disambiguating a speech recognition grammar in a multimodal application
US8538757B2 (en) 2007-05-17 2013-09-17 Redstart Systems, Inc. System and method of a list commands utility for a speech recognition command system
US20090013275A1 (en) 2007-07-05 2009-01-08 Darrell May System and method for quick view of application data on a home screen interface triggered by a scroll/focus action
US8825468B2 (en) * 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
KR100884765B1 (ko) * 2007-12-06 2009-02-23 주식회사 드리머 서비스 제공 환경 분석 기반 메뉴 디스플레이 방법과 이를실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한기록 매체
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8117551B2 (en) 2007-12-18 2012-02-14 International Business Machines Corporation Computer system and method of using presence visualizations of avatars as persistable virtual contact objects
US8358302B2 (en) 2008-04-22 2013-01-22 International Business Machines Corporation Dynamic creation of virtual regions
US8224653B2 (en) * 2008-12-19 2012-07-17 Honeywell International Inc. Method and system for operating a vehicular electronic system with categorized voice commands
US8196174B2 (en) * 2008-12-23 2012-06-05 At&T Intellectual Property I, L.P. Navigation method and system to provide a navigation interface
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
KR101612788B1 (ko) 2009-11-05 2016-04-18 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8676581B2 (en) * 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8700594B2 (en) * 2011-05-27 2014-04-15 Microsoft Corporation Enabling multidimensional search on non-PC devices
US8657680B2 (en) * 2011-05-31 2014-02-25 United Video Properties, Inc. Systems and methods for transmitting media associated with a measure of quality based on level of game play in an interactive video gaming environment
US9037601B2 (en) * 2011-07-27 2015-05-19 Google Inc. Conversation system and method for performing both conversation-based queries and message-based queries

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060190270A1 (en) 2001-05-14 2006-08-24 Sony Computer Entertainment America Inc. Menu-driven voice control of characters in a game environment
US20060069561A1 (en) 2004-09-10 2006-03-30 Beattie Valerie L Intelligent tutoring feedback

Also Published As

Publication number Publication date
TW201320057A (zh) 2013-05-16
CN103019535A (zh) 2013-04-03
US20130090930A1 (en) 2013-04-11
EP2766791A1 (en) 2014-08-20
EP2766791B1 (en) 2017-05-31
WO2013055709A1 (en) 2013-04-18
CN103019535B (zh) 2016-12-21
US9256396B2 (en) 2016-02-09
KR20140082790A (ko) 2014-07-02
TWI601128B (zh) 2017-10-01
JP2015501441A (ja) 2015-01-15
EP2766791A4 (en) 2015-03-18

Similar Documents

Publication Publication Date Title
KR102078889B1 (ko) 콘텍스트 스위칭을 위한 음성 인식
CN109196464B (zh) 基于上下文的用户代理
US9542949B2 (en) Satisfying specified intent(s) based on multimodal request(s)
US9223472B2 (en) Closing applications
KR101885680B1 (ko) 이머시브 애플리케이션으로서의 데스크탑
US20120304102A1 (en) Navigation of Immersive and Desktop Shells
KR20210134675A (ko) 사용자 시연을 통하여 명령들을 학습하고 실행 가능하게 하기 위한 방법 및 시스템
JP2014523056A (ja) オンデマンドタブ回復
CN111464430B (zh) 一种动态表情展示方法、动态表情创建方法及装置
US8850342B2 (en) Splitting avatars in a virtual world
CN102981818A (zh) 基于情境的动画库
JP7270008B2 (ja) ゲーム提供方法、コンピュータプログラム、コンピュータ読取可能な記録媒体、およびコンピュータ装置
KR20140109926A (ko) 입력 포인터 지연 기법
US20150293888A1 (en) Expandable Application Representation, Milestones, and Storylines
JP2019155103A (ja) ゲームリプレイ方法およびシステム
JP7333363B2 (ja) ゲーム提供方法、コンピュータプログラム、コンピュータ読取可能な記録媒体、及びコンピュータ装置
US8990726B2 (en) Text box clearing selector
CN112799754B (zh) 信息处理方法、装置、存储介质及计算机设备
CN113986377A (zh) 壁纸交互方法、装置及电子设备
CN111427529A (zh) 交互方法、装置、设备及存储介质
KR102497432B1 (ko) 연속 자동 전투 및 수동 전투간 전환을 이용한 게임 제공 방법 및 시스템
CN117150166A (zh) 页面交互方法、装置、电子设备和计算机可读存储介质
CN116909451A (zh) 分享方法、装置及电子设备
CN117729366A (zh) 直播交互方法、装置、计算机设备及计算机可读存储介质

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant