KR102334340B1 - 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성 - Google Patents

레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성 Download PDF

Info

Publication number
KR102334340B1
KR102334340B1 KR1020197037168A KR20197037168A KR102334340B1 KR 102334340 B1 KR102334340 B1 KR 102334340B1 KR 1020197037168 A KR1020197037168 A KR 1020197037168A KR 20197037168 A KR20197037168 A KR 20197037168A KR 102334340 B1 KR102334340 B1 KR 102334340B1
Authority
KR
South Korea
Prior art keywords
client device
data
processing system
network
digital assistant
Prior art date
Application number
KR1020197037168A
Other languages
English (en)
Other versions
KR20200006593A (ko
Inventor
지안 웨이 렁
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Priority to KR1020217038736A priority Critical patent/KR102366753B1/ko
Publication of KR20200006593A publication Critical patent/KR20200006593A/ko
Application granted granted Critical
Publication of KR102334340B1 publication Critical patent/KR102334340B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

본 발명은 일반적으로 음성 작동 컴퓨터 네트워크 환경에서 데이터 패킷을 처리하기 위한 데이터 처리 시스템에 관한 것이다. 데이터 처리 시스템은 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는 경우 클라이언트 디바이스로부터 수신된 음성 커맨드에 대한 비-비디오 데이터 응답을 생성함으로써 네트워크의 효율을 향상시킬 수 있다. 클라이언트 디바이스에서 실행되는 디지털 어시스턴트 애플리케이션은 클라이언트 디바이스의 다른 컴포넌트의 상태 데이터 중에서 디스플레이 디바이스의 상태를 포함하는 데이터 처리 시스템 클라이언트 디바이스 구성 데이터를 전송할 수 있다. 데이터 처리 시스템은 클라이언트 디바이스와 관련된 스피커의 현재 볼륨을 수신하고, 클라이언트 디바이스에서의 현재 볼륨 레벨 및 최소 응답 볼륨 레벨에 기초하여 클라이언트 디바이스에 대한 볼륨 레벨을 설정할 수 있다.

Description

레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성
컴퓨팅 디바이스들 간의 네트워크 트래픽 데이터의 패킷 기반 또는 기타의 과도한 네트워크 전송은 컴퓨팅 디바이스가 네트워크 트래픽 데이터를 적절히 처리하거나, 네트워크 트래픽 데이터와 관련된 동작을 완료하거나, 네트워크 트래픽 데이터에 적시에 응답하지 못하게 할 수 있다. 네트워크 트래픽 데이터의 과도한 네트워크 전송은 또한 응답하는 컴퓨팅 디바이스가 처리 용량 이상인 경우 데이터 라우팅을 복잡하게 하거나 응답 품질을 저하시켜 비효율적인 대역폭 사용을 초래할 수 있다.
본 발명(disclosure)의 일 양태에 따르면, 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 시스템이 제공된다. 이 시스템은 클라이언트 디바이스의 프로세서에 의해 실행되어 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 상기 클라이언트 디바이스의 센서에 의해 검출된 제 1 입력 오디오 신호 및 제 1 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 전송하는 디지털 어시스턴트 애플리케이션을 포함한다. 시스템은 또한 데이터 처리 시스템에 의해 실행되어 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 데이터 패킷을 수신하는 자연어 프로세서 컴포넌트를 포함하고, 상기 자연어 프로세서 컴포넌트는 제 1 입력 오디오 신호를 파싱하여 제 1 요청 및 그 제 1 요청에 대응하는 제 1 트리거 키워드를 식별한다. 시스템은 데이터 처리 시스템에 의해 실행되어 제 1 클라이언트 디바이스 구성 데이터로부터 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는지 결정하는 클라이언트 디바이스 구성 기기를 더 포함한다. 상기 구성 애플리케이션은 데이터 처리 시스템에 의해 실행되어, 상기 제 1 트리거 키워드 및 상기 디스플레이의 오프 상태에 부분적으로 기초하여, 오디오 데이터는 포함하고 상기 제 1 요청에 응답하는 비디오 데이터는 포함하지 않는 제1 응답 데이터 구조를 생성하고, 그리고 상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 응답 데이터 구조를 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송한다.
본 발명의 일 양태에 따르면, 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 방법이 제공된다. 이 방법은 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에 의해, 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 클라이언트 디바이스의 센서에 의해 검출된 제 1 입력 오디오 신호 및 제 1 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 전송하는 단계를 포함한다. 이 방법은 데이터 처리 시스템에 의해 실행되는 자연어 프로세서 컴포넌트에서, 상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 데이터 패킷을 수신하는 단계를 ㄷ더 포함하고, 상기 자연어 프로세서 컴포넌트는 제 1 입력 오디오 신호를 파싱하여 제 1 요청 및 그 제 1 요청에 대응하는 제 1 트리거 키워드를 식별한다. 방법은 또한 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기에서, 상기 제 1 클라이언트 디바이스 구성 데이터로부터 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는지 결정하는 단계를 포함한다. 방법은 클라이언트 디바이스 구성 기기에서, 상기 제 1 트리거 키워드 및 상기 디스플레이의 오프 상태에 부분적으로 기초하여, 오디오 데이터는 포함하고 상기 제 1 요청에 응답하는 비디오 데이터는 포함하지 않는 제 1 응답 데이터 구조를 생성하는 단계를 더 포함한다. 방법은 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 응답 데이터 구조를 상기 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계를 추가로 포함한다.
이들 및 다른 측면 및 구현은 아래에서 상세하게 논의된다. 전술한 정보 및 다음의 상세한 설명은 다양한 양태 및 구현의 예시적인 예를 포함하고 청구된 양태 및 구현의 특성 및 특성을 이해하기 위한 개요 또는 프레임 워크를 제공한다. 도면은 다양한 양태 및 구현에 대한 예시 및 추가 이해를 제공하며, 본 명세서에 포함되어 본 명세서의 일부를 구성한다.
첨부된 도면은 실제 크기대로 도시된 것이 아니다. 다양한 도면에서 유사한 참조 번호 및 명칭은 유사한 요소를 나타낸다. 명확성을 위해, 모든 도면에 모든 컴포넌트(구성 요소)가 표시되는 것은 아니다.
도 1은 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하기 위한 예시적인 시스템을 도시한다.
도 2는 예시적인 클라이언트 디바이스의 블록도를 도시한다.
도 3은 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 방법의 흐름도를 도시한다.
도 4는 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 방법의 흐름도를 도시한다.
도 5는 예시적인 컴퓨터 시스템의 블록도이다.
다음은 음성 작동(activated) 데이터 패킷(또는 다른 프로토콜) 기반 컴퓨터 네트워크 환경에서 패킷화된 데이터의 다중-모달(multi-modal) 전송을 위한 방법, 장치 및 시스템과 관련된 다양한 개념과 구현의 다양한 개념에 대한 보다 상세한 설명이다. 위에서 소개되고 아래에서 더 상세하게 논의되는 다양한 개념은 수 많은 방식으로 구현될 수 있다.
본 발명은 일반적으로 이종 컴퓨팅 자원에 대한 정보 전송 및 처리의 효율 및 효과를 개선하는 것에 관한 것이다. 음성 기반 컴퓨팅 환경에서 이종 컴퓨팅 자원이 오디오 기반 명령에 대한 응답을 효율적으로 처리하는 것은 어려운 일이다. 예를 들어, 이종 컴퓨팅 자원은 디스플레이와 스피커를 모두 포함하는 클라이언트 디바이스들에 대한 오디오 기반 명령을 수신할 수 있다. 오디오 컴포넌트 외에 시각적 컴포넌트를 포함하는 클라이언트 디바이스 응답을 생성 및 전송하는 것은 컴퓨팅 자원을 소비할 수 있고, 클라이언트 디바이스에서 상기 명령에 대한 응답 시간에 영향을 줄 수 있다.
본 솔루션은 클라이언트 디바이스로부터 수신된 구성 데이터에 부분적으로 기초하여 음성 기반 명령에 대한 응답을 생성함으로써 자원 소비, 프로세서 이용, 배터리 소비 또는 대역폭 이용을 감소시킬 수 있다. 특히, 데이터 처리 시스템은 클라이언트 디바이스의 디스플레이가 오프(OFF)로 스위칭되면 시각적 응답을 생성하는 것을 미리 줄일 수 있다.
본 발명의 시스템 및 방법은 일반적으로 패킷화된 액션을 컴퓨터 네트워크를 통해 라우팅하는 데이터 처리 시스템에 관한 것이다. 데이터 처리 시스템은 음성 기반 명령이 수신되는 클라이언트 디바이스의 구성에 부분적으로 기초하여 음성 기반 명령을 처리할 수 있다. 예를 들어, 텔레비전(TV)과 같이 클라이언트 디바이스상에서 실행되는 디지털 어시스턴트(디지털 비서)는 사용자로부터 음성 기반 명령을 획득하여, TV의 디스플레이가 온(ON) 상태인지 오프 상태인지 여부와 같은 TV와 관련된 구성 데이터에 부가하여 음성 기반 명령을 전송할 수 있다. 데이터 처리 시스템은 음성 기반 명령을 처리하고 디스플레이의 상태에 부분적으로 기초하여 응답을 생성할 수 있다. 예를 들어, 디스플레이의 상태가 오프이면, 데이터 처리 시스템은 오디오 컴포넌트(구성 요소)를 포함하지만 비디오 컴포넌트를 포함하지 않는 응답을 생성할 수 있다.
본 솔루션은 클라이언트 디바이스로부터 수신된 구성 데이터에 부분적으로 기초하여 음성 기반 명령에 대한 응답을 생성함으로써 자원 소비, 프로세서 이용, 배터리 소비 또는 대역폭 이용을 감소시킬 수 있다. 특히, 데이터 처리 시스템은 클라이언트 디바이스의 디스플레이가 오프로 스위칭되면 시각적 응답을 생성하는 것을 미리 줄일 수 있다.
도 1은 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하기 위한 예시적인 시스템(100)을 도시한다. 시스템(100)은 적어도 하나의 데이터 처리 시스템(102), 하나 이상의 클라이언트 컴퓨팅 디바이스(128)("클라이언트 디바이스(128)")를 포함할 수 있다. 데이터 처리 시스템(102)은 인터페이스(104)를 포함할 수 있다. 데이터 처리 시스템(102)은 오디오 기반 입력을 파싱하기 위해 자연어 프로세서(Natural Language Processor: NLP) 컴포넌트(106)를 포함할 수 있다. 데이터 처리 시스템(102)은 시스템(100)에서 다른 디바이스의 인터페이스를 검출하고 관리하기 위한 인터페이스 관리 컴포넌트(108)를 포함할 수 있다. 데이터 처리 시스템(102)은 오디오 기반 신호를 생성하기 위한 오디오 신호 생성기 컴포넌트(110)를 포함할 수 있다. 데이터 처리 시스템(102)은 비디오 기반 신호를 생성하기 위한 비디오 신호 생성기 컴포넌트(150)를 포함할 수 있다. 데이터 처리 시스템(102)은 다이렉트 액션 애플리케이션 프로그래밍 인터페이스(API)(112)를 포함할 수 있다. 데이터 처리 시스템(102)은 오디오 기반 입력 신호에 대한 응답을 선택하기 위한 응답 선택기 컴포넌트(114)를 포함할 수 있다. 데이터 처리 시스템(102)은 클라이언트 디바이스 구성 기기(appliance)(116)를 포함할 수 있다. 데이터 처리 시스템(102)은 데이터 처리 시스템(102)이 파라미터(120), 정책(122), 응답 데이터(124) 및 템플릿(126)을 저장할 수 있는 데이터 저장소(repository)(118)를 포함할 수 있다. 클라이언트 디바이스(128)는 데이터 처리 시스템(102)의 컴포넌트들의 인스턴스를 포함하고 실행할 수 있다.
클라이언트 디바이스(128)는 센서(130), 스피커(132) 및 디스플레이(140)를 포함할 수 있다. 클라이언트 디바이스(128)는 또한 NLP 컴포넌트(106)의 인스턴스를 실행할 수 있다. 시스템(100)은 또한 하나 이상의 데이터 제공자 컴퓨팅 디바이스(138)를 포함할 수 있다. 시스템(100)의 컴포넌트들은 네트워크(142)를 통해 통신할 수 있다. 네트워크(142)는 인터넷, 로컬, 광역, 메트로 또는 다른 영역 네트워크, 인트라넷, 위성 네트워크와 같은 컴퓨터 네트워크, 음성 또는 데이터 이동 전화 통신 네트워크와 같은 다른 컴퓨터 네트워크 및 이들의 조합을 포함할 수 있다. 네트워크(142)는 데이터 처리 시스템(102) 및 클라이언트 디바이스(128)에 의해 사용되어, 웹 페이지, 웹 사이트, 도메인 이름, URL 또는 데이터 제공자(138)와 같은 정보 자원에 액세스할 수 있다. 예를 들어, 데이터 처리 시스템(102)은 네트워크(142)를 통해 클라이언트 디바이스(128)와 관련된 위치와 같은 특정 위치에 대한 날씨 데이터를 제공하는 데이터 제공자(138)에 액세스할 수 있다.
네트워크(142)는 예를 들어, 점-대-점 네트워크, 브로드캐스트 네트워크, 광역 네트워크, 근거리 네트워크, 통신 네트워크, 데이터 통신 네트워크, 컴퓨터 네트워크, ATM(Asynchronous Transfer Mode) 네트워크, SONET(Synchronous Optical Network) 네트워크, SDH(Synchronous Digital Hierarchy) 네트워크, 무선 네트워크 또는 유선 네트워크 및 이들의 조합을 포함할 수 있다. 네트워크(142)는 적외선 채널 또는 위성 대역과 같은 무선 링크를 포함할 수 있다. 네트워크(142)의 토폴로지는 버스, 별 또는 링 네트워크 토폴로지를 포함할 수 있다. 네트워크(142)는 AMPS(Advanced Mobile Phone Protocol), TDMA(Time Division Multiple Access), CDMA(Code-Division Multiple Access), GSM(Global System for Mobile Communication), GPRS(General Packet Radio Services) 또는 UMTS(Universal Mobile Telecommunications System)를 포함하여, 모바일 디바이스 간 통신에 사용되는 프로토콜(들)을 사용하는 휴대 전화 네트워크를 포함할 수 있다. 상이한 유형의 데이터가 상이한 프로토콜을 통해 전송될 수 있거나, 동일한 유형의 데이터가 상이한 프로토콜을 통해 전송될 수 있다.
클라이언트 디바이스(128)는 네트워크(142)를 통해 데이터 처리 시스템(102)과 서로 통신하기 위한 프로세서를 갖는 컴퓨팅 디바이스와 같은 적어도 하나의 논리 디바이스를 각각 포함할 수 있다. 클라이언트 디바이스(128)는 데이터 처리 시스템(102)과 관련하여 설명된 임의의 컴포넌트의 인스턴스를 포함할 수 있다. 클라이언트 디바이스(128)는 텔레비전, 데스크탑 컴퓨터, 랩탑, 태블릿 컴퓨터, 개인 휴대 정보 단말기, 스마트 폰, 모바일 디바이스, 휴대용 컴퓨터, 씬(thin) 클라이언트 컴퓨터, 가상 서버, 스피커-기반 디지털 어시스턴트 또는 다른 컴퓨팅 디바이스를 포함할 수 있다. 클라이언트 디바이스(128)는 데이터 처리 시스템(102) 또는 데이터 제공자(138)로부터 수신된 시각적 데이터뿐만 아니라 오디오를 재생할 수 있는 컴퓨팅 디바이스를 포함할 수 있다.
클라이언트 디바이스(128)는 적어도 하나의 센서(130), 적어도 하나의 스피커(132) 및 적어도 하나의 디스플레이(140)를 포함할 수 있다. 센서(130)는 마이크로폰 또는 오디오 입력 센서를 포함할 수 있다. 센서(130)는 또한 GPS 센서, 근접 센서, 주변 광 센서, 온도 센서, 모션 센서, 가속도계 또는 자이로스코프 중 적어도 하나를 포함할 수 있다. 센서(130)는 점유 또는 중량 센서를 포함할 수 있다. 스피커(132)는 전기 신호를 가청 파(audible waves)로 변환함으로써 오디오 신호를 렌더링할 수 있다. 디스플레이(140)는 발광 다이오드(LED) 디스플레이, 유기 LED(OLED) 디스플레이, 플라즈마 디스플레이, 프로젝터 디스플레이, 홀로 그래픽 디스플레이 등을 포함할 수 있다. 디스플레이(140)는 클라이언트 디바이스(128)에 의해 수신된 이미지 및 비디오를 렌더링할 수 있다.
클라이언트 디바이스(128)는 (센서(130)를 통해) 클라이언트 디바이스(128)에 입력 오디오 신호로서 음성 쿼리(질의)를 입력하고 데이터 처리 시스템(102)으로부터 제공될 수 있는 컴퓨터 생성 음성 또는 이미지의 형태로 오디오 또는 비디오 출력을 수신하는 최종 사용자와 관련될 수 있다. 입력 오디오 신호에 응답하여, 클라이언트 디바이스(128)는 또한 사전 결정된 기능 또는 액션을 수행하도록 액션 데이터 구조를 수신할 수 있다. 클라이언트 디바이스(128)는 데이터 처리 시스템(102)의 다이렉트 액션 API(112)에 데이터 메시지를 수신 또는 제공할 수 있고, 시스템(100)의 컴포넌트들 간의 통신을 가능하게 할 수 있다. 클라이언트 디바이스(128)는 또한 사용자가 시스템(100)의 컴포넌트들과 상호 작용할 수 있게 하는 사용자 인터페이스를 포함할 수 있다.
시스템(100)의 데이터 처리 시스템(102)은 적어도 하나의 프로세서를 갖는 적어도 하나의 서버를 포함할 수 있다. 예를 들어, 데이터 처리 시스템(102)은 적어도 하나의 데이터 센터 또는 서버 팜에 위치한 복수의 서버를 포함할 수 있다. 데이터 처리 시스템(102)은 오디오 입력 신호로부터 요청 및 그 요청과 관련된 트리거 키워드를 결정할 수 있다. 요청 및 트리거 키워드에 기초하여, 데이터 처리 시스템(102)은 응답 데이터를 생성 또는 선택할 수 있다. 응답 데이터는 오디오 기반, 비디오 기반 또는 텍스트 기반 데이터를 포함할 수 있다. 예를 들어, 응답 데이터는 렌더링될 때 오디오 출력 또는 음파를 제공하는 하나 이상의 오디오 파일을 포함할 수 있다. 응답 데이터 내의 데이터는 또한 컨텐트 아이템으로 지칭될 수 있다.
데이터 처리 시스템(102)은 다수의 논리적으로 그룹화된 서버를 포함할 수 있어 분산 컴퓨팅 기술을 용이하게 한다. 논리적 서버 그룹은 데이터 센터, 서버 팜 또는 머신 팜이라고 한다. 서버들은 지리적으로 분산될 수 있다. 데이터 센터 또는 머신 팜은 단일 엔터티로 관리되거나 머신 팜은 복수의 머신 팜을 포함할 수 있다. 각 머신 팜 내의 서버는 이기 종일 수 있는데, 하나 이상의 서버 또는 머신은 하나 이상의 유형의 운영 체제 플랫폼에 따라 작동할 수 있다. 데이터 처리 시스템(102)은 예를 들어 기업 데이터 센터에 위치한 관련 스토리지 시스템과 함께 하나 이상의 고밀도 랙 시스템에 저장된 데이터 센터의 서버를 포함할 수 있다. 이러한 방식으로 통합된 서버를 갖는 데이터 처리 시스템(102)은 로컬화된 고성능 네트워크 상에 서버 및 고성능 스토리지 시스템을 위치시킴으로써 시스템 관리성, 데이터 보안, 시스템의 물리적 보안 및 시스템 성능을 향상시킬 수 있다. 서버 및 스토리지 시스템을 포함하여 모든 또는 일부 데이터 처리 시스템(102) 컴포넌트들을 중앙 집중화하고 이를 고급(advanced) 시스템 관리 툴과 결합하면 서버 자원을 보다 효율적으로 사용할 수 있어, 전력 및 처리 요구 사항을 절약하고 대역폭 사용을 줄일 수 있다. 데이터 처리 시스템(102)의 각각의 컴포넌트는 적어도 하나의 처리 유닛, 서버, 가상 서버, 회로, 엔진, 에이전트, 기기, 또는 데이터 저장소(118) 및 다른 컴퓨팅 디바이스와 통신하도록 구성된 프로그램 가능한 논리 어레이와 같은 다른 논리 디바이스를 포함할 수 있다.
데이터 처리 시스템(102)은 데이터 저장소(118)를 포함할 수 있다. 데이터 저장소(118)는 하나 이상의 로컬 또는 분산 데이터베이스를 포함할 수 있고 데이터베이스 관리 시스템을 포함할 수 있다. 데이터 저장소(118)는 컴퓨터 데이터 스토리지 또는 메모리를 포함할 수 있고, 다른 데이터 중에서 하나 이상의 파라미터(120), 하나 이상의 정책(122), 응답 데이터(124) 및 템플릿(126)을 저장할 수 있다. 파라미터(120), 정책(122) 및 템플릿(126)은 클라이언트 디바이스(128)와 데이터 처리 시스템(102) 사이의 음성 기반 세션에 관한 규칙과 같은 정보를 포함할 수 있다. 응답 데이터(124)는 클라이언트 디바이스(128)와의 하나 이상의 통신 세션의 일부일 수 있는 입력 오디오 메시지뿐만 아니라 오디오 출력, 이미지/비디오 출력 또는 관련 메타 데이터에 대한 컨텐츠 아이템을 포함할 수 있다.
데이터 처리 시스템(102)과 관련된 애플리케이션, 스크립트, 프로그램 또는 다른 컴포너트는 클라이언트 디바이스(128)에 설치될 수 있다. 애플리케이션은 클라이언트 디바이스(128)가 입력 오디오 신호(및 다른 데이터)를 데이터 처리 시스템(102)의 인터페이스(104)로 전달할 수 있게 한다. 애플리케이션은 클라이언트 디바이스(128)가 출력 오디오, 이미지 또는 비디오 신호를 렌더링하기 위해 클라이언트 디바이스(128)의 컴포넌트들을 구동할 수 있게 한다.
데이터 처리 시스템의 NLP 컴포넌트(106)는 입력 오디오 신호를 수신할 수 있다. 데이터 처리 시스템(102)은 클라이언트 디바이스(128)로부터 입력 오디오 신호를 수신할 수 있다. NLP 컴포넌트(106)는 입력 오디오 신호를 저장된 대표적인 오디오 파형 세트와 비교하고 가장 근접한 매칭을 선택함으로써 입력 오디오 신호를 인식된 텍스트로 변환할 수 있다. 대표적인 파형은 많은 입력 오디오 신호 세트에서 생성될 수 있다. 일단 입력 오디오 신호가 인식된 텍스트로 변환되면, NLP 컴포넌트(106)는 그 텍스트를 예를 들어 학습 단계를 통해 액션 또는 출력 오디오 신호와 관련된 단어에 매칭시킬 수 있다. 입력 오디오 신호로부터, NLP 컴포넌트(106)는 요청에 대응하는 적어도 하나의 요청 또는 적어도 하나의 트리거 또는 핫 키워드를 식별할 수 있다. 요청은 입력 오디오 신호의 의도 또는 주제를 나타낼 수 있다. 트리거 키워드는 취해질 수 있는 액션 유형을 표시할 수 있다.
응답 선택기 컴포넌트(114)는 데이터 저장소(118)로부터 응답 데이터(124)의 일부로서 저장될 수 있는 정보를 획득할 수 있다. 응답 선택기 컴포넌트(114)는 데이터 저장소(118)에 질의하여, 예를 들어, 응답 데이터(124)로부터 응답 문구 또는 콘텐츠 아이템을 선택하거나 식별할 수 있다.
오디오 신호 생성기 컴포넌트(110)는 컨텐츠 아이템을 포함하는 출력 신호를 생성하거나 획득할 수 있다. 데이터 처리 시스템(102)은 오디오 신호 생성기 컴포넌트(110)를 실행하여, 컨텐츠 아이템 또는 요청에 대응하는 출력 신호를 발생 또는 생성할 수 있다. 예를 들어, 일단 요청이 이행되면, 오디오 신호 생성기 컴포넌트(110)는 "액션이 완료되었습니다"라는 문구를 포함하는 오디오 출력 신호를 생성할 수 있다.
비디오 신호 생성기 컴포넌트(150)는 컨텐츠 아이템을 포함하는 출력 신호를 생성하거나 그렇지 않으면 획득할 수 있다. 데이터 처리 시스템(102)은 비디오 신호 생성기 컴포넌트(150)를 실행하여 컨텐츠 아이템 또는 요청에 대응하는 출력 신호를 발생 또는 생성할 수 있다. 예를 들어, 일단 요청이 이행되면, 비디오 신호 생성기 컴포넌트(150)는 클라이언트 디바이스의 디스플레이(140)에 디스플레이될 때 "액션이 완료되었습니다"라는 문구를 표시할 수 있는 이미지 또는 비디오 출력 신호를 생성할 수 있다.
데이터 처리 시스템(102)은 시청각 출력을 포함하는 출력 신호를 발생 또는 생성하기 위해 오디오 신호 생성기 컴포넌트(110) 및 비디오 신호 생성기 컴포넌트(150) 모두를 실행할 수 있다.
인터페이스(104)는 시스템(100)의 컴포넌트들이 서로 통신할 수 있게 하는 데이터 인터페이스 또는 네트워크 인터페이스일 수 있다. 데이터 처리 시스템(102)의 인터페이스(104)는 응답 데이터 구조, 오디오, 이미지/비디오 신호 또는 다른 데이터를 포함하는 하나 이상의 데이터 패킷을 네트워크(142)를 통해 클라이언트 디바이스(128)로 제공하거나 전송할 수 있다. 예를 들어, 데이터 처리 시스템(102)은 데이터 저장소(118) 또는 오디오 신호 생성기(110)로부터 클라이언트 디바이스(128)로 출력 신호를 제공할 수 있다. 데이터 처리 시스템(102)은 또한 데이터 패킷(또는 다른 프로토콜) 기반 데이터 전송을 통해, 클라이언트 디바이스(128)에게 응답 데이터 구조에 표시된 기능을 수행하도록 지시할 수 있다. 출력 신호는 데이터 처리 시스템(102)(또는 다른 컴퓨팅 디바이스)으로부터 클라이언트 디바이스(128)로 하나 이상의 데이터 패킷(또는 다른 통신 프로토콜)으로서 획득, 생성, 변환 또는 전송될 수 있다.
데이터 처리 시스템(102)의 다이렉트 액션 API(112)는 예를 들어 요청에 기초하여 응답 데이터 구조를 생성할 수 있다. 다이렉트 액션 API(112)는 또한 클라이언트 디바이스(128)의 구성에 기초하여 응답 데이터 구조를 생성할 수 있다. 응답 데이터 구조는 요청을 만족시키기 위해 지정된 액션의 실행을 위한 데이터 또는 명령을 포함할 수 있다. 응답 데이터 구조는 JSON 형식의 데이터 구조 또는 XML 형식의 데이터 구조를 포함할 수 있다.
클라이언트 디바이스 구성 기기(116)는 클라이언트 디바이스(128)의 현재 구성을 결정할 수 있다. 클라이언트 디바이스(128)로부터 수신된 데이터 패킷은 클라이언트 디바이스(128)의 구성 데이터를 포함할 수 있다. 구성 데이터는 클라이언트 디바이스(128)의 하나 이상의 컴포넌트의 상태를 포함할 수 있다. 예를 들어, 구성 데이터는 클라이언트 디바이스(128)의 디스플레이(140)의 온 또는 오프 상태에 관한 정보를 포함할 수 있다. 구성 데이터는 또한 클라이언트 디바이스(128)의 스피커의 현재 볼륨 설정("음소거" 또는 "볼륨 레벨")을 포함할 수 있다. 요청에 지정된 액션 및 구성 데이터에 따라, 클라이언트 디바이스 구성 기기(116)는 그 요청을 이행하는데 필요한 파라미터를 식별하는 코드 또는 대화 스크립트를 실행할 수 있다. 클라이언트 디바이스 구성 기기(116)는 요청 및 구성 데이터에 응답하여 응답 데이터 구조를 생성할 수 있다. 응답 데이터 구조는 클라이언트 디바이스(128)로 전송되거나 수신된 메시지에 포함될 수 있다. 클라이언트 디바이스 구성 기기(116)의 동작은 클라이언트 디바이스(128)의 동작과 관련하여 예시적인 클라이언트 디바이스의 논의 후에 아래에서 더 논의된다.
도 2는 예시적인 클라이언트 디바이스(200)의 블록도를 도시한다. 특히, 클라이언트 디바이스(200)는 TV 또는 다른 디스플레이 기반 디바이스를 포함할 수 있고, 도 1에 도시된 클라이언트 디바이스(128)를 구현하는데 사용될 수 있다. 클라이언트 디바이스(200)는 프레임 또는 베젤(232)로 둘러싸인 디스플레이 스크린(202)을 포함한다. 디스플레이 스크린(202)은 발광 다이오드(LED), 유기 LED(OLED), 플라즈마 등과 같은 발광 소자를 포함할 수 있다. 디스플레이 스크린(202)은 또한 터치 인터페이스를 포함할 수 있다. 클라이언트 디바이스(200)는 디스플레이 스크린 대신에 프로젝터(예를 들어, 디지털 광 프로젝터(DLP)와 같은)를 포함할 수 있다. 프로젝터는 클라이언트 디바이스(200)로부터 떨어진 투사면에 이미지 또는 비디오를 투사할 수 있다. 클라이언트 디바이스(200)는 클라이언트 디바이스(200)의 동작을 제어하기 위한 제어 모듈(204)을 더 포함할 수 있다. 제어 모듈(204)은 프로세서(208), 메모리(218), 스피커(220), 마이크로폰(222), 디스플레이 제어기(224), 스토리지(226) 및 네트워크 인터페이스(228)를 포함할 수 있다. 제어 모듈(204)의 컴포넌트는 데이터 모듈 간의 통신을 허용하는 데이터 버스(206)에 연결될 수 있다. 그러나, 제어 모듈(204)의 다양한 컴포넌트는 데이터 버스(206) 이외의 통신 채널을 통해 다른 컴포넌트들과 직접 통신할 수 있다. 도 2에 도시되지 않았지만, 클라이언트 디바이스는 무선 주파수 안테나 또는 동축 케이블과 같은 무선 주파수 커넥터를 더 포함하거나 이에 연결될 수 있다. 제어 모듈(204)은 무선 주파수 채널들에 대한 정보를 동조 및 수신하기 위한 무선 주파수 튜너 및 무선 주파수 수신기 회로를 더 포함할 수 있다. 예를 들어, 클라이언트 디바이스는 디스플레이(202) 상에 디스플레이될 수 있는 다양한 프로그래밍 채널을 수신하기 위한 무선 주파수 튜너 및 무선 주파수를 포함하는 텔레비전일 수 있다. 클라이언트 디바이스(200)는 또한 베젤(232) 상에 배치된 발광 상태 표시기(230)를 포함한다. 발광 상태 표시기(230)는 LED, OLED, 백열 전구 또는 다른 발광 소자와 같은 하나 이상의 발광 소자를 포함할 수 있다. 발광 상태 표시기(230)가 베젤(232) 상에 위치된 것으로 도 2에 도시되어 있지만, 발광 상태 표시기는 또한 예를 들어, 클라이언트 디바이스(200)의 스탠드 또는 측면을 따라 사용자가 볼 수 있는 한 클라이언트 디바이스(200)의 어느 곳에나 위치될 수 있다.
프로세서(208)는 메모리(218)에 저장된 하나 이상의 프로그램, 소프트웨어 모듈 또는 애플리케이션과 관련된 명령들을 실행할 수 있는 하나 이상의 마이크로 프로세서를 포함할 수 있다. 메모리(218)는 NLP(106), 디지털 어시스턴트 애플리케이션(210), TV 애플리케이션(212), TV 운영 체제(214) 및 TV 구성 데이터(216)와 같은 여러 소프트웨어 모듈을 포함할 수 있다. NLP(106)는 도 1에 도시된 데이터 처리 시스템(102)과 관련하여 위에서 논의된 NLP(106)와 유사할 수 있다. NLP(106)는 디지털 어시스턴트 애플리케이션(210)에 의해 수신된 음성 커맨드를 처리하여 요청들 및 트리거 키워드들을 결정할 수 있는데, 이는 디지털 어시스턴트 애플리케이션(210)에 의해 음성 커맨드를 처리하는데 사용될 수 있다. 디지털 어시스턴트 애플리케이션(210)은 음성 커맨드에 기초하여 특정 태스크를 수행하거나 사용자에게 정보를 제공할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 음성 커맨드를 처리하고 이에 응답하기 위해 데이터 처리 시스템(102)(도 1)과 통신할 수 있다. 예를 들어, 디지털 어시스턴트는 음성 커맨드와 관련된 오디오 신호를 데이터 패킷으로 처리하고, 그 데이터 패킷을 데이터 처리 시스템(102)으로 전송할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 또한 데이터 처리 시스템(102)로부터 오디오 또는 비디오 신호 응답을 수신하여, 클라이언트 디바이스(200)에 오디오나 비디오 신호를 재생할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 예를 들어 대화 방식으로 데이터 처리 시스템(102)과 통신하지 않고 사용자 커맨드를 처리하고 응답할 수 있다. 예를 들어, 음성 커맨드가 로컬로 이행될 수 있는 요청을 포함하는 경우, 디지털 어시스턴트 애플리케이션(210)은 그 요청을 데이터 처리 시스템(102)으로 전송하는 대신에 클라이언트 디바이스(200)에서 로컬로 요청을 처리할 수 있다. 로컬로 이행될 수 있는 요청들의 예는 "조명 끄기", "TV 끄기", "스피커 음소거"등을 포함할 수 있다.
TV 애플리케이션(212)은 클라이언트 디바이스(200)에서 실행될 수 있는 다양한 애플리케이션을 포함할 수 있다. TV 애플리케이션은 유틸리티, 엔터테인먼트, 비디오, 뱅킹, 설정 및 다른 이러한 애플리케이션을 포함할 수 있다. TV 운영 체제(214)는 webOS 스마트 TV, 안드로이드 TV 등과 같은 스마트 TV 운영 체제를 포함할 수 있다. TV 운영 체제(214)는 원격 제어기, 클라이언트 디바이스의 스위치/버튼, 디스플레이(202)상의 터치 인터페이스, 또는 클라이언트 디바이스(200)와 무선으로 통신하는 휴대폰과 같은 다른 디바이스를 통해 사용자 커맨드를 수신하기 위한 사용자 인터페이스를 제공할 수 있다. TV 운영 체제는 또한 TV 애플리케이션(212), 디지털 어시스턴트 애플리케이션(120) 및 TV 애플리케이션(212)을 시작 및 실행하기 위한 프로세서, 주변 장치 및 처리 자원을 제공할 수 있다. 예를 들어, TV 운영 체제(214)는 디지털 어시스턴트 애플리케이션(210)이 스피커(220), 마이크로폰(222), 디지털 컨트롤러(224), 스토리지(226) 및 네트워크 인터페이스(228)에 액세스하도록 허용할 수 있다.
메모리(218)는 또한 클라이언트 디바이스(200)의 상태에 관한 정보를 포함할 수 있는 TV 구성 데이터(216)를 저장할 수 있다. TV 구성 데이터(216)는 클라이언트 디바이스(200)의 다양한 양태 또는 컴포넌트의 신원(identities) 및 그들의 대응하는 상태를 포함하는 데이터 구조를 포함할 수 있다. 예를 들어, TV 구성 데이터(216)는 디스플레이의 신원(예를 들어, "디스플레이"와 같은) 및 디스플레이의 현재 상태("온" 또는 "오프"와 같은)를 포함할 수 있다. 구성 데이터(216)는 다른 컴포넌트의 신원 및 대응하는 상태를 포함할 수 있다. 예를 들어, 구성 데이터(216)는 스피커의 "온" 또는 "오프"와 같은 현재 상태를 저장하는 것에 부가하여 스피커(220)의 현재 설정된 볼륨을 포함할 수 있다. 구성 데이터(216)는 또한 디지털 어시스턴트 애플리케이션(210)이 사용자와 통신할 수 있는 스피커(220)의 최소 볼륨 레벨을 저장할 수 있다. 일부 경우에, 디지털 어시스턴트 애플리케이션(210)은 사용자가 디지털 어시스턴트 애플리케이션(210)이 사용자에게 가청 응답, 리마인더 또는 알람을 제공하기 위해 사용할 수 있는 스피커(220)의 선호되는 최소 볼륨 레벨을 설정할 수 있게 한다. 디지털 어시스턴트 애플리케이션(210)은 사용자에게 가청 응답을 제공할 때 사용자가 디지털 어시스턴트 애플리케이션(210)에게 스피커의 음소거 상태를 무시하고 스피커(220) 볼륨을 최소 볼륨 레벨로 설정할 수 있는 권한을 부여할 수 있게 한다. 디지털 어시스턴트 애플리케이션(210)은 구성 데이터(216)를 음성 커맨드 요청과 별도로 또는 음성 커맨드 요청과 함께 데이터 처리 시스템(102)으로 전송할 수 있다.
스피커(220)는 오디오 신호를 대응하는 가청 사운드로 변환하는 하나 이상의 변환기를 포함할 수 있다. 스피커들(220)은 디지털-아날로그 변환기, 증폭기, 파일러(filers) 및 신호 처리 회로를 포함할 수 있는 오디오 제어기로부터 오디오 신호를 수신할 수 있다. TV 운영 체제(214)는 클라이언트 디바이스(200)에서 실행되는 애플리케이션을 애플리케이션 프로그램 가능 인터페이스(API)로 제공하여 오디오 컨트롤러와 인터페이스할 수 있다. 예를 들어, 디지털 어시스턴트 애플리케이션(210)과 같은 애플리케이션은 API를 사용하여 오디오 신호를 오디오 제어기로 전송하고, 이어서 대응하는 아날로그 신호를 스피커(220)로 전송하여 사운드를 생성할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 또한 스피커(220)의 볼륨을 음소거하기 위해 "음소거"와 같은 제어 신호를 전송하거나 스피커(220)의 볼륨을 설정하기 위해 볼륨 레벨을 전송할 수 있다. 마이크로폰(222)은 사운드 에너지를 입력 오디오 신호로 변환하기 위한 하나 이상의 변환기를 포함할 수 있다. 적어도 하나의 마이크로폰(222)이 클라이언트 디바이스(200) 상에 위치될 수 있다. 적어도 하나의 마이크로폰(222)은 또한 예를 들어 원격 제어기, 스마트 폰 또는 다른 디바이스와 같은 클라이언트 디바이스로부터 원격으로 위치될 수 있다. 원격에 위치한 마이크로폰에 의해 생성된 오디오 신호는 네트워크 인터페이스(228)를 통해서와 같이 무선 링크를 통해 클라이언트 디바이스(200)로 전송될 수 있다. TV 운영 체제(214)는 또한 마이크로폰(222)을 제어하기 위한 API 및 오디오 제어기를 제공할 수 있다. 예를 들어, 디지털 어시스턴트 애플리케이션(210)은 구성 파라미터를 마이크로폰(222)으로 전송하고 API를 통해 마이크로폰(222)으로부터 입력 오디오 신호를 수신할 수 있다.
디스플레이 제어기(224)는 디스플레이(202)를 제어하기 위한 하드웨어 및 소프트웨어를 포함할 수 있다. 특히, 디스플레이 제어기(224)는 비디오 또는 이미지 데이터를 수신하여 그 비디오 또는 이미지 데이터를 디스플레이(202)상의 이미지로 변환할 수 있다. TV 운영 체제(214)는 클라이언트 디바이스(200)상에서 실행되는 애플리케이션 프로그램에 의해 디스플레이 제어기(224)로부터 데이터를 송수신하기 위해 사용될 수 있는 API를 제공할 수 있다. 예를 들어, 디지털 어시스턴트 애플리케이션(210)은 데이터 처리 시스템(102)으로부터 수신된 비디오 또는 이미지 신호를 디스플레이(204) 상에 렌더링하기 위해 디스플레이 제어기(224)로 전송할 수 있다. 디지털 어시스턴트(210)는 또한 디스플레이(202)의 동작을 제어하기 위해 제어 신호 또는 데이터를 디지털 제어기(224)로 전송할 수 있다. 예를 들어, 디지털 어시스턴트(210)는 디스플레이(202)를 온으로 스위칭 또는 오프로 스위칭하기 위해 디스플레이 온 또는 디스플레이 오프 커맨드를 전송할 수 있다. 또한, 디지털 어시스턴트(210)는 디스플레이(202)의 상태를 요청할 수 있는데, 여기서 요청된 상태는 디스플레이(202)의 현재 상태, 예를 들어 온 상태 또는 오프 상태를 포함할 수 있다. 디스플레이 제어기(224)는 요청된 상태를 디지털 어시스턴트 애플리케이션(210)으로 리턴할 수 있으며, 디지털 어시스턴트 애플리케이션은 디스플레이의 수신된 상태를 TV 구성 데이터(216)에 저장할 수 있다. 디스플레이 제어기(224)는 또한 발광 상태 표시기(230)의 동작을 제어할 수 있다. 클라이언트 디바이스(200)는 발광 상태 표시기(230)를 제어하기 위한 별도의 제어기를 포함할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 디스플레이 제어기(224) 또는 임의의 다른 적절한 제어기를 통해 발광 상태 표시기(230)의 상태 및 동작을 제어할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 데이터 처리 시스템(102)으로부터 대응하는 상태를 나타내는 특정 패턴을 디스플레이하기 위해 발광 상태 표시기(230)를 활성화하라는 명령을 수신할 수 있다. 예를 들어, 하나의 패턴은 데이터 처리 시스템(102)이 요청을 처리하고 있음을 나타낼 수 있다. 다른 패턴은 요청이 완료되었음을 나타낼 수 있다. 디지털 어시스턴트 애플리케이션(210)은 이들 패턴 각각에 대응하는 일련의 명령 및 데이터를 저장하고, 이에 따라 발광 상태 표시기(230)를 작동시키기 위해 적절한 명령 및 데이터를 디스플레이 제어기(224) 또는 임의의 다른 적절한 제어기로 전송할 수 있다.
스토리지(226)는 하드 디스크 드라이브, 솔리드 스테이트 드라이브, 플래시 메모리 등과 같은 비 휘발성 메모리를 포함할 수 있다. 스토리지(226)는 운영 체제와 같은 애플리케이션 프로그램 및 클라이언트 디바이스(200)에서 실행될 수 있는 다양한 애플리케이션을 저장할 수 있다. 스토리지(226)는 또한 클라이언트 디바이스(200)상에서 실행되는 하나 이상의 애플리케이션에 의해 액세스 및 조작될 수 있는 엔터테인먼트 데이터, 음악 데이터, 비디오 데이터 등과 같은 데이터를 저장할 수 있다. 네트워크 인터페이스(228)는 클라이언트 디바이스(200)에 네트워크 연결성을 제공할 수 있는 유선 및 무선 네트워크 인터페이스를 포함할 수 있다. 예를 들어, 네트워크 인터페이스(228)는 WIFI, 근거리 통신, 무선 통신 및 다른 무선 네트워크 인터페이스를 포함할 수 있고, 이더넷, DOCSIS 및 다른 하드웨어 네트워크 인터페이스를 포함할 수 있다. TV 운영 체제(214)는 네트워크를 통해 데이터를 통신하기 위해 네트워크 인터페이스(228)를 이용하기 위해 클라이언트 시스템에서 실행되는 애플리케이션에 대한 API를 제공할 수 있다. 예를 들어, 디지털 어시스턴트(210)는 네트워크(142)(도 1)를 통해 데이터 처리 시스템(102)과 통신하기 위해 네트워크 인터페이스(228)에 대한 API를 사용할 수 있다.
클라이언트 디바이스(200)는 디스플레이(202)가 제어 모듈(204) 및 발광 상태 표시기(230)와 독립적으로 오프 또는 온으로 스위칭될 수 있도록 구성될 수 있다. 즉, 디스플레이(202)는 제어 모듈(204)의 동작을 유지하면서 오프로 스위칭될 수 있다. 따라서, 디스플레이(202)가 오프로 스위칭되는 동안, 디지털 어시스턴트 애플리케이션(210)은 클라이언트 디바이스(200)의 프로세서(208)상에서 실행될 수 있다. 디지털 어시스턴트 애플리케이션은 디스플레이가 오프로 스위칭되는 동안 도 1에 도시된 데이터 처리 시스템(102)과 같은 데이터 처리 시스템으로부터 데이터 패킷을 송수신할 수 있다. 또한, 디지털 어시스턴트 애플리케이션(210)은 디스플레이(202)의 상태, 예를 들어 온 상태에서 오프 상태로, 또는 오프 상태에서 온 상태로의 변경에 영향을 줄 수 있다.
다시 도 1을 참조하면, 클라이언트 디바이스 구성 기기(116)는 클라이언트 디바이스(200)의 음성 커맨드 및 구성 데이터와 관련된 오디오 신호를 수신하기 위해 클라이언트 디바이스(200)상의 디지털 어시스턴트 애플리케이션(210)과 통신할 수 있다. 상술한 바와 같이, 디지털 어시스턴트 애플리케이션(210)은 예를 들어 디스플레이 디바이스의 현재 상태( "온" 또는 "오프"), 스피커(220)의 현재 볼륨 설정("음소거" "볼륨 레벨")과 같은 구성 데이터(216)를 전송할 수 있다. 구성 데이터는 또한 디지털 어시스턴트 애플리케이션(210)이 클라이언트 디바이스(200)에서 사운드를 재생하는 최소 볼륨 레벨을 포함할 수 있다. NLP(106)는 오디오 신호를 파싱하여 요청 및 음성 커맨드와 관련된 트리거 키워드를 생성할 수 있다. 클라이언트 디바이스 구성 기기(116)는 트리거 키워드 및 구성 데이터에 기초하여 응답 데이터 구조를 생성할 수 있다.
도 3은 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 방법(300)의 흐름도를 도시한다. 특히, 방법(300)은 도 1에 도시된 데이터 처리 시스템(102)에 의해 실행될 수 있다. 방법(300)의 적어도 일부는 데이터 처리 시스템(102)의 클라이언트 디바이스 구성 기기(116)에 의해 실행될 수 있다. 방법(300)은 데이터 패킷이 오디오 신호 및 구성 데이터를 포함하는 클라이언트 디바이스로부터 데이터 패킷을 수신하는 단계를 포함할 수 있다(블록 302). 도 1 및 도 2를 참조하여 위에서 논의된 바와 같이, 클라이언트 디바이스(200)에서 사용자는 음성 커맨드를 말할 수 있으며, 이는 마이크(222)에 의해 캡처되어 입력 오디오 신호로 변환된다. 이들 오디오 신호는 디지털 어시스턴트 애플리케이션(210)으로 제공된다. 디지털 어시스턴트 애플리케이션(210)은 또한 구성 데이터(216)에 액세스하여, 클라이언트 디바이스의 현재 구성, 특히 디스플레이(202)의 온/오프 상태, 현재 볼륨 설정("음소거" 또는 볼륨 레벨), 및 디지털 어시스턴트 애플리케이션(210)이 스피커(220)로부터 사운드를 재생할 수 있는 최소 볼륨 레벨을 나타내는 최소 응답 볼륨 레벨을 결정할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 네트워크 인터페이스(228) 및 네트워크(142)를 통해 음성 커맨드 및 구성 데이터에 대응하는 오디오 신호를 데이터 처리 시스템(102)으로 전송할 수 있다.
방법(300)은 오디오 신호를 파싱하는 단계를 포함할 수 있다(블록 304). NLP(106)는 언어 처리를 사용하여 오디오 신호를 파싱하여 요청 및 트리거 키워드를 결정할 수 있다. 예를 들어, 오디오 신호가 "날씨는 어때?(what's the weather?)"라는 음성 커맨드에 해당하는 경우 NLP(106)는 "날씨"라는 문구는 요청에 해당하는 반면 "어때(what)라는 문구는 트리거 키워드에 해당한다고 결정할 수 있다. 방법(300)은 클라이언트 디바이스의 디스플레이가 오프 상태에 있는지 여부를 구성 데이터로부터 결정하는 단계를 포함할 수 있다(블록 306). 위에서 언급한 바와 같이, 클라이언트 디바이스(200)로부터 수신된 구성 데이터는 디스플레이를 식별하는 식별자 및 그 디스플레이의 대응하는 상태를 포함할 수 있다. 클라이언트 디바이스 구성 기기(116)는 디스플레이의 신원(identity)을 조회하여 현재 상태를 결정할 수 있다. 디스플레이 상태는 온/오프일 수 있다. 먼저, 클라이언트 디바이스 구성 기기(116)가 디스플레이의 상태가 오프인 것으로 결정한다고 가정하면, 방법(300)은 사용자로부터 수신된 음성 커맨드에 대한 응답이 비-비디오 응답을 사용하여 생성될 수 있는지 여부를 결정하는 단계를 포함할 수 있다(블록 308). 예를 들어, 클라이언트 디바이스 구성 기기(116)는 "날씨는 어때?"라는 사용자 커맨드에 대한 응답이 비디오 또는 이미지 출력 없이 생성될 수 있다고 결정할 수 있다. 즉, 응답은 클라이언트 디바이스(200)의 위치에서 현재 날씨를 제공하는 오디오 응답을 포함할 수 있다.
방법(300)은 비-비디오 응답(블럭 310)과 관련된 오디오 신호를 생성하는 단계를 포함할 수 있다(블록 310). 클라이언트 디바이스 구성 기기(116)는 트리거 키워드 및 요청을 사용하여, 날씨 데이터 서비스 제공자일 수 있는 데이터 제공자 (138)와 통신하고, 클라이언트 디바이스(200)의 위치와 관련된 날씨 데이터를 요청할 수 있다. 날씨 데이터를 수신하면, 클라이언트 디바이스 구성 기기(116)는 오디오 신호 생성 컴포넌트(110)에게 지시하여 데이터 제공자(138)로부터 수신된 날씨 데이터에 대응하는 오디오 신호를 생성할 수 있다. 예를 들어, 데이터 제공자로부터 수신된 데이터가 "화씨 72도이고 화창합니다"인 경우, 오디오 신호 생성기 컴포넌트(110)는 날씨 데이터 및 클라이언트 디바이스(200)의 현재 위치 정보를 이용하여 "현재 뉴욕은 화씨 72도이고 화창합니다"와 같은 응답을 위한 오디오 신호를 생성할 수 있다.
방법(300)은 클라이언트 디바이스에서 스피커의 볼륨 레벨을 설정하는 단계를 포함할 수 있다(블록 312). 위에서 논의된 바와 같이, 클라이언트 디바이스 구성 기기(116)는 구성 데이터에서 클라이언트 디바이스(200)의 스피커(220)의 현재 볼륨 레벨을 수신할 수 있다. 볼륨 레벨은 "음소거"이거나 볼륨 레벨 범위 내의 특정 볼륨 레벨(예를 들어, 1과 10 사이)일 수 있다. 구성 데이터는 또한 디지털 어시스턴트 애플리케이션(210)이 스피커(220)로부터 사운드를 재생할 수 있는 최소 볼륨 레벨을 나타내는 최소 응답 볼륨 레벨을 포함할 수 있다. 클라이언트 디바이스의 구성 기기(116)는 생성된 응답에 대응하는 음성 신호가 클라이언트 디바이스(200)에서 사용자에게 전달될 볼륨 레벨이 되도록 현재의 볼륨 레벨과 최소 응답 볼륨 레벨 중 더 높은 것을 선택할 수 있다. 클라이언트 디바이스 구성 기기(116)는 그 선택된 볼륨 레벨에 기초하여 클라이언트 구성 설정을 생성할 수 있다. 예를 들어, 클라이언트 디바이스 구성 기기(116)는 클라이언트 구성 설정에 스피커 볼륨 및 관련 볼륨 레벨과 관련된 식별자를 포함할 수 있다.
방법(300)은 클라이언트 디바이스(200)로부터 수신된 음성 커맨드에 대한 응답에 대응하는 응답 데이터 구조를 생성하는 단계를 포함할 수 있다(블록 314). 클라이언트 디바이스 구성 기기(116)는 오디오 신호 및 구성 설정을 포함할 수 있는 데이터 구조를 생성할 수 있다. 오디오 신호는 오디오 신호 생성 컴포넌트(110)에 의해 생성된 오디오 신호에 대응할 수 있고, 그 구성 설정은 선택된 볼륨 레벨을 포함할 수 있다(블록 312). 클라이언트 디바이스 구성 기기(116)는 또한 오디오 신호가 생성된 것에 응답하여 음성 커맨드의 신원을 포함할 수 있다. 방법(300)은 응답 데이터 구조를 클라이언트 디바이스로 전송하는 단계를 포함할 수 있다(블록 316). 클라이언트 디바이스 구성 기기(116)는 인터페이스(140)를 통해 오디오 신호 및 구성 설정을 포함하는 데이터 구조를 클라이언트 디바이스(200)로 전송할 수 있다. 인터페이스(140)는 데이터 구조를 데이터 패킷으로 변환하여 그 데이터 패킷을 네트워크(142)를 통해 클라이언트 디바이스(200)로 전송할 수 있다. 클라이언트 디바이스(200)에서, 디지털 어시스턴트 애플리케이션(210)은 네트워크 인터페이스(228)를 통해 데이터 패킷을 수신한다. 디지털 어시스턴트 애플리케이션(210)은 데이터 패킷으로부터 오디오 신호 및 구성 설정을 재생성한다. 디지털 어시스턴트 애플리케이션(210)은 음성 커맨드의 신원으로부터, 수신된 오디오 신호가 이전에 수신된 음성 커맨드에 응답한다는 것을 식별할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 스피커(220)의 볼륨 레벨이 수신된 구성 설정에 포함된 볼륨 레벨로 설정되도록 제어할 수 있다. 디지털 어시스턴트(210)는 스피커(220)로부터 오디오 신호를 출력함으로써 음성 명령에 대한 오디오 응답을 사용자에게 제공할 수 있다.
위에서 언급한 바와 같이, 블록(308)에서 클라이언트 디바이스 구성 기기(116)는 비-비디오 응답을 사용하여 사용자로부터 수신된 음성 커맨드에 대한 응답이 생성될 수 있는지 여부를 결정한다. 일부 경우(instance)에서, 음성 커맨드에 대한 응답은 비디오 기반 응답을 생성하기 위해 클라이언트 디바이스 구성 기기(116)를 필요로할 수 있다. 예를 들어, 사용자의 음성 커맨드가 "이번 주 날씨를 내게 보여 줘(Show me the weather for this week)"인 경우, NLP(106)는 "이번 주 날씨(weather for this week)"라는 문구는 요청에 해당하고 "내게 보여 줘(Show me)"라는 문구는 트리거 키워드에 해당한다고 결정할 수 있다. "보여 줘(show)"인 트리거 키워드에 기초하여, 클라이언트 디바이스 구성 기기(116)는 사용자가 적어도 시각적 응답을 요청하고 있다고 결정할 수 있다. 클라이언트 디바이스 구성 기기(116)가 비-비디오 응답이 생성되지 않는다고 결정한다고 가정하면, 방법(300)은 그 응답에 대응하는 오디오 또는 비디오 신호를 생성하는 단계를 포함할 수 있다(블록 318). 클라이언트 디바이스 구성 기기(116)는 위에서 논의된 바와 같이 데이터 제공자(138)로부터 날씨 데이터를 획득하는 것을 결정할 수 있다. 이어서 클라이언트 디바이스 구성 기기는 비디오 신호 생성기 컴포넌트(150)에게 지시하여, 데이터 제공자(138)에 의해 제공된 날씨 데이터에 대응하는 이미지 또는 비디오 신호를 생성할 수 있다. 선택적으로, 클라이언트 디바이스 구성 기기(116)는 또한 오디오 신호 생성기 컴포넌트(110)에 지시하여 날씨 데이터에 대응하는 오디오 신호를 생성할 수 있다.
방법(300)은 디스플레이가 온되도록 구성 설정을 설정하는 단계를 포함할 수 있다(블록 320). 클라이언트 디바이스 구성 기기(116)는 디스플레이의 현재 상태가 오프이고 응답에 시각적 컨텐츠가 포함되어 있기 때문에, 클라이언트 디바이스(200)의 디스플레이(202)가 ON으로 스위칭되도록 구성 설정을 생성할 수 있다. 방법(300)은 클라이언트 디바이스에서 스피커의 볼륨 레벨을 설정하는 단계를 포함할 수 있다(블록 322). 클라이언트 디바이스 구성 기기(116)는 블록(312)과 관련하여 위에서 논의된 것과 유사한 방식으로 클라이언트 디바이스(200)의 스피커(220)의 볼륨 레벨을 설정할 수 있다. 즉, 클라이언트 디바이스 구성 기기(116)는 스피커(220)의 볼륨 레벨로서 현재 볼륨 레벨 및 최소 응답 볼륨 레벨 중 더 큰 것을 선택하여 오디오 신호를 생성한다. 일부 경우에, 응답이 오디오 신호를 포함하지 않고 비디오 신호만을 포함하는 경우, 클라이언트 디바이스 구성 기기(116)는 실행 블록(322)을 스킵할 수 있다.
방법(300)은 클라이언트 디바이스로부터 수신된 음성 커맨드에 대한 응답에 대응하는 응답 데이터 구조를 생성하는 단계를 포함할 수 있다(블록 324). 클라이언트 디바이스 구성 기기(116)는 음성 커맨드에 응답하여, 비디오 신호 생성기 컴포넌트(150)에 의해 생성된 비디오 신호 및 오디오 신호 생성기 컴포넌트(110)에 의해 생성된 임의의 오디오 신호를 포함하도록 응답 데이터 구조를 생성할 수 있다. 클라이언트 디바이스의 구성 기기(116)는 또한 디스플레이(202)를 온으로 스위칭하라는 명령을 포함할 수 있으며 스피커(220)의 볼륨 레벨을 포함할 수 있는 구성 설정을 포함할 수 있다. 방법(300)은 응답 데이터 구조를 클라이언트 디바이스로 전송하는 단계를 포함할 수 있다(블록 326). 클라이언트 디바이스 구성 기기(116)는 생성된 응답 데이터 구조를 블록(316)과 관련하여 위에서 논의된 것과 유사한 방식으로 클라이언트 디바이스(200)에 전송할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 구성 데이터를 수신하여, 디스플레이(202)가 온으로 스위칭될 것으로 결정할 수 있다. 이 결정에 응답하여, 디지털 어시스턴트 애플리케이션(210)은 디스플레이 제어기(224)에게 디스플레이(202)를 온으로 스위칭하도록 지시할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 또한 구성 설정으로부터 볼륨 레벨을 결정하고, 그에 따라 스피커(220)의 볼륨 레벨을 구성 설정에 표시된 볼륨 레벨로 설정할 수 있다. 그 후, 디지털 어시스턴트 애플리케이션(210)은 디스플레이(202) 상에 렌더링하기 위해 비디오 또는 이미지 신호를 디스플레이 제어기(224)로 전송할 수 있고, 사운드 재생을 위해 임의의 오디오 신호를 스피커(220)로 전송할 수 있다.
블록(306)과 관련하여 위에서 논의된 바와 같이, 클라이언트 디바이스 구성 기기(116)는 디스플레이 디바이스(200)의 디스플레이(202)가 오프 상태에 있는지 여부를 결정한다. 클라이언트 디바이스 구성 기기(116)가 디스플레이 디바이스(202)가 오프 상태에 있지 않고 대신 온 상태에 있다고 결정한다고 가정하면, 방법(300)은 음성 커맨드에 대응하는 오디오 및 비디오 신호를 생성하는 단계를 포함할 수 있다(블록 328). 클라이언트 디바이스(200)의 디스플레이(202)가 이미 온 상태에 있기 때문에, 클라이언트 디바이스 구성 기기(116)는 시각적 응답으로 음성 커맨드에 응답할 수 있다. 따라서, 클라이언트 디바이스 구성 기기(116)는 비디오 신호 생성 컴포넌트에 지시하여 음성 커맨드에 대한 시각적 응답에 대응하는 비디오 신호를 생성할 수 있다. 클라이언트 디바이스 구성 기기(116)는 또한 오디오 신호 생성 컴포넌트(110)에 지시하여 음성 커맨드에 대한 응답에 대응하는 오디오 신호를 생성할 수 있다. 클라이언트 디바이스 구성 기기(116)는 오디오 신호를 생성하는 것을 포기할 수 있고, 음성 커맨드에 대한 시각적 응답을 포함하는 비디오 신호만을 생성할 수 있다. 방법(300)은 스피커의 볼륨 레벨을 설정하는 단계(블록 330), 응답 데이터 구조를 생성하는 단계(블록 332), 응답 데이터 구조를 클라이언트 디바이스로 전송하는 단계(블록 334)를 포함할 수 있다. 클라이언트 디바이스 구성 기기(116)는 블록(312, 322, 314, 324, 316 및 326)과 관련하여 위에서 논의된 것과 유사한 방식으로 방법(300)의 이 부분(블록(330, 332 및 334 포함))을 실행할 수 있다.
클라이언트 디바이스 구성 기기(116)는 클라이언트 디바이스에게 발광 상태 표시기를 활성화시키도록 지시할 수 있다(블록 336). 특히, 클라이언트 디바이스 구성 기기(116)는 음성 커맨드를 포함하는 데이터 패킷을 수신하거나 파싱하자마자 이들 명령을 클라이언트 디바이스(200)로 전송할 수 있다. 클라이언트 디바이스 구성 기기(116)는 발광 상태 표시기(230)의 신원 및 대응하는 "온" 설정을 포함하는 구성 설정을 클라이언트 디바이스(200)로 전송할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 구성 설정들을 분석하여 발광 상태 표시기들(230)이 온으로 스위칭되어야 한다고 결정할 수 있다. 이 결정에 응답하여, 디지털 어시스턴트 애플리케이션(210)은 디스플레이 제어기(224) 또는 발광 상태 표시기(230)를 제어하는 임의의 다른 적절한 제어기에게 발광 상태 표시기(230)를 온으로 스위칭하도록 지시할 수 있다. 발광 상태 표시기(230)의 스위치 온은 데이터 처리 시스템(102)이 사용자에 의해 제공된 음성 커맨드를 처리하고 있음을 사용자에게 표시할 수 있다. 클라이언트 디바이스 구성 기기(116)는 클라이언트 디바이스(200)로부터 수신된 구성 데이터가 디스플레이(202)가 오프 상태에 있다고 표시하는 경우에만 발광 상태 표시기(230)를 온으로 스위칭하라는 명령을 포함하는 클라이언트 구성 설정을 전송할 수 있다. 구성 데이터가 디스플레이가 온이라고 표시하는 경우, 클라이언트 디바이스 구성 기기(116)는 발광 상태 표시기(230)를 온으로 스위칭하라는 명령을 전송하지 않을 수 있다. 일부 이러한 경우, 클라이언트 디바이스 구성 기기(116)는 대신 데이터 처리 시스템이 음성 커맨드를 처리하는 동안 온 상태의 디스플레이(202)에 디스플레이하기 위해 상태 비디오 데이터 또는 상태 이미지 데이터를 클라이언트 디바이스(200)로 대신 전송할 수 있다. 음성 커맨드의 처리의 상태를 나타내는 상태 비디오 데이터 또는 상태 이미지 데이터는 현재 디스플레이(202) 상에 디스플레이되는 비디오 또는 이미지에 상관없이 오버레이될 수 있다. 비디오 신호 생성 컴포넌트(150)는 상태 비디오 또는 상태 이미지 신호를 생성할 수 있다. 비디오 신호 생성 컴포넌트(150)는 디스플레이(202)의 코너에 위치되도록 구성되고 디스플레이(202)의 전체 영역의 작은 부분(10% 미만)만을 차지하는 상태 비디오 또는 상태 이미지 데이터 또는 신호를 생성할 수 있다.
위에서 논의된 바와 같이, 클라이언트 디바이스 구성 기기(116)는 디스플레이(202)의 상태에 부분적으로 기초하여 클라이언트 디바이스(200)에서 사용자로부터 수신된 음성 커맨드에 대한 응답을 결정한다. 디스플레이(202)의 상태에 관계없이 응답이 생성되는 경우, 이러한 응답은 비디오 신호 및 오디오 신호 모두를 포함할 수 있다. 디스플레이가 오프 상태에 있다고 결정될 때 비-비디오 응답을 생성함으로써, 그렇지 않았다면 비디오 기반 응답을 생성하기 위해 할당되었던 처리 자원이 절약될 수 있다. 또한, 비디오 신호 생성을 위한 처리 시간은 오디오 신호 생성을 위한 처리 시간보다 상당히 클 수 있다. 디스플레이의 오프 상태를 결정하고 비디오 신호를 생성하는 것을 억제함으로써, 음성 커맨드에 대한 응답을 생성하기 위한 전체 처리 시간이 유리하게 감소될 수 있다. 따라서, 사용자는 음성 커맨드에 대한 비교적 빠른 응답을 수신할 수 있다. 게다가, 디스플레이(202)가 오프 상태에 있는 것으로 결정될 때 비디오 신호가 네트워크를 통해 클라이언트 디바이스로 전송되지 않기 때문에, 네트워크(142)의 대역폭 자원이 보다 효율적으로 이용될 수 있다.
사용자로부터 수신된 음성 커맨드의 자연어 처리는 데이터 처리 시스템(102) 대신에 클라이언트 디바이스에서 수행될 수 있다. 예를 들어, 도 2를 참조하면, 디지털 어시스턴트 애플리케이션(210)은 클라이언트 디바이스(200)상에서 실행되는 NLP(106)에게 사용자로부터 수신된 음성 커맨드를 처리하도록 지시할 수 있다. 디지털 어시스턴트 애플리케이션(210)은 식별된 요청 및 트리거 키워드를 데이터 처리 시스템(102)으로 전송할 수 있다. 클라이언트 디바이스에서 음성 커맨드를 처리함으로써, 요청 및 트리거 키워드 문구의 전송에 비해 상대적으로 더 큰 대역폭을 소비할 수 있는 오디오 신호가 네트워크를 통해 전송되지 않으므로 네트워크(142)에서의 혼잡을 감소시킨다.
도 4는 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 방법(400)의 흐름도를 도시한다. 방법(400)은 데이터 패킷을 전송하는 단계를 포함할 수 있다(블록 402). 예를 들어, 클라이언트 디바이스(200)는 데이터 패킷을 데이터 처리 시스템(102)으로 전송할 수 있다. 데이터 패킷은 입력 오디오 신호 및 클라이언트 디바이스 구성 데이터를 포함할 수 있다. 오디오 신호는 클라이언트 디바이스(200)에서 센서 또는 마이크로폰(222)에 의해 검출될 수 있다. 클라이언트 디바이스(200)상의 프로세서(208)에 의해 실행되는 디지털 어시스턴트 애플리케이션(210)은 네트워크(142)를 통해, 클라이언트 디바이스 네트워크 인터페이스(228)를 통하여 데이터 패킷을 전송할 수 있다.
방법(400)은 데이터 패킷을 수신하는 단계를 포함할 수 있다(블록 302). 예를 들어, 자연어 프로세서 컴포넌트(106)는 입력 오디오 신호 및 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 수신할 수 있다. 자연어 프로세서 컴포넌트(106)는 데이터 처리 시스템(102)에 의해 실행될 수 있고, 네트워크(142)를 통해 데이터 처리 시스템(102)의 네트워크 인터페이스(104)를 통하여 데이터 패킷을 수신할 수 있다. 자연어 프로세서 컴포넌트(106)는 오디오 신호를 파싱하여 요청 및 그 요청에 대응하는 트리거 키워드를 식별할 수 있다.
방법(400)은 디스플레이의 상태를 결정하는 단계를 포함할 수 있다(블록 306). 예를 들어, 데이터 처리 시스템(102)에 의해 실행되는 클라이언트 디바이스 구성 기기(116)는 클라이언트 디바이스 구성 데이터로부터 디스플레이(202)의 상태를 결정할 수 있다. 디스플레이의 상태는 온 상태 또는 오프 상태일 수 있다. 방법(400)은 응답 데이터 구조를 생성하는 단계를 포함할 수 있다(블록 314). 예를 들어, 클라이언트 디바이스 구성 기기(116)는 트리거 키워드 및 디스플레이(202)의 오프 상태에 부분적으로 기초하여, 오디오 데이터를 포함하고 요청에 응답하는 비디오 데이터를 포함하지 않는 응답 데이터 구조를 생성할 수 있다. 다른 예로서, 클라이언트 디바이스 구성 기기(116)는 트리거 키워드 및 디스플레이(202)의 오프 상태에 부분적으로 기초하여, 오디오 데이터, 비디오 데이터, 및 클라이언트 디바이스(200)의 디스플레이(202)를 온으로 스위칭하는 명령을 포함하는 클라이언트 디바이스 구성 설정을 포함하는 응답 데이터 구조를 생성할 수 있다.
방법(400)은 응답 데이터 구조를 클라이언트 디바이스로 전송하는 단계를 포함할 수 있다(블록 316). 예를 들어, 클라이언트 디바이스 구성 기기(116)는 데이터 처리 시스템(102)의 네트워크 인터페이스(104)를 통하여 네트워크(142)를 통해 응답 데이터 구조를 클라이언트 디바이스(200)에서 실행되는 디지털 어시스턴트 애플리케이션(210)으로 전송할 수 있다. 응답 데이터 구조는 오디오 데이터를 포함할 수 있고 비디오 데이터를 포함하지 않는다. 다른 예로서, 응답 데이터 구조는 클라이언트 디바이스(200)가 클라이언트 디바이스(200)의 하나 이상의 컴포넌트의 상태를 변경하도록 지시하는 오디오 데이터, 비디오 데이터 및 구성 설정 데이터를 포함할 수 있다.
도 5는 예시적인 컴퓨터 시스템(500)의 블록도이다. 컴퓨터 시스템 또는 컴퓨팅 디바이스(500)는 시스템(100) 또는 데이터 처리 시스템(102)과 같은 컴포넌트를 포함하거나 구현하기 위해 사용될 수 있다. 컴퓨팅 시스템(500)은 정보를 전달하기 위한 버스(505) 또는 다른 통신 컴포넌트 및 정보를 처리하기 위해 버스(505)에 연결된 프로세서(510) 또는 처리 회로를 포함한다. 컴퓨팅 시스템(500)은 또한 정보를 처리하기 위해 버스에 연결된 하나 이상의 프로세서(510) 또는 처리 회로를 포함할 수 있다. 컴퓨팅 시스템(500)은 또한 정보를 저장하기 위해 버스(505)에 연결된 랜덤 액세스 메모리(RAM) 또는 다른 동적 저장 디바이스와 같은 메인 메모리(515), 및 프로세서(510)에 의해 실행될 명령을 포함한다. 메인 메모리(515)는 데이터 저장소(118) 일 수 있거나 이를 포함할 수 있다. 메인 메모리(515)는 또한 프로세서(510)에 의한 명령의 실행 동안 위치 정보, 임시 변수 또는 다른 중간 정보를 저장하기 위해 사용될 수 있다. 컴퓨팅 시스템(500)은 프로세서(510)에 대한 정적 정보 및 명령을 저장하기 위해 버스(505)에 연결된 ROM(520) 또는 다른 정적 저장 디바이스를 더 포함할 수 있다. 솔리드 스테이트 디바이스, 자기 디스크 또는 광 디스크와 같은 저장 디바이스는 정보 및 명령을 지속적으로 저장하기 위해 버스(505)에 연결될 수 있다. 저장 디바이스(525)는 데이터 저장소(118)를 포함하거나 그의 일부일 수 있다.
컴퓨팅 시스템(500)은 버스(505)를 통해 사용자에게 정보를 디스플레이하기 위한 액정 디스플레이 또는 액티브 매트릭스 디스플레이와 같은 디스플레이(535)에 연결될 수 있다. 정보 및 커맨드 선택을 프로세서(510)에 전달하기 위해 영숫자 및 다른 키를 포함하는 키보드와 같은 입력 디바이스(530)가 버스(505)에 연결될 수 있다. 입력 디바이스(530)는 터치 스크린 디스플레이(535)를 포함할 수 있다. 입력 디바이스(530)는 또한 방향 정보 및 커맨드 선택을 프로세서(510)에 전달하고 디스플레이(535)상의 커서 이동을 제어하기 위한 마우스, 트랙볼 또는 커서 방향 키와 같은 커서 컨트롤을 포함할 수 있다. 디스플레이(535)는 예를 들어 데이터 처리 시스템(102), 클라이언트 컴퓨팅 디바이스(128) 또는 도 1의 다른 컴포넌트의 일부일 수 있다.
본 명세서에 기술된 프로세스, 시스템 및 방법은 프로세서(510)가 메인 메모리(515)에 포함된 명령의 배열을 실행하는 것에 응답하여 컴퓨팅 시스템(500)에 의해 구현될 수 있다. 이러한 명령는 저장 디바이스(525)와 같은 다른 컴퓨터 판독 가능 매체로부터 메인 메모리(515)로 판독될 수 있다. 메인 메모리(515)에 포함된 명령의 배열의 실행은 컴퓨팅 시스템(500)이 본 명세서에 설명된 예시적인 프로세스를 수행하게 한다. 멀티-프로세싱 배열에서 하나 이상의 프로세서가 메인 메모리(515)에 포함된 명령을 실행하기 위해 사용될 수도 있다. 본 명세서에 기술된 시스템 및 방법과 함께 소프트웨어 명령 대신에 또는 하드웨어 명령과 함께 하드 와이어드 회로가 사용될 수 있다. 본 명세서에 설명된 시스템 및 방법은 하드웨어 회로 및 소프트웨어의 임의의 특정 조합으로 제한되지 않는다.
예시적인 컴퓨팅 시스템이 도 5에 설명되었지만, 본 명세서에 기술된 동작을 포함하는 주제는 다른 형태의 디지털 전자 회로, 또는 본 명세서에 개시된 구조 및 이들의 구조적 등가물을 포함하는 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어 또는 그들의 하나 이상의 조합으로 구현될 수 있다.
본 명세서에서 논의된 시스템이 사용자에 관한 개인 정보를 수집하거나 개인 정보에 관한 정보를 이용할 수 있는 상황에 대해, 사용자는 개인 정보(예를 들어, 사용자의 소셜 네트워크, 소셜 액션 또는 활동, 사용자의 선호도, 또는 사용자의 위치에 관한 정보)를 수집할 수 있는 프로그램 또는 특징을 제어하거나, 컨텐츠 서버 또는 사용자와 더 관련될 수 있는 다른 데이터 처리 시스템으로부터 컨텐츠를 수신할지 여부 또는 방법을 제어할 기회를 제공받을 수 있다. 또한, 파라미터를 생성할 때 개인 식별 정보가 제거되도록 특정 데이터는 저장되거나 사용되기 전에 하나 이상의 방식으로 익명화될 수 있다. 예를 들어, 사용자의 신원은 사용자에 대한 개인 식별 정보가 결정되지 않도록 익명화되거나, 사용자의 지리적 위치는 사용자의 특정 위치가 결정될 수 없도록 위치 정보가 획득되는 위치(예를 들어, 도시, 우편 번호 또는 주 수준)로 일반화될 수 있다. 따라서, 사용자는 자신에 관한 정보가 수집되고 컨텐츠 서버에 의해 사용되는 방법을 제어할 수 있다.
본 명세서에 기술된 주제 및 동작은 본 명세서에 개시된 구조 및 이들의 구조적 등가물, 또는 이들 중 하나 이상의 조합을 포함하여 디지털 전자 회로 또는 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어에서 구현될 수 있다. 본 명세서에 기술된 주제는 하나 이상의 컴퓨터 프로그램, 예를 들어, 하나 이상의 컴퓨터 프로그램 명령의 회로로서 구현될 수 있고, 데이터 처리 디바이스에 의해 실행되거나 그 동작을 제어하기 위해 하나 이상의 컴퓨터 저장 매체에 인코딩된다. 대안적으로 또는 부가적으로, 프로그램 명령은 인위적으로 생성된 전파 신호, 예를 들어 데이터 처리 디바이스에 의해 실행하기 위해 적합한 수신기 장치로 전송하기 위한 정보를 인코딩하기 위해 생성되는 기계 생성 전기, 광학 또는 전자기 신호에 인코딩될 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 저장 디바이스, 컴퓨터 판독 가능 저장 기판, 랜덤 또는 직렬 액세스 메모리 어레이 또는 디바이스, 또는 이들 중 하나 이상의 조합일 수 있거나 이에 포함될 수 있다. 컴퓨터 저장 매체는 전파 신호가 아니지만, 컴퓨터 저장 매체는 인위적으로 생성된 전파 신호로 인코딩된 컴퓨터 프로그램 명령의 소스 또는 목적지일 수 있다. 컴퓨터 저장 매체는 또한 하나 이상의 개별 컴포넌트 또는 매체(예를 들어, 다수의 CD, 디스크 또는 다른 저장 디바이스) 일 수 있거나 그에 포함될 수 있다. 본 명세서에 기술된 동작은 하나 이상의 컴퓨터 판독 가능 저장 디바이스에 저장되거나 다른 소스로부터 수신된 데이터에 대해 데이터 처리 장치에 의해 수행되는 동작으로서 구현될 수 있다.
"데이터 처리 시스템", "컴퓨팅 디바이스", "컴포넌트" 또는 "데이터 처리 장치"라는 용어는 예를 들어 프로그램 가능 프로세서, 컴퓨터, 칩상의 시스템, 다수의 것 또는 전술한 것의 조합을 포함하여 데이터를 처리하기 위한 다양한 장치, 디바이스 및 기계를 포함한다. 이 장치는 특수 목적의 논리 회로, 예를 들어 FPGA(field-programmable gate array) 또는 ASIC(application-specific integrated circuit)을 포함할 수 있다. 장치는 또한 하드웨어 외에, 해당 컴퓨터 프로그램에 대한 실행 환경을 생성하는 코드, 예를 들어 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제, 크로스 플랫폼 런타임 환경, 가상 머신 또는 이들 중 하나 이상의 조합을 구성하는 코드를 포함할 수 있다. 장치 및 실행 환경은 웹 서비스, 분산 컴퓨팅 및 그리드 컴퓨팅 인프라와 같은 다양한 컴퓨팅 모델 인프라를 실현할 수 있다. 시스템(100)의 컴포넌트는 하나 이상의 데이터 처리 장치, 시스템, 컴퓨팅 디바이스 또는 프로세서를 포함하거나 공유할 수 있다.
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 앱, 스크립트 또는 코드라고도 함)은 컴파일 또는 해석된 언어, 선언적 또는 절차적 언어를 포함하여 임의의 형태의 프로그래밍 언어로 작성될 수 있으며, 독립형 프로그램 또는 모듈, 컴포넌트, 서브 루틴, 오브젝트, 또는 컴퓨팅 환경에서 사용하기에 적합한 다른 유닛을 포함하여 임의의 형태로 배포될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 해당할 수 있다. 컴퓨터 프로그램은 다른 프로그램 또는 데이터(예를 들어, 마크 업 언어 문서에 저장된 하나 이상의 스크립트)가 들어 있는 파일의 일부, 해당 프로그램 전용의 단일 파일 또는 다수의 연계 파일(예를 들어, 하나 이상의 모듈, 서브 프로그램, 또는 코드의 일부를 저장하는 파일)에 저장될 수 있다. 컴퓨터 프로그램은 하나의 컴퓨터 또는 한 사이트에 위치하거나 여러 사이트에 분산되어 있고 통신 네트워크로 상호 연결된 여러 컴퓨터에서 실행되도록 배포될 수 있다.
본 명세서에 기술된 프로세스 및 논리 흐름은 입력 데이터에 대해 동작하고 출력을 생성함으로써 액션을 수행하기 위해 하나 이상의 컴퓨터 프로그램(예를 들어, 데이터 처리 시스템(102)의 컴포넌트)을 실행하는 하나 이상의 프로그램 가능 프로세서에 의해 수행될 수 있다. 프로세스 및 로직 흐름은 또한 FPGA(필드 프로그래밍 가능 게이트 어레이) 또는 ASIC(애플리케이션 특정 집적 회로)과 같은 특수 목적 로직 회로로서 구현될 수 있으며 장치 또한 이들로 구현될 수 있다. 컴퓨터 프로그램 명령 및 데이터를 저장하기에 적합한 디바이스는 예를 들어 반도체 메모리 디바이스(EPROM, EEPROM 및 플래시 메모리 디바이스), 자기 디스크(예를 들어, 내부 하드 디스크 또는 이동식 디스크), 광 자기 디스크, 및 CD ROM 및 DVD-ROM 디스크를 포함하는 모든 형태의 비 휘발성 메모리, 매체 및 메모리 디바이스를 포함할 수 있다. 프로세서 및 메모리는 특수 목적 논리 회로에 의해 보완되거나 통합될 수 있다.
본 명세서에 기술된 주제는 예를 들어, 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나 애플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 프론트 엔드 컴포넌트(예를 들어, 사용자가 본 명세서에 기술된 주제의 구현과 상호 작용할 수 있는 그래픽 사용자 인터페이스 또는 웹 브라우저를 갖는 클라이언트 컴퓨터), 또는 하나 이상의 이러한 백 엔드, 미들웨어 또는 프론트 엔드 컴포넌트의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 컴포넌트는 임의의 형태 또는 매체의 디지털 데이터 통신, 예를 들어 통신 네트워크에 의해 상호 연결될 수 있다. 통신 네트워크의 예는 근거리 통신망("LAN") 및 광역 통신망("WAN"), 네트워크 간(예를 들어, 인터넷) 및 피어 투 피어 네트워크(예를 들어, 애드 혹 피어- 피어 네트워크)를 포함한다.
시스템(100) 또는 시스템(500)과 같은 컴퓨팅 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며 일반적으로 통신 네트워크(예를 들어, 네트워크(142))를 통해 상호 작용한다. 클라이언트와 서버의 관계는 각 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램으로 인해 발생한다. 일부 구현들에서, 서버는 (예를 들어, 클라이언트 장치와 상호 작용하는 사용자에게 데이터를 디스플레이하고 사용자로부터 사용자 입력을 수신하기 위해) 데이터(예를 들어, 컨텐트 아이템을 나타내는 데이터 패킷)를 클라이언트 디바이스로 전송한다. 클라이언트 디바이스에서 생성된 데이터(예를 들어, 사용자 상호 작용의 결과)는 서버의 클라이언트 디바이스로부터 수신될 수 있다(예를 들면, 데이터 처리 시스템(102)에 의해 클라이언트 컴퓨팅 디바이스로부터 수신됨).
동작들이 특정 순서로 도면에 도시되어 있지만, 이러한 동작들은 도시된 특정 순서 또는 순차적으로 수행될 필요가 없으며, 도시된 모든 동작이 수행될 필요는 없다. 본 명세서에 기술된 동작들은 다른 순서로 수행될 수 있다.
다양한 시스템 컴포넌트의 분리는 모든 구현에서 분리를 필요로하지 않으며, 설명된 프로그램 컴포넌트는 단일 하드웨어 또는 소프트웨어 제품에 포함될 수 있다. 예를 들어, NLP 컴포넌트(106) 및 클라이언트 디바이스 구성 기기(116)는 단일 컴포넌트, 앱 또는 프로그램, 또는 하나 이상의 처리 회로를 갖는 논리 디바이스, 또는 데이터 처리 시스템(102)의 하나 이상의 서버의 일부일 수 있다.
이제 몇몇 예시적인 구현을 설명하였지만, 전술한 것은 예시적인 것이며 제한적인 것이 아니라는 것이 명백하다. 특히, 본 명세서에 제시된 많은 예는 방법 동작(acts) 또는 시스템 요소의 특정 조합을 포함하지만, 그러한 동작 및 이들 요소는 동일한 목적을 달성하기 위해 다른 방식으로 조합될 수 있다. 하나의 구현과 관련하여 논의된 동작, 요소 및 특징은 다른 구현 또는 구현들에서 유사한 역할로부터 배제되도록 의도되지 않는다.
본원에 사용된 어구 및 용어는 설명을 위한 것이며 제한하는 것으로 간주되어서는 안된다. 본 명세서에서 "포함하는(including)", "포함하는(comprising)", "갖는(having)", "포함하는(containing)", "포함하는(involving)", "특징화된 (characterized by)", 및 "특징으로 하는(characterized in that)" 및 그의 변형은 그 후에 열거된 항목들, 그 등가물 및 추가 항목들뿐만 아니라 그 후에 독립적으로 나열된 항목들로 구성된 대안적인 구현들을 포함하는 것을 의미한다. 일 구현에서, 본 명세서에 설명된 시스템 및 방법은 하나 이상의, 각각의 설명된 요소, 동작 또는 컴포넌트의 각각의 조합으로 구성된다.
단수로 언급된 시스템 및 방법의 구현 또는 요소 또는 동작에 대한 임의의 참조는 또한 복수의 이들 요소를 포함하는 구현을 포함할 수 있고, 임의의 구현 또는 요소 또는 동작에 대한 복수의 참조는 또한 단일 요소만을 포함하는 구현을 포함할 수 있다. 단수 또는 복수 형태의 언급은 현재 개시된 시스템 또는 방법, 그 컴포넌트, 동작 또는 요소를 단일 또는 복수 구성으로 제한하려는 것이 아니다. 정보, 동작 또는 요소에 기초한 임의의 동작 또는 요소에 대한 참조는 동작 또는 요소가 임의의 정보, 동작 또는 요소에 적어도 부분적으로 기초한 구현을 포함할 수 있다.
본 명세서에 개시된 임의의 구현은 임의의 다른 구현 또는 실시예와 결합될 수 있고, "구현", "일부 구현", "하나의 구현"등은 반드시 상호 배타적이지 않으며, 그 구현과 관련하여 설명된 특정 특징, 구조 또는 특성은 적어도 하나의 구현 또는 실시예에 포함될 수 있다. 본 명세서에서 사용된 이러한 용어는 반드시 모두 같은 구현을 참조하지 않는다. 임의의 구현은 본 명세서에 개시된 양태 및 구현과 일치하는 임의의 방식으로 임의의 다른 구현과 함께 임의의 다른 구현과 결합될 수 있다.
"또는"에 대한 언급은 "또는"을 사용하여 기술된 임의의 용어가 설명된 단일, 하나 이상 및 모든 용어를 나타낼 수 있도록 포괄적인 것으로 해석될 수 있다. " 'A' 및 'Β'중 적어도 하나"에 대한 참조는 'A' 및 'Β'뿐만 아니라 'A'만, 'Β '만 포함할 수 있다. "포함하는" 또는 다른 공개 용어와 함께 사용되는 이러한 참조는 추가 항목을 포함할 수 있다.
도면, 상세한 설명 또는 임의의 청구 범위의 기술적 특징 뒤에 참조 부호가 오는 경우, 그 참조 부호는 도면, 상세한 설명 및 청구 범위의 명료성을 증가시키기 위해 포함되었다. 따라서, 참조 부호 또는 이들의 부재는 청구 범위의 범위에 제한적인 영향을 미치지 않는다.
본 명세서에 기술된 시스템 및 방법은 그 특성을 벗어나지 않고 다른 특정 형태로 구현될 수 있다. 전술한 구현예는 설명된 시스템 및 방법을 제한하기보다는 예시적인 것이다. 따라서, 본 명세서에 기술된 시스템 및 방법의 범위는 전술한 설명이 아니라 첨부된 청구 범위에 의해 표시되며, 청구 범위의 의미 및 등가의 범위 내에 있는 변경이 그 안에 포함된다.

Claims (20)

  1. 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 시스템으로서,
    네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여 데이터 패킷을 전송하기 위해 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션과, 상기 데이터 패킷은 클라이언트 디바이스의 센서에 의해 검출된 제 1 입력 오디오 신호 및 제 1 클라이언트 디바이스 구성 데이터를 포함하고,
    네트워크를 통해 데이터 처리 시스템의 네트워크 인터페이스를 통하여, 데이터 패킷을 수신하기 위해 데이터 처리 시스템에 의해 실행되는 자연어 프로세서 컴포넌트와, 상기 자연어 프로세서 컴포넌트는 제 1 입력 오디오 신호를 파싱하여 제 1 요청 및 그 제 1 요청에 대응하는 제 1 트리거 키워드를 식별하고; 그리고
    데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기 (appliance)를 포함하고, 상기 클라이언트 디바이스 구성 기기는:
    상기 제 1 클라이언트 디바이스 구성 데이터로부터 상기 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는지 결정하고,
    상기 제 1 트리거 키워드 및 상기 디스플레이의 오프 상태에 부분적으로 기초하여, 제 1 응답 데이터 구조를 생성하고, 상기 제1 응답 데이터 구조는 제1 요청에 응답하는 오디오 데이터는 포함하고 비디오 데이터는 포함하지 않으며, 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 응답 데이터 구조를 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  2. 제1항에 있어서,
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기는:
    상기 제 1 클라이언트 디바이스 구성 데이터로부터, 클라이언트 디바이스의 적어도 하나의 스피커의 현재 볼륨 레벨을 결정하고,
    상기 클라이언트 디바이스의 적어도 하나의 스피커에 대한 제 1 볼륨 레벨을 포함하는 제 1 클라이언트 디바이스 구성 설정을 생성하고, 상기 제 1 볼륨 레벨은 현재 볼륨 레벨 및 최소 응답 오디오 레벨보다 크고, 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 클라이언트 디바이스 구성 설정을 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  3. 제1항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션은 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 상기 클라이언트 디바이스의 센서에 의해 검출된 제 2 입력 오디오 신호, 및 제 2 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 전송하고;
    상기 데이터 처리 시스템에 의해 실행되는 자연어 프로세서 컴포넌트는 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 데이터 패킷을 수신하고, 상기 자연어 프로세서 컴포넌트는 제 2 입력 오디오 신호를 파싱하여 제 2 요청 및 그 제 2 요청에 대응하는 제 2 트리거 키워드를 식별하고;
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기는:
    상기 제 2 클라이언트 디바이스 구성 데이터로부터 상기 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는지 결정하고,
    상기 클라이언트 디바이스와 관련된 디스플레이에 대한 온 상태를 포함하는 제 2 클라이언트 디바이스 구성 설정을 생성하고,
    비디오 데이터를 포함하고 상기 제 2 요청 및 상기 제 2 클라이언트 디바이스 구성 설정에 응답하는 제 2 응답 데이터 구조를 생성하고;
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 2 응답 데이터 구조를 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  4. 제3항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션은:
    상기 클라이언트 디바이스의 네트워크 인터페이스를 통하여 네트워크를 통해, 비디오 데이터 및 상기 제 2 클라이언트 디바이스 구성 설정을 포함하는 제 2 응답 데이터 구조를 수신하고,
    상기 클라이언트 디바이스와 관련된 디스플레이가 온 상태로 스위칭되게 하고, 그리고
    상기 비디오 데이터가 디스플레이상에 디스플레이되게 하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  5. 제1항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션은 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 상기 클라이언트 디바이스의 센서에 의해 검출된 제3 입력 오디오 신호 및 제 3 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 전송하고;
    상기 데이터 처리 시스템에 의해 실행되는 자연어 프로세서 컴포넌트는 네트워크를 통해 데이터 처리 시스템의 네트워크 인터페이스를 통하여 데이터 패킷을 수신하고, 상기 자연어 프로세서 컴포넌트는 제 3 입력 오디오 신호를 파싱하여 제 3 요청 및 그 제 3 요청에 대응하는 제 3 트리거 키워드를 식별하고; 그리고
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기는:
    상기 제 3 클라이언트 디바이스 구성 데이터로부터 상기 클라이언트 디바이스와 관련된 디스플레이가 온 상태에 있는지 결정하고,
    상기 제 3 트리거 키워드 및 상기 디스플레이의 온 상태에 부분적으로 기초하여, 제 3 응답 데이터 구조를 생성하고, 상기 제 3 응답 데이터 구조는 제 3 요청에 응답하는 오디오 데이터 및 비디오 데이터를 포함하고, 그리고
    데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 3 응답 데이터 구조를 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  6. 제5항에 있어서,
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기는:
    상태 비디오 데이터를 생성하고, 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 3 응답 데이터 구조의 전송에 앞서 상기 상태 비디오 데이터를 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하고,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션은 클라이언트 디바이스와 관련된 디스플레이상에 상기 상태 비디오를 디스플레이하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  7. 제1항에 있어서,
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기는:
    상기 클라이언트 디바이스상의 발광 상태 표시기의 활성화를 나타내는 구성 설정을 생성하고, 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 응답 데이터 구조의 전송에 앞서 상기 구성 설정을 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  8. 제7항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션은:
    상기 네트워크를 통해 상기 클라이언트 디바이스의 네트워크 인터페이스를 통하여, 상기 클라이언트 디바이스상의 발광 상태 표시기의 활성화를 나타내는 구성 설정을 수신하고, 그리고
    상기 클라이언트 디바이스상의 발광 상태 표시기가 활성화되도록 하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  9. 제1항에 있어서,
    상기 클라이언트 디바이스는,
    무선 주파수 튜너를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  10. 제1항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션은:
    상기 네트워크를 통해 클라이언트 디바이스의 네트워크 인터페이스를 통하여, 제 1 응답 데이터 구조를 수신하고, 상기 제 1 응답 데이터 구조는 제 1 요청에 응답하는 오디오 데이터는 포함하고 비디오 데이터는 포함하지 않으며,
    상기 오디오 데이터를 결정하고, 그리고
    상기 오디오 데이터가 클라이언트 디바이스의 적어도 하나의 스피커에서 재생되도록 하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 시스템.
  11. 음성 작동 컴퓨터 네트워크에서 패킷화된 오디오 신호를 처리하는 방법으로서,
    클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에 의해, 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 클라이언트 디바이스의 센서에 의해 검출된 제 1 입력 오디오 신호 및 제 1 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 전송하는 단계와;
    데이터 처리 시스템에 의해 실행되는 자연어 프로세서 컴포넌트에서, 상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 데이터 패킷을 수신하는 단계와, 상기 자연어 프로세서 컴포넌트는 제 1 입력 오디오 신호를 파싱하여 제 1 요청 및 그 제 1 요청에 대응하는 제 1 트리거 키워드를 식별하고;
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기에서, 상기 제 1 클라이언트 디바이스 구성 데이터로부터 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는지 결정하는 단계와;
    상기 클라이언트 디바이스 구성 기기에서, 상기 제 1 트리거 키워드 및 상기 디스플레이의 오프 상태에 부분적으로 기초하여, 제 1 응답 데이터 구조를 생성하는 단계와, 상기 제 1 응답 데이터 구조는 상기 제 1 요청에 응답하는 오디오 데이터는 포함하고 비디오 데이터는 포함하지 않으며; 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 응답 데이터 구조를 상기 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  12. 제11항에 있어서,
    상기 클라이언트 디바이스 구성 기기에서 상기 제 1 클라이언트 디바이스 구성 데이터로부터, 상기 클라이언트 디바이스의 적어도 하나의 스피커의 현재 볼륨 레벨을 결정하는 단계와;
    상기 클라이언트 디바이스 구성 기기에서, 상기 클라이언트 디바이스의 적어도 하나의 스피커에 대한 제 1 볼륨 레벨을 포함하는 제 1 클라이언트 디바이스 구성 설정을 생성하는 단계와, 상기 제 1 볼륨 레벨은 현재 볼륨 레벨 및 최소 응답 오디오 레벨보다 크고; 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 클라이언트 디바이스 구성 설정을 상기 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  13. 제11항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에 의해, 상기 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 상기 클라이언트 디바이스의 센서에 의해 검출된 제 2 입력 오디오 신호 및 제 2 클라이언트 디바이스 구성 데이터를 전송하는 단계와;
    상기 데이터 처리 시스템에 의해 실행되는 자연 언어 프로세서 컴포넌트에서, 상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 데이터 패킷을 수신하는 단계와, 상기 자연 언어 프로세서 컴포넌트는 제 2 입력 오디오 신호를 파싱하여 제 2 요청 및 그 제 2 요청에 대응하는 제 2 트리거 키워드를 식별하고;
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기에서, 상기 제 2 클라이언트 디바이스 구성 데이터로부터 상기 클라이언트 디바이스와 관련된 디스플레이가 오프 상태에 있는지 결정하는 단계와;
    상기 클라이언트 디바이스 구성 기기에서, 상기 클라이언트 디바이스와 관련된 디스플레이에 대한 온 상태를 포함하는 제 2 클라이언트 디바이스 구성 설정을 생성하는 단계와;
    상기 클라이언트 디바이스 구성 기기에서, 상기 제 2 트리거 키워드에 부분적으로 기초하여, 제 2 응답 데이터 구조를 생성하는 단계와, 상기 제 2 응답 데이터 구조는 제 2 요청에 대응하는 비디오 데이터 및 상기 제 2 클라이언트 디바이스 구성 설정을 포함하고;
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 2 응답 데이터 구조를 상기 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  14. 제13항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에서, 상기 클라이언트 디바이스의 네트워크 인터페이스를 통하여 네트워크를 통해, 제 2 응답 데이터 구조를 수신하는 단계와, 상기 제 2 응답 데이터 구조는 비디오 데이터 및 상기 제 2 클라이언트 디바이스 구성 설정을 포함하고;
    상기 디지털 어시스턴트 애플리케이션에 의해, 상기 클라이언트 디바이스와 관련된 디스플레이가 온 상태로 스위칭되게 하는 단계와; 그리고
    상기 디지털 어시스턴트 애플리케이션에 의해, 상기 비디오 데이터가 클라이언트 디바이스와 관련된 디스플레이 상에 디스플레이되게 하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  15. 제11항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에 의해, 네트워크를 통해 클라이언트 디바이스 네트워크 인터페이스를 통하여, 상기 클라이언트 디바이스의 센서에 의해 검출된 제 3 입력 오디오 신호 및 제 3 클라이언트 디바이스 구성 데이터를 포함하는 데이터 패킷을 전송하는 단계와;
    상기 데이터 처리 시스템에 의해 실행되는 자연어 프로세서 컴포넌트에서, 상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 데이터 패킷을 수신하는 단계와, 상기 자연어 프로세서 컴포넌트는 제 3 입력 오디오 신호를 파싱하여 제 3 요청 및 그 제 3 요청에 대응하는 제 3 트리거 키워드를 식별하고;
    상기 데이터 처리 시스템에 의해 실행되는 클라이언트 디바이스 구성 기기에서, 상기 제 3 클라이언트 디바이스 구성 데이터로부터 상기 클라이언트 디바이스와 관련된 디스플레이가 온 상태에 있는지 결정하는 단계와;
    상기 클라이언트 디바이스 구성 기기에서, 상기 제 3 트리거 키워드 및 상기 디스플레이의 온 상태에 부분적으로 기초하여, 제 3 응답 데이터 구조를 생성하는 단계와, 상기 제 3 응답 데이터 구조는 제3 요청에 응답하는 비디오 데이터 및 제 3 클라이언트 디바이스 구성 설정을 포함하고;
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 3 응답 데이터 구조를 상기 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  16. 제15항에 있어서,
    상기 클라이언트 디바이스 구성 기기에서, 상태 비디오 데이터를 생성하는 단계와;
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 3 응답 데이터 구조의 전송에 앞서 상기 상태 비디오 데이터를 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계와; 그리고
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에 의해, 상기 상태 비디오 데이터가 상기 클라이언트 디바이스와 관련된 디스플레이에 디스플레이되게 하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  17. 제11항에 있어서,
    상기 클라이언트 디바이스 구성 기기에서, 상기 클라이언트 디바이스상의 발광 상태 표시기의 활성화를 나타내는 구성 설정을 생성하는 단계와; 그리고
    상기 데이터 처리 시스템의 네트워크 인터페이스를 통하여 네트워크를 통해, 상기 제 1 응답 데이터 구조의 전송에 앞서 상기 구성 설정을 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션으로 전송하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  18. 제17항에 있어서,
    상기 클라이언트 디바이스의 디지털 어시스턴트 애플리케이션에서, 상기 클라이언트 디바이스상의 발광 상태 표시기의 활성화를 나타내는 구성 설정을 수신하는 단계와; 그리고
    상기 디지털 어시스턴트 애플리케이션에 의해, 상기 클라이언트 디바이스상의 발광 상태 표시기가 활성화되게 하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  19. 제11항에 있어서,
    상기 클라이언트 디바이스는,
    무선 주파수 튜너를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
  20. 제11항에 있어서,
    상기 클라이언트 디바이스의 프로세서에 의해 실행되는 디지털 어시스턴트 애플리케이션에서, 상기 클라이언트 디바이스의 네트워크 인터페이스를 통하여 네트워크를 통해, 제 1 응답 데이터 구조를 수신하는 단계와, 상기 제 1 응답 데이터 구조는 제1 요청에 응답하는 오디오 데이터는 포함하고 비디오 데이터는 포함하지 않으며;
    상기 디지털 어시스턴트 애플리케이션에 의해, 상기 오디오 데이터를 결정하는 단계와; 그리고
    상기 디지털 어시스턴트 애플리케이션에 의해, 상기 오디오 데이터가 클라이언트 디바이스의 적어도 하나의 스피커에서 재생되게 하는 단계를 포함하는 것을 특징으로 하는 패킷화된 오디오 신호를 처리하는 방법.
KR1020197037168A 2017-10-03 2017-10-03 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성 KR102334340B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020217038736A KR102366753B1 (ko) 2017-10-03 2017-10-03 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2017/054931 WO2019070243A1 (en) 2017-10-03 2017-10-03 RESPONSE GENERATION DEPENDING ON THE DISPLAY MODE COMPRISING LATENCY CONSIDERATIONS

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217038736A Division KR102366753B1 (ko) 2017-10-03 2017-10-03 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성

Publications (2)

Publication Number Publication Date
KR20200006593A KR20200006593A (ko) 2020-01-20
KR102334340B1 true KR102334340B1 (ko) 2021-12-02

Family

ID=60153460

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020217038736A KR102366753B1 (ko) 2017-10-03 2017-10-03 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성
KR1020197037168A KR102334340B1 (ko) 2017-10-03 2017-10-03 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020217038736A KR102366753B1 (ko) 2017-10-03 2017-10-03 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성

Country Status (6)

Country Link
US (3) US11120796B2 (ko)
EP (2) EP3622385B1 (ko)
JP (2) JP6862582B2 (ko)
KR (2) KR102366753B1 (ko)
CN (2) CN117215514A (ko)
WO (1) WO2019070243A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3622385B1 (en) 2017-10-03 2023-12-06 Google LLC Display mode dependent response generation with latency considerations
JP2021135324A (ja) * 2020-02-25 2021-09-13 シャープ株式会社 情報処理装置、情報処理方法、及び情報処理システム
US11676594B2 (en) 2020-12-03 2023-06-13 Google Llc Decaying automated speech recognition processing results
CN112698872A (zh) * 2020-12-21 2021-04-23 北京百度网讯科技有限公司 语音数据处理的方法、装置、设备及存储介质
US20220225486A1 (en) * 2021-01-08 2022-07-14 Samsung Electronics Co., Ltd. Communicative light assembly system for digital humans

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140365226A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US20150331665A1 (en) 2014-05-13 2015-11-19 Panasonic Intellectual Property Corporation Of America Information provision method using voice recognition function and control method for device

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110984B1 (en) * 1998-08-13 2006-09-19 International Business Machines Corporation Updating usage conditions in lieu of download digital rights management protected content
US7213005B2 (en) * 1999-12-09 2007-05-01 International Business Machines Corporation Digital content distribution using web broadcasting services
US20030093419A1 (en) * 2001-08-17 2003-05-15 Srinivas Bangalore System and method for querying information using a flexible multi-modal interface
US20070011270A1 (en) * 2005-06-14 2007-01-11 Klein Stephen D Methods and apparatus for initiating and alerting a conversation with an automated agent
JP2007036924A (ja) 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd テレビジョン受像装置
US9015301B2 (en) * 2007-01-05 2015-04-21 Digital Doors, Inc. Information infrastructure management tools with extractor, secure storage, content analysis and classification and method therefor
US20090113475A1 (en) * 2007-08-21 2009-04-30 Yi Li Systems and methods for integrating search capability in interactive video
JP2009116539A (ja) 2007-11-05 2009-05-28 Fujitsu Ten Ltd 周辺監視装置
US9542006B2 (en) * 2011-01-16 2017-01-10 High Sec Labs Ltd. Secure KM switch
US20150003595A1 (en) * 2011-04-25 2015-01-01 Transparency Sciences, Llc System, Method and Computer Program Product for a Universal Call Capture Device
US20180032997A1 (en) * 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
US9570090B2 (en) * 2015-05-26 2017-02-14 Google Inc. Dialog system with automatic reactivation of speech acquiring mode
US10133546B2 (en) * 2013-03-14 2018-11-20 Amazon Technologies, Inc. Providing content on multiple devices
WO2014171144A1 (ja) * 2013-04-19 2014-10-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 家電機器の制御方法、家電機器制御システム、及びゲートウェイ
US11218434B2 (en) * 2013-06-12 2022-01-04 Google Llc Audio data packet status determination
KR102141116B1 (ko) * 2013-08-05 2020-08-04 삼성전자주식회사 음성 대화 서비스를 지원하는 인터페이스 장치 및 방법
US9848253B2 (en) * 2014-03-03 2017-12-19 Sony Corporation Information processing apparatus, information processing method, and program
JP2015184563A (ja) 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
US9548066B2 (en) * 2014-08-11 2017-01-17 Amazon Technologies, Inc. Voice application architecture
US10084905B2 (en) * 2014-08-28 2018-09-25 Accenture Global Services Limited System architecture for closed-loop mobile lockscreen display state control
KR20160099388A (ko) * 2015-02-12 2016-08-22 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
KR102460393B1 (ko) * 2015-04-30 2022-11-01 삼성전자주식회사 사운드 출력 기기, 전자 장치 및 그 제어 방법
KR20170010494A (ko) * 2015-07-20 2017-02-01 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10157039B2 (en) * 2015-10-05 2018-12-18 Motorola Mobility Llc Automatic capturing of multi-mode inputs in applications
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
KR101925034B1 (ko) * 2017-03-28 2018-12-04 엘지전자 주식회사 스마트 컨트롤링 디바이스 및 그 제어 방법
WO2019070242A1 (en) * 2017-10-03 2019-04-11 Google Llc DATA TRANSFERS FROM A MEMORY TO MANAGE GRAPHIC OUTPUT LATENCY
US11409783B2 (en) * 2017-10-03 2022-08-09 Google Llc Data structure queries to manage loading time in multimedia content
EP3622385B1 (en) 2017-10-03 2023-12-06 Google LLC Display mode dependent response generation with latency considerations
US11276396B2 (en) * 2018-05-01 2022-03-15 Dell Products, L.P. Handling responses from voice services

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140365226A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US20150331665A1 (en) 2014-05-13 2015-11-19 Panasonic Intellectual Property Corporation Of America Information provision method using voice recognition function and control method for device

Also Published As

Publication number Publication date
CN110741339B (zh) 2023-09-05
US20210407509A1 (en) 2021-12-30
US11120796B2 (en) 2021-09-14
WO2019070243A1 (en) 2019-04-11
JP6862582B2 (ja) 2021-04-21
EP3622385B1 (en) 2023-12-06
CN110741339A (zh) 2020-01-31
EP4274241A2 (en) 2023-11-08
KR102366753B1 (ko) 2022-02-23
JP7195363B2 (ja) 2022-12-23
KR20200006593A (ko) 2020-01-20
JP2020528594A (ja) 2020-09-24
EP3622385A1 (en) 2020-03-18
US20240038232A1 (en) 2024-02-01
JP2021108161A (ja) 2021-07-29
US20190348042A1 (en) 2019-11-14
CN117215514A (zh) 2023-12-12
US11823675B2 (en) 2023-11-21
EP4274241A3 (en) 2024-01-03
KR20210145862A (ko) 2021-12-02

Similar Documents

Publication Publication Date Title
KR102334340B1 (ko) 레이턴시 고려 사항을 이용한 디스플레이 모드 종속 응답 생성
US11930050B2 (en) Multimodal transmission of packetized data
US10535348B2 (en) Multimodal transmission of packetized data
WO2019070234A1 (en) COORDINATION OF PARALLEL PROCESSING OF AUDIO REQUESTS OVER MULTIPLE DEVICE ASSEMBLY
US20240244284A1 (en) Virtual Remote Control Among Digital Assistant Devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant