JP6797938B2 - 媒体出力装置間での媒体転送 - Google Patents

媒体出力装置間での媒体転送 Download PDF

Info

Publication number
JP6797938B2
JP6797938B2 JP2018559837A JP2018559837A JP6797938B2 JP 6797938 B2 JP6797938 B2 JP 6797938B2 JP 2018559837 A JP2018559837 A JP 2018559837A JP 2018559837 A JP2018559837 A JP 2018559837A JP 6797938 B2 JP6797938 B2 JP 6797938B2
Authority
JP
Japan
Prior art keywords
media
voice
cast
destination
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018559837A
Other languages
English (en)
Other versions
JP2019526177A (ja
Inventor
シャー,ラウナク
バン・デア・スターイ,マット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/592,128 external-priority patent/US10332516B2/en
Application filed by Google LLC filed Critical Google LLC
Priority claimed from PCT/US2017/032263 external-priority patent/WO2017197187A1/en
Publication of JP2019526177A publication Critical patent/JP2019526177A/ja
Priority to JP2020191833A priority Critical patent/JP7293180B2/ja
Application granted granted Critical
Publication of JP6797938B2 publication Critical patent/JP6797938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/181Enclosures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1094Inter-user-equipment sessions transfer or sharing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/613Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for the control of the source by the destination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/323Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/028Structural combinations of loudspeakers with built-in power amplifiers, e.g. in the same acoustic enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use

Description

この出願は、一般的に、音声起動電子デバイスを用いてスマートメディア環境中の異なる媒体出力装置間での媒体コンテンツ転送を開始するための方法およびシステムを含むがそれらに限定されないコンピュータ技術に関する。
背景
マイクと一体化される電子デバイスは、音声入力をユーザから収集し、かつ音声入力に従って異なる音声起動機能を実現するために広く用いられている。たとえば、多数の現行技術の移動体装置は、音声入力を用いて、通話を開始する、レストラン探しを行なう、地図上の経路指定を開始する、カレンダーイベントを作成する、ソーシャルネットワークへの投稿を追加する、歌を認識する、かつ多数の他のタスクを完了するように構成される音声アシスタントシステム(たとえばシリ(Siri)(登録商標)およびGoogle(登録商標)アシスタント)を含む。移動体装置はしばしば、音声入力を与えるユーザが、要求されるタスクのステータスを音声入力を介してチェックできるようにする表示画面を含む。しかしながら、構造が比較的単純でかつ低コストで製造される電子デバイスが移動体装置として同様の音声起動機能を実現するように適用されると、表示画面を用いることによって電子デバイスのコストが大幅に増大してしまうであろう。そのため、1つ以上のマイクを含みかつ音声インターフェイスとして機能する電子デバイスにおいて音声入力処理のステータスを示す単純かつ低コストのユーザインターフェイスを用いる必要性がある。
さらに、移動体装置で現在実現されている音声起動機能は、遠隔のサーバ(たとえば、サーチエンジン、ソーシャルネットワークサーバ、または音声アシスタントサーバ)を介するインターネットベースの機能に限られている。音声起動機能の結果は、移動体装置自身の上に表示されたり、これを制御するために用いられたりして、ユーザにアクセス可能ないずれの他の遠隔のまたはローカルの電子デバイスにも影響を与えない。音声入力がユーザにとって便利であることを考慮すると、遠隔のサーバと移動体装置との間に限定されるインターネットベースの機能を要求することに加えて、ユーザが、音声入力を用いて、ユーザにアクセス可能な他の電子デバイスを制御できるようにすることが有利である。
要約
したがって、電子デバイスが、スマートメディアまたはスマートホーム環境内で結合される他の媒体再生装置またはスマートホームデバイス上に、音声起動機能を起動させるアイズフリーかつハンズフリーの音声インターフェイスを提供するスマートメディア環境またはスマートホーム環境を作り出す必要性がある。この適用例のある実現例では、スマートメディア環境は、1つ以上の音声起動電子デバイスと、各々が別個の場所に配設されかつキャストデバイス(たとえばセットトップボックス)に結合される複数の媒体表示装置とを含む。各々の音声起動電子デバイスは音声メッセージを記録するように構成されており、クラウドキャストサービスサーバは、そこからユーザ音声要求(たとえば、媒体再生要求、媒体転送要求、またはクローズドキャプション開始要求)を判定する。次にクラウドキャストサービスサーバは、音声メッセージが示すように、ユーザ音声要求を送り先キャストデバイスに向ける。音声起動電子デバイスは、対応の音声処理状態を示すフルカラーLEDのアレイを介して視覚的パターンを表示するようにも構成される。同様の配置を用いてスマートホームデバイスを制御してスマートホーム環境で音声起動機能を実現することができる。そのような方法は任意に、ユーザが遠隔操作またはクライアントデバイスを用いてスマートメディアまたはホーム環境で媒体装置またはスマートホームデバイスを制御することを要件とする従来の方法を補うまたは置き換える。
この出願の1つの局面に従うと、方法は、音声処理状態を視覚的に示すための電子デバイスにおいて実現される。電子デバイスは、フルカラーLEDのアレイと、1つ以上のマイクと、スピーカと、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含む。方法は、1つ以上のマイクを介して電子デバイスに近接した環境からオーディオ入力を収集することと、オーディオ入力を処理することとを含む。処理することは、環境中のユーザからの音声入力を識別することと、これに応答することとのうち1つ以上を含む。方法はさらに、複数の予め規定された音声処理状態の中から処理の状態を判定することと、フルカラーLEDの各々毎に、判定された音声処理状態に関連付けられるそれぞれの予め定められたLED照明仕様を識別することとを含む。照明仕様は、LED照明持続時間、パルスレート、デューティサイクル、色順、および明るさのうち1つ以上を含む。方法はさらに、フルカラーLEDの識別されたLED照明仕様に従って、フルカラーLEDのアレイの照明を同期させて、判定された音声処理状態を示す視覚的パターンを与えることを含む。
この出願の1つの局面に従うと、方法は、プロセッサと、媒体出力装置上で媒体コンテンツを再生するためにプロセッサが実行するための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステムにおいて実行される。媒体コンテンツ再生方法は、電子デバイスが記録する音声メッセージを受信することと、音声メッセージが第1の媒体再生要求を含むと判定することとを含む。第1の媒体再生要求は、送り先媒体出力装置上で媒体コンテンツを再生するというユーザ音声コマンドと、媒体出力装置のユーザ音声指定とを含み、ユーザ音声コマンドは、第1の媒体再生アプリケーションの情報と、再生する必要がある媒体コンテンツとを少なくとも含む。媒体コンテンツ再生方法はさらに、媒体出力装置の音声指定に従って、(たとえばデバイスレジストリにおいて)、ユーザドメインにおいて電子デバイスに関連付けられかつ媒体出力装置に結合されるキャストデバイスを識別することを含む。キャストデバイスは、媒体出力装置を制御して、1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成される。媒体コンテンツ再生方法はさらに、第1の媒体再生アプリケーションの情報と再生する必要がある媒体コンテンツとを含む第2の媒体再生要求をキャストデバイスに送り、これにより、キャストデバイスは、媒体出力装置を制御して媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになることを含む。
この出願の別の局面に従うと、方法は、プロセッサと、媒体コンテンツ用のクローズドキャプション(CC)の表示を音声によって開始するためのプロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステムにおいて実行される。CC表示媒体方法は、電子デバイスが記録する音声メッセージを受信することと、音声メッセージが第1のクローズドキャプション開始要求であると判定することとを含む。第1のクローズドキャプション開始要求は、クローズドキャプションを開始するというユーザ音声コマンドと、クローズドキャプションをそれについて起動すべき媒体コンテンツを再生する表示装置のユーザ音声指定とを含む。CC表示方法はさらに、表示装置の指定に従って、(たとえばデバイスレジストリにおいて)、ユーザドメインにおいて電子デバイスに関連付けられかつ指定された表示装置に結合されるキャストデバイスを識別することを含む。キャストデバイスは、指定された表示装置を制御して、媒体コンテンツホストから受信した媒体コンテンツを表示するための媒体再生アプリケーションを実行するように構成される。CC表示方法はさらに、指定された表示装置に結合されたキャストデバイスに第2のクローズドキャプション開始要求を送り、これにより、キャストデバイスは、指定された表示装置を制御して、指定された表示装置上に現在表示されている媒体コンテンツのクローズドキャプションをオンにしかつ第2のクローズドキャプション開始要求に従ってクローズドキャプションを表示する媒体再生アプリケーションを実行できるようになることを含む。
この出願の別の局面に従うと、方法は、プロセッサと、媒体コンテンツ表示を送り側媒体出力装置から送り先媒体出力装置に移動させるためのプロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステムにおいて実行される。媒体転送方法は、電子デバイスが記録する音声メッセージを受信することと、音声メッセージが媒体転送要求を含むと判定することとを含む。媒体転送要求は、再生中の媒体コンテンツを送り先媒体出力装置に転送するというユーザ音声コマンドと、送り先媒体出力装置のユーザ音声指定とを含む。媒体転送方法はさらに、現在再生中の媒体コンテンツの即時媒体再生情報を送り側キャストデバイスから取得することを含む。即時再生情報は、第1の媒体再生アプリケーションの情報と、現在再生中の媒体コンテンツと、媒体コンテンツの再生に関する時間的位置とを少なくとも含む。媒体転送方法はさらに、送り先媒体出力装置の音声指定に従って、(たとえばデバイスレジストリにおいて)、ユーザドメインにおいて電子デバイスに関連付けられかつ送り先媒体出力装置に結合される送り先キャストデバイスを識別することを含み、送り先キャストデバイスは、送り先媒体出力装置を制御して、1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成される。媒体転送方法はさらに、即時媒体再生情報を含む媒体再生要求を送り先キャストデバイスに送り、これにより、送り先キャストデバイスは、送り先媒体出力装置を制御して、当該時間的場所から媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになることを含む。
ある実現例に従うと、キャストデバイスは、上述の方法のうちいずれかの動作を行なうための手段を含む。
さまざまな記載される実現例のより十分な理解のために、以下の図面に関連して以下の実現例の説明を参照すべきである。図面中、同様の参照番号は、図を通して対応の部分を参照する。
ある実現例に従う例示的なスマートメディア環境である。 ある実現例に従う、音声起動電子デバイスがスマートメディア環境のキャストデバイス、クライアントデバイス、またはサーバシステムと対話する例示的な動作環境である。 図2Aに示される制御経路Bに従ってキャストデバイスおよびその関連付けられる媒体再生行動を制御する媒体再生制御プロセスの例示的なフローチャートである。 ある実現例に従って、キャストデバイスがスマートメディア環境のクライアントデバイス、音声起動電子デバイス、またはサーバシステムと対話する別の例示的な動作環境である。 ある実現例に従う音声起動電子デバイスの正面図である。 ある実現例に従う音声起動電子デバイスの背面図である。 ある実現例に従う、開いた構成における、電子デバイス190のベースに内蔵されるスピーカを示す音声起動電子デバイス190の斜視図である。 ある実現例に従う、音声起動電子デバイスに内蔵される電子構成要素を示す音声起動電子デバイスの側面図である。 ある実現例に従う、音声起動電子デバイスに内蔵される電子構成要素を示す音声起動電子デバイスの拡大図である。 ある実現例に従う音声起動電子デバイスのタッチ検知アレイ上で検出されるタッチイベントを示す図である。 ある実現例に従う音声起動電子デバイスのタッチ検知アレイ上で検出されるタッチイベントを示す図である。 ある実現例に従う音声起動電子デバイスのタッチ検知アレイ上で検出されるタッチイベントを示す図である。 ある実現例に従う音声起動電子デバイスのタッチ検知アレイ上で検出されるタッチイベントを示す図である。 ユーザがある実現例に従う音声起動電子デバイスの背面側のボタンを押す様子を示す図である。 ある実現例に従う音声起動電子デバイスの上面図である。 ある実現例に従う、音声処理状態を示すためのフルカラーLEDのアレイによって表示される6つの例示的な視覚的パターンを示す図である。 ある実現例に従ってスマートメディア環境でユーザ音声コマンドを収集する音声インターフェイスとして適用される例示的な電子デバイスを示すブロック図である。 ある実現例に従ってスマートメディア環境において媒体コンテンツの表示の自動制御のために適用される例示的なキャストデバイスを示すブロック図である。 ある実現例に従う、スマートメディア環境のサーバシステム140中のクラウドキャストサービスサーバの1つである例示的なサーバを示すブロック図である。 ある実現例に従ってスマートメディア環境において媒体表示の自動制御のために適用される例示的なクライアントデバイスを示すブロック図である。 ある実現例に従う、スマートメディア環境中の例示的なスマートホームデバイスを示すブロック図である。 ある実現例に従う、音声処理状態を視覚的に示す方法を示すフロー図である。 ある実現例に従う、媒体コンテンツのためのクローズドキャプションの表示を音声によって開始する方法を示すフロー図である。 ある実現例に従う、媒体出力装置上での媒体コンテンツの再生を音声によって開始する方法を示すフロー図である。 ある実現例に従う、送り側媒体出力装置から送り先媒体出力装置に媒体コンテンツの再生を移動させる方法を示すフロー図である。
実現例の説明
図面のいくつかの図を通して同様の参照番号は対応の部分を参照する。
デジタル革命は、情報をオープンに共有することから地球規模の共同体感にまで及ぶ多数の利点を与えてきたが、新興技術は、消費者の間に混乱、懐疑、および恐れを誘発し、消費者が技術から利益を得るのを妨げることが多い。電子デバイスは、ユーザから音声入力を受信して音声起動機能を開始し、これによりアイズフリーかつハンズフリーの解決策を提供して既存技術と新興技術との双方にアプローチする音声インターフェイスとして便利に用いられる。具体的に、電子デバイスで受信される音声入力は、ユーザの視線が遮られかつ両手が塞がっている場合ですら、命令および情報を伝えることができる。ハンズフリーかつアイズフリー経験を可能にするために、音声起動電子デバイスは、常にまたはトリガされたときだけ、周囲をリッスンする(すなわち、周囲から集めたオーディオ信号を処理する)。一方で、ユーザアイデンティティは、ユーザの声およびユーザが用いる言語にリンクされる。ユーザアイデンティティを保護するため、音声起動電子デバイスは通常、保護された、管理された、かつ親密な空間(たとえば家および車)である非公開の場所で用いられる。
発明のある実現例に従うと、音声起動電子デバイスは、フルカラー発光ダイオード(LED)のアレイを含む。電子デバイスが1つ以上のマイクから収集したオーディオ入力を処理する間、フルLEDのアレイが点灯して、処理の状態に応じて判定されるLED照明仕様に従う視覚的パターンを与える。フルカラーLEDのアレイは、各々が音声処理状態(たとえば、ホットワード検出、リッスン中、考え中、および話し中)に対応する複数の視覚的パターンを提供するように構成される。視覚的パターンを作成するのに用いられるこのLED設計言語は、ユーザの混乱、懸念、および心配という問題を少なくとも部分的に解決しかつ対応の音声インターフェイス経験の理解、採用、および楽しみを促すように適用される。
さらに、発明のある実現例に従うと、音声起動電子デバイスは、音声入力を用いて、表示装置上での映像のプレイバックを開始および制御する。具体的に、サーバシステム(たとえばクラウドキャストサービスサーバ)は、音声起動電子デバイスが記録する音声メッセージを受信し、音声メッセージが、(任意に音声起動電子デバイス自身を含む)媒体出力装置上で媒体コンテンツを再生するというユーザ音声コマンドと媒体出力装置のユーザ音声指定とをさらに含む媒体再生要求を含むと判定する。ユーザ音声コマンドは、第1の媒体再生アプリケーションの情報と、再生する必要がある媒体コンテンツとを少なくとも含む。媒体出力装置の音声指定に従って、サーバシステムは、ユーザドメインにおいて電子デバイスに関連付けられかつ媒体出力装置に結合されるキャストデバイスを識別し、キャストデバイスは、媒体出力装置を制御して、1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成される。次にサーバシステムは、キャストデバイスに、第1の媒体再生アプリケーションの情報と、再生する必要がある媒体コンテンツとを送り、これにより、キャストデバイスは、媒体出力装置を制御して媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになる。
ある実現例では、媒体コンテンツが媒体出力装置上に表示される間、音声起動電子デバイスは、遠隔操作または第2の画面装置(たとえば、携帯電話、タブレットコンピュータ、およびラップトップコンピュータ)とのユーザ対話を全く介することなく、ユーザが自分の声を用いてTV上のキャプションをオンしたりオフしたりできるようにする。具体的に、サーバシステムは、クローズドキャプションを開始するというユーザ音声コマンドと、クローズドキャプションをそれについて起動すべき媒体コンテンツを再生する表示装置のユーザ音声指定とを含む第1のクローズドキャプション開始要求を音声メッセージから判定するように構成される。ユーザドメインにおいて電子デバイスに関連付けられかつ指定された表示装置に結合されるキャストデバイスを識別した後に、サーバシステムは、キャストデバイスに第2のクローズドキャプション開始要求を送り、これにより、キャストデバイスは、指定された表示装置を制御して、指定された表示装置上に現在表示されている媒体コンテンツのクローズドキャプションをオンにし、かつ第2のクローズドキャプション開始要求に応じてクローズドキャプションを表示する媒体再生アプリケーションを実行できるようになる。
さらに、発明のある実現例に従うと、媒体コンテンツが第1の媒体出力装置上で表示されている間、音声起動電子デバイスは、ユーザが、自分の声を用いて第1の媒体出力装置から第2の媒体出力装置への媒体コンテンツの媒体転送を開始できるようにする。転送は、少なくとも、第1の媒体出力装置上で再生されていた媒体コンテンツの正確な地点で第2の媒体出力装置上で媒体コンテンツを再開することによって対応の媒体再生状態を維持する。
具体的に、サーバシステムは、再生中の媒体コンテンツを送り先媒体出力装置に転送するというユーザ音声コマンドと、送り先媒体出力装置のユーザ音声指定とを含む媒体転送要求を音声メッセージから判定するように構成される。次にサーバシステムは、送り側キャストデバイスから現在再生中の媒体コンテンツの即時媒体再生情報を取得し、即時再生情報は、第1の媒体再生アプリケーションの情報と、現在再生中の媒体コンテンツと、媒体コンテンツの再生に関する時間的位置とを少なくとも含む。ユーザドメインにおいて電子デバイスに関連付けられかつ指定された表示装置に結合される送り先キャストデバイスを識別した後、サーバシステムは、送り先キャストデバイスに即時媒体再生情報を含む媒体再生要求を送り、これにより、送り先キャストデバイスは、送り先媒体出力装置を制御して、当該時間的場所から媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになる。ある実現例では、送り先キャストデバイスはデバイスレジストリにおいて識別される。
ここで実現例を詳細に参照し、その例を添付の図面に示す。以下の詳細な説明では、さまざまな記載される実現例の完全な理解を与えるために、数多くの具体的な詳細を述べる。しかしながら、当業者には、これらの具体的な詳細がなくてもさまざまな記載される実現例を実践し得ることが明らかであろう。他の事例では、実現例の局面を不要に曖昧にしないために、周知の方法、手順、構成要素、回路、およびネットワークを詳細に説明していない。
スマートメディア/ホーム環境
図1は、ある実現例に従う例示的なスマートメディア環境100である。スマートメディア環境100は、さまざまな一体化されたデバイスを有する構造150(たとえば、家、オフィスビル、ガレージ、または移動住宅)を含む。デバイスは、マンション、コンドミニアム、またはオフィス空間などの全体構造150を含まないスマートメディア環境100に一体化されることがあることが認められる。描かれた構造150は、壁154を介して互いから少なくとも部分的に分離された複数の部屋152を含む。壁154は内壁または外壁を含むことがある。各々の部屋は、床156および天井158をさらに含むことがある。
1つ以上の媒体装置をスマートメディア環境100の中に配設して、ローカルコンテンツソースに記憶されるまたは遠隔のコンテンツソース(たとえばコンテンツホスト114)からストリーム配信される媒体コンテンツを提供する。媒体装置は、2つのカテゴリ、すなわち、媒体コンテンツを視聴者に直接に出力する媒体出力装置106と、媒体コンテンツを媒体出力装置108にストリーム配信するようにネットワーク化されるキャストデバイス108と、に分類することができる。媒体出力装置106の例は、テレビ(TV)表示装置および音楽プレイヤを含むが、これらに限定されない。キャストデバイス108の例は、セットトップボックス(STB)、DVDプレイヤ、およびTVボックスを含むが、これらに限定されない。例示的なスマートメディア環境100では、媒体出力装置106は1つよりも多くの場所に配設され、各々の媒体出力装置106は、それぞれのキャストデバイス108に結合されるかまたは内蔵キャスティングユニットを含む。媒体出力装置106−1は、DVDプレイヤまたはセットトップボックス108−1に配線接続されるTVディスプレイを含む。媒体出力装置106−2は、内蔵キャスティングユニットを一体化して媒体コンテンツをストリーム配信してその視聴者に対して表示するスマートTVデバイスを含む。媒体出力装置160−3は、TVボックス108−3(たとえば、グーグルTVまたはアップルTV製品)に結合される通常のTVディスプレイを含み、そのようなTV108−3は、媒体コンテンツホストサーバ114から受信した媒体コンテンツをストリーム配信し、インターネットへのアクセスを提供して、媒体出力装置106−3上にインターネットベースのコンテンツを表示する。
媒体装置106および108に加えて、1つ以上の電子デバイス190がスマートメディア環境100の中に配設されて、媒体装置のさまざまな媒体再生機能を開始するためのオーディオ入力を収集する。ある実現例では、これらの音声起動電子デバイス190(たとえば、デバイス1901−1、190−2、および190−3)は、媒体装置に近接して、たとえば、キャストデバイス108および媒体出力装置106と同じ部屋の中に配設される。これに代えて、ある実現例では、音声起動電子デバイス190−4は、1つ以上のスマートホームデバイスを有するが媒体装置を全く有しない部屋に配設される。これに代えて、ある実現例では、音声起動電子デバイス190は、ネットワーク化された電子デバイスを有しない場所に配設される。
電子デバイス190は、1つ以上のマイクと、スピーカと、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを少なくとも含む。スピーカは、電子デバイス190がスマートメディア環境100の中で位置する場所に電子デバイス190が音声メッセージを配信して、これにより電子デバイス190のユーザに音楽をブロードキャストする、オーディオ入力処理の状態を報告する、当該ユーザと会話する、または当該ユーザに命令を与えることができるように構成される。音声メッセージの代替策として、視覚的信号を用いてオーディオ入力処理の状態に関するフィードバックを電子デバイス190のユーザに与えることもできる。電子デバイス190が従来の移動体装置(たとえば携帯電話またはタブレットコンピュータ)である場合、その表示画面は、オーディオ入力処理の状態に関する通知を表示するように構成される。
ある実現例に従うと、電子デバイス190は、クラウドキャストサービスサーバ116および/または音声支援サーバ112の助けにより音声認識機能を提供するようにネットワーク接続される音声インターフェイスデバイスである。たとえば、電子デバイス190は、音楽をユーザに提供し、かつ音声アシスタントサービス(たとえばGoogleアシスタント(登録商標))へのアイズフリーかつハンズフリーのアクセスを可能にするスマートスピーカを含む。任意に、電子デバイス190は、デスクトップまたはラップトップコンピュータと、タブレットと、マイクを含む携帯電話とのうち1つである。任意に、電子デバイス190は、単純かつ低コストの音声インターフェイスデバイスである。電子デバイス190の単純さおよび低コストを考慮すると、電子デバイス190は、全表示画面よりもむしろフルカラー発光ダイオード(LED)のアレイを含み、フルカラーLED上に視覚的パターンを表示してオーディオ入力処理の状態を示す。
電子デバイス190からの音声入力を用いてキャストデバイス108を介して媒体出力装置106を制御する場合、電子デバイス190は、キャスト利用可能な媒体装置の新たなレベルの制御を効果的に可能にする。具体的な例では、電子デバイス190は、遠距離音声アクセスを有する日常の娯楽用スピーカを含み、Googleアシスタント(登録商標)用の音声インターフェイスデバイスとして機能する。スマートメディア環境100中の任意の部屋に電子デバイス190を配設することができる。複数の電子デバイス190が複数の部屋に分散される場合、それらは同期化されてこれらすべての部屋からの音声入力を提供するキャストオーディオ受信機になる。
具体的に、ある実現例では、電子デバイス190は、音声起動パーソナルアシスタントサービス(たとえばGoogleアシスタント(登録商標))に接続されるマイクを有するWiFi(登録商標)スピーカを含む。ユーザは、電子デバイス190のマイクを介して媒体再生要求を発し、電子デバイス190自体の上でまたは別の接続される媒体出力装置106の上で媒体コンテンツを再生するようにパーソナルアシスタントサービスに依頼することができる。たとえば、ユーザは、WiFi(登録商標)スピーカに「OKグーグル、リビングのTVで猫のビデオを再生して」と言うことによって、媒体再生要求を発することができる。次にパーソナルアシスタントサービスは、デフォルトまたは指定の媒体アプリケーションを用いて要求された媒体コンテンツを要求されたデバイス上で再生することによって、媒体再生要求を満たす。
ユーザは、表示装置上で既に再生された媒体コンテンツに関する音声要求を電子デバイス190のマイクを介して行なうこともできる。ある実現例では、遠隔操作がない場合またはユーザが第2の画面装置を利用可能である場合に、現在表示されている媒体コンテンツのクローズドキャプションを音声によって表示装置上で開始させるまたは非活性化する。このように、ユーザは、物理的なユーザインターフェイスを有する他のデバイスを全く介することなく、アイズフリーかつハンズフリーの音声起動電子デバイス190を介して表示装置上でクローズドキャプションをオンにすることができ、そのような音声起動電子デバイス190は、聴覚に障害のあるユーザにとっての連邦アクセス要件を満たす。
ある実現例では、ユーザは、家の中を移動しながら現在の媒体セッションを持ち運びたくなることがある。これには、パーソナルアシスタントサービスが、第1のキャストデバイスから第1のキャストデバイスに直接に接続されていないまたは第1のキャストデバイスの存在を知らない第2のキャストデバイスに現在の媒体セッションを転送することが必要である。媒体コンテンツの転送の後に、第2のキャストデバイス108に結合される第2の出力装置106は、第1の出力装置106上で媒体コンテンツの再生が見合わせられた楽曲またはビデオクリップ内の正確な地点から、第1のキャストデバイス108に結合される第1の出力装置106で以前行なわれていた媒体コンテンツの再生を継続する。
ある実現例では、媒体装置(たとえば出力装置106およびキャストデバイス108)と音声起動電子デバイス190とに加えて、スマートホームデバイスも、(スマートホームデバイスの存在に鑑みて、広くはスマートホーム環境とも呼ばれる)スマートメディア環境100の壁154、床156、または天井158上に取付ける、これと一体化する、および/またはこれによって支持することができる。一体化されたスマートホームデバイスは、スマートホームネットワークにおいて互いに、および/またはセントラルサーバもしくはクラウドコンピューティングシステムにシームレスに一体化されて、さまざまな有用なスマートホーム機能を提供する、インテリジェントでマルチセンシングのネットワーク接続されたデバイスを含む。ある実現例では、スマートホームデバイスは、キャストデバイス108および/または出力装置106と同じスマートホーム環境100の場所に配設され、したがって、キャストデバイス108および出力装置106に近接してまたはこれらに対して既知の距離に位置する。
スマートメディア環境100中のスマートホームデバイスは、1つ以上のインテリジェントでマルチセンシングのネットワーク接続されたサーモスタット122、1つ以上のインテリジェントなネットワーク接続されたマルチセンシングハザード検出器124、(以下「スマート呼び鈴126」および「スマートドアロック128」と称される)1つ以上のインテリジェントでマルチセンシングのネットワーク接続された進入通路インターフェイスデバイス126および128、1つ以上のインテリジェントでマルチセンシングのネットワーク接続されたアラームシステム130、1つ以上のインテリジェントでマルチセンシングのネットワーク接続されたカメラシステム132、ならびに1つ以上のインテリジェントでマルチセンシングのネットワーク接続された壁スイッチ136を含むことがあるが、これらに限定されない。ある実現例では、図1のスマートメディア環境100中のスマートホームデバイスは、冷蔵庫、ストーブ、オーブン、テレビ、洗濯機、乾燥機、照明器具、ステレオ、インターホンシステム、ガレージドア開閉機、フロアファン、天井ファン、壁据付け型空調機、プールヒータ、灌漑システム、セキュリティシステム、スペースヒータ、窓ACユニット、電動式ダクト通気孔などの、(以下「スマート機器138」と称される)複数のインテリジェントでマルチセンシングのネットワーク接続された機器138を含む。
スマートメディア環境100中のスマートホームデバイスは、付加的にまたは代替的に、1つ以上の他の近接センサ(たとえば、タッチ画面、IRセンサ、周囲光センサ、および動き検出器)を含んでもよい。ある実現例では、スマートメディア環境100中のスマートホームデバイスは、中にいる人の上に位置するまたはその中に埋込まれるRFIDタグに基づいて中にいることを判定する(たとえば各部屋152またはその一部の中の)無線周波数識別(RFID)リーダを含む。たとえば、RFIDリーダは、スマートハザード検出器104に一体化されてもよい。
ある実現例では、検知能力を含有することに加えて、(「スマートホームデバイス」または「スマートホームデバイス120」と総称される)デバイス122、124、126、128、130、132、136、および138は、他のスマートホームデバイス、セントラルサーバもしくはクラウドコンピューティングシステム、ならびに/またはネットワーク接続される他のデバイス(たとえば、クライアントデバイス104、キャストデバイス108、および音声起動電子デバイス190)とのデータ通信および情報共有をすることができる。同様に、キャストデバイス108および音声起動電子デバイス190の各々も、他のキャストデバイス108、音声起動電子デバイス190、スマートホームデバイス、セントラルサーバもしくはクラウドコンピューティングシステム140、および/またはネットワーク接続される他のデバイス(たとえばクライアントデバイス104)とのデータ通信および情報共有が可能である。データ通信は、さまざまなカスタムもしくは標準的ワイヤレスプロトコル(たとえば、IEEE 802.15.4、Wi-Fi、ZigBee、6LoWPAN、スレッド(Thread)、Z-Wave、ブルートゥース(登録商標)スマート、ISA100.11a、ワイヤレスHART、MiWiなど)のうち任意のもの、および/またはさまざまなカスタムもしくは標準的有線プロトコル(たとえば、イーサネット(登録商標)、ホームプラグなど)のうち任意のもの、またはこの文書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の好適な通信プロトコルを用いて行なわれてもよい。
ある実現例では、キャストデバイス108、電子デバイス190、およびスマートホームデバイスは、無線または有線リピータとして働く。ある実現例では、キャストデバイス108のうち最初の1つは、ワイヤレスルータを介して、キャストデバイス108のうち第2のものおよびスマートホームデバイスと通信する。キャストデバイス108、電子デバイス190、およびスマートホームデバイスはさらに、インターネット110などのネットワークへの接続部(たとえば、ネットワークインターフェイス160)を介して互いと通信し得る。インターネット110を通して、キャストデバイス108、電子デバイス190、およびスマートホームデバイスは、(本明細書中でセントラルサーバシステムおよび/またはクラウドコンピューティングシステムとも呼ばれる)スマートサーバシステム140と通信し得る。任意に、スマートサーバシステム140は、キャストデバイス108およびユーザに表示される媒体コンテンツに関連付けられる製造者、サポートエンティティ、またはサービス提供者に関連付けられてもよい。
したがって、スマートサーバシステム140は、音声起動電子デバイスによって収集されたオーディオ入力を処理する音声支援サーバ112と、表示された媒体コンテンツを提供する1つ以上のコンテンツホスト104と、分散したデバイス端末に基づいて仮想ユーザドメインを作成するクラウドキャストサービスサーバ116と、仮想ユーザ環境において分散したデバイス端末の記録を取るデバイスレジストリ118とを含んでもよい。分散したデバイス端末の例は、キャストデバイス108、媒体出力装置106、電子デバイス190、およびスマートホームデバイスを含むが、これらに限定されない。ある実現例では、これらの分散したデバイス端末は、仮想ユーザドメインでユーザアカウント(たとえば、グーグルユーザアカウント)にリンクされる。
ある実現例では、ネットワークインターフェイス160は従来のネットワークデバイス(たとえばルータ)を含む。図1のスマートメディア環境100はさらに、直接にまたはネットワークインターフェイス160を介してネットワーク110に通信するように結合されるハブ装置180を含む。ハブ装置180はさらに、上記インテリジェントでマルチセンシングのネットワーク接続されたデバイス(たとえばキャストデバイス108、電子デバイス190、スマートホームデバイス、およびクライアントデバイス104)のうち1つ以上に通信するように結合される。これらのネットワーク接続されたデバイスの各々は、任意に、少なくともスマートメディア環境100において利用可能な1つ以上の無線通信ネットワーク(たとえば、ZigBee、Z-Wave、Insteon、ブルートゥース(登録商標)、Wi-Fi(登録商標)、および他の無線通信ネットワーク)を用いてハブ装置180と通信する。ある実現例では、ハブ装置180およびハブ装置と/に結合されるデバイスは、スマートフォン、家庭用コントローラ、ラップトップ、タブレットコンピュータ、ゲーム機、または同様の電子デバイス上で実行されるアプリケーションを介して制御されることができる、および/またはこれと対話することができる。ある実現例では、そのようなコントローラアプリケーションのユーザは、ハブ装置または結合されたネットワーク接続デバイスのステータスを見る、ホームネットワークに新たに導入されたデバイスと相互動作するようにハブ装置を構成する、新たなデバイスをコミッショニングする、および接続されたデバイスの設定を調整または見る、などすることができる。
図2Aは、ある実現例に従って音声起動電子デバイス190がスマートメディア環境100のキャストデバイス108、クライアントデバイス104、またはサーバシステム140と対話する例示的な動作環境である。音声起動電子デバイス190は、音声起動電子デバイス190に近接した環境からオーディオ入力を受信するように構成される。任意に、電子デバイス190はオーディオ入力を記憶し、オーディオ入力を少なくとも部分的にローカルに処理する。任意に、電子デバイス190は、受信したオーディオ入力または部分的に処理されたオーディオ入力を以降の処理のために通信ネットワーク110を介して音声支援サーバ112に送信する。キャストデバイス108は、1つ以上のコンテンツホスト114から媒体コンテンツまたはインターネットコンテンツを取得してキャストデバイス108に結合される出力装置106上に表示するように構成される。以上説明したように、キャストデバイス108および音声起動電子デバイス190は、ユーザドメインにおいて互いにリンクされ、より具体的には、ユーザドメイン中でユーザアカウントを介して互いに関連付けられる。キャストデバイス108の情報および電子デバイス190の情報は、ユーザアカウントに関連付けられてデバイスレジストリ118中に記憶される。
ある実現例では、キャストデバイス108および音声起動電子デバイス190は表示画面を全く含んでおらず、コミッショニングプロセスの間にユーザインターフェイスを提供するにはクライアントデバイス104に頼らなければならない。具体的に、クライアントデバイス104には、ユーザインターフェイスが、クライアントデバイス104に近接して配設される新たなキャストデバイス108または新たな音声起動電子デバイス190のコミッショニングを容易化できるようにするアプリケーションがインストールされる。ユーザは、コミッショニングの必要がある新たなキャストデバイス108または電子デバイス190のためのコミッショニングプロセスを開始する要求をクライアントデバイス104のユーザインターフェイス上で送り得る。コミッショニング要求を受信した後、クライアントデバイス104は、コミッショニングの必要がある新たなキャストデバイス108または電子デバイス190との短距離通信リンクを確立する。任意に、短距離通信リンクは、近距離無線通信(NFC)、ブルートゥース(登録商標)、ブルートゥース(登録商標)ローエナジー(BLE)などに基づいて確立される。次にクライアントデバイス104は、ワイヤレスローカルエリアネットワーク(WLAN)に関連付けられるワイヤレスコンフィギュレーションデータを新たなキャストデバイス108または電子デバイス190に伝える。ワイヤレスコンフィギュレーションデータは、少なくとも、WLANセキュリティコード(すなわちサービスセット識別子(SSID)パスワード)を含み、任意にSSID、インターネットプロトコル(IP)アドレス、プロキシコンフィギュレーション、およびゲートウェイコンフィギュレーションを含む。短距離通信リンクを介してワイヤレスコンフィギュレーションデータを受信した後、新たなキャストデバイス108または電子デバイス190は、ワイヤレスコンフィギュレーションデータを復号しかつ回復して、ワイヤレスコンフィギュレーションデータに基づいてWLANに参加する。
付加的なユーザドメイン情報は、クライアントデバイス104上に表示されるユーザインターフェイス上に入力され、新たなキャストデバイス108または電子デバイス190をユーザドメイン中のアカウントにリンクするのに用いられる。任意に、付加的なユーザドメイン情報は、短距離通信リンクを介してワイヤレス通信データとともに新たなキャストデバイス108または電子デバイス190に伝えられる。任意に、付加的なユーザドメイン情報は、新たなデバイスがWLANに参加した後に、WLANを介して新たなキャストデバイス108または電子デバイス190に伝えられる。
キャストデバイス108および電子デバイス190が一旦ユーザドメインにおいてコミッショニングされると、キャストデバイス108、出力装置106、およびそれらの関連の媒体再生行動は、2つの制御経路(制御経路Aおよび制御経路B)を介して制御され得る。制御経路Aに従うと、クライアントデバイス104にインストールされたキャストデバイスアプリケーションまたは1つ以上の媒体再生アプリケーションを用いて、キャストデバイス108およびその関連の媒体再生行動を制御する。これに代えて、制御経路Bに従うと、電子デバイス190を用いて、キャストデバイス108およびその関連の媒体再生行動のアイズフリーかつハンズフリーの制御(たとえば、出力装置106上での媒体コンテンツ再生のプレイバック、および現在出力装置106上に表示されている媒体コンテンツのクローズドキャプションの起動)が可能になる。
図2Bは、図2Aに示される制御経路Bに従ってキャストデバイス108およびその関連の媒体再生行動を制御する媒体再生制御プロセス250の例示的なフロー図である。アシスタントサーバ(たとえば音声支援サーバ112)は、音声起動電子デバイス190をサポートし、探索スタックとの対話を制御し、かつ電子デバイス190が収集した生の音声入力に従ってどの媒体行為を実行する必要があるかを解決するように構成される。アシスタントサーバは、クラウドキャストサービスサーバ116に要求を送り(202)、これは次に、媒体行為を目標キャストデバイス108が実行可能なアクションスクリプト(Action Script)に変換する。Action Scriptには2つの可能な実行経路がある。第1の実行経路Aに従うと、これはアシスタントサーバへの応答において返される。これが「ローカル経路」である。目標キャストデバイス108が音声起動電子デバイス190自体であれば、Action Scriptはアシスタントサーバから容易に入手可能である。これに代えて、第2の実行経路Bに従うと、クラウドキャストサービスサーバ116は、クラウドメッセージングサービスを介してAction Scriptをデバイスに発送する。これが遠隔実行経路である。ある実現例では、両方の実行経路が並列に取られ、目標キャストデバイス108は、2番目に到達するAction Scriptを無視する。unique_command_idは、あらゆるExecuteCloudCastCommandに関連付けられる。
ある実現例では、音声アシスタントサーバは、以下のようなCloudCastCommandを用いてexecuteCastCommandの遠隔手順呼出(RPC)を行なう。
一旦コマンドを取得すると、クラウドキャストサービスサーバ116は、このCloudCastCommandを、unique_command_idおよびtarget_device_idによって鍵をかけられた整合した記憶装置の中に維持する。CloudCastCommandは、別のコマンドが同じ目標キャストデバイス108もしくは電子デバイス190について発行された場合に、または/executionReport終点がSUCCESS/ERRORステータスのいずれかを受信したときに、置換されるかまたは除かれる。次にクラウドキャストサービスサーバ116は、古くなった(ある期間に終了しなかった)コマンドをクリーンアップし、Cast Action Scriptを生成する。Cast Action Scriptが一旦生成されると、クラウドキャストサービスサーバ116は、RPC応答においてスクリプトを返し、(source_device_id != target_device_id)であればグーグルクラウドメッセージングサービスを用いて応答を送る。
ある実現例では、キャストデバイス108は、以下のようにCast Action Scriptを実行している間におよびその後で、そのステータスを報告する(204)。
ある実現例では、キャストデバイス108は、そのステータスが変化するときは常に、そのステータスをステータスメッセージで更新する。ある実現例では、キャストデバイス108は、クラウドキャストサービスサーバ116にその存在を知らせる拍動を周期的に送り、クラウドキャストサービスサーバ116は、last_action_timeフィールドを秒での紀元以来時間に更新する。クラウドキャストサービスサーバ116は、任意にクラウドメッセージングサービスを介して、実行ステータスメッセージを送り側デバイス(たとえば音声起動電子デバイス190)に送る。音声起動電子デバイス190は次に、TTSおよびプレイバックのために、S3を呼出す。
媒体出力装置上での音声起動媒体再生
図2Aを参照して、キャストデバイス108と音声起動電子デバイス190とが両者ともコミッショニングされかつ共通のユーザドメインにリンクされた後、音声起動電子デバイス190を音声ユーザインターフェイスとして用いて、遠隔操作を介さないキャストデバイス108、クライアントデバイス104、または他の第2の画面装置への媒体コンテンツストリーム配信のアイズフリーかつハンズフリーの制御を可能にすることができる。たとえば、ユーザは、「リビングのスピーカでレディー・ガガを再生」などの音声コマンドを与え得る。レディー・ガガの楽曲またはビデオクリップが「リビングのスピーカ」に関連付けられるキャストデバイス108にストリーム配信される。クライアントデバイス104は関与せず、クライアントデバイス104にロードされるキャストデバイスアプリケーションまたは媒体再生アプリケーションも関与しない。
クラウドキャストサービス116は、クライアントデバイス104上のアプリケーションを全く介さずに音声起動電子デバイスをキャストデバイス108に通信するようにリンクしかつキャストデバイス108へのキャスティングを可能にするプロキシサービスである。具体的に、音声メッセージは電子デバイス190によって記録され、音声メッセージは、媒体出力装置106上での媒体再生を要求するように構成される。任意に、電子デバイス190は、音声メッセージを部分的にローカルに処理する。任意に、電子デバイス190は、以降の処理のために、音声メッセージまたは部分的に処理された音声メッセージを通信ネットワーク110を介して音声支援サーバ112に送信する。クラウドキャストサービスサーバ116は、音声メッセージが第1の媒体再生要求を含むと判定し、かつ第1の媒体再生要求が媒体出力装置106上で媒体コンテンツを再生するというユーザ音声コマンドと媒体出力装置106のユーザ音声指定とを含むと判定する。ユーザ音声コマンドはさらに、第1の媒体再生アプリケーション(たとえばユーチューブ(YouTube)(登録商標)およびネットフリックス(Netflix))の情報と、再生する必要がある媒体コンテンツ(たとえばレディー・ガガの音楽)とを少なくとも含む。
媒体出力装置の音声指定に従って、クラウドキャストサービスサーバ116は、デバイスレジストリ118において、ユーザドメインにおいて電子デバイス190に関連付けられかつ媒体出力装置106に結合されるキャストデバイスをする。キャストデバイス108は、媒体出力装置106を制御して、1つ以上の媒体コンテンツホスト114から受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成される。次に、クラウドキャストサービスサーバ116は、キャストデバイス108に、第1の媒体再生アプリケーションの情報と再生する必要がある媒体コンテンツとを含む第2の媒体再生要求を送る。クラウドキャストサービスサーバ116が送った情報を受信すると、キャストデバイス108は、第1の媒体再生アプリケーションを実行し、媒体出力装置106を制御して要求された媒体コンテンツを再生する。
ある実現例では、媒体出力装置106のユーザ音声指定は、送り先媒体出力装置の記述を含む。クラウドキャストサービスサーバ116は、レジストリにおいて、送り先媒体出力装置の記述に従って複数の媒体出力装置の中から送り先媒体出力装置を識別する。ある実現例では、送り先媒体出力装置の記述は、媒体出力装置106のブランド(「サムスンTV」)または場所(「私のリビングのTV」)を少なくとも含む。
音声起動クローズドキャプション表示
米国連邦アクセシビリティ法は、ウェブサイト、電子メール、またはウェブ文書などの電子通信および情報技術がアクセス可能であることと、聾のまたは聴覚障害のあるユーザ向けのクローズドキャプションの選択肢とともに映像コンテンツを提示しなければならないこととを要件としている。図2Aを参照して、キャストデバイス108と音声起動電子デバイス190とが両者ともコミッショニングされて共通のユーザドメインにリンクされた後、音声起動電子デバイス190を音声ユーザインターフェイスとして用いて、媒体出力装置106上で現在表示されている媒体コンテンツを用いたクローズドキャプション表示のアイズフリーかつハンズフリーの制御を可能にすることができる。具体的に、音声認識システムは、キャプションをオンにするという音声コマンドを、クラウドキャストサービスに送られる認識可能なメッセージに翻訳する。クラウドキャストサービスは、このメッセージを解釈して、キャストデバイスにインストールされた媒体再生アプリケーション(たとえばユーチューブ)にコマンドを送る。媒体再生アプリケーションはそのコマンドを受信し、メッセージに基づいてキャプショントラックをレンダリングする。そのため、ユーザは次に、声を用いて媒体出力装置上でのキャプションのオンオフを切換えることができる。このクローズドキャプション表示の制御は、遠隔操作、クライアントデバイス104、または他の第2の画面装置を全く介さず、またクライアントデバイス104上にロードされたキャストデバイスアプリケーションまたは媒体再生アプリケーションも全く呼出さない。したがって、クローズドキャプション表示の音声起動制御は、特に聾のまたは聴覚障害のあるユーザにとっての連邦アクセシビリティ要件を満たす。
現在表示される媒体コンテンツのためのクローズドキャプションの表示の開始をユーザが意図する場合、ユーザは、電子デバイス190が記録する音声メッセージ(たとえば「クローズドキャプションをオン」)を送る。任意に、電子デバイス190は、音声メッセージを部分的にローカルに処理する。任意に、電子デバイス190は、以降の処理のために、音声メッセージまたは部分的に処理された音声メッセージを音声支援サーバ112に送信する。クラウドキャストサービスサーバ116は、音声メッセージが第1のクローズドキャプション開始要求であると判定し、かつ第1のクローズドキャプション開始要求が、クローズドキャプションを開始するというユーザ音声コマンドと、クローズドキャプションをそれについて起動すべき媒体コンテンツを再生する表示装置106のユーザ音声指定とを含むと判定する。ある実現例では、電子デバイス190は、記録された音声メッセージを直接にクラウドキャストサービスサーバ116に送信する。クラウドキャストサービスサーバ116は、音声メッセージを音声支援サーバ112に移送して音声メッセージを構文解析してユーザ音声コマンドと送り先媒体装置のユーザ音声指定とを識別し、かつ音声支援サーバ112からユーザ音声コマンドと送り先媒体装置のユーザ音声指定とを受信することによって音声メッセージが第1のクローズドキャプション開始要求であると判定する。
表示装置の指定に従って、クラウドキャストサービスサーバ116は、デバイスレジストリ118において、ユーザドメインにおいて電子デバイス190に関連付けられかつ指定された表示装置106に結合されるキャストデバイス108を識別する。キャストデバイス108は、指定された表示装置を制御して、媒体コンテンツホストから受信した媒体コンテンツを表示するための媒体再生アプリケーションを実行するように構成される。ある実現例では、電子デバイス190とキャストデバイス108との両者がユーザドメイン中のユーザアカウントに関連付けられる。ユーザアカウントはグーグルユーザアカウントであり得る。
次に、クラウドキャストサービスサーバ116は、指定された表示装置に結合されたキャストデバイスに第2のクローズドキャプション開始要求を送る。クラウドキャストサービスサーバ116が送った情報を受信すると、キャストデバイス108は、媒体再生アプリケーションを実行して、指定された表示装置106を制御して、指定された表示装置106上に現在表示されている媒体コンテンツのクローズドキャプションをオンにして、第2のクローズドキャプション開始要求に応じたクローズドキャプションを表示する。ある実現例では、クローズドキャプションは、デフォルトクローズドキャプション表示仕様に従って、指定された表示装置上に表示される。
ある実現例では、第1のクローズキャプション開始要求に従って、クラウドキャストサービスサーバ116は、クローズドキャプションの表示仕様を判定する。第2のクローズドキャプション開始要求はクローズドキャプションの表示仕様を含み、キャストデバイスは、媒体再生アプリケーションを実行して、表示装置を制御して、表示仕様に従ってクローズドキャプションを表示するように構成される。さらに、ある実現例では、クローズドキャプションの表示仕様は、フォント(たとえばエイリアル)、フォントサイズ(たとえば12)、フォントの色(たとえば白)、および背景色(たとえば黒)のうち少なくとも1つを含む。さらに、ある実現例では、クラウドキャストサービスサーバ116を介してクローズドキャプションの表示仕様を送ることにより、ユーザは、(「より大きなキャプション」または「背景色を青に変更」などの)カスタム音声コマンドを翻訳してキャストデバイス108に送られるクローズドキャプション開始要求を更新することによって、クローズドキャプションのフォーマットを調整できるようになる。加えて、クローズドキャプション表示のそのような音声起動制御により、マイクを有する任意の電子デバイス(たとえば携帯電話)が媒体コンテンツのプレイバックを開始して媒体表示装置106上のクローズドキャプションを調整できるようになる。
ある実現例では、電子デバイス、キャストデバイス、および指定された表示装置は互いに近接して配設されるが、クラウドキャストサービスシステム116、音声支援サーバ112、およびデバイスレジストリ118からは遠隔に位置する。ある実現例では、クラウドキャストサービスシステム116、音声支援サーバ112、およびデバイスレジストリ118のうち2つ以上は単一のサーバにおいて一体化される。ある実現例では、クラウドキャストサービスシステム116、音声支援サーバ112、およびデバイスレジストリ118は、指定された表示装置106上での表示のために媒体コンテンツをキャストデバイス108に与えるコンテンツホスト114とは別個である。
ある実現例では、媒体出力装置106のユーザ音声指定は、送り先媒体出力装置の記述を含む。クラウドキャストサービスサーバ116は、レジストリにおいて、送り先媒体出力装置の記述に従って、複数の媒体出力装置の中から送り先媒体出力装置を識別する。ある実現例では、送り先媒体出力装置の記述は、媒体出力装置106のブランド(「サムスンTV」)または場所(「私のリビングのTV」)を少なくとも含む。
媒体出力装置間での音声起動媒体転送
図3は、ある実現例に従う、キャストデバイス108がスマートメディア環境100のクライアントデバイス104、音声起動電子デバイス190、またはサーバシステムと対話する別の例示的な動作環境である。スマートメディア環境100は、第1のキャストデバイス108−1と、第1のキャストデバイスに結合される第1の出力装置106−1とを含む。スマートメディア環境100は、第2のキャストデバイス108−2と、第1のキャストデバイスに結合される第2の出力装置106−2とも含む。キャストデバイス108−1および108−2は、任意に、スマートメディア環境100中の同じ場所(たとえばリビング)にまたは2つの別個の場所(たとえば2つの部屋)に位置する。キャストデバイス108−1および108−2の各々は、媒体ホスト114から媒体コンテンツまたはインターネットコンテンツを取得して、それぞれのキャストデバイス108−1または108−2に結合される出力装置106上で表示するように構成される。第1のキャストデバイスと第2のキャストデバイスとの両者がクラウドキャストサービスサーバ116およびコンテンツホスト114に通信するように結合される。
スマートメディア環境100はさらに、クラウドキャストサービスサーバ116および音声支援サーバ112に通信するように結合される1つ以上の音声起動電子デバイス190を含む。ある実現例では、音声起動電子デバイス190は、キャストデバイス108および出力装置106とは独立して配設される。たとえば、図1に示されるように、電子デバイス190−4は、キャストデバイス108または出力装置106が位置していない部屋に配設される。ある実現例では、第1の電子デバイス190−1は、第1のキャストデバイス108−1および第1の出力装置106−1に近接して配設される。たとえば、第1の電子デバイス190−1、第1のキャストデバイス108−1、および第1の出力装置106−1は、同じ部屋の中に位置する。任意に、第2の電子デバイス190−2は、第2のキャストデバイス108−2および第2の出力装置106−2とは独立してまたはこれらに近接して配設される。
媒体コンテンツが第1の出力装置106−1上で再生中である場合、ユーザは、電子デバイス190のうち任意のものに音声コマンドを送って、第2の出力装置106−2に転送すべき媒体コンテンツの再生を要求し得る。音声コマンドは、媒体再生転送要求を含む。1つの状況では、ユーザは、ユーザが目的の場所に移動する前に、第1のキャストデバイス108−1に近接して配設される電子デバイス190−1に音声コマンドを発行することができる。これに代えて、別の状況では、ユーザは、ユーザが目的の場所に到着した後に、第2のデバイス108−2に近接して配設される電子デバイス190−2に音声コマンドを発行することができる。
音声コマンドはクラウドキャストサービスサーバ116に送信される。クラウドキャストサービスサーバ116は、媒体表示情報要求を第1のキャストデバイス108−1に送って第1のキャストデバイス108−1に結合される第1の出力装置106−1上で現在再生中の媒体コンテンツの即時媒体再生情報を要求する。第1のキャストデバイス108−1は次に、クラウドキャストサービスサーバ116に、第1の媒体再生アプリケーション(たとえばユーチューブ)の情報と、現在再生中の媒体コンテンツ(たとえば、「レディー・ガガ−国歌−スーパーボウル2016」)と、媒体コンテンツの再生に関する時間的位置とを少なくとも含む、要求された即時再生情報を返す。次に第2のキャストデバイス108−2は、クラウドキャストサービスサーバ116から即時再生情報を含む媒体表示要求を受信し、即時再生情報に従って第2の出力装置106−2を制御して当該時間的場所から媒体コンテンツを再生する第1の媒体再生アプリケーションを実行する。
具体的な例では、第1の出力装置106−1上で音楽プレイリストが再生されるときに、ユーザは「私のリビングのスピーカで再生」と言う。第1の出力装置106−1は、現在再生されている歌の再生を停止し、停止された歌はリビングのスピーカで再開する。歌が終わると、リビングのスピーカは、第1の出力装置106−1上で以前再生された音楽プレイリスト上の次の歌の再生を続ける。そのため、ユーザがスマートホーム環境100中で動き回っている場合、限られたユーザの介入(すなわち、音声コマンドを与えること)しか介さずに、媒体コンテンツの再生はシームレスにユーザに追従する。そのような媒体コンテンツのシームレスな転送は、以下の操作のうち1つ以上に従って達成される。
・音声アシスタントサービス(たとえば音声支援サーバ112)は、それが媒体を1つの出力装置(送り側)から別の出力装置(送り先)に転送するというユーザ音声コマンドであると認識する。
・アシスタントサービスは、ユーザ音声コマンドを含むメッセージをクラウドキャストサービスサーバ116に渡す。
・次にクラウドキャストサービスサーバ116は、ソース出力装置106−1に、媒体ストリームを転送するのに必要なデータのブロブ(blob)を与えるように依頼する。
・データのブロブの内容はパートナーに依存するが、それは典型的には、再生中の現在の媒体コンテンツと、現在の媒体コンテンツについての位置と、現在の媒体コンテンツのストリーム配信容量とを含有する。
・任意に、データのブロブの内容は、現在の媒体コンテンツの入れ物の情報(たとえば媒体コンテンツが属するプレイリスト)と、プレイリスト内の現在の媒体コンテンツの位置とを含む。
・クラウドキャストサービスサーバ116は、媒体コンテンツの再生を停止するように送り側デバイスに告げる。
・次にクラウドキャストサービスサーバ116は、適切な受信機アプリケーション(たとえば媒体再生アプリケーション)を送り先(すなわち、送り側出力装置上で実行されている同じ受信機アプリケーション)にロードする。
・クラウドキャストサービスサーバ116は、媒体コンテンツの転送を再開するという受信機アプリケーションへの命令とともに、このデータのブロブを送り先キャストデバイス108−2に送る。
・受信機アプリケーションは、データブロブを解釈して、応じて媒体コンテンツを再開する。
具体的に、サーバ側で、方法は、媒体コンテンツ表示の再生を送り側媒体出力装置から送り先媒体出力装置に移動させるために、クラウドキャストサービスサーバ116によって実現される。クラウドキャストサービスサーバ116は、電子デバイス190−1または190−2が記録する音声メッセージを受信し、音声メッセージが媒体転送要求を含むと判定する。以上で説明したように、電子デバイスは、第1の場所に位置する送り側キャストデバイス108−1に近接して、第2の場所に位置する送り先キャストデバイス108−2に近接して、または送り側キャストデバイスと送り先キャストデバイスとの両方から独立して、配設され得る。ある実現例では、電子デバイス190、送り側キャストデバイス108−1、および送り先キャストデバイス108−2は、クラウドキャストサービスサーバ116が管理するユーザドメイン中のユーザアカウントに関連付けられる。ユーザアカウントはグーグルユーザアカウントであり得る。
ユーザ音声コマンド中の媒体転送要求は、再生中の媒体コンテンツを送り先媒体出力装置190−2に転送するというユーザ音声コマンドと、送り先媒体出力装置190−2のユーザ音声指定とを含む。ある実現例では、電子デバイス190−1または190−2が記録する音声メッセージを受信した後に、クラウドキャストサービスサーバ116は、音声メッセージを音声支援サーバ112に移送し、音声支援サーバは音声メッセージを構文解析してユーザ音声コマンドと送り先媒体出力装置の音声指定とを識別し、音声支援サーバ112からユーザ音声コマンドと送り先媒体出力装置106−2の音声指定とを受信する。
クラウドキャストサービスサーバ116は、送り側キャストデバイス108−1から現在再生中の媒体コンテンツの即時媒体再生情報を取得する。即時再生情報は、第1の媒体再生アプリケーションの情報と、現在再生中の媒体コンテンツと、媒体コンテンツの再生に関する時間的位置とを少なくとも含む。時間的位置は、ユーザが送り先出力装置106−2への媒体コンテンツの移動を要求したときに記録され得る。ある実現例では、クラウドキャストサービスサーバ116は、媒体コンテンツが送り側媒体出力装置106−1で現在再生中であると識別する。クラウドキャストサービスサーバ116は、デバイスレジストリ118において、ユーザドメインにおいて電子デバイス190に関連付けられかつ送り側媒体出力装置106−1に結合される送り側キャストデバイス108−1を識別する。次に、クラウドキャストサービスサーバ116は、媒体情報要求を送り側キャストデバイス108−1に送り、これにより、即時媒体再生情報を送り側キャストデバイス108−1から受信する。
送り先媒体出力装置の音声指定に従って、クラウドキャストサービスサーバ116は、デバイスレジストリ118において、ユーザドメインにおいて電子デバイスに関連付けられかつ送り先媒体出力装置106−2に結合される送り先キャストデバイス108−2を識別する。送り先キャストデバイス108−2は、送り先媒体出力装置106−2を制御して、1つ以上の媒体コンテンツホスト114から受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成される。ある実現例では、送り先媒体出力装置106−2のユーザ音声指定は、送り先媒体出力装置106−2の記述(たとえば、出力装置106−2のブランドおよび場所)を含む。クラウドキャストサービスサーバ116は、レジストリ112において、送り先媒体出力装置106−2の記述に従って、複数の媒体出力装置の中から送り先媒体出力装置106−2を識別する。このように、ユーザは、デバイスレジストリ112中の記録に一致する正確なデバイス識別を与える必要がなく、クラウドキャストサービスサーバ116は、送り先媒体出力装置106−2の記述に基づいて送り先媒体出力装置106−2を判定することができる。
即時再生情報を取得して送り先キャストデバイス108−2を識別した後、クラウドキャストサービスサーバ116は、送り先キャストデバイス108−2に即時媒体再生情報を含む媒体再生要求を送り、これにより、送り先キャストデバイス108−2は、送り先媒体出力装置106−2を制御して当該時間的場所から媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになる。ある実現例では、ユーザ音声コマンドに従って、クラウドキャストサービスサーバ116は、媒体停止要求も送り側キャストデバイス108−1に送り、これにより、送り側キャストデバイス108−1は、送り側媒体出力装置106−1上での媒体コンテンツの再生を見合わせるように、送り側媒体出力装置に結合される送り側キャストデバイス108−1を制御する第1の媒体再生アプリケーションを実行できるようになる。
この媒体転送方法は、媒体ストリームを転送するのに必要なデータをサービスから引離し、これを直接にストリーム配信サービス提供者とともに置くため、それらは、現在再生中のストリームを転送するのに必要なパラメータ(たとえばグーグルキャストプロトコル)を規定することができる。これは、任意の種類の媒体パートナーまたは媒体ストリームを収容するようにこの発明の設計を非常に柔軟に保つ。加えて、それは、(クラウドキャストサービスを介して)クラウドインフラストラクチャを強化してメッセージを転送し、かつ送り側デバイスと送り先デバイスとの間でのプレイバックを連動させる。これにより、この転送は、これらのキャストデバイスが互いのことを知らなくても、または同じワイヤレスローカルエリアネットワーク上になくても、行なわれるようになる。
クラウドキャストサービスサーバ116を介した媒体転送は、スケーラビリティ、柔軟性、およびデータセキュリティも可能にする。媒体を転送するのに必要なデータのブロブは具体的には、コンテンツ提供者パートナーの数およびストリーム種類の数を収容するように緩く規定される。ストリームは、個々の曲、プレイリスト、ライブストリーム、広告、自動再生映像、および多数の他のコンテンツフォーマットであり得る。データのブロブを柔軟にかつパートナー依存に保つことにより、すべての種類の媒体ストリームについて単一の方法が機能できるようになる。さらに、クラウドキャストサービスを送り側キャストデバイスおよび送り先キャストデバイスに独立して接続させることにより、これらのデバイスが互いに接続されたり、同じWLAN上に存在したり、または互いを知ったりする必要性がなくなる。さらに、CCSによる中抜きがない。送り側および送り先上の受信機アプリケーション同士の間で送られているデータは、クラウドキャストサービスサーバ116には不透明である。これにより、転送される媒体セッションについての機密の詳細は、クラウドキャストサービスを用いるパートナーとともに留まることができる。
音声起動電子デバイスの物理的特徴
図4Aおよび図4Bは、ある実現例に従う音声起動電子デバイス190の正面図400および背面図420である。電子デバイス190は暖かみがありかつ感じのよいものとして設計され、家の多数のエリアに自然に適合する。電子デバイス190は、1つ以上のマイク402とフルカラーLED404のアレイとを含む。フルカラーLED404は電子デバイス190の上面の下に隠され、点灯していないときはユーザから不可視であり得る。ある実現例では、フルカラーLED404のアレイは、物理的にリング状に配置される。さらに、電子デバイス190の背面側は、任意に、電源に結合するように構成される電源コネクタ408を含む。
ある実現例では、電子デバイス190は、見えるボタンのなくでこぼこがない外見を提示し、電子デバイス190との対話は、音声およびタッチジェスチャーに基づく。これに代えて、ある実現例では、電子デバイス190は、限られた数の物理的ボタン(たとえばその背面側のボタン406)を含み、電子デバイス190との対話は、音声およびタッチジェスチャーに加えて、ボタンの押下にさらに基づく。
電子デバイス190には1つ以上のスピーカが配設される。図4Cは、ある実現例に従う、電子デバイス190のベース410に内蔵されるスピーカ422を開いた構成で示す音声起動電子デバイス190の斜視図440である。図4Dおよび図4Eはそれぞれ、ある実現例に従う、内蔵される電子構成要素を示す音声起動電子デバイス190の側面図450および拡大図460である。電子デバイス190は、フルカラーLED404のアレイと、1つ以上のマイク402と、スピーカ422と、デュアルバンドWiFi(登録商標)802.11ac無線と、ブルートゥース(登録商標)LE無線と、周囲光センサと、USBポートと、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含む。
さらに、ある実現例では、電子デバイス190はさらに、電子デバイス190の上面上にタッチイベントを検出するように構成されるタッチ検知アレイ424を含む。タッチ検知アレイ424は、電子デバイス190の上面下に配設されかつ隠される。ある実現例では、ビアホールのアレイを含む回路基板の上面上に配置されるタッチ検知アレイ424およびフルカラーLEDは、回路基板のビアホール内に配設される。回路基板が電子デバイス190の上面のすぐ下に位置決めされる場合、フルカラーLED404とタッチ検知アレイ424との両者も、電子デバイス190の上面のすぐ下に配設される。
図4F(1)−図4F(4)は、ある実現例に従う音声起動電子デバイス190のタッチ検知アレイ424上で検出される4つのタッチイベントを示す。図4F(1)および図4F(2)を参照して、タッチ検知アレイ424は、音声起動電子部品190の上面上の回転方向のスワイプを検出する。時計回りのスワイプの検出に応答して、音声起動電子部品190はそのオーディオ出力の音量を上げ、反時計回りのスワイプの検出に応答して、音声起動電子部品190はそのオーディオ出力の音量を下げる。図4F(3)を参照して、タッチ検知アレイ424は、音声起動電子部品190の上面上の1回のタップによるタッチを検出する。1回目のタップによるタッチの検出に応答して、音声起動電子部品190は、第1の媒体制御動作を実現(たとえば特定の媒体コンテンツを再生)し、2回目のタップによるタッチの検出に応答して、音声起動電子部品190は、第2の媒体制御動作を実現(たとえば現在再生中の特定の媒体コンテンツを一時停止)する。図4F(4)を参照して、タッチ検知アレイ424は、音声起動電子部品190の上面上の2回のタップによるタッチ(たとえば2連続タッチ)を検出する。2連続タッチは、予め定められた長さより短い持続時間で分けられる。しかしながら、それらが予め定められた長さよりも長い持続時間で分けられる場合、2連続タッチは、2回の単発のタップによるタッチとみなされる。2回のタップによるタッチの検出に応答して、音声起動電子部品190はホットワード検出状態を開始する。この状態で、電子デバイス190は、1つ以上のホットワード(たとえば予め規定されたキーワード)をリッスンしかつそれを認識する。電子デバイス190がホットワードを認識するまで、電子デバイス190は音声支援サーバ112またはクラウドキャストサービスサーバ118にはオーディオ入力を全く送らない。
ある実現例では、フルカラーLED404のアレイは、LED設計言語に従って視覚的パターンの組を表示して、音声起動電子部品190の上面上での時計回りのスワイプ、反時計回りのスワイプ、1回のタップ、または2回のタップの検出を示すように構成される。たとえば、フルカラーLED404のアレイは順に点灯して、それぞれ図4F(1)および図4F(2)に示されるような時計回りまたは反時計回りのスワイプに追従し得る。図4Gおよび図4H(1)−図4H(8)を参照して、電子デバイス190の音声処理状態に関連付けられる視覚的パターンについてのさらなる詳細を以下に説明する。
図4F(5)は、ある実現例に従う音声起動電子デバイス190の背面側のボタン406に対するユーザによる例示的なタッチまたは押下を示す。ボタン406に対するユーザによる1回目のタッチまたは押下に応答して、電子デバイス190のマイクがミュートにされ、ボタン406に対するユーザによる2回目のタッチまたは押下に応答して、電子デバイス190のマイクが活性化される。
音声ユーザインターフェイスの視覚的アフォーダンスのためのLED設計言語
ある実現例では、電子デバイス190の単純さおよび低コストを考慮すると、電子デバイス190は、全表示画面よりもむしろ、フルカラー発光ダイオード(LED)のアレイを含む。LED設計言語は、フルカラーLEDのアレイの照明を構成しかつ電子デバイス190の異なる音声処理状態を示す異なる視覚的パターンを可能にするように採用される。LED設計言語は、固定された組のフルカラーLEDに適用される色、パターン、および具体的な動きの文法からなる。言語中の要素を組合せて、電子デバイス190の使用の際の具体的なデバイスの状態を視覚的に示す。ある実現例では、フルカラーLEDの照明は、他の重要な状態のうち、電子デバイス190の受動的リッスンおよび能動的リッスンの状態を明確に視覚的に示すことを目的とする。フルカラーLEDの配備は電子デバイス190の物理的制約に合致しており、特定の技術(たとえばGoogleアシスタント(登録商標))に基づいて第三者相手先商標製品製造業者(OEM)が製造するスピーカでフルカラーLEDのアレイを用いることができる。
特定の技術に基づいて第三者OEMが製造するスピーカでフルカラーLEDのアレイを用いる場合、フルカラーLEDおよびLED設計言語は、OEMスピーカの対応の物理的ユーザインターフェイスに合うように構成される。この状況では、デバイス状態を表わす特定の視覚的パターンが異なり得る(たとえば、フルカラーLEDの色は異なり得るが、同様のアニメーション効果を伴って表示される)一方で、OEMスピーカのデバイス状態は同じままである。
音声起動電子デバイス190では、受動的リッスンは、電子デバイス190がその周囲環境から収集したオーディオ入力の処理はするが、オーディオ入力を記憶したり任意の遠隔サーバにオーディオ入力を送信したりはしない場合に行なわれる。これに対し、能動的リッスンは、電子デバイス190がその周囲環境から収集したオーディオ入力を記憶する場合および/またはオーディオ入力を遠隔サーバと共有する場合に行われる。この出願のある実現例に従うと、電子デバイス190は、電子デバイス190のユーザのプライバシーを侵害することなく、その周囲環境のオーディオ入力を受動的にのみリッスンする。
図4Gは、ある実現例に従う音声起動電子デバイス190の上面図であり、図4Hは、ある実現例に従う、音声処理状態を示すためにフルカラーLEDのアレイによって表示される6つの例示的な視覚的パターンを示す。ある実現例では、電子デバイス190は、表示画面を全く含まず、フルカラーLED404が、全表示画面と比較して単純かつ低コストの視覚的ユーザインターフェイスを提供する。フルカラーLEDは電子デバイスの上面下に隠され、点灯していないときはユーザから不可視であり得る。図4Gおよび図4Hを参照して、ある実現例では、フルカラーLED404のアレイは、物理的にリング状に配置される。たとえば、図4H(6)に示されるように、フルカラーLED404のアレイは順に点灯して、それぞれ図4F(1)および図4F(2)に示されるような時計回りまたは反時計回りのスワイプに追従してもよい。
音声処理状態を視覚的に示すために、方法は電子デバイス190において実現される。電子デバイス190は、1つ以上のマイク402を介して電子デバイスに近接した環境からオーディオ入力を収集し、当該オーディオ入力を処理する。処理することは、環境中のユーザからの音声入力を識別することと、これに応答することとのうち1つ以上を含む。電子デバイス190は、複数の予め規定された音声処理状態の中から処理の状態を判定する。フルカラーLED404の各々毎に、電子デバイス190は、判定された音声処理状態に関連付けられるそれぞれの予め定められたLED照明仕様を識別する。照明仕様は、LED照明持続時間、パルスレート、デューティサイクル、色順、および明るさのうち1つ以上を含む。ある実現例では、電子デバイス190は、音声処理状態が複数のユーザのうちの1人に関連付けられていると判定し、複数のユーザのうちの1人のアイデンティティに応じてフルカラーLED404の予め定められたLED照明仕様(たとえば色順)のうち少なくとも1つをカスタマイズすることによって、フルカラーLED404の予め定められたLED照明仕様を識別する。
さらに、ある実現例では、判定された音声処理状態に従って、フルカラーLEDの色は、予め定められた組の色を含む。たとえば、図4H(2)、図4H(4)、および図4H(7)−(10)を参照して、予め定められた組の色は、青、緑、黄、および赤を含むグーグルブランドカラーを含み、フルカラーLEDのアレイは、各々がグループブランドカラーの1つに関連付けられる4つの象限に分割される。
フルカラーLEDの識別されたLED照明仕様に従って、電子デバイス190は、フルカラーLEDのアレイの照明を同期させて、判定された音声処理状態を示す視覚的パターンを与える。ある実現例では、音声処理状態を示す視覚的パターンは、複数の別々のLED照明画素を含む。ある実現例では、視覚的パターンは、開始セグメントと、ループセグメントと、終端セグメントとを含む。ループセグメントは、フルカラーLEDのLED照明持続時間に関連付けられかつ音声処理状態の長さに一致するように構成される時間長の間続く。
ある実現例では、電子デバイス190は、LED設計言語で表わされる、20を超える(複数の予め規定された音声処理状態を含む)異なるデバイス状態を有する。任意に、複数の予め規定された音声処理状態は、ホットワード検出状態、リッスン中状態、考え中状態、および応答中状態のうち1つ以上を含む。
1.ホットワード検出状態およびリッスン中状態
ある実現例では、電子デバイス190は、ホットワード検出状態で、1つ以上のホットワード(たとえば予め定められたキーワード)をリッスンしかつ認識する。電子デバイス190がホットワードを認識するまで、電子デバイス190は、音声支援サーバ112またはクラウドキャストサービスサーバ118にオーディオ入力を全く送らない。ホットワードが検出されると、電子デバイス190は、以降の処理のためにクラウドにさらに送信されるオーディオ入力をマイクが記録すると、リッスン中状態で動作し始める。リッスン中モードでは、予め定められた時間的位置(たとえばホットワードの検出の2秒前)から開始するオーディオ入力が音声支援サーバ112またはクラウドキャストサービスサーバ118に送信され、これにより、より自然な会話のような流れを求めたシームレスな問合せが容易になる。
したがって、ある実現例では、判定された音声処理状態が、1つ以上の予め規定されたホットワードが検出された際に生じるホットワード検出状態であるという判定に従って、フルカラーLEDのアレイは、交互に配置されかつ順に点灯するように構成される複数のダイオード群に分割され、複数のダイオード群の各々の中のダイオードが異なる色で点灯する。さらに、ある実現例では、判定された音声処理状態が、電子デバイスが環境から音声入力を能動的に受信しておりかつ受信した音声入力を遠隔サーバに与えている場合に生じるリッスン中状態であるという判定に従って、すべてのフルカラーLEDが単一の色で点灯し、各々のフルカラーLEDは明るさを異ならせてかつ変化させて点灯する。
図4H(1)、(3)、および(5)に示されるように、視覚的パターンは、音声処理状態に関連付けられる人間の反応(たとえば、呼吸、震え、瞬き、およびスワイプ)に一致するように構成され得る。たとえば、グーグルブランドカラーを用いる最もインパクトがある場所のうち1つに、周囲に注意を払っているのを示す起動を表わすスピン(attentive wake-up spin)が現れて、その後にゆったりと呼吸するかのようなアニメーションになるのは、忍耐強くかつ熱心なしかし礼儀をわきまえたリッスンを伝えている。色自体が、グーグル音声アシスタントのブランド感とその具体化感とを醸し出す。これらの要素は、デバイスの無表情な見かけとは対照をなして、非常に明確な非記録および記録中状態を示す。
2.考え中モードまたは作業中モード
具体的に、ある実現例では、音声処理状態が、電子デバイスがユーザから受信した音声入力を処理中である際に生じる考え中状態であるという判定に従って、LED照明持続時間の最初の照明サイクルの間には点灯するRGBダイオードの数が増えていき、第1の照明サイクルに続く第2の照明サイクルの間には、点灯するRGBダイオードの数が少なくなっていく。そのような視覚的パターンは、ある人物が考え中であるという人間の反応に一致している。任意に、マイク402は、考え中モードではオフにされる。
図4H(3)、図4H(5)、および図4H(6)を参照して、プログレスバーに最もよく似た動きおよび他の種類のデジタル待機信号を視覚的パターンで用いて考え中モードを示す。ある実現例では、追跡アニメーションに白を用いる。他の音声処理状態に対するよりよい区別となる対照および強調を与えるために、ここでは意図的にブランドカラーを用いない。
3.応答中モードまたは話し中モード
これに代えて、ある実現例では、音声処理状態が、ユーザから受信した音声入力に応答して電子デバイスが音声メッセージをブロードキャストする際に生じる応答中状態であるという判定に従って、フルカラーLEDのサブセットが単一色で明るさを別々にしてかつ変化させて点灯し、フルカラーLEDのサブセットの各々の明るさの変化は、ユーザからの音声入力に関連付けられる声の速度に一致する。ある実現例では、話し中モードは、音声アシスタントがその技術を示すところである。視覚的パターンでは色の組(たとえばグーグルブランドカラー)を用いるので、フルカラーLEDは、音声問合せに対する締切り、すなわち質問に答えが与えられたこと、を視覚的に示す。
スマートメディア環境に係る個々のデバイス
図5は、ある実現例に従う、スマートメディア環境100でユーザ音声コマンドを収集する音声インターフェイスとして適用される例示的な電子デバイス190を示すブロック図である。電子デバイス190は典型的に、1つ以上の処理ユニット(CPU)502と、1つ以上のネットワークインターフェイス504と、メモリ506と、(チップセットと呼ばれることがある)これらの構成要素を相互接続するための1つ以上の通信バス508とを含む。電子デバイス190は、図4A−図4Hに示されるボタン406、タッチ検知アレイ、および1つ以上のマイク402などのユーザ入力を容易にする1つ以上の入力装置510を含む。電子デバイス190は、1つ以上のスピーカ422およびフルカラーLED404のアレイを含む1つ以上の出力装置512も含む。
メモリ506は、DRAM、SRAM、DDR RAMなどの高速ランダムアクセスメモリまたは他のランダムアクセス固体メモリデバイスを含み、任意に、1つ以上の磁気ディスク記憶デバイス、1つ以上の光ディスク記憶デバイス、1つ以上のフラッシュメモリデバイス、または1つ以上の他の不揮発性固体記憶デバイスなどの不揮発性メモリを含む。メモリ506は、任意に、1つ以上の処理ユニット502から遠隔に位置する1つ以上の記憶デバイスを含む。メモリ506または代替的にメモリ506内の不揮発性メモリは、非一時的コンピュータ読出可能記憶媒体を含む。ある実現例では、メモリ506またはメモリ506の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造、またはその下位セットもしくは上位セットを記憶する。
・さまざまな基本的なシステムサービスを取扱いかつハードウェア依存タスクを行なうための手順を含むオペレーティングシステム516
・1つ以上のネットワークインターフェイス504(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して電子デバイス190を他のデバイス(たとえば、サーバシステム140、キャストデバイス108、クライアントデバイス104、スマートホームデバイス120、および他の電子デバイス190)に接続するためのネットワーク通信モジュール518
・1つ以上の入力装置510を介して入力を受信し、1つ以上の出力装置512を介して電子デバイス190での情報の提示を可能にするための入力/出力制御モジュールであって、以下を含む。
−電子デバイス190の周囲の環境で収集されるオーディオ入力もしくは音声メッセージを処理する、または音声支援サーバ112もしくはクラウドキャストサービスサーバ118での処理のために収集されたオーディオ入力もしくは音声メッセージを準備するための音声処理モジュール522
−電子デバイス190のデバイス状態に従ってフルカラーLED404の視覚的パターンを生成するためのLED制御モジュール524
−電子デバイス190の上面上のタッチイベントを検知するためのタッチ検知モジュール526
・電子デバイス190に関連付けられるデータを少なくとも記憶する音声起動デバイスデータ530であって、以下を含む。
−共通のデバイス設定(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)、ユーザドメイン中のユーザアカウントの情報、およびフルカラーLEDによって表示される1つ以上の視覚的パターンに関連付けられる表示仕様536を含む、電子デバイス190自体に関連付けられる情報を記憶するための音声デバイス設定532
−オーディオ信号、音声メッセージ、応答メッセージ、および電子デバイス190の音声インターフェイス機能に関する他のデータを記憶するための音声制御データ534
具体的に、フルカラーLEDによって表示される1つ以上の視覚的パターンに関連付けられる表示仕様536は、1つ以上の視覚的パターンの各々に関連付けられる予め定められたLED照明仕様を含む。フルカラーLEDの各々毎に、照明仕様は、それぞれの視覚的パターンに関連付けられる、LED照明持続時間、パルスレート、デューティサイクル、色順、および明るさのうち1つ以上を含む。各々の視覚的パターンは、少なくとも1つの音声処理状態に対応する。
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ506は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ506は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
図6は、ある実現例に従う、スマートメディア環境100で媒体コンテンツの表示の自動制御のために適用される例示的なキャストデバイス108を示すブロック図である。キャストデバイス108は典型的に、1つ以上の処理ユニット(CPU)602と、1つ以上のネットワークインターフェイス604と、メモリ606と、(チップセットと呼ばれることがある)これらの構成要素を相互接続するための1つ以上の通信バス608とを含む。
メモリ606は、DRAM、SRAM、DDR RAMなどの高速ランダムアクセスメモリまたは他のランダムアクセス固体メモリデバイスを含み、任意に、1つ以上の磁気ディスク記憶デバイス、1つ以上の光ディスク記憶デバイス、1つ以上のフラッシュメモリデバイス、または1つ以上の他の不揮発性固体記憶デバイスなどの不揮発性メモリを含む。メモリ606は、任意に、1つ以上の処理ユニット602から遠隔に位置する1つ以上の記憶デバイスを含む。メモリ606または代替的にメモリ606内の不揮発性メモリは、非一時的コンピュータ読出可能記憶媒体を含む。ある実現例では、メモリ606またはメモリ606の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造またはその下位セットもしくは上位セットを記憶する。
・さまざまな基本的なシステムサービスを取扱いかつハードウェア依存タスクを行なうための手順を含むオペレーティングシステム616
・1つ以上のネットワークインターフェイス604(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワーク、ケーブルテレビシステム、衛星テレビシステム、IPTVシステムなどの1つ以上のネットワーク110を介して、キャストデバイス108を他のコンピュータまたはシステム(たとえば、サーバシステム140、スマートホームデバイス120、およびクライアントデバイス104)に接続するためのネットワーク通信モジュール618
・1つ以上のコンテンツソース114から受信したコンテンツ信号を復号し、復号された信号中のコンテンツをキャストデバイス108に結合された出力表示装置106に出力するためのコンテンツ復号モジュール620
・媒体表示を制御して、たとえば、クラウドキャストサービスサーバ116から受信した即時媒体再生情報に従って出力装置106への媒体出力を生じさせるための1つ以上の媒体再生アプリケーション624を含む自動媒体表示モジュール624
・(たとえば、自動媒体出力モードおよびフォローアップモードで)媒体表示の自動制御に関連付けられるデータを少なくとも記憶するキャストデバイスデータ626であって、以下を含む。
−アカウントアクセス情報、デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)、および自動媒体表示制御のための情報のうち1つ以上を含む、キャストデバイスアプリケーションのユーザアカウントに関連付けられる情報を記憶するためのキャストデバイス設定628
−アカウントアクセス情報、媒体コンテンツ種類のユーザの嗜好、レビュー履歴データ、および自動媒体表示制御のための情報のうち1つ以上を含む、1つ以上の媒体プレイヤアプリケーションのユーザアカウントに関連付けられる情報を記憶するための媒体プレイヤアプリケーション設定630
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ606は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ606は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
図7は、ある実現例に従う、スマートメディア環境100のサーバシステム140中の例示的なサーバを示すブロック図である。例示的なサーバは、クラウドキャストサービスサーバ116の1つである。サーバ140は典型的に、1つ以上の処理ユニット(CPU)702と、1つ以上のネットワークインターフェイス704と、メモリ706と、(チップセットと呼ばれることがある)これらの構成要素を相互に接続するための1つ以上の通信バス708とを含む。サーバ140は、キーボード、マウス、音声コマンド入力ユニットもしくはマイク、タッチ画面ディスプレイ、タッチセンサ式入力パッド、ジェスチャー捕捉カメラ、または他の入力ボタンもしくはコントロールなどの、ユーザ入力を容易にする1つ以上の入力装置710を含み得る。さらに、サーバ140は、マイクおよび音声認識またはカメラおよびジェスチャー認識を用いて、キーボードを補足するまたは置き換えることができる。ある実現例では、サーバ140は、たとえば電子デバイス上に印刷されるグラフィックシリーズコードの画像を捕捉するための1つ以上のカメラ、スキャナ、または光センサユニットを含む。サーバ140は、1つ以上のスピーカおよび/または1つ以上の視覚的ディスプレイを含む、ユーザインターフェイスおよび表示内容の提示を可能にする1つ以上の出力装置712も含み得る。
メモリ706は、DRAM、SRAM、DDR RAMなどの高速ランダムアクセスメモリまたは他のランダムアクセス固体メモリデバイスを含み、任意に、1つ以上の磁気ディスク記憶デバイス、1つ以上の光ディスク記憶デバイス、1つ以上のフラッシュメモリデバイス、または1つ以上の他の不揮発性固体記憶デバイスなどの不揮発性メモリを含む。メモリ706は、任意に、1つ以上の処理ユニット702から遠隔に位置する1つ以上の記憶デバイスを含む。メモリ706または代替的にメモリ706内の不揮発性メモリは、非一時的コンピュータ読出可能記憶媒体を含む。ある実現例では、メモリ706またはメモリ706の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造またはその下位セットもしくは上位セットを記憶する。
・さまざまな基本的なシステムサービスを取扱いかつハードウェア依存タスクを行なうための手順を含むオペレーティングシステム716
・1つ以上のネットワークインターフェイス704(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して、サーバシステム140を他のデバイス(たとえば、サーバシステム140中のさまざまなサーバ、クライアントデバイス104、キャストデバイス108、およびスマートホームデバイス120)に接続するためのネットワーク通信モジュール718
・クライアントデバイス104において情報(たとえば、アプリケーション826−830を提示するためのグラフィカルユーザインターフェイス、ウィジェット、ウェブサイトおよびそのウェブページ、ならびに/またはゲーム、オーディオおよび/もしくはビデオコンテンツ、テキストなど)の提示を可能にするためのユーザインターフェイスモジュール720
・サーバ側での実行のためのコマンド実行モジュール721(たとえば、ゲーム、ソーシャルネットワークアプリケーション、スマートホームアプリケーション、ならびに/またはクライアントデバイス104、キャストデバイス108、電子デバイス190、およびスマートホームデバイス120を制御し、そのようなデバイスが捕捉したデータをレビューするための他のウェブもしくは非ウェブベースのアプリケーション)であって、以下のうち1つ以上を含む。
−キャストデバイス108に関連付けられるデバイスプロビジョニング、デバイス制御、およびユーザアカウント管理のためのサーバ側機能を提供するように実行されるキャストデバイスアプリケーション722
−対応の媒体ソースに関連付けられる媒体表示およびユーザアカウント管理のためのサーバ側機能を提供するように実行される1つ以上の媒体プレイヤアプリケーション724
−対応のスマートホームデバイス120のデバイスプロビジョニング、デバイス制御、データ処理、およびデータレビューのためのサーバ側機能を提供するように実行される1つ以上のスマートホームデバイスアプリケーション726
−電子デバイス190から受信した音声メッセージの音声処理を手配する、または音声メッセージを直接に処理してユーザ音声コマンドとキャストデバイス108もしくは別の電子デバイス190の指定とを抽出する、ように実行される音声支援アプリケーション728
・(たとえば、自動媒体出力モードおよびフォローアップモードでの)媒体表示の自動制御に関連付けられるデータを少なくとも記憶するサーバシステムデータ730であって、以下のうち1つ以上を含む。
−共通のデバイス設定(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)および自動媒体表示制御のための情報を含む、クライアントデバイス104に関連付けられる情報を記憶するためのクライアントデバイス設定732
−アカウントアクセス情報、デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)、および自動媒体表示制御のための情報のうち1つ以上を含む、キャストデバイスアプリケーション722のユーザアカウントに関連付けられる情報を記憶するためのキャストデバイス設定734
−アカウントアクセス情報、媒体コンテンツ種類のユーザの嗜好、レビュー履歴データ、および自動媒体表示制御のための情報のうち1つ以上を含む、1つ以上の媒体プレイヤアプリケーション724のユーザアカウントに関連付けられる情報を記憶するための媒体プレイヤアプリケーション設定736
−アカウントアクセス情報、1つ以上のスマートホームデバイス120のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、スマートホームアプリケーション726のユーザアカウントに関連付けられる情報を記憶するためのスマートホームデバイス設定738
−アカウントアクセス情報、1つ以上の電子デバイス190のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、音声支援アプリケーション728のユーザアカウントに関連付けられる情報を記憶するための音声支援データ740
サーバ140がクラウドキャストサービスサーバ116を含む場合、メモリ706またはメモリ706の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造、またはその下位セットもしくは上位セットを記憶する。
・クラウドキャストサービスサーバ116に結合されるデバイスレジストリ118を管理するためのデバイス登録モジュール750
・音声メッセージ中で識別されたユーザ音声コマンドを、クラウドキャストユーザドメイン中で結合されるキャストデバイス180、電子デバイス190、およびスマートホームデバイス120のうち1つ以上に中継するためのクラウドキャストアプリケーション760
・クラウドキャストユーザドメイン中で結合されるキャストデバイス180、電子デバイス190、およびスマートホームデバイス120の状態を維持するためのステータス報告モジュール770
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ706は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ706は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
図8は、ある実現例に従う、スマートメディア環境100で媒体表示の自動制御のために適用される例示的なクライアントデバイス104を示すブロック図である。クライアントデバイスの例は、携帯電話、タブレットコンピュータ、およびウェアラブルパーソナルデバイスを含むが、これらに限定されない。クライアントデバイス104は典型的に、1つ以上の処理ユニット(CPU)802と、1つ以上のネットワークインターフェイス804と、メモリ806と、(チップセットと呼ばれることがある)これらの構成要素を相互接続するための1つ以上の通信バス808とを含む。クライアントデバイス104は、キーボード、マウス、音声コマンド入力ユニットもしくはマイク、タッチ画面ディスプレイ、タッチセンサ式入力パッド、ジェスチャー捕捉カメラ、または他の入力ボタンもしくはコントロールなどの、ユーザ入力を容易にする1つ以上の入力装置810を含む。さらに、クライアントデバイス104のうちあるものは、マイクおよび音声認識またはカメラおよびジェスチャー認識を用いて、キーボードを補足するまたは置き換える。ある実現例では、クライアントデバイス104は、たとえば電子デバイス上に印刷されるグラフィックシリーズコードの画像を捕捉するための1つ以上のカメラ、スキャナ、または光センサユニットを含む。クライアントデバイス104は、1つ以上のスピーカおよび/または1つ以上の視覚的ディスプレイを含む、ユーザインターフェイスおよび表示内容の提示を可能にする1つ以上の出力装置812を含む。任意に、クライアントデバイス104は、クライアントデバイス104の場所を判定するためのGPS(全地球測位システム)または他の地理位置情報受信機などの場所検出装置814を含む。
メモリ806は、DRAM、SRAM、DDR RAMなどの高速ランダムアクセスメモリまたは他のランダムアクセス固体メモリデバイスを含み、任意に、1つ以上の磁気ディスク記憶デバイス、1つ以上の光ディスク記憶デバイス、1つ以上のフラッシュメモリデバイス、または1つ以上の他の不揮発性固体記憶デバイスなどの不揮発性メモリを含む。メモリ806は、任意に、1つ以上の処理ユニット802から遠隔に位置する1つ以上の記憶デバイスを含む。メモリ806または代替的にメモリ806内の不揮発性メモリは、非一時的コンピュータ読出可能記憶媒体を含む。ある実現例では、メモリ806またはメモリ806の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造またはその下位セットもしくは上位セットを記憶する。
・さまざまな基本的なシステムサービスを取扱いかつハードウェア依存タスクを行なうための手順を含むオペレーティングシステム816
・1つ以上のネットワークインターフェイス804(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して、クライアントデバイス104を他のデバイス(たとえばサーバシステム140、キャストデバイス108、電子デバイス190、スマートホームデバイス120、および他のクライアントデバイス104)に接続するためのネットワーク通信モジュール818
・1つ以上の出力装置812(たとえばディスプレイ、スピーカなど)を介してクライアントデバイス104において情報(たとえば、アプリケーション826−830を提示するためのグラフィカルユーザインターフェイス、ウィジェット、ウェブサイトおよびそのウェブページ、ならびに/またはゲーム、オーディオおよび/もしくはビデオコンテンツ、テキストなど)の提示を可能にするためのユーザインターフェイスモジュール820
・1つ以上の入力装置810のうち1つからの1つ以上のユーザ入力または対話を検出し、検出した入力または対話を解釈するための入力処理モジュール822
・キャストデバイス108、電子デバイス190、媒体アプリケーション、またはスマートホームデバイス120に関連付けられるユーザアカウントにログインするためのウェブインターフェイスを含むウェブサイトおよびそのウェブページをナビゲート、(たとえばHTTPを介して)要求、ならびに表示し、ユーザアカウントに関連付けられていれば、キャストデバイス108、電子デバイス190、またはスマートホームデバイス120を制御し、かつユーザアカウントに関連付けられる設定およびデータを編集しレビューするためのウェブブラウザモジュール824
・クライアントデバイスによる実行のための1つ以上のアプリケーション(たとえば、ゲーム、ソーシャルネットワークアプリケーション、スマートホームアプリケーション、ならびに/またはキャストデバイス108、電子デバイス190、および/もしくはスマートホームデバイス120を制御し、かつそのようなデバイスが捕捉するデータをレビューするための他のウェブもしくは非ウェブベースのアプリケーション)であって、以下のうち1つ以上を含む。
−キャストデバイス108に関連付けられるデバイスプロビジョニング、デバイス制御、およびユーザアカウント管理のためのクライアント側機能性を提供するように実行されるキャストデバイスアプリケーション826
−電子デバイス190に関連付けられるデバイスプロビジョニング、デバイス制御、およびユーザアカウント管理のためのクライアント側機能性を提供するように実行される音声起動デバイスアプリケーション827
−対応の媒体ソースに関連付けられる媒体表示およびユーザアカウント管理のためのクライアント側機能性を提供するように実行される1つ以上の媒体プレイヤアプリケーション828
−対応のスマートホームデバイス120のデバイスプロビジョニング、デバイス制御、データ処理、およびデータレビューのためのクライアント側機能性を提供するように実行される1つ以上のスマートホームデバイスアプリケーション830
・(たとえば、自動媒体出力モードまたはフォローアップモードで)媒体表示の自動制御に関連付けられるデータを少なくとも記憶するクライアントデータ832であって、以下を含む。
−共通のデバイス設定(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)および自動媒体表示制御のための情報を含む、クライアントデバイス104自体に関連付けられる情報を記憶するためのクライアントデバイス設定834
−アカウントアクセス情報、デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)、および自動媒体表示制御のための情報のうち1つ以上を含む、キャストデバイスアプリケーション826のユーザアカウントに関連付けられる情報を記憶するためのキャストデバイス設定836
−アカウントアクセス情報、媒体コンテンツ種類のユーザの嗜好、レビュー履歴データ、および自動媒体表示制御のための情報のうち1つ以上を含む、1つ以上の媒体プレイヤアプリケーション828のユーザアカウントに関連付けられる情報を記憶するための媒体プレイヤアプリケーション設定838
−アカウントアクセス情報、スマートホームデバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、スマートホームアプリケーション830のユーザアカウントに関連付けられる情報を記憶するためのスマートホームデバイス設定840
−アカウントアクセス情報、電子デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、音声起動デバイスアプリケーション827のユーザアカウントに関連付けられる情報を記憶するための音声起動デバイス設定842
ある実現例では、キャストデバイスアプリケーション826、音声起動デバイスアプリケーション827、媒体プレイヤアプリケーション828、およびスマートホームデバイスアプリケーション830の各々は、クライアントデバイス104の出力装置812上にそれぞれのユーザインターフェイスの表示を生じさせる。ある実現例では、キャストデバイスアプリケーション826、音声起動デバイスアプリケーション827、媒体プレイヤアプリケーション828、およびスマートホームデバイスアプリケーション830に関連付けられるユーザのユーザアカウントは、単一のクラウドキャストサービスアカウントにリンクされる。ユーザは、クラウドキャストサービスアカウント情報を用いて、キャストデバイスアプリケーション826、音声起動デバイスアプリケーション827、媒体プレイヤアプリケーション828、およびスマートホームデバイスアプリケーション830のすべてにログオンし得る。ある実現例では、メモリ806またはメモリ806の非一時的コンピュータ読出可能記憶媒体は、同じクラウドキャストサービスアカウント(たとえばグーグルユーザアカウント)にリンクされるキャストデバイス108、スマートホームデバイス120、および電子デバイス190に関連付けられる機能制御およびユーザアカウント管理のためのクライアント側機能性を提供するように実行されるクラウドキャストアプリケーション844を記憶する。
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ806は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ806は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
図9は、ある実現例に従う、スマートメディア環境100における例示的なスマートホームデバイス120を示すブロック図である。スマートホームデバイス120は典型的に、1つ以上の処理ユニット(CPU)902と、1つ以上のネットワークインターフェイス904と、メモリ906と、(チップセットと呼ばれることがある)これらの構成要素を相互接続するための1つ以上の通信バス908とを含む。メモリ906は、DRAM、SRAM、DDR RAMなどの高速ランダムアクセスメモリまたは他のランダムアクセス固体メモリデバイスを含み、任意に、1つ以上の磁気ディスク記憶デバイス、1つ以上の光ディスク記憶デバイス、1つ以上のフラッシュメモリデバイス、または1つ以上の他の不揮発性固体記憶デバイスなどの不揮発性メモリを含む。メモリ906は、任意に、1つ以上の処理ユニット902から遠隔に位置する1つ以上の記憶デバイスを含む。メモリ906または代替的にメモリ906内の不揮発性メモリは、非一時的コンピュータ読出可能記憶媒体を含む。ある実現例では、メモリ906またはメモリ906の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造またはその下位セットもしくは上位セットを記憶する。
・さまざまな基本的なシステムサービスを取扱いかつスマートホームデバイス120のためのハードウェア依存タスクを行なうための手順を含むオペレーティングシステム916
・1つ以上のネットワークインターフェイス904(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して、スマートホームデバイス120を他のコンピュータまたはシステム(たとえば、サーバシステム140、クライアントデバイス104、キャストデバイス108、電子デバイス190、および他のスマートホームデバイス120)に接続するためのネットワーク通信モジュール918
・(スマートホームデバイス120がビデオカメラ132を含む場合、マルチメディアデータストリームを捕捉および生成して、マルチメディアデータストリームを連続的なフィードとしてまたは短いバーストでクライアントデバイス104またはサーバシステム140に送るために)スマートホームデバイス120がその指定された機能を実現できるようにするためのスマートホームデバイスモジュール922
・デバイス設定926に関連付けられるデータを少なくとも記憶するスマートホームデバイスデータ924
ある実現例では、スマートホームデバイス120は声で制御される。具体的に、クラウドキャストサービスサーバ116は、電子デバイス190が記録する音声メッセージを受信し、音声メッセージがスマートデバイス制御要求(たとえば、ビデオカメラのズームインまたはアウト、誤ったアラームのオフ、およびスマートサーモスタットから測定された温度の問合せ)を含むと判定する。スマートデバイス制御要求は、スマートホームデバイス120を制御するユーザ音声コマンドと、スマートホームデバイスのユーザ音声指定とを含む。スマートホームデバイスの音声指定に従って、クラウドキャストサービスサーバ116は、デバイスレジストリ118において、ユーザドメインにおいて電子デバイスに関連付けられるスマートホームデバイス120を識別する。次にクラウドキャストサービスサーバ116は、スマートホームデバイス1290に別のデバイス制御要求を送り、これにより、スマートホームデバイス120のスマートホームデバイスモジュール922は、ユーザ音声コマンドに従ってスマートホームデバイス120を制御できるようになる。
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ906は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ906は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
スマートメディア環境における音声に基づくLED表示および媒体制御方法
図10は、ある実現例に従う、音声処理状態を視覚的に示す方法1000を示すフロー図である。方法1000は、フルカラーLEDのアレイと、1つ以上のマイクと、スピーカと、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを有する電子デバイス190において実現される。電子デバイス190は、1つ以上のマイク402を介して、電子デバイス190に近接する環境からオーディオ入力を収集し(1002)、オーディオ入力を処理する(1004)。処理は音声処理モジュール522で実現され、環境中のユーザからの音声入力を識別することと、これに応答することとのうち1つ以上を含む。次に電子デバイス190は、複数の予め規定された音声処理状態の中から処理の状態を判定する(1006)。フルカラーLEDの各々毎に、電子デバイス190は、判定された音声処理状態に関連付けられるそれぞれの予め定められたLED照明仕様を識別し(1008)、それぞれの照明仕様は、LED照明持続時間、パルスレート、デューティサイクル、色順、および明るさのうち1つ以上を含む(1010)。フルカラーLEDの識別されたLED照明仕様に従って、電子デバイス190(具体的にはLED制御モジュール524)は、フルカラーLEDのアレイの照明を同期させて、判定された音声処理状態を示す視覚的パターンを提供する。図4A−図4Hおよび図5を参照して、方法1000に関するさらなる詳細を以上で説明した。
方法1000は、任意に、非一時的コンピュータ読出可能記憶媒体に記憶されかつ音声起動電子デバイス190の1つ以上のプロセッサによって実行される命令によって支配される。図10に示される動作の各々は、コンピュータメモリまたはコンピュータ読出可能記憶媒体(たとえば、図5の電子デバイス190のメモリ506)に記憶される命令に対応し得る。コンピュータ読出可能記憶媒体は、磁気もしくは光ディスク記憶デバイス、フラッシュメモリなどの固体記憶デバイス、または他の1つのもしくは複数の不揮発性メモリデバイスを含み得る。コンピュータ読出可能記憶媒体上に記憶されるコンピュータ読出可能命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つ以上のプロセッサによって解釈される他の命令フォーマットのうち1つ以上を含み得る。方法1000中のいくつかの動作を組合せてもよく、および/またはいくつかの動作の順序を変更してもよい。
図11は、ある実現例に従う、媒体コンテンツのためのクローズドキャプションの表示を声によって開始する方法1100を示すフロー図である。方法1100は、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラム(たとえばクラウドキャストアプリケーション760)を記憶するメモリとを含むサーバシステム(たとえばクラウドキャストサービスサーバ116)において実現される。サーバシステムは、電子デバイス190が記録する音声メッセージを受信し(1102)、音声メッセージが第1のクローズドキャプション開始要求であると判定する(1104)。第1のクローズドキャプション開始要求は、クローズドキャプションを開始するというユーザ音声コマンドと、クローズドキャプションをそれについて起動すべき媒体コンテンツを再生する表示装置106のユーザ音声指定とを含む(1106)。表示装置の指定に従い、サーバシステムは、デバイスレジストリ118において、ユーザドメインにおいて電子デバイス190に関連付けられかつ指定された表示装置106に結合されるキャストデバイス108を識別する(1108)。キャストデバイス108は、指定された表示装置を制御して、媒体コンテンツホストから受信した媒体コンテンツを表示するための媒体再生アプリケーションを実行するように構成される(1110)。サーバシステム(具体的にはクラウドキャストアプリケーション760)は次に、指定された表示装置に結合されたキャストデバイスにクローズドキャプション開始要求を送り、これにより、キャストデバイスは、指定された表示装置を制御して、指定された表示装置上に現在表示されている媒体コンテンツのクローズドキャプションをオンにし、第2のクローズドキャプション開始要求に従ってクローズドキャプションを表示する媒体再生アプリケーションを実行できるようになる。図2A、図2B、および図5−図7を参照して、方法1100のさらなる詳細を以上で説明した。
図12は、ある実現例に従う、媒体出力装置上での媒体コンテンツの再生を声によって開始する方法1200を示すフロー図である。方法1200は、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステム(たとえばクラウドキャストサービスサーバ116)において実現される。サーバシステムは、電子デバイスが記録する音声メッセージを受信し(1202)、音声メッセージが第1の媒体再生要求を含むと判定する(1204)。第1の媒体再生要求は、媒体出力装置上で媒体コンテンツを再生するというユーザ音声コマンドと、媒体出力装置106のユーザ音声指定とを含み(1206)、ユーザ音声コマンドは、第1の媒体再生アプリケーションの情報と、再生する必要がある媒体コンテンツとを少なくとも含む。媒体出力装置の音声指定に従って、サーバシステムは、デバイスレジストリ118において、ユーザドメインにおいて電子デバイス190に関連付けられかつ媒体出力装置106に結合されるキャストデバイス108を識別する(1208)。キャストデバイス108は、媒体出力装置106を制御して、1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行する(1210)ように構成される。サーバシステム(具体的にはクラウドキャストアプリケーション760)は次に、第1の媒体再生アプリケーションの情報と再生する必要がある媒体コンテンツとを含む第2の媒体再生要求をキャストデバイス108に送り(1212)、これにより、キャストデバイス108は、媒体出力装置106を制御して媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになる。図2A、図2B、および図5−図7を参照して、方法1200のさらなる詳細を以上で説明した。
図13は、ある実現例に従う、媒体コンテンツの再生を送り側媒体出力装置から送り先媒体出力装置に移動させる方法1300を示すフロー図である。方法1200は、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステム(たとえばクラウドキャストサービスサーバ116)において実現される。
サーバシステムは、電子デバイス190が記録する音声メッセージを受信し(1302)、音声メッセージが媒体転送要求を含むと判定する(1304)。媒体転送要求は、再生中の媒体コンテンツを送り先媒体出力装置に転送するというユーザ音声コマンドと、送り先媒体出力装置のユーザ音声指定とを含む(1306)。サーバシステムは、送り側キャストデバイス(たとえば、図3のキャストデバイス108−1)から、現在再生中の媒体コンテンツの即時媒体再生情報を取得する(1308)。即時再生情報は、第1の媒体再生アプリケーションの情報と、現在再生中の媒体コンテンツと、媒体コンテンツの再生に関する時間的位置とを少なくとも含む(1310)。
送り先媒体出力装置の音声指定に従って、サーバシステムは、デバイスレジストリ118において、ユーザドメインにおいて電子デバイス190に関連付けられかつ送り先媒体出力装置(たとえば、図3の出力装置106−2)に結合される送り先キャストデバイス(たとえば、図3のキャストデバイス108−2)を識別する(1312)。送り先キャストデバイスは、送り先媒体出力装置を制御して、1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行する(1314)ように構成される。サーバシステム(具体的にはクラウドキャストアプリケーション760)は次に、即時媒体再生情報を含む媒体再生要求を送り先キャストデバイスに送り(1316)、これにより、送り先キャストデバイスは、送り先媒体出力装置を制御して当該時間的位置から媒体コンテンツを再生する第1の媒体再生アプリケーションを実行できるようになる。図3および図5−図7を参照して、方法1300についてのさらなる詳細を以上で説明した。
方法1100、1200、および1300は、任意に、非一時的コンピュータ読出可能記憶媒体に記憶されかつクラウドキャストサービスサーバ116の1つ以上のプロセッサによって実行される命令によって支配される。図12−図14に示される動作の各々は、コンピュータメモリまたはコンピュータ読出可能記憶媒体(たとえば、図7のサーバシステムのメモリ706)に記憶される命令に対応し得る。コンピュータ読出可能記憶媒体は、磁気もしくは光ディスク記憶デバイス、フラッシュメモリなどの固体記憶デバイス、または他の1つのもしくは複数の不揮発性メモリデバイスを含み得る。コンピュータ読出可能記憶媒体上に記憶されるコンピュータ読出可能命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つ以上のプロセッサによって解釈される他の命令フォーマットのうち1つ以上を含み得る。方法1100、1200、および1300の各々の中のいくつかの動作を組合せてもよく、および/またはいくつかの動作の順序を変更してもよい。
本明細書中に記載されるさまざまな実現例の説明で用いる術語は、特定の実現例のみを説明する目的のためのものであり、限定を意図するものではない。記載されるさまざまな実現例の説明および添付の請求項で用いるような「a」、「an」、および「the」という単数形は、文脈が明確にそうでないと示していなければ、複数形も含むことが意図される。本明細書中で用いるような「および/または」という用語は、列挙される関連の項目のうち1つ以上のありとあらゆる可能な組合せを参照しかつこれを包含することも理解される。「含む」、「含んでいる」、「備える」、および/または「備えている」という用語は、この明細書で用いる場合、述べる特徴、整数、ステップ、動作、要素、および/または構成要素の存在を特定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、および/またはその群の存在または追加を排除するわけではないことがさらに理解される。
本明細書中で用いるような「ならば」という用語は、任意に、文脈に依存して、「したとき」または「すると」または「判定することに応答して」または「検出することに応答して」または「という判定に従って」を意味すると解釈される。同様に、「判定されれば」または「[述べた条件またはイベントが]検出されれば」という句は、任意に、文脈に依存して、「判定すると」または「判定に応答して」または「[述べた条件またはイベントを]検出すると」または「[述べた条件またはイベントを]検出するのに応答して」または「[述べた条件またはイベントが]検出されるという判定に従って」を意味すると解釈される。
「スマートメディア環境」は、単一世帯の家などの家庭用スマート環境を指し得るが、本教示の範囲はそのように限定されないことを認めるべきである。本教示は、限定されることなく、二世帯住宅、タウンホーム、複数ユニット共同住宅、ホテル、小売店、オフィスビル、工業用建物、およびより一般的に任意の生活空間または作業空間にも適用可能である。
ユーザ、顧客、設置作業者、住宅所有者、居住者、来客、テナント、家主、修理人などの用語は、本明細書中に記載されるある特定的な状況の文脈で行為を行なう1人の人または複数の人を指すのに用いられ得るが、これらの参照は、そのような行為を行なっている1人の人または複数の人に本教示の範囲を限定するものではないことも認めるべきである。このように、たとえば、ユーザ、顧客、購入者、設置作業者、加入者、および住宅所有者という用語はしばしば、単一世帯住居の場合は、同じ人物を参照し得る。なぜなら、世帯主がしばしば購入の決定を行ない、ユニットを購入し、ユニットを設置しかつ構成し、かつユニットのユーザの1人でもある人物だからである。しかしながら、家主−テナント環境などの他のシナリオでは、顧客はユニットの購入については家主であり得、設置作業者はその土地のアパートの管理人であり得、第1のユーザはテナントであり得、第2のユーザは遠隔操作機能性については再び家主であり得る。重要なことに、行為を行なう人物のアイデンティティは、実現例のうち1つ以上が与える特定の利点に密接な関係があり得る一方で、以下の説明では、そのようなアイデンティティは、本教示の範囲をそれらの特定のアイデンティティを有するそれらの特定の個人に必ず限定すると解釈されるべきではない。
さまざまな図面は特定の順序で複数の論理的段階を示すが、順序に依存しない段階を再度順序付けてもよく、他の段階を組合せたり切離したりしてもよい。何らかの再順序付けまたは他のグループ分けに具体的に言及がされるが、他のものが当業者には自明であり、そのため、本明細書中に提示される順序付けおよびグループ分けは代替策の網羅的な列挙ではない。さらに、ハードウェア、ファームウェア、ソフトウェア、またはその任意の組合せで段階を実現可能であることを認識すべきである。
具体的な実現例を参照して、説明の目的のための以上の説明を記載した。しかしながら、例示的な上記の議論は、網羅的であることまたは開示される正確な形態に請求項の範囲を限定することを意図しない。上記教示に鑑みて多数の修正例および変更例が可能である。実現例は、請求項の基礎をなす原則およびそれらの実践的な適用例を最良に説明し、それにより、当業者が、企図される特定の用途に適するようなさまざまな修正例とともに実現例を最良に用いることができるようにするために選択された。
以上で言及した実現例および代替的な実施形態のさらなる詳細も、この出願とともに提出される付記に開示されていることを注記する。付記では、OOBEは、アウトオブボックスエクスペリエンスを参照する。

Claims (16)

  1. 媒体コンテンツ表示の再生を移動させるための方法であって、
    プロセッサと、前記プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステムにおいて、
    電子デバイスを介して音声メッセージを受信することと、
    前記音声メッセージが媒体転送要求を含むと判定することとを備え、前記媒体転送要求は、再生中の媒体コンテンツを送り先媒体出力装置に転送するというユーザ音声コマンドと、前記送り先媒体出力装置のユーザ音声指定とを含み、さらに
    送り側キャストデバイスから、現在再生中の前記媒体コンテンツの即時媒体再生情報を取得することを備え、前記即時媒体再生情報は、第1の媒体再生アプリケーションの情報と、現在再生中の前記媒体コンテンツと、前記媒体コンテンツの再生に関する時間的位置とを少なくとも含み、さらに
    前記送り先媒体出力装置の前記ユーザ音声指定に従って、ユーザドメインにおいて前記電子デバイスに関連付けられかつ前記送り先媒体出力装置に結合される送り先キャストデバイスを識別することを備え、前記送り先キャストデバイスは、前記送り先媒体出力装置を制御して1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成され、さらに
    ユーザの介入無しで、前記即時媒体再生情報を含む媒体再生要求を前記送り先キャストデバイスに送り、これにより、前記送り先キャストデバイスは、前記送り先媒体出力装置を制御して前記時間的位置から前記媒体コンテンツを再生する前記第1の媒体再生アプリケーションを実行できるようになることを備える、方法。
  2. 前記送り先キャストデバイスはデバイスレジストリにおいて識別され、前記送り側キャストデバイスから現在再生中の前記媒体コンテンツの前記即時媒体再生情報を取得することはさらに、
    前記媒体コンテンツが送り側媒体出力装置で現在再生中であると識別することと、
    前記デバイスレジストリにおいて、前記ユーザドメインにおいて前記電子デバイスに関連付けられかつ前記送り側媒体出力装置に結合される前記送り側キャストデバイスを識別することと、
    媒体情報要求を前記送り側キャストデバイスに送ることと、
    前記送り側キャストデバイスから前記即時媒体再生情報を受信することとを備える、請求項1に記載の方法。
  3. 前記ユーザ音声コマンドに従って媒体停止要求を前記送り側キャストデバイスに送り、これにより、前記送り側キャストデバイスは、前記送り側媒体出力装置上での前記媒体コンテンツの前記再生を見合わせるように、前記送り側媒体出力装置に結合される前記送り側キャストデバイスを制御する前記第1の媒体再生アプリケーションを実行できるようになることをさらに備える、請求項2に記載の方法。
  4. 前記電子デバイスは、第1の場所に位置する前記送り側キャストデバイスに近接して配設される、請求項1から3のいずれか1項に記載の方法。
  5. 前記電子デバイスは、第2の現場に位置する送り先表示装置および前記送り先キャストデバイスに近接して配置される、請求項1から4のいずれか1項に記載の方法。
  6. 前記電子デバイス、前記送り側キャストデバイス、および前記送り先キャストデバイスは、前記ユーザドメインにおいてユーザアカウントに関連付けられる、請求項1から5のいずれか1項に記載の方法。
  7. 前記ユーザアカウントはグーグルユーザアカウントである、請求項6に記載の方法。
  8. 前記サーバシステムは、2つの別々の媒体出力装置上でそれぞれ再生するために前記媒体コンテンツを前記送り側キャストデバイスおよび前記送り先キャストデバイスに与えるコンテンツホストとは別である、請求項1から7のいずれか1項に記載の方法。
  9. 前記サーバシステムは、前記電子デバイス、前記送り側キャストデバイスおよび前記送り先キャストデバイス、ならびに前記送り先媒体出力装置から遠隔に位置する、請求項1から8のいずれか1項に記載の方法。
  10. 前記時間的位置は、前記ユーザが送り先表示装置への前記媒体コンテンツの前記移動を要求したときに記録される、請求項1から9のいずれか1項に記載の方法。
  11. 前記音声メッセージを構文解析しかつ前記ユーザ音声コマンドおよび前記送り先媒体出力装置の前記ユーザ音声指定を識別する音声支援サーバに前記音声メッセージを移送することと、
    前記音声支援サーバから前記ユーザ音声コマンドおよび前記送り先媒体出力装置の前記ユーザ音声指定を受信することとをさらに備える、請求項1から10のいずれか1項に記載の方法。
  12. 前記送り先キャストデバイスはデバイスレジストリにおいて識別され、前記送り先媒体出力装置の前記ユーザ音声指定は前記送り先媒体出力装置の記述を含み、前記方法はさらに、前記デバイスレジストリにおいて、前記送り先媒体出力装置の前記記述に従って複数の媒体出力装置の中から前記送り先媒体出力装置を識別することを備える、請求項1から11のいずれか1項に記載の方法。
  13. 前記送り先媒体出力装置の前記記述は、前記送り先媒体出力装置のブランドまたは場所を少なくとも含む、請求項12に記載の方法。
  14. 前記即時媒体再生情報はプレイリスト識別子を含む、請求項1から13のいずれか1項に記載の方法。
  15. サーバシステムであって、
    1つ以上のプロセッサと、
    命令を記憶したメモリとを備え、前記命令は、前記1つ以上のプロセッサによって実行されると、前記プロセッサに請求項1から14のいずれか1項に記載の方法を実行させる、サーバシステム。
  16. サーバシステムの少なくとも1つのプロセッサによって実行されるプログラムであって、請求項1から14のいずれか1項に記載の方法を実行する命令を備える、プログラム。
JP2018559837A 2016-05-13 2017-05-11 媒体出力装置間での媒体転送 Active JP6797938B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020191833A JP7293180B2 (ja) 2016-05-13 2020-11-18 スマートメディア環境においてスマート制御される媒体再生

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US201662336551P 2016-05-13 2016-05-13
US201662336565P 2016-05-13 2016-05-13
US201662336569P 2016-05-13 2016-05-13
US201662336566P 2016-05-13 2016-05-13
US62/336,551 2016-05-13
US62/336,565 2016-05-13
US62/336,569 2016-05-13
US62/336,566 2016-05-13
US15/592,128 US10332516B2 (en) 2016-05-10 2017-05-10 Media transfer among media output devices
US15/592,120 US10304450B2 (en) 2016-05-10 2017-05-10 LED design language for visual affordance of voice user interfaces
US15/592,126 US10235997B2 (en) 2016-05-10 2017-05-10 Voice-controlled closed caption display
US15/592,128 2017-05-10
US15/592,126 2017-05-10
US15/592,120 2017-05-10
PCT/US2017/032263 WO2017197187A1 (en) 2016-05-13 2017-05-11 Media transfer among media output devices

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020191833A Division JP7293180B2 (ja) 2016-05-13 2020-11-18 スマートメディア環境においてスマート制御される媒体再生

Publications (2)

Publication Number Publication Date
JP2019526177A JP2019526177A (ja) 2019-09-12
JP6797938B2 true JP6797938B2 (ja) 2020-12-09

Family

ID=60295267

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018559837A Active JP6797938B2 (ja) 2016-05-13 2017-05-11 媒体出力装置間での媒体転送
JP2020191833A Active JP7293180B2 (ja) 2016-05-13 2020-11-18 スマートメディア環境においてスマート制御される媒体再生

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020191833A Active JP7293180B2 (ja) 2016-05-13 2020-11-18 スマートメディア環境においてスマート制御される媒体再生

Country Status (5)

Country Link
US (2) US10402450B2 (ja)
EP (5) EP3455721B1 (ja)
JP (2) JP6797938B2 (ja)
KR (2) KR102114003B1 (ja)
CN (6) CN114758655A (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515637B1 (en) * 2017-09-19 2019-12-24 Amazon Technologies, Inc. Dynamic speech processing
US11526518B2 (en) 2017-09-22 2022-12-13 Amazon Technologies, Inc. Data reporting system and method
US20190095444A1 (en) * 2017-09-22 2019-03-28 Amazon Technologies, Inc. Voice driven analytics
JP6943192B2 (ja) * 2018-01-24 2021-09-29 沖電気工業株式会社 家電機器および場所検索システム
CN111903138A (zh) * 2018-03-29 2020-11-06 索尼公司 信息处理装置、信息处理方法、发送装置以及发送方法
CN117056947A (zh) * 2018-05-07 2023-11-14 谷歌有限责任公司 在计算设备之间同步访问控制
US11085777B2 (en) * 2018-07-27 2021-08-10 Adobe Inc. Generating digital event sequences utilizing a dynamic user preference interface to modify recommendation model reward functions
US11231975B2 (en) * 2018-09-29 2022-01-25 Apple Inc. Devices, methods, and user interfaces for providing audio notifications
US20200127988A1 (en) * 2018-10-19 2020-04-23 Apple Inc. Media intercom over a secure device to device communication channel
US10867603B2 (en) * 2018-10-24 2020-12-15 Sony Corporation Audio-video reproduction device setup using interview-based voice control
US10878805B2 (en) * 2018-12-06 2020-12-29 Microsoft Technology Licensing, Llc Expediting interaction with a digital assistant by predicting user responses
FR3093840B1 (fr) 2019-03-14 2021-02-19 Psa Automobiles Sa Procédé et dispositif d’assistance à l’utilisation d’un véhicule automobile
US10990939B2 (en) * 2019-04-15 2021-04-27 Advanced New Technologies Co., Ltd. Method and device for voice broadcast
US10802843B1 (en) * 2019-05-31 2020-10-13 Apple Inc. Multi-user configuration
CN110501988B (zh) * 2019-09-25 2020-06-09 北京金茂绿建科技有限公司 一种实现物联网设备融合控制方法及其装置
JP2021091182A (ja) * 2019-12-12 2021-06-17 コニカミノルタ株式会社 画像処理装置及び制御方法
US11322150B2 (en) * 2020-01-28 2022-05-03 Amazon Technologies, Inc. Generating event output
US11036466B1 (en) 2020-02-28 2021-06-15 Facebook, Inc. Social media custom audio program
CN113365124B (zh) * 2020-03-06 2023-01-20 海信视像科技股份有限公司 一种显示设备及显示方法
EP3906695A1 (en) 2020-03-13 2021-11-10 Google LLC Network-connected television devices with knowledge-based media content recommendations and unified user interfaces
EP3903501A2 (en) * 2020-03-13 2021-11-03 Google LLC Media content casting in network-connected television devices
CN112735419A (zh) * 2021-01-28 2021-04-30 东莞维升电子制品有限公司 智能语音唤醒控制方法及及其控制装置

Family Cites Families (160)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659665A (en) 1994-12-08 1997-08-19 Lucent Technologies Inc. Method and apparatus for including speech recognition capabilities in a computer system
US5774859A (en) 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
US5760754A (en) 1995-12-04 1998-06-02 Motorola, Inc. Light pipe assembly and electrical device using same
US6195641B1 (en) 1998-03-27 2001-02-27 International Business Machines Corp. Network universal spoken language vocabulary
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US6397186B1 (en) 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
US6681380B1 (en) * 2000-02-15 2004-01-20 International Business Machines Corporation Aggregating constraints and/or preferences using an inference engine and enhanced scripting language
GB2372864B (en) * 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
US7426505B2 (en) * 2001-03-07 2008-09-16 International Business Machines Corporation Method for identifying word patterns in text
US7302634B2 (en) * 2001-03-14 2007-11-27 Microsoft Corporation Schema-based services for identity-based data access
US20030120744A1 (en) * 2001-12-20 2003-06-26 Gordon Kessler Method and apparatus for providing downlaoded audio data
US7493259B2 (en) * 2002-01-04 2009-02-17 Siebel Systems, Inc. Method for accessing data via voice
US7260538B2 (en) 2002-01-08 2007-08-21 Promptu Systems Corporation Method and apparatus for voice control of a television control device
US20040001095A1 (en) 2002-07-01 2004-01-01 Todd Marques Method and apparatus for universal device management
JP2004102415A (ja) * 2002-09-05 2004-04-02 Toshiba Corp データ伝送装置およびデータ伝送方法並びに車載用電子機器
US20060276230A1 (en) * 2002-10-01 2006-12-07 Mcconnell Christopher F System and method for wireless audio communication with a computer
US7911358B2 (en) * 2002-10-08 2011-03-22 Johnson Controls Technology Company System and method for enrollment of a remotely controlled device in a trainable transmitter
JP4292789B2 (ja) 2002-11-20 2009-07-08 日本電気株式会社 ブラウザ機能拡張方法
US7925754B2 (en) * 2003-11-21 2011-04-12 Microsoft Corporation Method and computer program product to provide synch notifications to client devices
US7660715B1 (en) * 2004-01-12 2010-02-09 Avaya Inc. Transparent monitoring and intervention to improve automatic adaptation of speech models
US20050164681A1 (en) * 2004-01-22 2005-07-28 Jenkins William W. Voice message storage in a push-to-talk communication system
US20050212684A1 (en) 2004-03-23 2005-09-29 Flora Huang Indicating apparatus combined with flash
US20060075429A1 (en) * 2004-04-30 2006-04-06 Vulcan Inc. Voice control of television-related information
TWM260059U (en) * 2004-07-08 2005-03-21 Blueexpert Technology Corp Computer input device having bluetooth handsfree handset
JP2006286275A (ja) 2005-03-31 2006-10-19 Koizumi Sangyo Corp 照明器具の制御装置
ATE550756T1 (de) 2005-08-04 2012-04-15 Nuance Communications Inc Sprachdialogsystem
US8104054B2 (en) * 2005-09-01 2012-01-24 At&T Intellectual Property I, L.P. Methods, systems, and devices for bandwidth conservation
US7996228B2 (en) 2005-12-22 2011-08-09 Microsoft Corporation Voice initiated network operations
US8516087B2 (en) 2006-02-14 2013-08-20 At&T Intellectual Property I, L.P. Home automation system and method
US7721313B2 (en) 2006-06-30 2010-05-18 Microsoft Corporation Multi-DVR node communication
US20080010652A1 (en) 2006-07-07 2008-01-10 General Instrument Corporation Association of Network Terminals to a Common Account
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8073697B2 (en) * 2006-09-12 2011-12-06 International Business Machines Corporation Establishing a multimodal personality for a multimodal application
US8056070B2 (en) 2007-01-10 2011-11-08 Goller Michael D System and method for modifying and updating a speech recognition program
US20080180572A1 (en) 2007-01-29 2008-07-31 Microsoft Corporation Enabling access to closed captioning data present in a broadcast stream
JP4315986B2 (ja) * 2007-02-08 2009-08-19 富士通株式会社 発光ダイオードを備えた電子機器
US8219406B2 (en) * 2007-03-15 2012-07-10 Microsoft Corporation Speech-centric multimodal user interface design in mobile technology
US8538757B2 (en) 2007-05-17 2013-09-17 Redstart Systems, Inc. System and method of a list commands utility for a speech recognition command system
US8150699B2 (en) 2007-05-17 2012-04-03 Redstart Systems, Inc. Systems and methods of a structured grammar for a speech recognition command system
CN101309390B (zh) * 2007-05-17 2012-05-23 华为技术有限公司 视讯通信系统、装置及其字幕显示方法
US8160426B2 (en) 2007-10-12 2012-04-17 Rovi Guides, Inc. Storage management of a recording device in a multi-user system
US8521766B1 (en) * 2007-11-12 2013-08-27 W Leo Hoarty Systems and methods for providing information discovery and retrieval
US8543622B2 (en) 2007-12-07 2013-09-24 Patrick Giblin Method and system for meta-tagging media content and distribution
US8385536B2 (en) 2008-01-09 2013-02-26 Verizon Patent And Licensing Inc. Automatic telephone number favorites list
US9135809B2 (en) 2008-06-20 2015-09-15 At&T Intellectual Property I, Lp Voice enabled remote control for a set-top box
US8898568B2 (en) * 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8244531B2 (en) * 2008-09-28 2012-08-14 Avaya Inc. Method of retaining a media stream without its private audio content
JP5334178B2 (ja) 2009-01-21 2013-11-06 クラリオン株式会社 音声認識装置およびデータ更新方法
US8423353B2 (en) 2009-03-25 2013-04-16 Microsoft Corporation Sharable distributed dictionary for applications
US20100265397A1 (en) 2009-04-20 2010-10-21 Tandberg Television, Inc. Systems and methods for providing dynamically determined closed caption translations for vod content
US9858925B2 (en) * 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9197736B2 (en) * 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US20120253822A1 (en) 2009-12-11 2012-10-04 Thomas Barton Schalk Systems and Methods for Managing Prompts for a Connected Vehicle
US20110161085A1 (en) * 2009-12-31 2011-06-30 Nokia Corporation Method and apparatus for audio summary of activity for user
US9401099B2 (en) 2010-05-11 2016-07-26 AI Squared Dedicated on-screen closed caption display
US8750687B2 (en) 2010-06-16 2014-06-10 Verizon Patent And Licensing Inc. Method and apparatus for managing digital video recorders
US9633656B2 (en) 2010-07-27 2017-04-25 Sony Corporation Device registration process from second display
US8473289B2 (en) * 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
US20120096497A1 (en) 2010-10-14 2012-04-19 Sony Corporation Recording television content
CN102064985B (zh) * 2010-11-24 2013-04-24 深圳市同洲电子股份有限公司 基于互动电视应用的数字智能家电远程控制系统和方法
TW201224966A (en) * 2010-12-03 2012-06-16 Accton Technology Corp Interactive media player system and method thereof
US10382509B2 (en) 2011-01-28 2019-08-13 Amazon Technologies, Inc. Audio-based application architecture
US20120226981A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
CN102148031A (zh) 2011-04-01 2011-08-10 无锡大核科技有限公司 语音识别与交互系统及方法
US20120260192A1 (en) 2011-04-11 2012-10-11 Detweiler Sean D Automated browser mode based on user and access point
CN102196207B (zh) * 2011-05-12 2014-06-18 深圳市车音网科技有限公司 语音控制电视机的方法、装置和系统
WO2013012107A1 (ko) 2011-07-19 2013-01-24 엘지전자 주식회사 전자 기기 및 그 제어 방법
US20130046773A1 (en) 2011-08-18 2013-02-21 General Instrument Corporation Method and apparatus for user-based tagging of media content
CN102289374B (zh) 2011-08-31 2017-06-30 南京中兴新软件有限责任公司 一种构建跨平台软件运行环境的方法及装置
WO2013042117A1 (en) * 2011-09-19 2013-03-28 Personetics Technologies Ltd. System and method for evaluating intent of a human partner to a dialogue between human user and computerized system
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US8340975B1 (en) 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
EP2801016A1 (en) 2011-10-11 2014-11-12 Serge Media Inc. System and methods for content-search carousel for mobile-computing devices
US9326088B2 (en) 2011-10-21 2016-04-26 GM Global Technology Operations LLC Mobile voice platform architecture with remote service interfaces
US9847083B2 (en) 2011-11-17 2017-12-19 Universal Electronics Inc. System and method for voice actuated configuration of a controlling device
US8954330B2 (en) * 2011-11-28 2015-02-10 Microsoft Corporation Context-aware interaction system using a semantic model
US9152376B2 (en) 2011-12-01 2015-10-06 At&T Intellectual Property I, L.P. System and method for continuous multimodal speech and gesture interaction
US8793136B2 (en) * 2012-02-17 2014-07-29 Lg Electronics Inc. Method and apparatus for smart voice recognition
US9836545B2 (en) * 2012-04-27 2017-12-05 Yahoo Holdings, Inc. Systems and methods for personalized generalized content recommendations
CN102685579B (zh) * 2012-05-02 2015-03-25 合一网络技术(北京)有限公司 一种实现本地网络中多装置间媒体分享及控制的方法
US10156455B2 (en) * 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US20130332159A1 (en) 2012-06-08 2013-12-12 Apple Inc. Using fan throttling to enhance dictation accuracy
US9679330B2 (en) * 2012-06-10 2017-06-13 Apple Inc. Interface for enhanced continuity of browsing experience
KR20130140423A (ko) * 2012-06-14 2013-12-24 삼성전자주식회사 디스플레이 장치, 대화형 서버 및 응답 정보 제공 방법
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
US9195383B2 (en) 2012-06-29 2015-11-24 Spotify Ab Systems and methods for multi-path control signals for media presentation devices
US10620797B2 (en) * 2012-06-29 2020-04-14 Spotify Ab Systems and methods for multi-context media control and playback
US9779757B1 (en) 2012-07-30 2017-10-03 Amazon Technologies, Inc. Visual indication of an operational state
US9786294B1 (en) 2012-07-30 2017-10-10 Amazon Technologies, Inc. Visual indication of an operational state
US9106957B2 (en) * 2012-08-16 2015-08-11 Nuance Communications, Inc. Method and apparatus for searching data sources for entertainment systems
US9424840B1 (en) * 2012-08-31 2016-08-23 Amazon Technologies, Inc. Speech recognition platforms
US9576574B2 (en) * 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
JP5986468B2 (ja) 2012-09-25 2016-09-06 富士通テン株式会社 表示制御装置、表示システム及び表示制御方法
US9043210B1 (en) * 2012-10-02 2015-05-26 Voice Security Systems, Inc. Biometric voice command and control switching device and method of use
US9230560B2 (en) 2012-10-08 2016-01-05 Nant Holdings Ip, Llc Smart home automation systems and methods
WO2014064531A1 (en) * 2012-10-22 2014-05-01 Spotify Ab Systems and methods for pre-fetching media content
PL401346A1 (pl) * 2012-10-25 2014-04-28 Ivona Software Spółka Z Ograniczoną Odpowiedzialnością Generowanie spersonalizowanych programów audio z zawartości tekstowej
US9337674B2 (en) 2012-11-02 2016-05-10 Chen-Source Inc. Desktop charger
US9704486B2 (en) 2012-12-11 2017-07-11 Amazon Technologies, Inc. Speech recognition power management
US9672822B2 (en) * 2013-02-22 2017-06-06 Next It Corporation Interaction with a portion of a content item through a virtual assistant
US9292832B2 (en) 2013-02-25 2016-03-22 Qualcomm Incorporated Collaborative intelligence and decision-making in an IoT device group
US9361885B2 (en) 2013-03-12 2016-06-07 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US9304736B1 (en) 2013-04-18 2016-04-05 Amazon Technologies, Inc. Voice controlled assistant with non-verbal code entry
US10445115B2 (en) 2013-04-18 2019-10-15 Verint Americas Inc. Virtual assistant focused user interfaces
US9116619B2 (en) 2013-05-10 2015-08-25 Seagate Technology Llc Displaying storage device status conditions using multi-color light emitting diode
US9811087B2 (en) * 2013-05-15 2017-11-07 Deere & Company Method for controlling a vehicle and a vehicle guidance system
US9843623B2 (en) * 2013-05-28 2017-12-12 Qualcomm Incorporated Systems and methods for selecting media items
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US20140365887A1 (en) * 2013-06-10 2014-12-11 Kirk Robert CAMERON Interactive platform generating multimedia from user input
US9324322B1 (en) 2013-06-18 2016-04-26 Amazon Technologies, Inc. Automatic volume attenuation for speech enabled devices
US9554632B2 (en) 2013-06-21 2017-01-31 Logitech Europe S.A. Portable device case and accessories
US9997160B2 (en) 2013-07-01 2018-06-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for dynamic download of embedded voice components
CN103474068B (zh) 2013-08-19 2016-08-10 科大讯飞股份有限公司 实现语音命令控制的方法、设备及系统
US9431004B2 (en) * 2013-09-05 2016-08-30 International Business Machines Corporation Variable-depth audio presentation of textual information
KR20150029974A (ko) 2013-09-11 2015-03-19 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9240182B2 (en) 2013-09-17 2016-01-19 Qualcomm Incorporated Method and apparatus for adjusting detection threshold for activating voice assistant function
CN103501382B (zh) 2013-09-17 2015-06-24 小米科技有限责任公司 语音服务提供方法、装置和终端
US9443527B1 (en) 2013-09-27 2016-09-13 Amazon Technologies, Inc. Speech recognition capability generation and control
EP3055851B1 (en) 2013-10-07 2020-02-26 Google LLC Smart-home hazard detector providing context specific features and/or pre-alarm configurations
US9484025B2 (en) 2013-10-15 2016-11-01 Toyota Jidosha Kabushiki Kaisha Configuring dynamic custom vocabulary for personalized speech recognition
US9706007B2 (en) * 2013-10-17 2017-07-11 Blue Syntax Consulting LLC System and method for querying disparate data sources in real time
US9698999B2 (en) 2013-12-02 2017-07-04 Amazon Technologies, Inc. Natural language control of secondary device
US9900177B2 (en) 2013-12-11 2018-02-20 Echostar Technologies International Corporation Maintaining up-to-date home automation models
US9804820B2 (en) 2013-12-16 2017-10-31 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US9721570B1 (en) * 2013-12-17 2017-08-01 Amazon Technologies, Inc. Outcome-oriented dialogs on a speech recognition platform
US10248856B2 (en) 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9430186B2 (en) 2014-03-17 2016-08-30 Google Inc Visual indication of a recognized voice-initiated action
US10031721B2 (en) 2014-05-15 2018-07-24 Tyco Safety Products Canada Ltd. System and method for processing control commands in a voice interactive system
CN112102824A (zh) * 2014-06-06 2020-12-18 谷歌有限责任公司 基于环境的主动聊天信息系统
US10440499B2 (en) 2014-06-16 2019-10-08 Comcast Cable Communications, Llc User location and identity awareness
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN104135697A (zh) * 2014-07-31 2014-11-05 上海素控控制技术有限公司 基于蓝牙的智能共振音箱及其控制方法
US9767794B2 (en) * 2014-08-11 2017-09-19 Nuance Communications, Inc. Dialog flow management in hierarchical task dialogs
KR101579292B1 (ko) 2014-08-29 2015-12-21 서울대학교 산학협력단 범용 음성인식 제어 장치 및 제어 방법
WO2016054230A1 (en) 2014-10-01 2016-04-07 XBrain, Inc. Voice and connection platform
EP3823342B1 (en) * 2014-10-30 2023-12-13 DZS Inc. Method and apparatus for providing performance and usage information for a wireless local area network
EP3213518A1 (en) * 2014-10-31 2017-09-06 Piksel, Inc. Personalised channel
CN104506944B (zh) 2014-11-12 2018-09-21 科大讯飞股份有限公司 基于电视场景及语音助手的语音交互辅助方法及系统
EP3232395A4 (en) * 2014-12-09 2018-07-11 Sony Corporation Information processing device, control method, and program
US9811312B2 (en) 2014-12-22 2017-11-07 Intel Corporation Connected device voice command support
US10284618B2 (en) * 2015-04-28 2019-05-07 Apple Inc. Dynamic media content
US10038757B2 (en) * 2015-04-29 2018-07-31 Microsoft Technology Licensing, Llc Providing personalized greetings on a digital assistant
US9766596B2 (en) 2015-07-08 2017-09-19 Google Inc. Wake up to a cast alarm or an alarm plus content prompt
CN105163298B (zh) * 2015-08-24 2019-01-15 努比亚技术有限公司 一种通信方法及终端
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671665B2 (en) * 2015-09-25 2020-06-02 Oath Inc. Personalized audio introduction and summary of result sets for users
JP6532021B2 (ja) 2015-09-29 2019-06-19 本田技研工業株式会社 音声処理装置及び音声処理方法
US10003881B2 (en) 2015-09-30 2018-06-19 Apple Inc. Earbuds with capacitive touch sensor
US10102201B2 (en) 2015-11-30 2018-10-16 Soundhound, Inc. Natural language module store
US10026401B1 (en) 2015-12-28 2018-07-17 Amazon Technologies, Inc. Naming devices via voice commands
US20170221322A1 (en) 2016-02-01 2017-08-03 Brian M. Ignomirello System and method of multimodal status indication
US10623518B2 (en) * 2016-02-04 2020-04-14 Spotify Ab System and method for ordering media content for shuffled playback based on user preference
US9858927B2 (en) 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
CN109479110A (zh) * 2016-03-08 2019-03-15 优确诺股份有限公司 动态创建个人化锻炼视频的系统和方法
US20170262537A1 (en) * 2016-03-14 2017-09-14 Amazon Technologies, Inc. Audio scripts for various content
WO2017184587A1 (en) 2016-04-18 2017-10-26 Google Inc. Automated assistant invocation of appropriate agent
US9990002B2 (en) 2016-05-25 2018-06-05 Lg Electronics Inc. Sound output apparatus and hub for communication network
WO2017203366A1 (en) 2016-05-27 2017-11-30 Mobile Synergy 26 International Limited Multifunctional connection systems for various devices and methods of use thereof
US10832684B2 (en) * 2016-08-31 2020-11-10 Microsoft Technology Licensing, Llc Personalization of experiences with digital assistants in communal settings through voice and query processing
US11085777B2 (en) * 2018-07-27 2021-08-10 Adobe Inc. Generating digital event sequences utilizing a dynamic user preference interface to modify recommendation model reward functions

Also Published As

Publication number Publication date
CN108604181A (zh) 2018-09-28
EP3455747B1 (en) 2021-07-28
EP3455721A1 (en) 2019-03-20
EP3757753A1 (en) 2020-12-30
CN108604254B (zh) 2022-04-12
EP3455747A1 (en) 2019-03-20
KR20190006975A (ko) 2019-01-21
JP2021052403A (ja) 2021-04-01
CN114758655A (zh) 2022-07-15
EP3455720A1 (en) 2019-03-20
KR102114003B1 (ko) 2020-05-25
JP7293180B2 (ja) 2023-06-19
US10402450B2 (en) 2019-09-03
CN108604181B (zh) 2021-03-09
CN108604254A (zh) 2018-09-28
EP3455720B1 (en) 2023-12-27
US20170329848A1 (en) 2017-11-16
EP3455721B1 (en) 2020-09-16
US11860933B2 (en) 2024-01-02
JP2019526177A (ja) 2019-09-12
CN108604180A (zh) 2018-09-28
KR102177786B1 (ko) 2020-11-12
CN108604178A (zh) 2018-09-28
CN108604178B (zh) 2021-09-03
CN112947683A (zh) 2021-06-11
KR20190014515A (ko) 2019-02-12
EP3455722A1 (en) 2019-03-20
US20190391998A1 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
JP6797938B2 (ja) 媒体出力装置間での媒体転送
US11341964B2 (en) Voice-controlled media play in smart media environment
JP7130637B2 (ja) 音声インタフェース装置におけるフォーカスセッション
KR102254021B1 (ko) 결합된 어쿠스틱 도파관 및 방열판을 갖는 콤팩트 홈 어시스턴트에 대한 설계
WO2017197187A1 (en) Media transfer among media output devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6797938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250