JP6797938B2 - 媒体出力装置間での媒体転送 - Google Patents
媒体出力装置間での媒体転送 Download PDFInfo
- Publication number
- JP6797938B2 JP6797938B2 JP2018559837A JP2018559837A JP6797938B2 JP 6797938 B2 JP6797938 B2 JP 6797938B2 JP 2018559837 A JP2018559837 A JP 2018559837A JP 2018559837 A JP2018559837 A JP 2018559837A JP 6797938 B2 JP6797938 B2 JP 6797938B2
- Authority
- JP
- Japan
- Prior art keywords
- media
- voice
- cast
- destination
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012546 transfer Methods 0.000 title claims description 36
- 238000000034 method Methods 0.000 claims description 93
- 230000002123 temporal effect Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 77
- 238000003860 storage Methods 0.000 description 57
- 238000004891 communication Methods 0.000 description 35
- 230000000007 visual effect Effects 0.000 description 32
- 238000001514 detection method Methods 0.000 description 29
- 230000004913 activation Effects 0.000 description 21
- 230000004044 response Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000009471 action Effects 0.000 description 12
- 239000003086 colorant Substances 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000013461 design Methods 0.000 description 8
- 238000005286 illumination Methods 0.000 description 8
- 239000007787 solid Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000001419 dependent effect Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000008929 regeneration Effects 0.000 description 5
- 238000011069 regeneration method Methods 0.000 description 5
- 238000012552 review Methods 0.000 description 5
- 208000032041 Hearing impaired Diseases 0.000 description 3
- 238000005266 casting Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 206010011878 Deafness Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 101100408383 Mus musculus Piwil1 gene Proteins 0.000 description 1
- 241001122315 Polites Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 238000003973 irrigation Methods 0.000 description 1
- 230000002262 irrigation Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/18—Packaging or power distribution
- G06F1/181—Enclosures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0362—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1083—In-session procedures
- H04L65/1094—Inter-user-equipment sessions transfer or sharing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/612—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/613—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for the control of the source by the destination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/239—Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
- H04N21/2393—Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/4147—PVR [Personal Video Recorder]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/323—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/02—Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
- H04R2201/028—Structural combinations of loudspeakers with built-in power amplifiers, e.g. in the same acoustic enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/005—Audio distribution systems for home, i.e. multi-room use
Description
マイクと一体化される電子デバイスは、音声入力をユーザから収集し、かつ音声入力に従って異なる音声起動機能を実現するために広く用いられている。たとえば、多数の現行技術の移動体装置は、音声入力を用いて、通話を開始する、レストラン探しを行なう、地図上の経路指定を開始する、カレンダーイベントを作成する、ソーシャルネットワークへの投稿を追加する、歌を認識する、かつ多数の他のタスクを完了するように構成される音声アシスタントシステム(たとえばシリ(Siri)(登録商標)およびGoogle(登録商標)アシスタント)を含む。移動体装置はしばしば、音声入力を与えるユーザが、要求されるタスクのステータスを音声入力を介してチェックできるようにする表示画面を含む。しかしながら、構造が比較的単純でかつ低コストで製造される電子デバイスが移動体装置として同様の音声起動機能を実現するように適用されると、表示画面を用いることによって電子デバイスのコストが大幅に増大してしまうであろう。そのため、1つ以上のマイクを含みかつ音声インターフェイスとして機能する電子デバイスにおいて音声入力処理のステータスを示す単純かつ低コストのユーザインターフェイスを用いる必要性がある。
したがって、電子デバイスが、スマートメディアまたはスマートホーム環境内で結合される他の媒体再生装置またはスマートホームデバイス上に、音声起動機能を起動させるアイズフリーかつハンズフリーの音声インターフェイスを提供するスマートメディア環境またはスマートホーム環境を作り出す必要性がある。この適用例のある実現例では、スマートメディア環境は、1つ以上の音声起動電子デバイスと、各々が別個の場所に配設されかつキャストデバイス(たとえばセットトップボックス)に結合される複数の媒体表示装置とを含む。各々の音声起動電子デバイスは音声メッセージを記録するように構成されており、クラウドキャストサービスサーバは、そこからユーザ音声要求(たとえば、媒体再生要求、媒体転送要求、またはクローズドキャプション開始要求)を判定する。次にクラウドキャストサービスサーバは、音声メッセージが示すように、ユーザ音声要求を送り先キャストデバイスに向ける。音声起動電子デバイスは、対応の音声処理状態を示すフルカラーLEDのアレイを介して視覚的パターンを表示するようにも構成される。同様の配置を用いてスマートホームデバイスを制御してスマートホーム環境で音声起動機能を実現することができる。そのような方法は任意に、ユーザが遠隔操作またはクライアントデバイスを用いてスマートメディアまたはホーム環境で媒体装置またはスマートホームデバイスを制御することを要件とする従来の方法を補うまたは置き換える。
図面のいくつかの図を通して同様の参照番号は対応の部分を参照する。
図1は、ある実現例に従う例示的なスマートメディア環境100である。スマートメディア環境100は、さまざまな一体化されたデバイスを有する構造150(たとえば、家、オフィスビル、ガレージ、または移動住宅)を含む。デバイスは、マンション、コンドミニアム、またはオフィス空間などの全体構造150を含まないスマートメディア環境100に一体化されることがあることが認められる。描かれた構造150は、壁154を介して互いから少なくとも部分的に分離された複数の部屋152を含む。壁154は内壁または外壁を含むことがある。各々の部屋は、床156および天井158をさらに含むことがある。
図2Aを参照して、キャストデバイス108と音声起動電子デバイス190とが両者ともコミッショニングされかつ共通のユーザドメインにリンクされた後、音声起動電子デバイス190を音声ユーザインターフェイスとして用いて、遠隔操作を介さないキャストデバイス108、クライアントデバイス104、または他の第2の画面装置への媒体コンテンツストリーム配信のアイズフリーかつハンズフリーの制御を可能にすることができる。たとえば、ユーザは、「リビングのスピーカでレディー・ガガを再生」などの音声コマンドを与え得る。レディー・ガガの楽曲またはビデオクリップが「リビングのスピーカ」に関連付けられるキャストデバイス108にストリーム配信される。クライアントデバイス104は関与せず、クライアントデバイス104にロードされるキャストデバイスアプリケーションまたは媒体再生アプリケーションも関与しない。
米国連邦アクセシビリティ法は、ウェブサイト、電子メール、またはウェブ文書などの電子通信および情報技術がアクセス可能であることと、聾のまたは聴覚障害のあるユーザ向けのクローズドキャプションの選択肢とともに映像コンテンツを提示しなければならないこととを要件としている。図2Aを参照して、キャストデバイス108と音声起動電子デバイス190とが両者ともコミッショニングされて共通のユーザドメインにリンクされた後、音声起動電子デバイス190を音声ユーザインターフェイスとして用いて、媒体出力装置106上で現在表示されている媒体コンテンツを用いたクローズドキャプション表示のアイズフリーかつハンズフリーの制御を可能にすることができる。具体的に、音声認識システムは、キャプションをオンにするという音声コマンドを、クラウドキャストサービスに送られる認識可能なメッセージに翻訳する。クラウドキャストサービスは、このメッセージを解釈して、キャストデバイスにインストールされた媒体再生アプリケーション(たとえばユーチューブ)にコマンドを送る。媒体再生アプリケーションはそのコマンドを受信し、メッセージに基づいてキャプショントラックをレンダリングする。そのため、ユーザは次に、声を用いて媒体出力装置上でのキャプションのオンオフを切換えることができる。このクローズドキャプション表示の制御は、遠隔操作、クライアントデバイス104、または他の第2の画面装置を全く介さず、またクライアントデバイス104上にロードされたキャストデバイスアプリケーションまたは媒体再生アプリケーションも全く呼出さない。したがって、クローズドキャプション表示の音声起動制御は、特に聾のまたは聴覚障害のあるユーザにとっての連邦アクセシビリティ要件を満たす。
図3は、ある実現例に従う、キャストデバイス108がスマートメディア環境100のクライアントデバイス104、音声起動電子デバイス190、またはサーバシステムと対話する別の例示的な動作環境である。スマートメディア環境100は、第1のキャストデバイス108−1と、第1のキャストデバイスに結合される第1の出力装置106−1とを含む。スマートメディア環境100は、第2のキャストデバイス108−2と、第1のキャストデバイスに結合される第2の出力装置106−2とも含む。キャストデバイス108−1および108−2は、任意に、スマートメディア環境100中の同じ場所(たとえばリビング)にまたは2つの別個の場所(たとえば2つの部屋)に位置する。キャストデバイス108−1および108−2の各々は、媒体ホスト114から媒体コンテンツまたはインターネットコンテンツを取得して、それぞれのキャストデバイス108−1または108−2に結合される出力装置106上で表示するように構成される。第1のキャストデバイスと第2のキャストデバイスとの両者がクラウドキャストサービスサーバ116およびコンテンツホスト114に通信するように結合される。
図4Aおよび図4Bは、ある実現例に従う音声起動電子デバイス190の正面図400および背面図420である。電子デバイス190は暖かみがありかつ感じのよいものとして設計され、家の多数のエリアに自然に適合する。電子デバイス190は、1つ以上のマイク402とフルカラーLED404のアレイとを含む。フルカラーLED404は電子デバイス190の上面の下に隠され、点灯していないときはユーザから不可視であり得る。ある実現例では、フルカラーLED404のアレイは、物理的にリング状に配置される。さらに、電子デバイス190の背面側は、任意に、電源に結合するように構成される電源コネクタ408を含む。
ある実現例では、電子デバイス190の単純さおよび低コストを考慮すると、電子デバイス190は、全表示画面よりもむしろ、フルカラー発光ダイオード(LED)のアレイを含む。LED設計言語は、フルカラーLEDのアレイの照明を構成しかつ電子デバイス190の異なる音声処理状態を示す異なる視覚的パターンを可能にするように採用される。LED設計言語は、固定された組のフルカラーLEDに適用される色、パターン、および具体的な動きの文法からなる。言語中の要素を組合せて、電子デバイス190の使用の際の具体的なデバイスの状態を視覚的に示す。ある実現例では、フルカラーLEDの照明は、他の重要な状態のうち、電子デバイス190の受動的リッスンおよび能動的リッスンの状態を明確に視覚的に示すことを目的とする。フルカラーLEDの配備は電子デバイス190の物理的制約に合致しており、特定の技術(たとえばGoogleアシスタント(登録商標))に基づいて第三者相手先商標製品製造業者(OEM)が製造するスピーカでフルカラーLEDのアレイを用いることができる。
ある実現例では、電子デバイス190は、ホットワード検出状態で、1つ以上のホットワード(たとえば予め定められたキーワード)をリッスンしかつ認識する。電子デバイス190がホットワードを認識するまで、電子デバイス190は、音声支援サーバ112またはクラウドキャストサービスサーバ118にオーディオ入力を全く送らない。ホットワードが検出されると、電子デバイス190は、以降の処理のためにクラウドにさらに送信されるオーディオ入力をマイクが記録すると、リッスン中状態で動作し始める。リッスン中モードでは、予め定められた時間的位置(たとえばホットワードの検出の2秒前)から開始するオーディオ入力が音声支援サーバ112またはクラウドキャストサービスサーバ118に送信され、これにより、より自然な会話のような流れを求めたシームレスな問合せが容易になる。
具体的に、ある実現例では、音声処理状態が、電子デバイスがユーザから受信した音声入力を処理中である際に生じる考え中状態であるという判定に従って、LED照明持続時間の最初の照明サイクルの間には点灯するRGBダイオードの数が増えていき、第1の照明サイクルに続く第2の照明サイクルの間には、点灯するRGBダイオードの数が少なくなっていく。そのような視覚的パターンは、ある人物が考え中であるという人間の反応に一致している。任意に、マイク402は、考え中モードではオフにされる。
これに代えて、ある実現例では、音声処理状態が、ユーザから受信した音声入力に応答して電子デバイスが音声メッセージをブロードキャストする際に生じる応答中状態であるという判定に従って、フルカラーLEDのサブセットが単一色で明るさを別々にしてかつ変化させて点灯し、フルカラーLEDのサブセットの各々の明るさの変化は、ユーザからの音声入力に関連付けられる声の速度に一致する。ある実現例では、話し中モードは、音声アシスタントがその技術を示すところである。視覚的パターンでは色の組(たとえばグーグルブランドカラー)を用いるので、フルカラーLEDは、音声問合せに対する締切り、すなわち質問に答えが与えられたこと、を視覚的に示す。
図5は、ある実現例に従う、スマートメディア環境100でユーザ音声コマンドを収集する音声インターフェイスとして適用される例示的な電子デバイス190を示すブロック図である。電子デバイス190は典型的に、1つ以上の処理ユニット(CPU)502と、1つ以上のネットワークインターフェイス504と、メモリ506と、(チップセットと呼ばれることがある)これらの構成要素を相互接続するための1つ以上の通信バス508とを含む。電子デバイス190は、図4A−図4Hに示されるボタン406、タッチ検知アレイ、および1つ以上のマイク402などのユーザ入力を容易にする1つ以上の入力装置510を含む。電子デバイス190は、1つ以上のスピーカ422およびフルカラーLED404のアレイを含む1つ以上の出力装置512も含む。
・1つ以上のネットワークインターフェイス504(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して電子デバイス190を他のデバイス(たとえば、サーバシステム140、キャストデバイス108、クライアントデバイス104、スマートホームデバイス120、および他の電子デバイス190)に接続するためのネットワーク通信モジュール518
・1つ以上の入力装置510を介して入力を受信し、1つ以上の出力装置512を介して電子デバイス190での情報の提示を可能にするための入力/出力制御モジュールであって、以下を含む。
−電子デバイス190のデバイス状態に従ってフルカラーLED404の視覚的パターンを生成するためのLED制御モジュール524
−電子デバイス190の上面上のタッチイベントを検知するためのタッチ検知モジュール526
・電子デバイス190に関連付けられるデータを少なくとも記憶する音声起動デバイスデータ530であって、以下を含む。
−オーディオ信号、音声メッセージ、応答メッセージ、および電子デバイス190の音声インターフェイス機能に関する他のデータを記憶するための音声制御データ534
具体的に、フルカラーLEDによって表示される1つ以上の視覚的パターンに関連付けられる表示仕様536は、1つ以上の視覚的パターンの各々に関連付けられる予め定められたLED照明仕様を含む。フルカラーLEDの各々毎に、照明仕様は、それぞれの視覚的パターンに関連付けられる、LED照明持続時間、パルスレート、デューティサイクル、色順、および明るさのうち1つ以上を含む。各々の視覚的パターンは、少なくとも1つの音声処理状態に対応する。
・1つ以上のネットワークインターフェイス604(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワーク、ケーブルテレビシステム、衛星テレビシステム、IPTVシステムなどの1つ以上のネットワーク110を介して、キャストデバイス108を他のコンピュータまたはシステム(たとえば、サーバシステム140、スマートホームデバイス120、およびクライアントデバイス104)に接続するためのネットワーク通信モジュール618
・1つ以上のコンテンツソース114から受信したコンテンツ信号を復号し、復号された信号中のコンテンツをキャストデバイス108に結合された出力表示装置106に出力するためのコンテンツ復号モジュール620
・媒体表示を制御して、たとえば、クラウドキャストサービスサーバ116から受信した即時媒体再生情報に従って出力装置106への媒体出力を生じさせるための1つ以上の媒体再生アプリケーション624を含む自動媒体表示モジュール624
・(たとえば、自動媒体出力モードおよびフォローアップモードで)媒体表示の自動制御に関連付けられるデータを少なくとも記憶するキャストデバイスデータ626であって、以下を含む。
−アカウントアクセス情報、媒体コンテンツ種類のユーザの嗜好、レビュー履歴データ、および自動媒体表示制御のための情報のうち1つ以上を含む、1つ以上の媒体プレイヤアプリケーションのユーザアカウントに関連付けられる情報を記憶するための媒体プレイヤアプリケーション設定630
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ606は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ606は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
・1つ以上のネットワークインターフェイス704(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して、サーバシステム140を他のデバイス(たとえば、サーバシステム140中のさまざまなサーバ、クライアントデバイス104、キャストデバイス108、およびスマートホームデバイス120)に接続するためのネットワーク通信モジュール718
・クライアントデバイス104において情報(たとえば、アプリケーション826−830を提示するためのグラフィカルユーザインターフェイス、ウィジェット、ウェブサイトおよびそのウェブページ、ならびに/またはゲーム、オーディオおよび/もしくはビデオコンテンツ、テキストなど)の提示を可能にするためのユーザインターフェイスモジュール720
・サーバ側での実行のためのコマンド実行モジュール721(たとえば、ゲーム、ソーシャルネットワークアプリケーション、スマートホームアプリケーション、ならびに/またはクライアントデバイス104、キャストデバイス108、電子デバイス190、およびスマートホームデバイス120を制御し、そのようなデバイスが捕捉したデータをレビューするための他のウェブもしくは非ウェブベースのアプリケーション)であって、以下のうち1つ以上を含む。
−対応の媒体ソースに関連付けられる媒体表示およびユーザアカウント管理のためのサーバ側機能を提供するように実行される1つ以上の媒体プレイヤアプリケーション724
−対応のスマートホームデバイス120のデバイスプロビジョニング、デバイス制御、データ処理、およびデータレビューのためのサーバ側機能を提供するように実行される1つ以上のスマートホームデバイスアプリケーション726
−電子デバイス190から受信した音声メッセージの音声処理を手配する、または音声メッセージを直接に処理してユーザ音声コマンドとキャストデバイス108もしくは別の電子デバイス190の指定とを抽出する、ように実行される音声支援アプリケーション728
・(たとえば、自動媒体出力モードおよびフォローアップモードでの)媒体表示の自動制御に関連付けられるデータを少なくとも記憶するサーバシステムデータ730であって、以下のうち1つ以上を含む。
−アカウントアクセス情報、デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)、および自動媒体表示制御のための情報のうち1つ以上を含む、キャストデバイスアプリケーション722のユーザアカウントに関連付けられる情報を記憶するためのキャストデバイス設定734
−アカウントアクセス情報、媒体コンテンツ種類のユーザの嗜好、レビュー履歴データ、および自動媒体表示制御のための情報のうち1つ以上を含む、1つ以上の媒体プレイヤアプリケーション724のユーザアカウントに関連付けられる情報を記憶するための媒体プレイヤアプリケーション設定736
−アカウントアクセス情報、1つ以上のスマートホームデバイス120のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、スマートホームアプリケーション726のユーザアカウントに関連付けられる情報を記憶するためのスマートホームデバイス設定738
−アカウントアクセス情報、1つ以上の電子デバイス190のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、音声支援アプリケーション728のユーザアカウントに関連付けられる情報を記憶するための音声支援データ740
サーバ140がクラウドキャストサービスサーバ116を含む場合、メモリ706またはメモリ706の非一時的コンピュータ読出可能記憶媒体は、以下のプログラム、モジュール、およびデータ構造、またはその下位セットもしくは上位セットを記憶する。
・音声メッセージ中で識別されたユーザ音声コマンドを、クラウドキャストユーザドメイン中で結合されるキャストデバイス180、電子デバイス190、およびスマートホームデバイス120のうち1つ以上に中継するためのクラウドキャストアプリケーション760
・クラウドキャストユーザドメイン中で結合されるキャストデバイス180、電子デバイス190、およびスマートホームデバイス120の状態を維持するためのステータス報告モジュール770
以上識別した要素の各々は、先に言及したメモリデバイスのうち1つ以上に記憶されてもよく、上述の機能を行なうための1組の命令に対応する。以上で識別したモジュールまたはプログラム(すなわち命令の組)は、別個のソフトウェアプログラム、手順、モジュール、またはデータ構造として実現される必要はなく、そのため、これらのモジュールのさまざまな下位セットをさまざまな実現例で組合せたりそれ以外に再配置してもよい。ある実現例では、メモリ706は、任意に、以上で識別したモジュールおよびデータ構造の下位セットを記憶する。さらに、メモリ706は、任意に、上述していない付加的なモジュールおよびデータ構造を記憶する。
・1つ以上のネットワークインターフェイス804(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して、クライアントデバイス104を他のデバイス(たとえばサーバシステム140、キャストデバイス108、電子デバイス190、スマートホームデバイス120、および他のクライアントデバイス104)に接続するためのネットワーク通信モジュール818
・1つ以上の出力装置812(たとえばディスプレイ、スピーカなど)を介してクライアントデバイス104において情報(たとえば、アプリケーション826−830を提示するためのグラフィカルユーザインターフェイス、ウィジェット、ウェブサイトおよびそのウェブページ、ならびに/またはゲーム、オーディオおよび/もしくはビデオコンテンツ、テキストなど)の提示を可能にするためのユーザインターフェイスモジュール820
・1つ以上の入力装置810のうち1つからの1つ以上のユーザ入力または対話を検出し、検出した入力または対話を解釈するための入力処理モジュール822
・キャストデバイス108、電子デバイス190、媒体アプリケーション、またはスマートホームデバイス120に関連付けられるユーザアカウントにログインするためのウェブインターフェイスを含むウェブサイトおよびそのウェブページをナビゲート、(たとえばHTTPを介して)要求、ならびに表示し、ユーザアカウントに関連付けられていれば、キャストデバイス108、電子デバイス190、またはスマートホームデバイス120を制御し、かつユーザアカウントに関連付けられる設定およびデータを編集しレビューするためのウェブブラウザモジュール824
・クライアントデバイスによる実行のための1つ以上のアプリケーション(たとえば、ゲーム、ソーシャルネットワークアプリケーション、スマートホームアプリケーション、ならびに/またはキャストデバイス108、電子デバイス190、および/もしくはスマートホームデバイス120を制御し、かつそのようなデバイスが捕捉するデータをレビューするための他のウェブもしくは非ウェブベースのアプリケーション)であって、以下のうち1つ以上を含む。
−電子デバイス190に関連付けられるデバイスプロビジョニング、デバイス制御、およびユーザアカウント管理のためのクライアント側機能性を提供するように実行される音声起動デバイスアプリケーション827
−対応の媒体ソースに関連付けられる媒体表示およびユーザアカウント管理のためのクライアント側機能性を提供するように実行される1つ以上の媒体プレイヤアプリケーション828
−対応のスマートホームデバイス120のデバイスプロビジョニング、デバイス制御、データ処理、およびデータレビューのためのクライアント側機能性を提供するように実行される1つ以上のスマートホームデバイスアプリケーション830
・(たとえば、自動媒体出力モードまたはフォローアップモードで)媒体表示の自動制御に関連付けられるデータを少なくとも記憶するクライアントデータ832であって、以下を含む。
−アカウントアクセス情報、デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)、および自動媒体表示制御のための情報のうち1つ以上を含む、キャストデバイスアプリケーション826のユーザアカウントに関連付けられる情報を記憶するためのキャストデバイス設定836
−アカウントアクセス情報、媒体コンテンツ種類のユーザの嗜好、レビュー履歴データ、および自動媒体表示制御のための情報のうち1つ以上を含む、1つ以上の媒体プレイヤアプリケーション828のユーザアカウントに関連付けられる情報を記憶するための媒体プレイヤアプリケーション設定838
−アカウントアクセス情報、スマートホームデバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、スマートホームアプリケーション830のユーザアカウントに関連付けられる情報を記憶するためのスマートホームデバイス設定840
−アカウントアクセス情報、電子デバイス設定のための情報(たとえば、サービス階層、デバイスモデル、記憶容量、処理能力、通信能力など)のうち1つ以上を含む、音声起動デバイスアプリケーション827のユーザアカウントに関連付けられる情報を記憶するための音声起動デバイス設定842
ある実現例では、キャストデバイスアプリケーション826、音声起動デバイスアプリケーション827、媒体プレイヤアプリケーション828、およびスマートホームデバイスアプリケーション830の各々は、クライアントデバイス104の出力装置812上にそれぞれのユーザインターフェイスの表示を生じさせる。ある実現例では、キャストデバイスアプリケーション826、音声起動デバイスアプリケーション827、媒体プレイヤアプリケーション828、およびスマートホームデバイスアプリケーション830に関連付けられるユーザのユーザアカウントは、単一のクラウドキャストサービスアカウントにリンクされる。ユーザは、クラウドキャストサービスアカウント情報を用いて、キャストデバイスアプリケーション826、音声起動デバイスアプリケーション827、媒体プレイヤアプリケーション828、およびスマートホームデバイスアプリケーション830のすべてにログオンし得る。ある実現例では、メモリ806またはメモリ806の非一時的コンピュータ読出可能記憶媒体は、同じクラウドキャストサービスアカウント(たとえばグーグルユーザアカウント)にリンクされるキャストデバイス108、スマートホームデバイス120、および電子デバイス190に関連付けられる機能制御およびユーザアカウント管理のためのクライアント側機能性を提供するように実行されるクラウドキャストアプリケーション844を記憶する。
・1つ以上のネットワークインターフェイス904(有線または無線)、およびインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ以上のネットワーク110を介して、スマートホームデバイス120を他のコンピュータまたはシステム(たとえば、サーバシステム140、クライアントデバイス104、キャストデバイス108、電子デバイス190、および他のスマートホームデバイス120)に接続するためのネットワーク通信モジュール918
・(スマートホームデバイス120がビデオカメラ132を含む場合、マルチメディアデータストリームを捕捉および生成して、マルチメディアデータストリームを連続的なフィードとしてまたは短いバーストでクライアントデバイス104またはサーバシステム140に送るために)スマートホームデバイス120がその指定された機能を実現できるようにするためのスマートホームデバイスモジュール922
・デバイス設定926に関連付けられるデータを少なくとも記憶するスマートホームデバイスデータ924
ある実現例では、スマートホームデバイス120は声で制御される。具体的に、クラウドキャストサービスサーバ116は、電子デバイス190が記録する音声メッセージを受信し、音声メッセージがスマートデバイス制御要求(たとえば、ビデオカメラのズームインまたはアウト、誤ったアラームのオフ、およびスマートサーモスタットから測定された温度の問合せ)を含むと判定する。スマートデバイス制御要求は、スマートホームデバイス120を制御するユーザ音声コマンドと、スマートホームデバイスのユーザ音声指定とを含む。スマートホームデバイスの音声指定に従って、クラウドキャストサービスサーバ116は、デバイスレジストリ118において、ユーザドメインにおいて電子デバイスに関連付けられるスマートホームデバイス120を識別する。次にクラウドキャストサービスサーバ116は、スマートホームデバイス1290に別のデバイス制御要求を送り、これにより、スマートホームデバイス120のスマートホームデバイスモジュール922は、ユーザ音声コマンドに従ってスマートホームデバイス120を制御できるようになる。
図10は、ある実現例に従う、音声処理状態を視覚的に示す方法1000を示すフロー図である。方法1000は、フルカラーLEDのアレイと、1つ以上のマイクと、スピーカと、プロセッサと、プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを有する電子デバイス190において実現される。電子デバイス190は、1つ以上のマイク402を介して、電子デバイス190に近接する環境からオーディオ入力を収集し(1002)、オーディオ入力を処理する(1004)。処理は音声処理モジュール522で実現され、環境中のユーザからの音声入力を識別することと、これに応答することとのうち1つ以上を含む。次に電子デバイス190は、複数の予め規定された音声処理状態の中から処理の状態を判定する(1006)。フルカラーLEDの各々毎に、電子デバイス190は、判定された音声処理状態に関連付けられるそれぞれの予め定められたLED照明仕様を識別し(1008)、それぞれの照明仕様は、LED照明持続時間、パルスレート、デューティサイクル、色順、および明るさのうち1つ以上を含む(1010)。フルカラーLEDの識別されたLED照明仕様に従って、電子デバイス190(具体的にはLED制御モジュール524)は、フルカラーLEDのアレイの照明を同期させて、判定された音声処理状態を示す視覚的パターンを提供する。図4A−図4Hおよび図5を参照して、方法1000に関するさらなる詳細を以上で説明した。
Claims (16)
- 媒体コンテンツ表示の再生を移動させるための方法であって、
プロセッサと、前記プロセッサによる実行のための少なくとも1つのプログラムを記憶するメモリとを含むサーバシステムにおいて、
電子デバイスを介して音声メッセージを受信することと、
前記音声メッセージが媒体転送要求を含むと判定することとを備え、前記媒体転送要求は、再生中の媒体コンテンツを送り先媒体出力装置に転送するというユーザ音声コマンドと、前記送り先媒体出力装置のユーザ音声指定とを含み、さらに
送り側キャストデバイスから、現在再生中の前記媒体コンテンツの即時媒体再生情報を取得することを備え、前記即時媒体再生情報は、第1の媒体再生アプリケーションの情報と、現在再生中の前記媒体コンテンツと、前記媒体コンテンツの再生に関する時間的位置とを少なくとも含み、さらに
前記送り先媒体出力装置の前記ユーザ音声指定に従って、ユーザドメインにおいて前記電子デバイスに関連付けられかつ前記送り先媒体出力装置に結合される送り先キャストデバイスを識別することを備え、前記送り先キャストデバイスは、前記送り先媒体出力装置を制御して1つ以上の媒体コンテンツホストから受信した媒体コンテンツを再生するための1つ以上の媒体再生アプリケーションを実行するように構成され、さらに
ユーザの介入無しで、前記即時媒体再生情報を含む媒体再生要求を前記送り先キャストデバイスに送り、これにより、前記送り先キャストデバイスは、前記送り先媒体出力装置を制御して前記時間的位置から前記媒体コンテンツを再生する前記第1の媒体再生アプリケーションを実行できるようになることを備える、方法。 - 前記送り先キャストデバイスはデバイスレジストリにおいて識別され、前記送り側キャストデバイスから現在再生中の前記媒体コンテンツの前記即時媒体再生情報を取得することはさらに、
前記媒体コンテンツが送り側媒体出力装置で現在再生中であると識別することと、
前記デバイスレジストリにおいて、前記ユーザドメインにおいて前記電子デバイスに関連付けられかつ前記送り側媒体出力装置に結合される前記送り側キャストデバイスを識別することと、
媒体情報要求を前記送り側キャストデバイスに送ることと、
前記送り側キャストデバイスから前記即時媒体再生情報を受信することとを備える、請求項1に記載の方法。 - 前記ユーザ音声コマンドに従って媒体停止要求を前記送り側キャストデバイスに送り、これにより、前記送り側キャストデバイスは、前記送り側媒体出力装置上での前記媒体コンテンツの前記再生を見合わせるように、前記送り側媒体出力装置に結合される前記送り側キャストデバイスを制御する前記第1の媒体再生アプリケーションを実行できるようになることをさらに備える、請求項2に記載の方法。
- 前記電子デバイスは、第1の場所に位置する前記送り側キャストデバイスに近接して配設される、請求項1から3のいずれか1項に記載の方法。
- 前記電子デバイスは、第2の現場に位置する送り先表示装置および前記送り先キャストデバイスに近接して配置される、請求項1から4のいずれか1項に記載の方法。
- 前記電子デバイス、前記送り側キャストデバイス、および前記送り先キャストデバイスは、前記ユーザドメインにおいてユーザアカウントに関連付けられる、請求項1から5のいずれか1項に記載の方法。
- 前記ユーザアカウントはグーグルユーザアカウントである、請求項6に記載の方法。
- 前記サーバシステムは、2つの別々の媒体出力装置上でそれぞれ再生するために前記媒体コンテンツを前記送り側キャストデバイスおよび前記送り先キャストデバイスに与えるコンテンツホストとは別である、請求項1から7のいずれか1項に記載の方法。
- 前記サーバシステムは、前記電子デバイス、前記送り側キャストデバイスおよび前記送り先キャストデバイス、ならびに前記送り先媒体出力装置から遠隔に位置する、請求項1から8のいずれか1項に記載の方法。
- 前記時間的位置は、前記ユーザが送り先表示装置への前記媒体コンテンツの前記移動を要求したときに記録される、請求項1から9のいずれか1項に記載の方法。
- 前記音声メッセージを構文解析しかつ前記ユーザ音声コマンドおよび前記送り先媒体出力装置の前記ユーザ音声指定を識別する音声支援サーバに前記音声メッセージを移送することと、
前記音声支援サーバから前記ユーザ音声コマンドおよび前記送り先媒体出力装置の前記ユーザ音声指定を受信することとをさらに備える、請求項1から10のいずれか1項に記載の方法。 - 前記送り先キャストデバイスはデバイスレジストリにおいて識別され、前記送り先媒体出力装置の前記ユーザ音声指定は前記送り先媒体出力装置の記述を含み、前記方法はさらに、前記デバイスレジストリにおいて、前記送り先媒体出力装置の前記記述に従って複数の媒体出力装置の中から前記送り先媒体出力装置を識別することを備える、請求項1から11のいずれか1項に記載の方法。
- 前記送り先媒体出力装置の前記記述は、前記送り先媒体出力装置のブランドまたは場所を少なくとも含む、請求項12に記載の方法。
- 前記即時媒体再生情報はプレイリスト識別子を含む、請求項1から13のいずれか1項に記載の方法。
- サーバシステムであって、
1つ以上のプロセッサと、
命令を記憶したメモリとを備え、前記命令は、前記1つ以上のプロセッサによって実行されると、前記プロセッサに請求項1から14のいずれか1項に記載の方法を実行させる、サーバシステム。 - サーバシステムの少なくとも1つのプロセッサによって実行されるプログラムであって、請求項1から14のいずれか1項に記載の方法を実行する命令を備える、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020191833A JP7293180B2 (ja) | 2016-05-13 | 2020-11-18 | スマートメディア環境においてスマート制御される媒体再生 |
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662336551P | 2016-05-13 | 2016-05-13 | |
US201662336565P | 2016-05-13 | 2016-05-13 | |
US201662336569P | 2016-05-13 | 2016-05-13 | |
US201662336566P | 2016-05-13 | 2016-05-13 | |
US62/336,551 | 2016-05-13 | ||
US62/336,565 | 2016-05-13 | ||
US62/336,569 | 2016-05-13 | ||
US62/336,566 | 2016-05-13 | ||
US15/592,128 US10332516B2 (en) | 2016-05-10 | 2017-05-10 | Media transfer among media output devices |
US15/592,120 US10304450B2 (en) | 2016-05-10 | 2017-05-10 | LED design language for visual affordance of voice user interfaces |
US15/592,126 US10235997B2 (en) | 2016-05-10 | 2017-05-10 | Voice-controlled closed caption display |
US15/592,128 | 2017-05-10 | ||
US15/592,126 | 2017-05-10 | ||
US15/592,120 | 2017-05-10 | ||
PCT/US2017/032263 WO2017197187A1 (en) | 2016-05-13 | 2017-05-11 | Media transfer among media output devices |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020191833A Division JP7293180B2 (ja) | 2016-05-13 | 2020-11-18 | スマートメディア環境においてスマート制御される媒体再生 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019526177A JP2019526177A (ja) | 2019-09-12 |
JP6797938B2 true JP6797938B2 (ja) | 2020-12-09 |
Family
ID=60295267
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018559837A Active JP6797938B2 (ja) | 2016-05-13 | 2017-05-11 | 媒体出力装置間での媒体転送 |
JP2020191833A Active JP7293180B2 (ja) | 2016-05-13 | 2020-11-18 | スマートメディア環境においてスマート制御される媒体再生 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020191833A Active JP7293180B2 (ja) | 2016-05-13 | 2020-11-18 | スマートメディア環境においてスマート制御される媒体再生 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10402450B2 (ja) |
EP (5) | EP3455721B1 (ja) |
JP (2) | JP6797938B2 (ja) |
KR (2) | KR102114003B1 (ja) |
CN (6) | CN114758655A (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10515637B1 (en) * | 2017-09-19 | 2019-12-24 | Amazon Technologies, Inc. | Dynamic speech processing |
US11526518B2 (en) | 2017-09-22 | 2022-12-13 | Amazon Technologies, Inc. | Data reporting system and method |
US20190095444A1 (en) * | 2017-09-22 | 2019-03-28 | Amazon Technologies, Inc. | Voice driven analytics |
JP6943192B2 (ja) * | 2018-01-24 | 2021-09-29 | 沖電気工業株式会社 | 家電機器および場所検索システム |
CN111903138A (zh) * | 2018-03-29 | 2020-11-06 | 索尼公司 | 信息处理装置、信息处理方法、发送装置以及发送方法 |
CN117056947A (zh) * | 2018-05-07 | 2023-11-14 | 谷歌有限责任公司 | 在计算设备之间同步访问控制 |
US11085777B2 (en) * | 2018-07-27 | 2021-08-10 | Adobe Inc. | Generating digital event sequences utilizing a dynamic user preference interface to modify recommendation model reward functions |
US11231975B2 (en) * | 2018-09-29 | 2022-01-25 | Apple Inc. | Devices, methods, and user interfaces for providing audio notifications |
US20200127988A1 (en) * | 2018-10-19 | 2020-04-23 | Apple Inc. | Media intercom over a secure device to device communication channel |
US10867603B2 (en) * | 2018-10-24 | 2020-12-15 | Sony Corporation | Audio-video reproduction device setup using interview-based voice control |
US10878805B2 (en) * | 2018-12-06 | 2020-12-29 | Microsoft Technology Licensing, Llc | Expediting interaction with a digital assistant by predicting user responses |
FR3093840B1 (fr) | 2019-03-14 | 2021-02-19 | Psa Automobiles Sa | Procédé et dispositif d’assistance à l’utilisation d’un véhicule automobile |
US10990939B2 (en) * | 2019-04-15 | 2021-04-27 | Advanced New Technologies Co., Ltd. | Method and device for voice broadcast |
US10802843B1 (en) * | 2019-05-31 | 2020-10-13 | Apple Inc. | Multi-user configuration |
CN110501988B (zh) * | 2019-09-25 | 2020-06-09 | 北京金茂绿建科技有限公司 | 一种实现物联网设备融合控制方法及其装置 |
JP2021091182A (ja) * | 2019-12-12 | 2021-06-17 | コニカミノルタ株式会社 | 画像処理装置及び制御方法 |
US11322150B2 (en) * | 2020-01-28 | 2022-05-03 | Amazon Technologies, Inc. | Generating event output |
US11036466B1 (en) | 2020-02-28 | 2021-06-15 | Facebook, Inc. | Social media custom audio program |
CN113365124B (zh) * | 2020-03-06 | 2023-01-20 | 海信视像科技股份有限公司 | 一种显示设备及显示方法 |
EP3906695A1 (en) | 2020-03-13 | 2021-11-10 | Google LLC | Network-connected television devices with knowledge-based media content recommendations and unified user interfaces |
EP3903501A2 (en) * | 2020-03-13 | 2021-11-03 | Google LLC | Media content casting in network-connected television devices |
CN112735419A (zh) * | 2021-01-28 | 2021-04-30 | 东莞维升电子制品有限公司 | 智能语音唤醒控制方法及及其控制装置 |
Family Cites Families (160)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659665A (en) | 1994-12-08 | 1997-08-19 | Lucent Technologies Inc. | Method and apparatus for including speech recognition capabilities in a computer system |
US5774859A (en) | 1995-01-03 | 1998-06-30 | Scientific-Atlanta, Inc. | Information system having a speech interface |
US5760754A (en) | 1995-12-04 | 1998-06-02 | Motorola, Inc. | Light pipe assembly and electrical device using same |
US6195641B1 (en) | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
US7050977B1 (en) | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US6397186B1 (en) | 1999-12-22 | 2002-05-28 | Ambush Interactive, Inc. | Hands-free, voice-operated remote control transmitter |
US6681380B1 (en) * | 2000-02-15 | 2004-01-20 | International Business Machines Corporation | Aggregating constraints and/or preferences using an inference engine and enhanced scripting language |
GB2372864B (en) * | 2001-02-28 | 2005-09-07 | Vox Generation Ltd | Spoken language interface |
US7426505B2 (en) * | 2001-03-07 | 2008-09-16 | International Business Machines Corporation | Method for identifying word patterns in text |
US7302634B2 (en) * | 2001-03-14 | 2007-11-27 | Microsoft Corporation | Schema-based services for identity-based data access |
US20030120744A1 (en) * | 2001-12-20 | 2003-06-26 | Gordon Kessler | Method and apparatus for providing downlaoded audio data |
US7493259B2 (en) * | 2002-01-04 | 2009-02-17 | Siebel Systems, Inc. | Method for accessing data via voice |
US7260538B2 (en) | 2002-01-08 | 2007-08-21 | Promptu Systems Corporation | Method and apparatus for voice control of a television control device |
US20040001095A1 (en) | 2002-07-01 | 2004-01-01 | Todd Marques | Method and apparatus for universal device management |
JP2004102415A (ja) * | 2002-09-05 | 2004-04-02 | Toshiba Corp | データ伝送装置およびデータ伝送方法並びに車載用電子機器 |
US20060276230A1 (en) * | 2002-10-01 | 2006-12-07 | Mcconnell Christopher F | System and method for wireless audio communication with a computer |
US7911358B2 (en) * | 2002-10-08 | 2011-03-22 | Johnson Controls Technology Company | System and method for enrollment of a remotely controlled device in a trainable transmitter |
JP4292789B2 (ja) | 2002-11-20 | 2009-07-08 | 日本電気株式会社 | ブラウザ機能拡張方法 |
US7925754B2 (en) * | 2003-11-21 | 2011-04-12 | Microsoft Corporation | Method and computer program product to provide synch notifications to client devices |
US7660715B1 (en) * | 2004-01-12 | 2010-02-09 | Avaya Inc. | Transparent monitoring and intervention to improve automatic adaptation of speech models |
US20050164681A1 (en) * | 2004-01-22 | 2005-07-28 | Jenkins William W. | Voice message storage in a push-to-talk communication system |
US20050212684A1 (en) | 2004-03-23 | 2005-09-29 | Flora Huang | Indicating apparatus combined with flash |
US20060075429A1 (en) * | 2004-04-30 | 2006-04-06 | Vulcan Inc. | Voice control of television-related information |
TWM260059U (en) * | 2004-07-08 | 2005-03-21 | Blueexpert Technology Corp | Computer input device having bluetooth handsfree handset |
JP2006286275A (ja) | 2005-03-31 | 2006-10-19 | Koizumi Sangyo Corp | 照明器具の制御装置 |
ATE550756T1 (de) | 2005-08-04 | 2012-04-15 | Nuance Communications Inc | Sprachdialogsystem |
US8104054B2 (en) * | 2005-09-01 | 2012-01-24 | At&T Intellectual Property I, L.P. | Methods, systems, and devices for bandwidth conservation |
US7996228B2 (en) | 2005-12-22 | 2011-08-09 | Microsoft Corporation | Voice initiated network operations |
US8516087B2 (en) | 2006-02-14 | 2013-08-20 | At&T Intellectual Property I, L.P. | Home automation system and method |
US7721313B2 (en) | 2006-06-30 | 2010-05-18 | Microsoft Corporation | Multi-DVR node communication |
US20080010652A1 (en) | 2006-07-07 | 2008-01-10 | General Instrument Corporation | Association of Network Terminals to a Common Account |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8073697B2 (en) * | 2006-09-12 | 2011-12-06 | International Business Machines Corporation | Establishing a multimodal personality for a multimodal application |
US8056070B2 (en) | 2007-01-10 | 2011-11-08 | Goller Michael D | System and method for modifying and updating a speech recognition program |
US20080180572A1 (en) | 2007-01-29 | 2008-07-31 | Microsoft Corporation | Enabling access to closed captioning data present in a broadcast stream |
JP4315986B2 (ja) * | 2007-02-08 | 2009-08-19 | 富士通株式会社 | 発光ダイオードを備えた電子機器 |
US8219406B2 (en) * | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
US8538757B2 (en) | 2007-05-17 | 2013-09-17 | Redstart Systems, Inc. | System and method of a list commands utility for a speech recognition command system |
US8150699B2 (en) | 2007-05-17 | 2012-04-03 | Redstart Systems, Inc. | Systems and methods of a structured grammar for a speech recognition command system |
CN101309390B (zh) * | 2007-05-17 | 2012-05-23 | 华为技术有限公司 | 视讯通信系统、装置及其字幕显示方法 |
US8160426B2 (en) | 2007-10-12 | 2012-04-17 | Rovi Guides, Inc. | Storage management of a recording device in a multi-user system |
US8521766B1 (en) * | 2007-11-12 | 2013-08-27 | W Leo Hoarty | Systems and methods for providing information discovery and retrieval |
US8543622B2 (en) | 2007-12-07 | 2013-09-24 | Patrick Giblin | Method and system for meta-tagging media content and distribution |
US8385536B2 (en) | 2008-01-09 | 2013-02-26 | Verizon Patent And Licensing Inc. | Automatic telephone number favorites list |
US9135809B2 (en) | 2008-06-20 | 2015-09-15 | At&T Intellectual Property I, Lp | Voice enabled remote control for a set-top box |
US8898568B2 (en) * | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8244531B2 (en) * | 2008-09-28 | 2012-08-14 | Avaya Inc. | Method of retaining a media stream without its private audio content |
JP5334178B2 (ja) | 2009-01-21 | 2013-11-06 | クラリオン株式会社 | 音声認識装置およびデータ更新方法 |
US8423353B2 (en) | 2009-03-25 | 2013-04-16 | Microsoft Corporation | Sharable distributed dictionary for applications |
US20100265397A1 (en) | 2009-04-20 | 2010-10-21 | Tandberg Television, Inc. | Systems and methods for providing dynamically determined closed caption translations for vod content |
US9858925B2 (en) * | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9197736B2 (en) * | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US20120253822A1 (en) | 2009-12-11 | 2012-10-04 | Thomas Barton Schalk | Systems and Methods for Managing Prompts for a Connected Vehicle |
US20110161085A1 (en) * | 2009-12-31 | 2011-06-30 | Nokia Corporation | Method and apparatus for audio summary of activity for user |
US9401099B2 (en) | 2010-05-11 | 2016-07-26 | AI Squared | Dedicated on-screen closed caption display |
US8750687B2 (en) | 2010-06-16 | 2014-06-10 | Verizon Patent And Licensing Inc. | Method and apparatus for managing digital video recorders |
US9633656B2 (en) | 2010-07-27 | 2017-04-25 | Sony Corporation | Device registration process from second display |
US8473289B2 (en) * | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
US20120096497A1 (en) | 2010-10-14 | 2012-04-19 | Sony Corporation | Recording television content |
CN102064985B (zh) * | 2010-11-24 | 2013-04-24 | 深圳市同洲电子股份有限公司 | 基于互动电视应用的数字智能家电远程控制系统和方法 |
TW201224966A (en) * | 2010-12-03 | 2012-06-16 | Accton Technology Corp | Interactive media player system and method thereof |
US10382509B2 (en) | 2011-01-28 | 2019-08-13 | Amazon Technologies, Inc. | Audio-based application architecture |
US20120226981A1 (en) | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Controlling electronic devices in a multimedia system through a natural user interface |
CN102148031A (zh) | 2011-04-01 | 2011-08-10 | 无锡大核科技有限公司 | 语音识别与交互系统及方法 |
US20120260192A1 (en) | 2011-04-11 | 2012-10-11 | Detweiler Sean D | Automated browser mode based on user and access point |
CN102196207B (zh) * | 2011-05-12 | 2014-06-18 | 深圳市车音网科技有限公司 | 语音控制电视机的方法、装置和系统 |
WO2013012107A1 (ko) | 2011-07-19 | 2013-01-24 | 엘지전자 주식회사 | 전자 기기 및 그 제어 방법 |
US20130046773A1 (en) | 2011-08-18 | 2013-02-21 | General Instrument Corporation | Method and apparatus for user-based tagging of media content |
CN102289374B (zh) | 2011-08-31 | 2017-06-30 | 南京中兴新软件有限责任公司 | 一种构建跨平台软件运行环境的方法及装置 |
WO2013042117A1 (en) * | 2011-09-19 | 2013-03-28 | Personetics Technologies Ltd. | System and method for evaluating intent of a human partner to a dialogue between human user and computerized system |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US8340975B1 (en) | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
EP2801016A1 (en) | 2011-10-11 | 2014-11-12 | Serge Media Inc. | System and methods for content-search carousel for mobile-computing devices |
US9326088B2 (en) | 2011-10-21 | 2016-04-26 | GM Global Technology Operations LLC | Mobile voice platform architecture with remote service interfaces |
US9847083B2 (en) | 2011-11-17 | 2017-12-19 | Universal Electronics Inc. | System and method for voice actuated configuration of a controlling device |
US8954330B2 (en) * | 2011-11-28 | 2015-02-10 | Microsoft Corporation | Context-aware interaction system using a semantic model |
US9152376B2 (en) | 2011-12-01 | 2015-10-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
US8793136B2 (en) * | 2012-02-17 | 2014-07-29 | Lg Electronics Inc. | Method and apparatus for smart voice recognition |
US9836545B2 (en) * | 2012-04-27 | 2017-12-05 | Yahoo Holdings, Inc. | Systems and methods for personalized generalized content recommendations |
CN102685579B (zh) * | 2012-05-02 | 2015-03-25 | 合一网络技术(北京)有限公司 | 一种实现本地网络中多装置间媒体分享及控制的方法 |
US10156455B2 (en) * | 2012-06-05 | 2018-12-18 | Apple Inc. | Context-aware voice guidance |
US20130332159A1 (en) | 2012-06-08 | 2013-12-12 | Apple Inc. | Using fan throttling to enhance dictation accuracy |
US9679330B2 (en) * | 2012-06-10 | 2017-06-13 | Apple Inc. | Interface for enhanced continuity of browsing experience |
KR20130140423A (ko) * | 2012-06-14 | 2013-12-24 | 삼성전자주식회사 | 디스플레이 장치, 대화형 서버 및 응답 정보 제공 방법 |
US20130339859A1 (en) | 2012-06-15 | 2013-12-19 | Muzik LLC | Interactive networked headphones |
US9195383B2 (en) | 2012-06-29 | 2015-11-24 | Spotify Ab | Systems and methods for multi-path control signals for media presentation devices |
US10620797B2 (en) * | 2012-06-29 | 2020-04-14 | Spotify Ab | Systems and methods for multi-context media control and playback |
US9779757B1 (en) | 2012-07-30 | 2017-10-03 | Amazon Technologies, Inc. | Visual indication of an operational state |
US9786294B1 (en) | 2012-07-30 | 2017-10-10 | Amazon Technologies, Inc. | Visual indication of an operational state |
US9106957B2 (en) * | 2012-08-16 | 2015-08-11 | Nuance Communications, Inc. | Method and apparatus for searching data sources for entertainment systems |
US9424840B1 (en) * | 2012-08-31 | 2016-08-23 | Amazon Technologies, Inc. | Speech recognition platforms |
US9576574B2 (en) * | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
JP5986468B2 (ja) | 2012-09-25 | 2016-09-06 | 富士通テン株式会社 | 表示制御装置、表示システム及び表示制御方法 |
US9043210B1 (en) * | 2012-10-02 | 2015-05-26 | Voice Security Systems, Inc. | Biometric voice command and control switching device and method of use |
US9230560B2 (en) | 2012-10-08 | 2016-01-05 | Nant Holdings Ip, Llc | Smart home automation systems and methods |
WO2014064531A1 (en) * | 2012-10-22 | 2014-05-01 | Spotify Ab | Systems and methods for pre-fetching media content |
PL401346A1 (pl) * | 2012-10-25 | 2014-04-28 | Ivona Software Spółka Z Ograniczoną Odpowiedzialnością | Generowanie spersonalizowanych programów audio z zawartości tekstowej |
US9337674B2 (en) | 2012-11-02 | 2016-05-10 | Chen-Source Inc. | Desktop charger |
US9704486B2 (en) | 2012-12-11 | 2017-07-11 | Amazon Technologies, Inc. | Speech recognition power management |
US9672822B2 (en) * | 2013-02-22 | 2017-06-06 | Next It Corporation | Interaction with a portion of a content item through a virtual assistant |
US9292832B2 (en) | 2013-02-25 | 2016-03-22 | Qualcomm Incorporated | Collaborative intelligence and decision-making in an IoT device group |
US9361885B2 (en) | 2013-03-12 | 2016-06-07 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9304736B1 (en) | 2013-04-18 | 2016-04-05 | Amazon Technologies, Inc. | Voice controlled assistant with non-verbal code entry |
US10445115B2 (en) | 2013-04-18 | 2019-10-15 | Verint Americas Inc. | Virtual assistant focused user interfaces |
US9116619B2 (en) | 2013-05-10 | 2015-08-25 | Seagate Technology Llc | Displaying storage device status conditions using multi-color light emitting diode |
US9811087B2 (en) * | 2013-05-15 | 2017-11-07 | Deere & Company | Method for controlling a vehicle and a vehicle guidance system |
US9843623B2 (en) * | 2013-05-28 | 2017-12-12 | Qualcomm Incorporated | Systems and methods for selecting media items |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US20140365887A1 (en) * | 2013-06-10 | 2014-12-11 | Kirk Robert CAMERON | Interactive platform generating multimedia from user input |
US9324322B1 (en) | 2013-06-18 | 2016-04-26 | Amazon Technologies, Inc. | Automatic volume attenuation for speech enabled devices |
US9554632B2 (en) | 2013-06-21 | 2017-01-31 | Logitech Europe S.A. | Portable device case and accessories |
US9997160B2 (en) | 2013-07-01 | 2018-06-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for dynamic download of embedded voice components |
CN103474068B (zh) | 2013-08-19 | 2016-08-10 | 科大讯飞股份有限公司 | 实现语音命令控制的方法、设备及系统 |
US9431004B2 (en) * | 2013-09-05 | 2016-08-30 | International Business Machines Corporation | Variable-depth audio presentation of textual information |
KR20150029974A (ko) | 2013-09-11 | 2015-03-19 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US9240182B2 (en) | 2013-09-17 | 2016-01-19 | Qualcomm Incorporated | Method and apparatus for adjusting detection threshold for activating voice assistant function |
CN103501382B (zh) | 2013-09-17 | 2015-06-24 | 小米科技有限责任公司 | 语音服务提供方法、装置和终端 |
US9443527B1 (en) | 2013-09-27 | 2016-09-13 | Amazon Technologies, Inc. | Speech recognition capability generation and control |
EP3055851B1 (en) | 2013-10-07 | 2020-02-26 | Google LLC | Smart-home hazard detector providing context specific features and/or pre-alarm configurations |
US9484025B2 (en) | 2013-10-15 | 2016-11-01 | Toyota Jidosha Kabushiki Kaisha | Configuring dynamic custom vocabulary for personalized speech recognition |
US9706007B2 (en) * | 2013-10-17 | 2017-07-11 | Blue Syntax Consulting LLC | System and method for querying disparate data sources in real time |
US9698999B2 (en) | 2013-12-02 | 2017-07-04 | Amazon Technologies, Inc. | Natural language control of secondary device |
US9900177B2 (en) | 2013-12-11 | 2018-02-20 | Echostar Technologies International Corporation | Maintaining up-to-date home automation models |
US9804820B2 (en) | 2013-12-16 | 2017-10-31 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
US9721570B1 (en) * | 2013-12-17 | 2017-08-01 | Amazon Technologies, Inc. | Outcome-oriented dialogs on a speech recognition platform |
US10248856B2 (en) | 2014-01-14 | 2019-04-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9430186B2 (en) | 2014-03-17 | 2016-08-30 | Google Inc | Visual indication of a recognized voice-initiated action |
US10031721B2 (en) | 2014-05-15 | 2018-07-24 | Tyco Safety Products Canada Ltd. | System and method for processing control commands in a voice interactive system |
CN112102824A (zh) * | 2014-06-06 | 2020-12-18 | 谷歌有限责任公司 | 基于环境的主动聊天信息系统 |
US10440499B2 (en) | 2014-06-16 | 2019-10-08 | Comcast Cable Communications, Llc | User location and identity awareness |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
CN104135697A (zh) * | 2014-07-31 | 2014-11-05 | 上海素控控制技术有限公司 | 基于蓝牙的智能共振音箱及其控制方法 |
US9767794B2 (en) * | 2014-08-11 | 2017-09-19 | Nuance Communications, Inc. | Dialog flow management in hierarchical task dialogs |
KR101579292B1 (ko) | 2014-08-29 | 2015-12-21 | 서울대학교 산학협력단 | 범용 음성인식 제어 장치 및 제어 방법 |
WO2016054230A1 (en) | 2014-10-01 | 2016-04-07 | XBrain, Inc. | Voice and connection platform |
EP3823342B1 (en) * | 2014-10-30 | 2023-12-13 | DZS Inc. | Method and apparatus for providing performance and usage information for a wireless local area network |
EP3213518A1 (en) * | 2014-10-31 | 2017-09-06 | Piksel, Inc. | Personalised channel |
CN104506944B (zh) | 2014-11-12 | 2018-09-21 | 科大讯飞股份有限公司 | 基于电视场景及语音助手的语音交互辅助方法及系统 |
EP3232395A4 (en) * | 2014-12-09 | 2018-07-11 | Sony Corporation | Information processing device, control method, and program |
US9811312B2 (en) | 2014-12-22 | 2017-11-07 | Intel Corporation | Connected device voice command support |
US10284618B2 (en) * | 2015-04-28 | 2019-05-07 | Apple Inc. | Dynamic media content |
US10038757B2 (en) * | 2015-04-29 | 2018-07-31 | Microsoft Technology Licensing, Llc | Providing personalized greetings on a digital assistant |
US9766596B2 (en) | 2015-07-08 | 2017-09-19 | Google Inc. | Wake up to a cast alarm or an alarm plus content prompt |
CN105163298B (zh) * | 2015-08-24 | 2019-01-15 | 努比亚技术有限公司 | 一种通信方法及终端 |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671665B2 (en) * | 2015-09-25 | 2020-06-02 | Oath Inc. | Personalized audio introduction and summary of result sets for users |
JP6532021B2 (ja) | 2015-09-29 | 2019-06-19 | 本田技研工業株式会社 | 音声処理装置及び音声処理方法 |
US10003881B2 (en) | 2015-09-30 | 2018-06-19 | Apple Inc. | Earbuds with capacitive touch sensor |
US10102201B2 (en) | 2015-11-30 | 2018-10-16 | Soundhound, Inc. | Natural language module store |
US10026401B1 (en) | 2015-12-28 | 2018-07-17 | Amazon Technologies, Inc. | Naming devices via voice commands |
US20170221322A1 (en) | 2016-02-01 | 2017-08-03 | Brian M. Ignomirello | System and method of multimodal status indication |
US10623518B2 (en) * | 2016-02-04 | 2020-04-14 | Spotify Ab | System and method for ordering media content for shuffled playback based on user preference |
US9858927B2 (en) | 2016-02-12 | 2018-01-02 | Amazon Technologies, Inc | Processing spoken commands to control distributed audio outputs |
CN109479110A (zh) * | 2016-03-08 | 2019-03-15 | 优确诺股份有限公司 | 动态创建个人化锻炼视频的系统和方法 |
US20170262537A1 (en) * | 2016-03-14 | 2017-09-14 | Amazon Technologies, Inc. | Audio scripts for various content |
WO2017184587A1 (en) | 2016-04-18 | 2017-10-26 | Google Inc. | Automated assistant invocation of appropriate agent |
US9990002B2 (en) | 2016-05-25 | 2018-06-05 | Lg Electronics Inc. | Sound output apparatus and hub for communication network |
WO2017203366A1 (en) | 2016-05-27 | 2017-11-30 | Mobile Synergy 26 International Limited | Multifunctional connection systems for various devices and methods of use thereof |
US10832684B2 (en) * | 2016-08-31 | 2020-11-10 | Microsoft Technology Licensing, Llc | Personalization of experiences with digital assistants in communal settings through voice and query processing |
US11085777B2 (en) * | 2018-07-27 | 2021-08-10 | Adobe Inc. | Generating digital event sequences utilizing a dynamic user preference interface to modify recommendation model reward functions |
-
2017
- 2017-05-11 EP EP17725447.1A patent/EP3455721B1/en active Active
- 2017-05-11 CN CN202210299423.2A patent/CN114758655A/zh active Pending
- 2017-05-11 US US15/593,236 patent/US10402450B2/en active Active
- 2017-05-11 EP EP20191991.7A patent/EP3757753A1/en active Pending
- 2017-05-11 EP EP17725446.3A patent/EP3455720B1/en active Active
- 2017-05-11 CN CN201780011386.8A patent/CN108604254B/zh active Active
- 2017-05-11 CN CN202110178882.0A patent/CN112947683A/zh active Pending
- 2017-05-11 KR KR1020187036139A patent/KR102114003B1/ko active IP Right Grant
- 2017-05-11 CN CN201780011381.5A patent/CN108604181B/zh active Active
- 2017-05-11 JP JP2018559837A patent/JP6797938B2/ja active Active
- 2017-05-11 EP EP17726055.1A patent/EP3455747B1/en active Active
- 2017-05-11 CN CN201780011357.1A patent/CN108604180A/zh active Pending
- 2017-05-11 KR KR1020187033465A patent/KR102177786B1/ko active IP Right Grant
- 2017-05-12 EP EP17727769.6A patent/EP3455722A1/en not_active Withdrawn
- 2017-05-12 CN CN201780009235.9A patent/CN108604178B/zh active Active
-
2019
- 2019-09-03 US US16/558,907 patent/US11860933B2/en active Active
-
2020
- 2020-11-18 JP JP2020191833A patent/JP7293180B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN108604181A (zh) | 2018-09-28 |
EP3455747B1 (en) | 2021-07-28 |
EP3455721A1 (en) | 2019-03-20 |
EP3757753A1 (en) | 2020-12-30 |
CN108604254B (zh) | 2022-04-12 |
EP3455747A1 (en) | 2019-03-20 |
KR20190006975A (ko) | 2019-01-21 |
JP2021052403A (ja) | 2021-04-01 |
CN114758655A (zh) | 2022-07-15 |
EP3455720A1 (en) | 2019-03-20 |
KR102114003B1 (ko) | 2020-05-25 |
JP7293180B2 (ja) | 2023-06-19 |
US10402450B2 (en) | 2019-09-03 |
CN108604181B (zh) | 2021-03-09 |
CN108604254A (zh) | 2018-09-28 |
EP3455720B1 (en) | 2023-12-27 |
US20170329848A1 (en) | 2017-11-16 |
EP3455721B1 (en) | 2020-09-16 |
US11860933B2 (en) | 2024-01-02 |
JP2019526177A (ja) | 2019-09-12 |
CN108604180A (zh) | 2018-09-28 |
KR102177786B1 (ko) | 2020-11-12 |
CN108604178A (zh) | 2018-09-28 |
CN108604178B (zh) | 2021-09-03 |
CN112947683A (zh) | 2021-06-11 |
KR20190014515A (ko) | 2019-02-12 |
EP3455722A1 (en) | 2019-03-20 |
US20190391998A1 (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6797938B2 (ja) | 媒体出力装置間での媒体転送 | |
US11341964B2 (en) | Voice-controlled media play in smart media environment | |
JP7130637B2 (ja) | 音声インタフェース装置におけるフォーカスセッション | |
KR102254021B1 (ko) | 결합된 어쿠스틱 도파관 및 방열판을 갖는 콤팩트 홈 어시스턴트에 대한 설계 | |
WO2017197187A1 (en) | Media transfer among media output devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190122 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6797938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |