JP6635982B2 - メディア環境内におけるインテリジェント自動アシスタント - Google Patents
メディア環境内におけるインテリジェント自動アシスタント Download PDFInfo
- Publication number
- JP6635982B2 JP6635982B2 JP2017116994A JP2017116994A JP6635982B2 JP 6635982 B2 JP6635982 B2 JP 6635982B2 JP 2017116994 A JP2017116994 A JP 2017116994A JP 2017116994 A JP2017116994 A JP 2017116994A JP 6635982 B2 JP6635982 B2 JP 6635982B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- media
- request
- displayed
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 659
- 230000004044 response Effects 0.000 claims description 431
- 230000008569 process Effects 0.000 claims description 341
- 230000015654 memory Effects 0.000 claims description 137
- 238000003058 natural language processing Methods 0.000 claims description 92
- 238000005070 sampling Methods 0.000 claims description 39
- 230000008451 emotion Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 469
- 230000000875 corresponding effect Effects 0.000 description 190
- 238000004891 communication Methods 0.000 description 153
- 230000006870 function Effects 0.000 description 122
- 238000003860 storage Methods 0.000 description 86
- 230000003993 interaction Effects 0.000 description 80
- 230000009471 action Effects 0.000 description 61
- 238000005111 flow chemistry technique Methods 0.000 description 54
- 230000002093 peripheral effect Effects 0.000 description 53
- 230000000007 visual effect Effects 0.000 description 49
- 238000010586 diagram Methods 0.000 description 48
- 230000008859 change Effects 0.000 description 42
- 230000015572 biosynthetic process Effects 0.000 description 37
- 238000003786 synthesis reaction Methods 0.000 description 37
- 230000001276 controlling effect Effects 0.000 description 34
- 238000001514 detection method Methods 0.000 description 34
- 230000033001 locomotion Effects 0.000 description 33
- 230000003287 optical effect Effects 0.000 description 30
- 238000012790 confirmation Methods 0.000 description 29
- 238000005516 engineering process Methods 0.000 description 24
- 230000001755 vocal effect Effects 0.000 description 24
- 238000009826 distribution Methods 0.000 description 21
- 238000003825 pressing Methods 0.000 description 20
- 241000447437 Gerreidae Species 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 18
- 230000002452 interceptive effect Effects 0.000 description 18
- 230000002829 reductive effect Effects 0.000 description 15
- 239000003826 tablet Substances 0.000 description 15
- 238000013518 transcription Methods 0.000 description 14
- 230000035897 transcription Effects 0.000 description 14
- 230000007246 mechanism Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 11
- 230000001960 triggered effect Effects 0.000 description 11
- 238000011093 media selection Methods 0.000 description 9
- 230000007704 transition Effects 0.000 description 9
- 235000007688 Lycopersicon esculentum Nutrition 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000012552 review Methods 0.000 description 8
- 239000004065 semiconductor Substances 0.000 description 8
- 241000227653 Lycopersicon Species 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 238000005352 clarification Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000000670 limiting effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 239000013589 supplement Substances 0.000 description 4
- WVQBLGZPHOPPFO-LBPRGKRZSA-N (S)-metolachlor Chemical compound CCC1=CC=CC(C)=C1N([C@@H](C)COC)C(=O)CCl WVQBLGZPHOPPFO-LBPRGKRZSA-N 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 229910052742 iron Inorganic materials 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000239290 Araneae Species 0.000 description 1
- 206010016275 Fear Diseases 0.000 description 1
- 241000282376 Panthera tigris Species 0.000 description 1
- 240000003768 Solanum lycopersicum Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- JTJMJGYZQZDUJJ-UHFFFAOYSA-N phencyclidine Chemical compound C1CCCCN1C1(C=2C=CC=CC=2)CCCCC1 JTJMJGYZQZDUJJ-UHFFFAOYSA-N 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- VEMKTZHHVJILDY-UHFFFAOYSA-N resmethrin Chemical compound CC1(C)C(C=C(C)C)C1C(=O)OCC1=COC(CC=2C=CC=CC=2)=C1 VEMKTZHHVJILDY-UHFFFAOYSA-N 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/45—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/483—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/487—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/489—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Library & Information Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Quality & Reliability (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Automatic Disk Changers (AREA)
Description
本出願は、2015年9月8日に出願された、「Intelligent Automated Assistant in a Media Environment」と題する米国特許仮出願第62/215,676号、及び2015年12月8日に出願された「Intelligent Automated Assistant in a Media Environment」と題する米国特許非仮出願第14/963,094号からの優先権を主張する。これら出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
[技術分野]
1.システム及び環境
2.メディアシステム
3.ユーザデバイス
4.デジタルアシスタントシステム
の候補発音に関連付けられた単語「tomato」を含んでもよい。更に、語彙単語は、ユーザからの以前の発語入力に基づくカスタム候補発音に関連付けられていることができる。このようなカスタム候補発音はSTT処理モジュール430内に記憶されることができ、特定のユーザに、デバイス上のそのユーザのプロファイルを介して関連付けられていることができる。いくつかの実施例では、単語のための候補発音は、単語の綴り、並びに1つ以上の言語規則及び/若しくは音声規則に基づいて決定することができる。いくつかの実施例では、候補発音は、例えば、既知の標準的発音に基づいて、手動で生成することができる。
よりも高く順位付けすることができる。なぜなら、前者は、(例えば、全ユーザの間で、特定の地理的領域内のユーザについて、又はユーザの任意の他の適当なサブセットについて)より一般的に用いられている発音であるからである。いくつかの実施例では、候補発音は、候補発音が、ユーザに関連付けられたカスタム候補発音であるかどうかに基づいて順位付けすることができる。例えば、カスタム候補発音は標準的な候補発音よりも高く順位付けすることができる。これは、標準的な発音から逸脱した特有の発音を有する固有名詞を認識するために有用になり得る。いくつかの実施例では、候補発音は、出身地、国籍、又は民族などの、1つ以上の発語特性に関連付けられていることができる。例えば、候補発音
は米国に関連付けられていることができ、それに対して、候補発音
は英国に関連付けられていることができる。更に、候補発音の順位は、デバイス上のユーザのプロファイル内に記憶されているユーザの1つ以上の特性(例えば、出身地、国籍、民族など)に基づくことができる。例えば、ユーザのプロファイルから、ユーザは米国に関連付けられていると判定することができる。ユーザが米国に関連付けられていることに基づき、候補発音
(米国に関連付けられている)を候補発音
(英国に関連付けられている)よりも高く順位付けすることができる。いくつかの実施例では、順位付けされた候補発音のうちの1つを、予測される発音(例えば、最も可能性の高い発音)として選択することができる。
を特定することができた場合には、次に、それは、語彙索引444に基づいて、この列は単語「tomato」に対応すると決定することができる。
は単語「tomato」に対応すると決定することができる。
4.メディア環境内においてデジタルアシスタントと対話するためのプロセス
5.電子デバイス
1.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
ユーザ入力を検出することと、
ユーザ入力が第1の入力形式に対応するかどうかを判定することと、
ユーザ入力が第1の入力形式に対応するとの判定に従って、
表示ユニット上に、複数の例示的な自然言語要求を表示することであって、複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連し、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる、ことと、
を含む方法。
2.ユーザ入力が電子デバイスの遠隔制御装置上において検出される、項目1に記載の方法。
3.第1の入力形式が、遠隔制御装置のボタンを押下し、ボタンを所定の期間以内に放すことを含む、項目2に記載の方法。
4.複数の例示的な自然言語要求が表示ユニット上に第1のユーザインターフェースを介して表示され、第1のユーザインターフェースは、表示されたコンテンツ上に重ね合わせられる、項目1から3のいずれか1つに記載の方法。
5.表示されたコンテンツがメディアコンテンツを含み、メディアコンテンツは、複数の例示的な自然言語要求を表示している間に再生し続ける、項目1から4のいずれか1つに記載の方法。
6.ユーザ入力が第1の入力形式に対応するとの判定に従って、表示ユニット上に、デジタルアシスタントが音声入力を処理していないことを指示する視覚的インジケータを表示することを更に含む、項目1から5のいずれか1つに記載の方法。
7.ユーザ入力が第1の入力形式に対応すると判定すると、複数の例示的な自然言語要求が所定の時間の後に表示ユニット上に表示される、項目1から6のいずれか1つに記載の方法。
8.複数の例示的な自然言語要求の各々が所定の順序で異なる時間に別個に表示される、項目1から7のいずれか1つに記載の方法。
9.複数の例示的な自然言語要求を表示することが、
例示的な自然言語要求の複数のリストを表示することであって、各リストは異なる時間に交代で表示される、ことを含む、項目1から8のいずれか1つに記載の方法。
10.
ユーザ入力が第1の入力形式に対応しないとの判定に従って、
ユーザ入力が第2の入力形式に対応するかどうかを判定することと、
ユーザ入力が第2の入力形式に対応するとの判定に従って、
音声データをサンプリングすることと、
音声データがユーザ要求を包含するかどうかを判定することと、
音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを実行することと、
を更に含む、項目1から9のいずれか1つに記載の方法。
11.第2の入力形式が、電子デバイスの遠隔制御装置のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくことを含む、項目10に記載の方法。
12.
音声データがユーザ要求を包含しないとの判定に従って、表示ユニット上に、ユーザ意図の明確化の要求を表示することを更に含む、項目10又は11に記載の方法。
13.表示されたコンテンツがメディアコンテンツを含み、メディアコンテンツは、音声データをサンプリングしている間、及びタスクを実行している間に、電子デバイス上で再生し続ける、項目10から12のいずれか1つに記載の方法。
14.
メディアコンテンツに関連付けられた音声を出力することと、
ユーザ入力が第2の入力形式に対応するとの判定に従って、音声の振幅を低減させることと、
を更に含む、項目13に記載の方法。
15.タスクが、このタスクに関連する発語を電子デバイスから出力することなく実行される、項目10から14のいずれか1つに記載の方法。
16.音声データが、ユーザ入力を検出している間にサンプリングされる、項目10から15のいずれか1つに記載の方法。
17.音声データが、ユーザ入力を検出した後の所定の期間の間にサンプリングされる、項目10から15のいずれか1つに記載の方法。
18.音声データが電子デバイスの遠隔制御装置上の第1のマイクロフォンを介してサンプリングされ、方法は、
音声データをサンプリングしている間に、遠隔制御装置上の第2のマイクロフォンを介して背景音声データをサンプリングすることと、
背景音声データを用いて音声データ内の背景ノイズを除去することと、
を更に含む、項目10から17のいずれか1つに記載の方法。
19.表示されたコンテンツに関連付けられた音声が音声信号を介して電子デバイスから出力され、方法は、
音声信号を用いて音声データ内の背景ノイズを除去すること、
を更に含む、項目10から18のいずれか1つに記載の方法。
20.
ユーザ入力を検出したことに応じて、表示ユニット上に、ユーザに、発語要求を提供するように促す視覚キューを表示することを更に含む、項目10から19のいずれか1つに記載の方法。
21.実行されるタスクが、
ユーザ要求を少なくとも部分的に満足する結果を取得することと、
表示ユニット上に第2のユーザインターフェースを表示することであって、第2のユーザインターフェースは結果の一部分を含み、コンテンツの少なくとも一部分が、第2のユーザインターフェースが表示されている間に表示され続け、表示ユニット上における第2のユーザインターフェースの表示区域は表示ユニット上におけるコンテンツの少なくとも一部分の表示区域よりも小さい、ことと、
を含む、項目10から20のいずれか1つに記載の方法。
22.第2のユーザインターフェースが、表示されたコンテンツ上に重ね合わせられる、項目21に記載の方法。
23.結果の部分が1つ以上のメディアアイテムを含み、方法は、
第2のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を受信することと、
表示ユニット上に、選択されたメディアアイテムに関連付けられたメディアコンテンツを表示することと、
を更に含む、項目21又は22に記載の方法。
24.
第2のユーザインターフェースを表示している間に、第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、第2のユーザインターフェースを表示するのを中止することと、
を更に含む、項目21又は22に記載の方法。
25.第2のユーザ入力が電子デバイスの遠隔制御装置上で検出され、第2のユーザ入力が遠隔制御装置のタッチ感知面上における第1の所定の運動パターンを含む、項目24に記載の方法。
26.
第2のユーザインターフェースを表示している間に、第3のユーザ入力を検出することと、
第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースの表示を表示ユニット上における第3のユーザインターフェースの表示と置換することであって、第3のユーザインターフェースは結果の少なくとも部分を含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する、ことと、
を更に含む、項目21又は22に記載の方法。
27.第3のユーザ入力が電子デバイスの遠隔制御装置上で検出され、第3のユーザ入力が遠隔制御装置のタッチ感知面上における第2の所定の運動パターンを含む、項目26に記載の方法。
28.
第3のユーザ入力の検出に応じて、
結果と異なる第2の結果を取得することであって、第2の結果はユーザ要求を少なくとも部分的に満足し、第3のユーザインターフェースが第2の結果の少なくとも一部分を含む、ことを更に含む、項目26又は27に記載の方法。
29.第2の結果が、ユーザ入力を検出する前に受信されたユーザ要求に基づく、項目28に記載の方法。
30.第3のユーザ入力が検出される間に第2のユーザインターフェースのフォーカスが結果の部分のアイテム上にあり、第2の結果がアイテムにコンテクスト上関連する、項目28又は29に記載の方法。
31.表示されたコンテンツがメディアコンテンツを含み、第3のユーザ入力を検出したことに応じて、電子デバイス上におけるメディアコンテンツの再生が一時停止される、項目26から30のいずれか1つに記載の方法。
32.結果の少なくとも部分が1つ以上のメディアアイテムを含み、方法は、
第3のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を受信することと、
表示ユニット上に、メディアアイテムに関連付けられたメディアコンテンツを表示することと、
を更に含む、項目26から31のいずれか1つに記載の方法。
33.
第3のユーザインターフェースを表示している間に、表示ユニット上における方向に関連付けられた第4のユーザ入力を検出することと、
第4のユーザ入力を検出したことに応じて、
第3のユーザインターフェースのフォーカスを第1のアイテムから第3のユーザインターフェース上の第2のアイテムへ切り換えることであって、第2のアイテムは第1のアイテムに対して上記の方向に位置付けられている、ことと、
を更に含む、項目26から32のいずれか1つに記載の方法。
34.
第3のユーザインターフェースを表示している間に、第5のユーザ入力を検出することと、
第5のユーザ入力を検出したことに応じて、
検索フィールドを表示することと、
表示ユニット上に仮想キーボードインターフェースを表示することであって、仮想キーボードインターフェースを介して受信された入力は検索フィールド内へのテキスト記入を生じさせる、ことと、
を更に含む、項目26から33のいずれか1つに記載の方法。
35.
第3のユーザインターフェースを表示している間に、第6のユーザ入力を検出することと、
第6のユーザ入力を検出したことに応じて、
第2の音声データをサンプリングすることであって、第2の音声データは第2のユーザ要求を包含する、ことと、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを判定することと、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、
第3のユーザインターフェースを介して結果のサブセットを表示することと、
を更に含む、項目26から34のいずれか1つに記載の方法。
36.結果のサブセットが第3のユーザインターフェースの最上段に表示される、項目35に記載の方法。
37.
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求でないとの判定に従って、
第2のユーザ要求を少なくとも部分的に満足する第3の結果を取得することと、
第3のユーザインターフェースを介して第3の結果の一部分を表示することと、
を更に含む、項目35又は36に記載の方法。
38.第3の結果の部分が第3のユーザインターフェースの最上段に表示される、項目37に記載の方法。
39.
ユーザ要求又は第2のユーザ要求を少なくとも部分的に満足する第4の結果を取得することと、
第3のユーザインターフェースを介して第4の結果の一部分を表示することと、
を更に含む、項目35から38のいずれか1つに記載の方法。
40.第4の結果の部分が第3のユーザインターフェースの最上段の後の段に表示される、項目39に記載の方法。
41.第6のユーザ入力が検出される間に第3のユーザインターフェースのフォーカスが第3のユーザインターフェースの1つ以上のアイテム上にあり、第4の結果が1つ以上のアイテムにコンテクスト上関連する、項目39又は40に記載の方法。
42.
第3のユーザインターフェースを表示している間に、第7のユーザ入力を検出することと、
第7のユーザ入力を検出したことに応じて、第3のユーザインターフェースを表示するのを中止することと、
を更に含む、項目26から41のいずれか1つに記載の方法。
43.表示されたコンテンツがメディアコンテンツであり、第3のユーザ入力を検出したことに応じて電子デバイス上におけるメディアコンテンツの再生が一時停止され、第7のユーザ入力を検出したことに応じて電子デバイス上におけるメディアコンテンツの再生が再開される、項目42に記載の方法。
44.第7のユーザ入力が、電子デバイスの遠隔制御装置のメニューボタンを押下することを含む、項目42又は43に記載の方法。
45.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、
表示ユニット上にユーザインターフェースを表示することであって、ユーザインターフェースは、表示されたコンテンツにコンテクスト上関連する複数の例示的な自然言語要求を含み、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる、ことと、
を含む方法。
46.表示されたコンテンツがメディアコンテンツを含む、項目45に記載の方法。
47.複数の例示的な自然言語要求が、メディアコンテンツに関連付けられた1つ以上の設定を変更せよとの自然言語要求を含む、項目46に記載の方法。
48.メディアコンテンツが、ユーザインターフェースが表示されている間に再生し続ける、項目46又は47に記載の方法。
49.
メディアコンテンツに関連付けられた音声を出力することであって、ユーザ入力を検出したことに応じて音声の振幅が低減させられない、ことを更に含む、項目46から48のいずれか1つに記載の方法。
50.表示されたコンテンツがメインメニューユーザインターフェースを含む、項目45に記載の方法。
51.複数の例示的な自然言語要求が、デジタルアシスタントの複数の中核能力の各々に関連する例示的な自然言語要求を含む、項目50に記載の方法。
52.表示されたコンテンツが、以前のユーザ要求に関連付けられた結果を有する第2のユーザインターフェースを含む、項目45に記載の方法。
53.複数の例示的な自然言語要求が、結果を絞り込めとの自然言語要求を含む、項目52に記載の方法。
54.ユーザインターフェースが、デジタルアシスタントを呼び出し、それと対話するためのテキストによる教示を含む、項目45から53のいずれか1つに記載の方法。
55.ユーザインターフェースが、デジタルアシスタントが音声入力を受信していないことを指示する視覚的インジケータを含む、項目45から54のいずれか1つに記載の方法。
56.ユーザインターフェースが、表示されたコンテンツ上に重ね合わせられる、項目45から55のいずれか1つに記載の方法。
57.
ユーザ入力を検出したことに応じて、ユーザインターフェースを目立たせるために、表示されたコンテンツの明るさを低減させることを更に含む、項目45から56のいずれか1つに記載の方法。
58.ユーザ入力が電子デバイスの遠隔制御装置上において検出される、項目45から57のいずれか1つに記載の方法。
59.ユーザ入力が、遠隔制御デバイスのボタンを押下し、ボタンを、ボタンを押下した後の所定の期間以内に放すことを含む、項目58に記載の方法。
60.ボタンが、デジタルアシスタントを呼び出すように構成される、項目59に記載の方法。
61.ユーザインターフェースが、仮想キーボードインターフェースを表示するためのテキストによる教示を含む、項目45から60のいずれか1つに記載の方法。
62.
ユーザインターフェースを表示した後に、第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、表示ユニット上に仮想キーボードインターフェースを表示することと、
を更に含む、項目45から61のいずれか1つに記載の方法。
63.
ユーザインターフェースのフォーカスをユーザインターフェース上の検索フィールドへ変更することを更に含む、項目62に記載の方法。
64.検索フィールドが、仮想キーボードインターフェースを介してテキスト検索クエリを受信するように構成される、項目63に記載の方法。
65.仮想キーボードインターフェースが、デジタルアシスタントと対話するために用いられることができない、項目45から64のいずれか1つに記載の方法。
66.第2のユーザ入力が、電子デバイスの遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含む、項目45から65のいずれか1つに記載の方法。
67.複数の例示的な自然言語要求が、ユーザ入力を検出した後の所定の時間における表示である、項目45から66のいずれか1つに記載の方法。
68.複数の例示的な自然言語要求を表示することが、
複数の例示的な自然言語要求の各々を所定の順序で1つずつ表示することを更に含む、項目45から67のいずれか1つに記載の方法。
69.順次表示することが、
複数の例示的な自然言語要求のうちの以前に表示された例示的な自然言語要求の表示を複数の例示的な自然言語要求のうちの後続の例示的な自然言語要求と置換することを更に含む、項目68に記載の方法。
70.コンテンツが、1つ以上のアイテムを有する第2のユーザインターフェースを含み、ユーザ入力が検出された時に第2のユーザインターフェースのフォーカスが1つ以上のアイテムのうちのアイテム上にあり、複数の例示的な自然言語要求が1つ以上のアイテムのうちのアイテムにコンテクスト上関連する、項目45から69のいずれか1つに記載の方法。
71.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、
自然言語発言の1つ以上の提案例を表示することであって、1つ以上の提案例は、表示されたコンテンツにコンテクスト上関連し、ユーザによって発言されると、デジタルアシスタントに、対応するアクションを実行させる、ことと、
を含む方法。
72.
第2のユーザ入力を検出することと、
第2のユーザ入力の検出に応じて、
音声データをサンプリングすることと、
サンプリングされた音声データが自然言語発言の1つ以上の提案例のうちの1つを包含するかどうかを判定することと、
サンプリングされた音声データが自然言語発言の1つ以上の提案例のうちの1つを包含するとの判定に従って、発言に対する対応するアクションを実行することと、
を更に含む、項目71に記載の方法。
73.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、音声データをサンプリングすることであって、音声データはユーザ発言を含む、ことと、
ユーザ発言に対応するユーザ意図の決定を取得することと、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を取得することと、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することと、
を含む方法。
74.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、特定のメディアアイテムを再生せよとの要求を含み、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することが、特定のメディアアイテムを再生することを含む、項目73に記載の方法。
75.表示されたコンテンツが、メディアアイテムを有するユーザインターフェースを含み、ユーザ発言が、再生されるべき特定のメディアアイテムを明示的に限定せず、方法は、
ユーザインターフェースのフォーカスがメディアアイテム上にあるかどうかを判定することと、
ユーザインターフェースのフォーカスがメディアアイテム上にあるとの判定に従って、メディアアイテムを、再生されるべき特定のメディアアイテムとして特定することと、
を更に含む、項目74に記載の方法。
76.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、電子デバイス上のアプリケーションを起動せよとの要求を含む、項目73に記載の方法。
77.表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含み、状態又は設定が、電子デバイス上で再生されているメディアコンテンツに関連する、項目73に記載の方法。
78.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、電子デバイス上で再生中のメディアコンテンツを早送り又は巻き戻しせよとの要求を含む、項目77に記載の方法。
79.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、メディアコンテンツの特定の部分を再生するためにメディアコンテンツ内で前方又は後方へ飛び越せとの要求を含む、項目77に記載の方法。
80.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、電子デバイス上におけるメディアコンテンツの再生を一時停止せよとの要求を含む、項目77に記載の方法。
81.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、メディアコンテンツの字幕をオンにするか、又はオフにせよとの要求を含む、項目77に記載の方法。
82.
表示されたコンテンツが、第1のメディアアイテム及び第2のメディアアイテムを有するユーザインターフェースを含み、
電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、ユーザインターフェースのフォーカスを第1のメディアアイテムから第2のメディアアイテムへ切り換えよとの要求を含み、
アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することが、ユーザインターフェースのフォーカスを第1のメディアアイテムから第2のメディアアイテムへ切り換えることを含む、 項目73に記載の方法。
83.
表示されたコンテンツが、メディアデバイス上で再生中のメディアコンテンツを含み、
ユーザ発言が、ユーザが、メディアコンテンツに関連付けられた音声の一部分が聞こえなかったことを指示する自然言語表現であり、
電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、ユーザが聞こえなかった音声の部分に対応するメディアコンテンツの一部分を再生し直せとの要求を含み、
アプリケーションの状態又は設定を調整することが、
メディアコンテンツをメディアコンテンツの以前の部分まで所定の量だけ巻き戻すことと、
メディアコンテンツの再生を以前の部分から再スタートすることと、
を含む、項目73に記載の方法。
84.アプリケーションの状態又は設定を調整することが、
メディアコンテンツの再生を以前の部分から再スタートする前にクローズドキャプションをオンにすることを更に含む、項目83に記載の方法。
85.
電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、メディアコンテンツに関連付けられた音声の音量を上げよとの要求を更に含み、
アプリケーションの状態又は設定を調整することが、メディアコンテンツの再生を以前の部分から再スタートする前に、メディアコンテンツに関連付けられた音声の音量を上げることを更に含む、
項目83又は84に記載の方法。
86.
メディアコンテンツに関連付けられた音声内の発語がテキストに変換され、
アプリケーションの状態又は設定を調整することが、メディアコンテンツの再生を以前の部分から再スタートする間にテキストの一部分を表示することを更に含む、
項目83又は84に記載の方法。
87.ユーザ発言に対応するユーザ意図の決定を取得することが、
ユーザ発言に関連付けられたユーザの感情の判定を取得することであって、ユーザ意図は、判定されたユーザの感情に基づいて決定される、ことを更に含む、項目73から85のいずれか1つに記載の方法。
88.
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を取得することと、
ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する結果を取得することと、
表示ユニット上に、結果をテキスト形式で表示することと、
を更に含む、項目73から87のいずれか1つに記載の方法。
89.複数の所定の要求種別が、特定のロケーションにおける現在の時間の要求を含む、項目88に記載の方法。
90.複数の所定の要求種別が、ジョークを提示せよとの要求を含む、項目88に記載の方法。
91.複数の所定の要求種別が、電子デバイス上で再生されているメディアコンテンツに関する情報の要求を含む、項目88に記載の方法。
92.テキスト形式の結果が、表示されたコンテンツ上に重ね合わせられる、項目88から91のいずれか1つに記載の方法。
93.表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含み、メディアコンテンツは、テキスト形式の結果が表示されている間に再生し続ける、項目88から92のいずれか1つに記載の方法。
94.
ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する第2の結果を取得することと、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むかどうかを判定することと、
表示されたコンテンツがメディアコンテンツを含むとの判定に従って、
メディアコンテンツが一時停止されることができるかどうかを判定することと、
メディアコンテンツが一時停止されることができないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第2のユーザインターフェースを表示することであって、表示ユニット上における第2のユーザインターフェースによって占有される表示区域は、表示ユニット上におけるメディアコンテンツによって占有される表示区域よりも小さい、ことと、
を更に含む、項目88から93のいずれか1つに記載の方法。
95.ユーザ意図が特定のロケーションの天気予報の要求を含む、項目94に記載の方法。
96.ユーザ意図が、スポーツチーム又は運動選手に関連付けられた情報の要求を含む、項目94に記載の方法。
97.ユーザ意図がメディア検索クエリでなく、第2の結果が、ユーザ意図を少なくとも部分的に満足するメディアコンテンツを有する1つ以上のメディアアイテムを含む、項目94から96のいずれか1つに記載の方法。
98.第2の結果が、ユーザ意図を少なくとも部分的に満足する非メディアデータを更に含む、項目97に記載の方法。
99.ユーザ意図がメディア検索クエリであり、第2の結果が、メディア検索クエリに対応する複数のメディアアイテムを含む、項目94に記載の方法。
100.
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示することであって、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、ことを更に含む、項目94から99のいずれか1つに記載の方法。
101.表示コンテンツがメインメニューユーザインターフェースを含む、項目100に記載の方法。
102.
表示されたコンテンツが、ユーザ入力を検出する前に受信された以前のユーザ要求に関連する以前の結果を有する第3のユーザインターフェースを含み、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、第3のユーザインターフェース内における以前の結果の表示が第2の結果の表示と置換される、
項目100に記載の方法。
103.
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むとの判定に従って、
表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する第2のユーザインターフェースを含むかどうかを判定することであって、表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する第2のユーザインターフェースを含むとの判定に従って、以前の結果は第2の結果と置換される、ことを更に含む、項目94から102のいずれか1つに記載の方法。
104.
メディアコンテンツが一時停止されることができるとの判定に従って、
電子デバイス上におけるメディアコンテンツの再生を一時停止することと、
表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示することであって、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、ことと、
を更に含む、項目94から103のいずれか1つに記載の方法。
105.
音声データを、自然言語処理を実行するためにサーバへ伝送することと、
サーバに、音声データがメディアアプリケーションに関連付けられていることを指示することであって、指示することは、自然言語処理をメディア関連のユーザ意図へ偏向させる、ことと、
を更に含む、項目73から104のいずれか1つに記載の方法。
106.
音声データを、発語テキスト化処理を実行するためにサーバへ伝送することを更に含む、項目73から105のいずれか1つに記載の方法。
107.
サーバに、音声データがメディアアプリケーションに関連付けられていることを指示することであって、指示することは、発語テキスト化処理をメディア関連のテキスト結果へ偏向させる、ことを更に含む、項目106に記載の方法。
108.
ユーザ発言のテキスト表現を取得することであって、テキスト表現は、音声データをサンプリングする前に受信された以前のユーザ発言に基づく、ことを更に含む、項目106又は107に記載の方法。
109.テキスト表現が、音声データをサンプリングする前に以前のユーザ発言が受信された時間に基づく、項目108に記載の方法。
110.
ユーザ意図が、電子デバイスに関連付けられた複数の中核能力のうちの1つに対応しないとの判定を取得することと、
第2の電子デバイスに、ユーザ意図を満足することを助成するためのタスクを実行させることと、
を更に含む、項目73から109のいずれか1つに記載の方法。
111.ユーザ意図の決定を取得することが、
ユーザ発言が曖昧な用語を含むかどうかの判定を取得することと、
ユーザ発言が曖昧な用語を含むとの判定を取得したことに応じて、
曖昧な用語に基づいて2つ以上のユーザ意図の候補を取得することと、
表示ユニット上に2つ以上のユーザ意図の候補を表示することと、
を更に含む、項目73から110のいずれか1つに記載の方法。
112.
2つ以上のユーザ意図の候補を表示している間に、2つ以上のユーザ意図の候補のうちの1つのユーザ選択を受信することを更に含み、ユーザ意図が、ユーザ選択に基づいて決定される、項目111に記載の方法。
113.ユーザ選択を受信することが、
第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、第2の音声データをサンプリングすることであって、第2の音声データは、ユーザ選択を表現する第2のユーザ発言を含む、ことと、
を更に含む、項目112に記載の方法。
114.2つ以上の解釈が、2つ以上のユーザ意図の候補に関連付けられた発語を出力することなく表示される、項目111から113のいずれか1つに記載の方法。
115.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、音声データをサンプリングすることであって、音声データは、メディア検索要求を表現するユーザ発言を含む、ことと、
メディア検索要求を満足する複数のメディアアイテムを取得することと、
表示ユニット上に、ユーザインターフェースを介して複数のメディアアイテムの少なくとも一部分を表示することと、
を含む方法。
116.複数のメディアアイテムの少なくとも一部分が表示されている間に、コンテンツが表示ユニット上に表示され続け、ユーザインターフェースによって占有される表示区域が、コンテンツによって占有される表示区域よりも小さい、項目115に記載の方法。
117.
複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるかどうかを判定することを更に含み、複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるとの判定に従って、複数のメディアアイテムの少なくとも一部分が複数のメディアアイテムを含む、項目115又は116に記載の方法。
118.複数のメディアアイテム内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、複数のメディアアイテムの少なくとも一部分内のメディアアイテムの数が所定の数に等しい、項目117に記載の方法。
119.複数のメディアアイテムの各々が、メディア検索要求に関する関連性スコアに関連付けられ、複数のメディアアイテムの少なくとも一部分の関連性スコアが複数のメディアアイテムの間で最も高い、項目115から118のいずれか1つに記載の方法。
120.複数のメディアアイテムの少なくとも一部分の各々が人気格付けに関連付けられ、複数のメディアアイテムの少なくとも一部分がユーザインターフェース内において人気格付けに基づいて配列される、項目115から119のいずれか1つに記載の方法。
121.
複数のメディアアイテムの少なくとも一部分を表示している間に、第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、ユーザインターフェースを、表示ユニットの表示区域の少なくとも過半を占有するように拡大することと、
を更に含む、項目115から120のいずれか1つに記載の方法。
122.
第2のユーザ入力の検出に応じて、
複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるかどうかを判定することと、
複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるとの判定に従って、
メディア検索要求を少なくとも部分的に満足する第2の複数のメディアアイテムを取得することであって、第2の複数のメディアアイテムはメディアアイテムの少なくとも一部分と異なる、ことと、
拡大されたユーザインターフェースを介して、表示ユニット上に第2の複数のメディアアイテムを表示することと、
を更に含む、項目121に記載の方法。
123.
メディア検索要求が、1つを超える検索パラメータを含むかどうかを判定することを更に含み、メディア検索要求が、1つを超える検索パラメータを含むとの判定に従って、第2の複数のメディアアイテムが、拡大されたユーザインターフェース内において、メディア検索要求の1つを超える検索パラメータに従って整理される、項目122に記載の方法。
124.
複数のメディアアイテム内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、
拡大されたユーザインターフェースを介して複数のメディアアイテムの少なくとも第2の部分を表示することであって、複数のメディアアイテムの少なくとも第2の部分は複数のメディアアイテムの少なくとも一部分と異なる、ことを更に含む、項目122又は123に記載の方法。
125.複数のメディアアイテムの少なくとも第2の部分が2つ以上のメディア種別を含み、複数のメディアアイテムの少なくとも第2の部分が、拡大されたユーザインターフェース内において、2つ以上のメディア種別の各メディア種別に従って整理される、項目124に記載の方法。
126.
第3のユーザ入力を検出することと、
第3のユーザ入力を検出したことに応じて、拡大されたユーザインターフェースをスクロールさせることと、
拡大されたユーザインターフェースが、拡大されたユーザインターフェース上の所定の位置を越えてスクロールしたかどうかを判定することと、
拡大されたユーザインターフェースが、拡大されたユーザインターフェース上の所定の位置を越えてスクロールしたと判定したことに応じて、拡大されたユーザインターフェース上に複数のメディアアイテムの少なくとも第3の部分を表示することであって、複数のメディアアイテムの少なくとも第3の部分は、拡大されたユーザインターフェース上において、第3の複数のメディアアイテムに関連付けられた1つ以上のメディアコンテンツプロバイダに従って整理される、ことと、
を更に含む、項目122から125のいずれか1つに記載の方法。
127.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、
表示ユニット上に仮想キーボードインターフェースを表示することと、
第2の電子デバイスのディスプレイ上に選択可能なアフォーダンスを出現させることであって、アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介して電子デバイスによって受信されることを可能にする、ことと、
を含む方法。
128.
第2の電子デバイスのキーボードを介してテキスト入力を受信することであって、テキスト入力はユーザ要求を表現する、ことと、
ユーザ要求を少なくとも部分的に満足する結果を取得することと、
表示ユニット上にユーザインターフェースを表示することであって、ユーザインターフェースは結果の少なくとも一部分を含む、ことと、
を更に含む、項目127に記載の方法。
129.表示されたコンテンツが、複数の例示的な自然言語要求を有する第2のユーザインターフェースを含む、項目127又は128に記載の方法。
130.表示されたコンテンツがメディアコンテンツを含む、項目129に記載の方法。
131.表示されたコンテンツが、以前のユーザ要求からの結果を有する第3のユーザインターフェースを含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する、項目127又は128に記載の方法。
132.仮想キーボードインターフェースが第3のユーザインターフェースの少なくとも一部分上に重ね合わせられる、項目131に記載の方法。
133.ユーザ入力が電子デバイスの遠隔制御装置を介して検出され、遠隔制御装置と第2の電子デバイスとは異なるデバイスである、項目127から132のいずれか1つに記載の方法。
134.ユーザ入力が、遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含む、項目133に記載の方法。
135.ユーザ入力が第2の電子デバイスを介して検出される、項目127から132のいずれか1つに記載の方法。
136.項目1から135のいずれか1つに記載の方法を実行するコンピュータ実行可能命令を備える、非一時的コンピュータ可読記憶媒体。
137.
項目136に記載の非一時的コンピュータ可読記憶媒体と、
コンピュータ実行可能命令を実行するように構成されたプロセッサと、
を備えるシステム。
138.項目1から135のいずれか1つに記載の方法を実行する手段を備える装置。
139.電子デバイスであって、
ユーザ入力を受信するように構成された入力ユニットと、
入力ユニットに結合された処理ユニットと、
を備え、処理ユニットは、
表示ユニット上にコンテンツを表示し、
入力ユニットを介してユーザ入力を検出し、
ユーザ入力が第1の入力形式に対応するかどうかを判定し、
ユーザ入力が第1の入力形式に対応するとの判定に従って、
表示ユニット上に、複数の例示的な自然言語要求を表示する
ように構成され、複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連し、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる、電子デバイス。
140.処理ユニットに結合された音声入力ユニットを更に含み、処理ユニットは、
ユーザ入力が第1の入力形式に対応しないとの判定に従って、
ユーザ入力が第2の入力形式に対応するかどうかを判定し、
ユーザ入力が第2の入力形式に対応するとの判定に従って、
音声入力ユニットを用いて音声データをサンプリングし、
音声データがユーザ要求を包含するかどうかを判定し、
音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを実行する
ように更に構成される、項目139に記載の電子デバイス。
141.処理ユニットが、
ユーザ要求を少なくとも部分的に満足する結果を取得し、
表示ユニット上に第2のユーザインターフェースを表示する
ように更に構成され、第2のユーザインターフェースは結果の一部分を含み、コンテンツの少なくとも一部分が、第2のユーザインターフェースが表示されている間に表示され続け、表示ユニット上における第2のユーザインターフェースの表示区域は表示ユニット上におけるコンテンツの少なくとも一部分の表示区域よりも小さい、項目139又は140に記載の電子デバイス。
142.処理ユニットが、
第2のユーザインターフェースを表示している間に、入力ユニットを介して第2のユーザ入力を検出し、
第2のユーザ入力を検出したことに応じて、第2のユーザインターフェースを表示するのを中止する
ように更に構成される、項目141に記載の電子デバイス。
143.処理ユニットが、
第2のユーザインターフェースを表示している間に、入力ユニットを介して第3のユーザ入力を検出し、
第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースの表示を表示ユニット上における第3のユーザインターフェースの表示と置換する
ように更に構成され、第3のユーザインターフェースは結果の少なくとも部分を含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する、項目141又は142に記載の電子デバイス。
144.処理ユニットが、
第3のユーザインターフェースを表示している間に、入力ユニットを介して、表示ユニット上における方向に関連付けられた第4のユーザ入力を検出し、
第4のユーザ入力を検出したことに応じて、
第3のユーザインターフェースのフォーカスを第1のアイテムから第3のユーザインターフェース上の第2のアイテムへ切り換える
ように更に構成され、第2のアイテムは第1のアイテムに対して上記の方向に位置付けられている、項目143に記載の電子デバイス。
145.処理ユニットが、
第3のユーザインターフェースを表示している間に、入力ユニットを介して第5のユーザ入力を検出し、
第5のユーザ入力を検出したことに応じて、
検索フィールドを表示し、
表示ユニット上に仮想キーボードインターフェースを表示する
ように更に構成され、仮想キーボードインターフェースを介して受信された入力は検索フィールド内へのテキスト記入を生じさせる、項目143又は144に記載の電子デバイス。
146.処理ユニットが、
第3のユーザインターフェースを表示している間に、入力ユニットを介して第6のユーザ入力を検出し、
第6のユーザ入力を検出したことに応じて、
第2の音声データであって、第2の音声データは第2のユーザ要求を包含する、第2の音声データをサンプリングし、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを判定し、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、
第3のユーザインターフェースを介して結果のサブセットを表示する
ように更に構成される、項目143から145のいずれか1つに記載の電子デバイス。
147.電子デバイスであって、
ユーザ入力を受信するように構成された入力ユニットと、
音声データを受信するように構成された音声入力ユニットと、
入力ユニット及び音声入力ユニットに結合された処理ユニットと、を備え、処理ユニットは、
表示ユニット上にコンテンツを表示し、
コンテンツを表示している間に、入力ユニットを介してユーザ入力を検出し、
ユーザ入力を検出したことに応じて、音声入力ユニットを用いて音声データであって、サンプリングされた音声データはユーザ発言を含む、音声データをサンプリングし、
ユーザ発言に対応するユーザ意図の決定を取得し、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を取得し、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整する
ように構成される、電子デバイス。
148.処理ユニットが、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を取得し、
ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する結果を取得し、
表示ユニット上に、結果をテキスト形式で表示する
ように更に構成される、項目147に記載の電子デバイス。
149.処理ユニットが、
ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する第2の結果を取得し、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むかどうかを判定し、
表示されたコンテンツがメディアコンテンツを含むとの判定に従って、
メディアコンテンツが一時停止されることができるかどうかを判定し、
メディアコンテンツが一時停止されることができないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第2のユーザインターフェースを表示する
ように更に構成され、表示ユニット上における第2のユーザインターフェースによって占有される表示区域は、表示ユニット上におけるメディアコンテンツによって占有される表示区域よりも小さい、項目148に記載の電子デバイス。
150.処理ユニットが、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示する
ように更に構成され、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、項目149に記載の電子デバイス。
151.処理ユニットが、
メディアコンテンツが一時停止されることができるとの判定に従って、
電子デバイス上におけるメディアコンテンツの再生を一時停止し、
表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示する
ように更に構成され、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、項目149に記載の電子デバイス。
152.電子デバイスであって、
ユーザ入力を受信するように構成された入力ユニットと、
入力ユニットに結合された処理ユニットと、
を備え、処理ユニットは、
表示ユニット上にコンテンツを表示し、
コンテンツを表示している間に、入力ユニットを介してユーザ入力を検出し、
ユーザ入力を検出したことに応じて、
表示ユニット上に仮想キーボードインターフェースを表示し、
第2の電子デバイスのディスプレイ上に選択可能なアフォーダンスを出現させる
ように構成され、アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介して電子デバイスによって受信されることを可能にする、電子デバイス。
153.処理ユニットが、
第2の電子デバイスのキーボードを介してテキスト入力であって、テキスト入力はユーザ要求を表現する、テキスト入力を受信し、
ユーザ要求を少なくとも部分的に満足する結果を取得し、
表示ユニット上にユーザインターフェースを表示する
ように更に構成され、ユーザインターフェースは結果の少なくとも一部分を含む、項目152に記載の電子デバイス。
メディア検索及び再生のためのインテリジェント自動アシスタント
[関連出願の相互参照]
[0001]
本出願は、2015年9月8日に出願され、「Intelligent Automated Assistant for Media Search and Playback」と題する、米国特許仮出願第62/215,575号からの優先権を主張する。同出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
[0002]
本出願は、2015年12月8日に出願され、「Intelligent Automated Assistant in a Media Environment」と題する、米国特許出願第________号(代理人書類番号106842130800 (P25817US1))、2014年9月26日に出願され、「Intelligent Automated Assistant for TV User Interactions」と題する、米国特許出願第14/498,503号(代理人書類番号106842065100(P18133US1))、2014年9月26日に出願され、「Real−time Digital Assistant Knowledge Updates」と題する、米国特許出願第14/498,391号(106842097900(P22498US1))からの優先権を主張する。これらの出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
[技術分野]
[0003]
本出願は、概して、インテリジェント自動アシスタントに関し、より詳細には、メディア検索及び再生のためのインテリジェント自動アシスタントに関する。
[背景技術]
[0004]
インテリジェント自動アシスタント(又はデジタルアシスタント)は、ユーザと電子デバイスとの間の直感的なインタフェースを提供することができる。これらのアシスタントは、ユーザが口頭形式及び/又はテキスト形式の自然言語を使用して、デバイス又はシステムと双方向作用することを可能にすることができる。例えば、ユーザは、自然言語形式の口頭ユーザ入力を電子デバイスに関連付けられた仮想アシスタントに提供することにより、電子デバイスのサービスにアクセスすることができる。仮想アシスタントは、ユーザの意図を推測しユーザの意図をタスクとして作動可能にするために、口頭ユーザ入力について自然言語処理を実行することができる。タスクは、次に、電子デバイスの1つ以上の機能を実行することにより、実行することができ、いくつかの実施例では、関連した出力を、ユーザに自然言語形式で返すことができる。
[0005]
ユーザのメディア消費に関係するタスクを支援するためには、メディア環境(例えば、テレビ、テレビセットトップボックス、ケーブルボックス、ゲーミングデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)にデジタルアシスタントを組み込むことが望まししいことがある。例えば、デジタルアシスタントを利用して、所望の消費メディアコンテンツを検索することができる。しかしながら、ユーザは、自身が消費したいと望む特定のメディアアイテムに関してはっきりしていないことがしばしばあり、新しくて興味深いコンテンツを発見するためにメディアアイテムをブラウズする、相当量の時間を費やすことがある。更に、既存の検索インタフェースは複雑で、ユーザフレンドリではないことがあり、それにより、所望の消費アイテムを最終的に選択する前にメディアアイテムのブラウジングにユーザが費やす時間が更に増えることがある。
[発明の概要]
[0006]
メディア環境においてデジタルアシスタントを動作させるためのシステム及びプロセスが開示される。例示的なプロセスでは、メディアアイテムの1次セットを、表示ユニット上に表示することができる。ユーザ入力を検出したことに応じて、オーディオ入力を受信することができる。オーディオ入力は、自然言語発語形態のメディアに関係する要求を包含することができる。メディアに関係する要求に対応する1次ユーザ意図を判定することができる。本プロセスは、1次ユーザ意図が、メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかを判定することができる。1次ユーザ意図が、メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することができる。第2の1次メディア検索クエリは、メディアに関係する要求及び1次メディア検索クエリに基づくことができる。第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得することができる。表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第2の1次セットの表示と入れ替えることができる。
[図面の簡単な説明]
[0007]
[図1] 種々の実施例に係る、デジタルアシスタントを実装するためのシステム及び環境を示すブロック図である。
[0008]
[図2] 種々の実施例に係る、メディアシステムのブロック図である。
[0009]
[図3] 種々の実施例に係る、例示的なユーザデバイスを示すブロック図である。
[0010]
[図4A] 種々の実施例に係る、デジタルアシスタントシステム又はそのサーバ部分を示すブロック図である。
[0011]
[図4B] 種々の実施例に係る、図4Aに示したデジタルアシスタントの機能を示す図である。
[0012]
[図4C] 種々の実施例に係る、オントロジの一部分を示す図である。
[0013]
[図5A] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5B] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5C] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5D] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5E] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[0014]
[図6A] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6B] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6C] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6D] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6E] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6F] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6G] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6H] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6I] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6J] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6K] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[0015]
[図7] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるように構成された電子デバイスの機能ブロック図である。
[発明を実施するための形態]
[0016]
以下の実施例の説明では、実施することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができることを理解されたい。
[0017]
本開示は、メディア環境においてデジタルアシスタントを動作させるためのシステム及びプロセスに関する。1つの例示的なプロセスでは、自然言語形式のメディア検索要求を受信することができる。メディア検索要求に対応する1次ユーザ意図を判定することができる。1次ユーザ意図に従って、メディアアイテムの1次セットを取得することができる。プロセスは、1つ以上の以前のユーザ意図が存在するかどうかを判定することができ、この1つ以上の以前のユーザ意図は、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求に対応する。1つ以上の以前のユーザ意図が存在すると判定したことに応じて、1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定することができる。1つ以上の2次ユーザ意図は、メディアブラウジング履歴、関係する検索属性、及び複数のユーザ間で人気があるメディア属性などの種々の他の因子に基づくことができる。メディアアイテムの複数の2次セットを取得することができ、メディアアイテムの各2次セットは、1つ以上の2次ユーザ意図のうちのそれぞれの2次ユーザ意図に対応する。ユーザ選択のために、ユーザインタフェースを介して、取得したメディアアイテムの1次セット及びメディアアイテムの複数の2次セットを表示ユニット上に表示することができる。1次ユーザ意図及び2次ユーザ意図をインテリジェントに判定して、ユーザの実際の意図を予測する確率を増大させることができる。1次ユーザ意図及び2次ユーザ意図に基づいて種々のメディアアイテムを提供することによって、ユーザが、ユーザの興味を刺激するメディアアイテムをより見つけやすくすることができる。これは、メディアアイテムのブラウジングに費やした時間量を減少させ、続いて、メディアコンテンツの享受に費やす時間量を増大させることによって、ユーザエクスペリエンスを改善するために望ましいことがある。
1.システム及び環境
[0018]
図1は、種々の実施例に係る、デジタルアシスタントを動作させるための例示的なシステム100を示す。用語「デジタルアシスタント」、「仮想アシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、口頭形式及び/又はテキスト形式の自然言語入力を解釈してユーザ意図を推測し、推測したユーザ意図に基づきアクションを実行する任意の情報処理システムを指すことができる。例えば、推測されたユーザ意図に基づきアクションを実行するために、システムは、推測されたユーザ意図を実現するように設計されたステップ及びパラメータを含むタスクフローを特定すること、推測したユーザ意図からの特定の要求をタスクフローに入力すること、プログラム、方法、サービス、アプリケーションプログラミングインタフェース(API)などを呼び出すことによりタスクフローを実行すること、及び、ユーザへの出力応答をオーディオ(例えば、スピーチ)形式及び/又は視覚形式で生成することのうちの1つ以上を実行することができる。
[0019]
具体的には、デジタルアシスタントは、自然言語コマンド、要求、陳述、叙述、及び/又は照会の形で少なくとも部分的にユーザ要求を受け入れる能力を有することができる。典型的には、ユーザ要求はデジタルアシスタントによる情報回答又はタスクの実行のいずれかを求めることができる。ユーザ要求への満足な応答は、要求された情報回答の提供、要求されたタスクの実行、又はその2つの組み合わせとすることができる。例えば、ユーザはデジタルアシスタントに「パリは何時ですか?」などの質問をすることができる。デジタルアシスタントは、要求された情報を取り出し、「パリは午後4時00分です」と応答することができる。また、ユーザは、タスク、例えば、「Reese Witherspoonが主演した映画を探す」の実行を要求することができる。それに応じて、デジタルアシスタントは、要求された検索クエリを実行し、ユーザがそこから選択するために、関連する映画タイトルを表示することができる。要求されたタスクの実行中、デジタルアシスタントは、時により、長時間にわたって情報を複数回交換する連続的なダイアログにおいて、ユーザと対話することができる。情報又は種々のタスクの実行を要求するためにデジタルアシスタントと対話する方法は他にも数多く存在する。テキストによる応答を提供し、プログラムされたアクションを取ることに加えて、デジタルアシスタントは、他の視覚形式又はオーディオ形式の応答、例えば、言語、警報、音楽、イメージ、ビデオ、アニメーションなどを提供することもできる。更に、本明細書で説明するように、例示的なデジタルアシスタントは、メディアコンテンツ(テレビセットトップボックス)の再生を制御することができ、表示ユニット上にメディアコンテンツ又は他の情報を表示させることができる。
[0020]
図1に示したように、いくつかの実施例では、デジタルアシスタントは、クライアント−サーバモデルに従って実装することができる。デジタルアシスタントは、メディアデバイス104上で実行されるクライアント側部分102(以後、「DAクライアント102」)、及びサーバシステム108上で実行されるサーバ側部分106(以後「DAサーバ106」)を含むことができる。更に、いくつかの実施例では、クライアント側部分はまた、ユーザデバイス122上で実行することができる。DAクライアント102は1つ以上のネットワーク110を通じてDAサーバ106と通信することができる。DAクライアント102は、ユーザ対応入力及び出力処理、並びにDAサーバ106との通信などのクライアント側機能を提供することができる。DAサーバ106は、それぞれのデバイス(例えば、メディアデバイス104及びユーザデバイス122)上に各々常駐する任意の数のDAクライアント102のためのサーバ側機能を提供することができる。
[0021]
メディアデバイス104は、メディアコンテンツを管理及び制御するように構成された任意の好適な電子デバイスとすることができる。例えば、メディアデバイス104としては、ケーブルボックスデバイス、衛星ボックスデバイス、ビデオプレーヤデバイス、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲーミングシステム、DVDプレーヤ、Blu−ray Disc(登録商標)プレーヤ、そのようなデバイスの組み合わせなどの、テレビセットトップボックスを挙げることができる。図1に示すように、メディアデバイス104は、メディアシステム128の一部とすることができる。メディアデバイス104に加えて、メディアシステム128は、遠隔制御124及び表示ユニット126を含むことができる。メディアデバイス104は、表示ユニット126上にメディアコンテンツを表示することができる。表示ユニット126は、テレビのディスプレイ、モニタ、プロジェクタなどの、任意の種類のディスプレイとすることができる。いくつかの実施例では、メディアデバイス104は、オーディオシステム(例えば、オーディオ受信機)に接続することができ、スピーカ111(図示せず)は、表示ユニット126と統合する、又はそれとは別個のものとすることができる。他の実施例では、表示ユニット126、及びメディアデバイス104は、高度な処理機能及びネットワーク接続機能を有するスマートテレビなどの、単一のデバイス内に一体に組み込むことができる。そのような実施例では、メディアデバイス104の機能は、組み合わせたデバイス上のアプリケーションとして実行することができる。
[0022]
いくつかの実施例では、メディアデバイス104は、複数の種類及びソースのメディアコンテンツのためのメディアコントロールセンタとして機能することができる。例えば、メディアデバイス104は、ライブのテレビ(例えば、テレビ放送、衛星テレビ、又はケーブルTV)へのユーザのアクセスを可能にすることができる。そのように、メディアデバイス104は、ケーブルチューナ、衛星チューナなどを含むことができる。いくつかの実施例では、メディアデバイス104はまた、後でのタイムシフト視聴のためにTV番組を録画することができる。他の実施例では、メディアデバイス104は、ケーブル配信のオンデマンドのTV番組、ビデオ、及び音楽、並びにインターネット配信のTV番組、ビデオ、及び音楽など(例えば、種々の無料、有料、及びサブスクリプションベースのストリーミングサービスから)の、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、メディアデバイス104は、モバイルユーザデバイスからの写真を表示すること、結合された記憶デバイスからのビデオを再生すること、結合された音楽プレーヤからの音楽を再生することなどの、任意の他のソースからのメディアコンテンツの再生又は表示を可能にすることができる。メディアデバイス104はまた、所望により、本明細書で説明するメディア制御機能の様々な他の組み合わせを含むことができる。図2を参照して、メディアデバイス104について以下に詳細に説明する。
[0023]
ユーザデバイス122としては、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、ウェアラブル電子デバイス(例えば、デジタル眼鏡、リストバンド、腕時計、ブローチ、アームバンドなど)などの、任意の個人用電子デバイスを挙げることができる。図3を参照して、ユーザデバイス122について以下に詳細に説明する。
[0024]
いくつかの実施例では、ユーザは、ユーザデバイス122、遠隔制御124、又はメディアデバイス104内に統合されたインタフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を介して、メディアデバイス104と対話することができる。例えば、ユーザデバイス122及び/又は遠隔制御124において、デジタルアシスタントのためのメディアに関係するクエリ又はコマンドを含む発語入力を受信することができ、その発語入力を使用して、メディアに関係するタスクをメディアデバイス104上で実行することができる。同様に、ユーザデバイス122及び/又は遠隔制御124において(並びに、図示されていない他のデバイスから)、メディアデバイス104上でメディアを制御するための触覚コマンドを受信することができる。したがって、種々のやり方でメディアデバイス104の種々の機能を制御することができ、ユーザには、複数のデバイスからのメディアコンテンツを制御するための複数のオプションが与えられる。
[0025]
通信ネットワーク(単数又は複数)110の例としては、ローカルエリアネットワーク(LAN)及び、例えば、インターネットのようなワイドエリアネットワーク(WAN)を挙げることができる。通信ネットワーク(単数又は複数)110は、例えば、イーサネット(登録商標)、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Wi−Fi(登録商標)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi−MAX(登録商標)、又は任意の他の好適な通信プロトコルなどの、様々な有線又は無線プロトコルを含む、任意の周知のネットワークプロトコルを用いて実装することができる。
[0026]
DAサーバ106は、クライアント対応入出力(I/O)インタフェース112、1つ以上の処理モジュール114、データ及びモデル116、並びに外部サービスへのI/Oインタフェース118を含むことができる。クライアント対応I/Oインタフェース112は、DAサーバ106のためのクライアント対応入力及び出力処理を可能にすることができる。1つ以上の処理モジュール114は、データ及びモデル116を利用して、発語入力を処理し、自然言語入力に基づいてユーザの意図を判定することができる。更に、1つ以上の処理モジュール114は、推測されたユーザ意図に基づいてタスク実行を行うことができる。いくつかの実施例では、DAサーバ106は、タスク完了又は情報取得のために、電話サービス、カレンダサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビプログラムサービス、ストリーミングメディアサービス、メディア検索サービスなどの、外部サービス120と、ネットワーク(単数又は複数)110を介して通信することができる。外部サービスへのI/Oインタフェース118は、このような通信を可能にすることができる。
[0027]
サーバシステム108は、1つ以上のスタンドアロンデータ処理装置、又はコンピュータの分散型ネットワーク上に実装することができる。また、いくつかの実施例では、サーバシステム108は、サーバシステム108の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供するために、種々の仮想デバイス及び/又はサードパーティサービスプロバイダ(例えば、サードパーティクラウドサービスプロバイダ)のサービスを採用することができる。
[0028]
図1に示したデジタルアシスタントは、クライアント側部分(例えば、DAクライアント102)及びサーバ側部分(例えば、DAサーバ106)の両方を含むが、いくつかの実施例では、デジタルアシスタントの機能は、ユーザデバイス又はメディアデバイスにインストールされるスタンドアロンアプリケーションとして実装することができる。加えて、デジタルアシスタントのクライアント部分とサーバ部分との間の機能の分配は実装によって異なり得る。例えば、いくつかの実施例では、ユーザデバイス122又はメディアデバイス104上で実行されるDAクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、デジタルアシスタントの全ての他の機能をバックエンドサーバに委ねるシンクライアントとすることができる。
2.メディアシステム
[0029]
図2は、種々の実施例に係る、例示的なメディアシステム128のブロック図を示す。メディアシステム128は、表示ユニット126と遠隔制御124とスピーカ268とに通信可能に結合されたメディアデバイス104を含むことができる。メディアデバイス104は、遠隔制御124を介して、ユーザ入力を受信することができる。メディアデバイス104からのメディアコンテンツを、表示ユニット126上に表示することができる。
[0030]
本実施例では、図2に示したように、メディアデバイス104は、メモリインタフェース202、1つ以上のプロセッサ204、及び周辺機器インタフェース206を含むことができる。1つ以上の通信バス又は信号線によって、メディアデバイス104内の種々の構成要素を1つに結合することができる。メディアデバイス104は更に、周辺機器インタフェース206に結合される様々なサブシステム、及び周辺機器を含むことができる。サブシステム及び周辺機器は情報を収集し、及び/又はメディアデバイス104の種々の機能を可能にすることができる。
[0031]
例えば、メディアデバイス104は、通信サブシステム224を含むことができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができる、1つ以上の有線及び/又は無線通信サブシステム224を介して、通信機能を可能にすることができる。
[0032]
いくつかの実施例では、メディアデバイス104は、周辺機器インタフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は、オーディオ/ビデオ出力コントローラ270を含むことができる。オーディオ/ビデオ出力コントローラ270は、表示ユニット126及びスピーカ268に結合することができ、あるいは場合によっては、(例えば、オーディオ/ビデオポート、無線伝送などを介して)オーディオ及びビデオ出力を提供することができる。I/Oサブシステム240は、遠隔コントローラ242を更に含むことができる。遠隔コントローラ242は、(例えば、有線接続、Bluetooth(登録商標)、Wi−Fi(登録商標)などを介して)遠隔制御124と通信可能に結合することができる。
[0033]
遠隔制御124は、オーディオデータ(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン272触覚入力をキャプチャするためのボタン(単数又は複数)274、及び遠隔コントローラ242を介したメディアデバイス104との通信を可能するための送受信機276を含むことができる。更に、遠隔制御124は、触覚及び/若しくは触感の接触に基づくユーザからの入力を受け入れるタッチ感知面278、センサ、又はセンサのセットを含むことができる。タッチ感知面278及び遠隔コントローラ242は、タッチ感知面278上で接触(及び接触の任意の移動又は中断)を検出し、検出した接触(例えば、ジェスチャ、接触モーションなど)を、表示ユニット126上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換することができる。いくつかの実施例では、遠隔制御124はまた、キーボード、ジョイスティック、タッチパッドなどの、他の入力機構を含むことができる。遠隔制御124は、照明、ディスプレイ、スピーカなどの、出力機構を更に含むことができる。遠隔制御124で受信した入力(例えば、ユーザの発語、ボタン押下など)を、遠隔制御124を介してメディアデバイス104に通信することができる。I/Oサブシステム240はまた、他の入力コントローラ(単数又は複数)244を含むことができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御機器248に結合することができる。
[0034]
いくつかの実施例では、メディアデバイス104は、メモリ250に結合されたメモリインタフェース202を更に含むことができる。メモリ250としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又は全てを実行するための)を記憶するために使用することができる。他の実施例では、(例えば、本明細書で説明する様々なプロセスの一部分又は全部を実行するための)命令は、サーバシステム108の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム108の非一時的コンピュータ可読記憶媒体との間に分配することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0035]
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインタフェース(GUI)モジュール256、デバイス内メディアモジュール258、デバイス外メディアモジュール260、及びアプリケーションモジュール262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加デバイス、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を可能にすることができる。グラフィカルユーザインタフェースモジュール256は、グラフィカルユーザインタフェース処理を可能にすることができる。オンデバイスメディアモジュール258は、メディアデバイス104にローカルに記憶されたメディアコンテンツの再生及び記憶を可能にすることができる。オフデバイスメディアモジュール260は、(例えば、リモートサーバ上、ユーザデバイス122上など)外部ソースから取得された遠隔に記憶されたメディアコンテンツのストリーミング再生又はダウンロードを可能にすることができる。更に、オフデバイスメディアモジュール260は、ブロードキャスト及びケーブルコンテンツの受信(例えば、チャンネルの同調)を可能にすることができる。アプリケーションモジュール262は、電子メッセージング、ウェブブラウジング、メディア処理、ゲーム、並びに/又は他のプロセス及び機能などの、メディアに関係するアプリケーションの種々の機能を可能にすることができる。
[0036]
本明細書で説明するように、メモリ250はまた、例えば、デジタルアシスタントのクライアント側機能を提供するために、(例えば、デジタルアシスタントクライアントモジュール264内の)クライアント側デジタルアシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、設定データ、及び/又はユーザのメディア検索履歴、メディア視聴リスト、最近の視聴したリスト、お気に入りのメディアアイテムなどの他のデータ)も記憶することができる。また、ユーザデータ266は、デジタルアシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。
[0037]
種々の実施例では、デジタルアシスタントクライアントモジュール264は、メディアデバイス104の種々のユーザインタフェース(例えば、I/Oサブシステム240など)を通じて音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。デジタルアシスタントクライアントモジュール264はまた、オーディオ形態(例えば、発語出力)、視覚形態、及び/又は触覚形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記の2つ以上の組み合わせとして提供されてもよい。動作時、デジタルアシスタントクライアントモジュール264は、通信サブシステム224を用いてデジタルアシスタントサーバ(例えば、DAサーバ106)と通信することができる。
[0038]
いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話、及び/又は現在のユーザ入力に関連付けられるコンテキストを確立するために、種々のサブシステム及び周辺機器を利用して、メディアデバイス104に関係する追加情報、及びメディアデバイス104の周囲環境からの追加情報を収集することができる。そのようなコンテキストはまた、ユーザデバイス122からなどの、他のデバイスからの情報を含むことができる。いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力と共にコンテキスト情報又はそのサブセットをデジタルアシスタントサーバに提供することができる。デジタルアシスタントはまた、コンテキスト情報を使用して、ユーザへの出力をどのように準備し、配信するのかを判定することができる。更に、正確な発語認識をサポートするために、メディアデバイス104又はサーバシステム108によりコンテキスト情報を使用することができる。
[0039]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、別のオブジェクトとの距離、などの、センサ情報を含むことができる。コンテキスト情報は、メディアデバイス104の物理状態(例えば、デバイスの位置、デバイスの温度、電力レベルなど)に関連付けられた情報、又はメディアデバイス104のソフトウェア状態(例えば、実行中の処理、インストールされたアプリケーション、過去及び現在のネットワークアクティビティ、バックグラウンドサービス、エラーログ、リソース使用など)に関連付けられた情報を更に含むことができる。コンテキスト情報は、ユーザから受信した情報(例えば、発語入力)、ユーザにより要求された情報、及びユーザに提示される情報(例えば、メディアデバイスにより現在表示されている情報、又は以前に表示された情報)を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、ユーザデバイス122上に表示されたコンテンツ、ユーザデバイス122上で再生可能なコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報のうちのいずれかを、ユーザ入力と関連付けられたコンテキスト情報として、DAサーバ106に提供する(あるいは、メディアデバイス104自体で使用する)ことができる。
[0040]
いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、DAサーバ106からの要求に応じて、メディアデバイス104上に記憶されている情報(例えば、ユーザデータ266)を選択的に提供することができる。それに加えて、又は代替として、発語認識及び/又はデジタルアシスタントの機能を実行する際に、その情報をメディアデバイス104自体で使用することができる。デジタルアシスタントクライアントモジュール264はまた、DAサーバ106による要求時に、自然言語ダイアログ又は他のユーザインタフェースを介して、ユーザからの追加入力も引き出すことができる。デジタルアシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成においてDAサーバ106を助けるために、追加入力をDAサーバ106に渡すことができる。
[0041]
種々の実施例では、メモリ250は、追加の命令又はより少数の命令を含むことができる。更に、メディアデバイス104の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
3.ユーザデバイス
[0042]
図3は、様々な実施例による、例示的なユーザデバイス122のブロック図を示す。ユーザデバイス122は、メモリインタフェース302、1つ以上のプロセッサ304、及び周辺機器インタフェース306を含むことができる。1つ以上の通信バス又は信号線によって、ユーザデバイス122内の種々の構成要素を1つに結合することができる。ユーザデバイス122は更に、周辺機器インタフェース306に結合される種々のセンサ、サブシステム、及び周辺機器を含むことができる。センサ、サブシステム、及び周辺機器は情報を収集し、及び/又はユーザデバイス122の種々の機能を可能にすることができる。
[0043]
例えば、ユーザデバイス122は、向き、光、及び近接度の検知機能を可能にするための動きセンサ310、光センサ312、及び近接センサ314を含むことができ、それらは、周辺機器インタフェース306に結合される。関連機能を促進するために、測位システム(例えば、GPS受信機)、温度センサ、生体センサ、ジャイロスコープ、コンパス、加速度計、などの、1つ以上の他のセンサ316も、周辺インタフェース306に接続することができる。
[0044]
いくつかの実施例では、カメラサブシステム320及び光学センサ322は、写真の撮影及びビデオクリップの録画などの、カメラ機能を促進するために利用することができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができる、1つ以上の有線及び/又は無線通信サブシステム324を介して、通信機能を可能にすることができる。オーディオサブシステム326は、スピーカ328及びマイクロフォン330に結合して、音声認識、音声複製、デジタル録音、及び電話機能などの、音声使用可能機能を促進することができる。
[0045]
いくつかの実施例では、ユーザデバイス122は、周辺機器インタフェース306に結合されたI/Oサブシステム340を更に含んでもよい。I/Oサブシステム340は、タッチスクリーンコントローラ342及び/又は他の入力コントローラ(単数又は複数)344を含むことができる。タッチスクリーンコントローラ342は、タッチスクリーン346に結合することができる。タッチスクリーン346及びタッチスクリーンコントローラ342は、例えば、容量性、抵抗性、赤外線、及び表面弾性波技術、近接センサアレイなどの複数のタッチ感知技術のうちのいずれかを使用して、接触、及びその移動若しくは中断を検出することができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス348に結合することができる。
[0046]
いくつかの実施例では、ユーザデバイス122は、メモリ350に結合されたメモリインタフェース302を更に含むことができる。メモリ350としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又は全てを実行するための)を記憶するために使用することができる。他の実施例では、(例えば、本明細書で説明する様々なプロセスの一部分又は全部を実行するための)命令は、サーバシステム108の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム108の非一時的コンピュータ可読記憶媒体との間に分配することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0047]
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインタフェース(GUI)モジュール356、センサ処理モジュール358、電話モジュール360、及びアプリケーションモジュール362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加デバイス、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進することができる。グラフィカルユーザインタフェースモジュール356は、グラフィカルユーザインタフェース処理を促進することができる。センサ処理モジュール358は、センサ関連の処理及び機能を促進することができる。電話モジュール360は、電話関連のプロセス及び機能を促進することができる。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング、並びに/又はその他のプロセス及び機能などの、ユーザアプリケーションの種々な機能を可能にすることができる。
[0048]
本明細書で説明するように、メモリ350はまた、例えば、デジタルアシスタントのクライアント側機能を提供するために、(例えば、デジタルアシスタントクライアントモジュール364内の)クライアント側デジタルアシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組の好みなどのその他のデータ)も記憶することができる。また、ユーザデータ366は、デジタルアシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。デジタルアシスタントクライアントモジュール364及びユーザデータ366は、図2を参照して上述したように、デジタルアシスタントクライアントモジュール264及びユーザデータ266とそれぞれ同様又は同一とすることができる。
[0049]
種々の実施例では、メモリ350は追加の命令又はより少数の命令を含むことができる。更に、ユーザデバイス122の様々な機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0050]
いくつかの実施例では、ユーザデバイス122は、メディアデバイス104の一態様を制御するように構成することができる。例えば、ユーザデバイス122は、遠隔制御(例えば、遠隔制御124として機能することができる。ユーザデバイス122を介して受信したユーザ入力を、(例えば、通信サブシステムを使用して)メディアデバイス104に送信して、対応するアクションをメディアデバイス104に実行させることができる。更に、ユーザデバイス122は、メディアデバイス104から命令を受信するように構成することができる。例えば、メディアデバイス104は、ユーザデバイス122にタスクをハンドオフして、それを実行し、ユーザデバイス122上にオブジェクト(例えば、選択可能なアフォーダンス)を表示させることができる。
[0051]
システム100及びメディアシステム128は、図1及び図2に示した構成要素及び構成には限定されず、ユーザデバイス122、メディアデバイス104、同様に、遠隔制御124は、図2及び図3に示した構成要素及び構成には限定されないことを理解されたい。システム100、メディアシステム128、ユーザデバイス122、メディアデバイス104、及び遠隔制御124は全て、種々な実施例に係る複数の構成において、より少数の又は他の構成要素を含むことができる。
4.デジタルアシスタントシステム
[0052]
図4Aは、種々の実施例に係る例示的なデジタルアシスタントシステム400のブロック図である。いくつかの実施例では、デジタルアシスタントシステム400はスタンドアロンコンピュータシステム上に実装することができる。いくつかの実施例では、デジタルアシスタントシステム400は複数のコンピュータにわたって分散され得る。いくつかの実施例では、デジタルアシスタントのモジュール及び機能のいくつかを、サーバ部分及びクライアント部分に分配することができ、この場合には、クライアント部分は1つ以上のユーザデバイス(例えば、デバイス104又は122)上に常駐し、例えば、図1に示したように、1つ以上のネットワークを通じてサーバ部分(例えば、サーバシステム108)と通信する。いくつかの実施例では、デジタルアシスタントシステム400は、図1に示したサーバシステム108(及び/又はDAサーバ106)の一実装形態である。デジタルアシスタントシステム400はデジタルアシスタントシステムの単なる一実施例にすぎず、デジタルアシスタントシステム400は、図示されているよりも多数又は少数の構成要素を有してもよく、2つ以上の構成要素を組み合わせてもよく、又は構成要素の異なる構成又は配置を有することができることに留意されたい。図4Aに示した種々の構成要素は、1つ以上の信号処理及び/若しくは特定用途向け集積回路を含む、ハードウェア、1つ以上のプロセッサによって実行されるソフトウェア命令、ファームウェア、又はそれらの組み合わせの形態で実装することができる。
[0053]
デジタルアシスタントシステム400は、メモリ402、1つ以上のプロセッサ404、入力/出力(I/O)インタフェース406、及びネットワーク通信インタフェース408を含むことができる。これらの構成要素は1本以上の通信バス又は信号線410を介して、互いに通信することができる。
[0054]
いくつかの実施例では、メモリ402は、高速ランダムアクセスメモリ並びに/又は不揮発性コンピュータ可読記憶媒体(例えば、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、若しくは他の不揮発性固体メモリデバイス)など、非一時的コンピュータ可読媒体を含むことができる。
[0055]
いくつかの実施例では、I/Oインタフェース406は、ディスプレイ、キーボード、タッチスクリーン、及びマイクロフォンなどの、デジタルアシスタントシステム400のI/Oデバイス416をユーザインタフェースモジュール422に結合することができる。I/Oインタフェース406は、ユーザインタフェースモジュール422と協働して、ユーザ入力(例えば、音声入力、キーボード入力、タッチ入力など)を受信し、それらを適宜に処理する。いくつかの実施例では、例えば、デジタルアシスタントがスタンドアロンユーザデバイス上に実装される時には、デジタルアシスタントシステム400は、図2又は図3におけるデバイス104又は122に関してそれぞれ説明されている構成要素並びにI/O通信インタフェースのうちのいずれかを含むことができる。いくつかの実施例では、デジタルアシスタントシステム400はデジタルアシスタント実装形態のサーバ部分を表すことができ、ユーザデバイス(例えば、デバイス104又は122)上に常駐するクライアント側部分を通じてユーザと対話することができる。
[0056]
いくつかの実施例では、ネットワーク通信インタフェース408は、有線通信ポート(単数又は複数)412及び/又は無線送受信回路414を含むことができる。有線通信ポート(単数又は複数)は、1つ以上の有線インタフェース、例えば、イーサネット、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)などを介して通信信号を受信及び送信することができる。無線回路414は、通常、通信ネットワーク及び他の通信デバイスを起点/終点として、RF信号及び/又は光信号を受信及び送信することができる。無線通信は、GSM(登録商標)、EDGE、CDMA、TDMA、Bluetooth(登録商標)、Wi−Fi(登録商標)、VoIP、Wi−MAX(登録商標)、あるいは任意のその他の好適な通信プロトコルなどの、複数の通信規格、プロトコル及び技術のうちの任意のものを使用することができる。ネットワーク通信インタフェース408は、インターネット、イントラネットなどのネットワーク、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)などの無線ネットワーク、及び/又はメトロポリタンエリアネットワーク(Metropolitan Area Network、MAN)を用いた、デジタルアシスタントシステム400と他のデバイスとの間の通信を可能にすることができる。
[0057]
いくつかの実施例では、メモリ402、又はメモリ402のコンピュータ可読記憶媒体は、オペレーティングシステム418、通信モジュール420、ユーザインタフェースモジュール422、1つ以上のアプリケーション424、1つ以上のアプリケーション424、及びデジタルアシスタントモジュール426の全て又はサブセットを含むプログラム、モジュール、命令、及びデータ構造を記憶することができる。詳細には、メモリ402又はメモリ402のコンピュータ可読記憶媒体は、以下で説明するプロセス800を実行する命令を記憶することができる。1つ以上のプロセッサ404はこれらのプログラム、モジュール、命令を実行し、データ構造から/へと、読み出し/書き込みを実行することができる。
[0058]
オペレーティングシステム418(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、iOS(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorksなどの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶装置制御、電力管理など)を制御及び管理するための様々なソフトウェア構成要素及び/又はドライバを含むことができ、種々のハードウェア、ファームウェア、及びソフトウェア構成要素間の通信を可能にする。
[0059]
通信モジュール420は、ネットワーク通信インタフェース408上でのデジタルアシスタントシステム400と他のデバイスとの間の通信を可能にする。例えば、通信モジュール420は、電子デバイス(例えば、104、122)の通信サブシステム(例えば、224、324)と通信することができる。通信モジュール420はまた、無線回路414及び/又は有線通信ポート412により受信されたデータを処理するための種々の構成要素も含むことができる。
[0060]
ユーザインタフェースモジュール422はI/Oインタフェース406を介して(例えば、キーボード、タッチスクリーン、ポインティング装置、コントローラ、及び/又はマイクロフォンから)ユーザからのコマンド及び/又は入力を受信し、ディスプレイ上にユーザインタフェースオブジェクトを生成することができる。ユーザインタフェースモジュール422はまた、I/Oインタフェース406を介して(例えば、ディスプレイ、オーディオチャネル、スピーカ、タッチパッドなどを通じて)、ユーザへの出力(例えば、発語、音声、アニメーション、テキスト、アイコン、振動、触覚フィードバック、光など)も準備及び配信することができる。
[0061]
アプリケーション424は、1つ以上のプロセッサ404により実行されるように構成されたプログラム及び/又はモジュールを含むことができる。例えば、デジタルアシスタントシステム400がスタンドアロンユーザデバイス上に実装される場合には、アプリケーション424は、ゲーム、カレンダアプリケーション、ナビゲーションアプリケーション、又は電子メールアプリケーションなどのユーザアプリケーションを含むことができる。デジタルアシスタントシステム400がサーバ上に実装される場合には、アプリケーション424は、例えば、リソース管理アプリケーション、診断アプリケーション、又はスケジューリングアプリケーションを含むことができる。
[0062]
メモリ402はまた、デジタルアシスタントモジュール426(又はデジタルアシスタントのサーバ部分)も記憶することができる。いくつかの実施例では、デジタルアシスタントモジュール426は、以下のサブモジュール、又はそれらのサブセット若しくはスーパーセットを含む。I/O処理モジュール428、発語テキスト化(speech-to-text、STT)処理モジュール430、自然言語処理モジュール432、ダイアログフロー処理モジュール434、タスクフロー処理モジュール436、サービス処理モジュール438、及び発語合成モジュール440を含むことができる。これらのモジュールの各々は、デジタルアシスタント426の以下のシステムあるいはデータ及びモデルのうちの1つ以上、又はそれらのサブセット若しくはスーパーセットへのアクセスを有する。即ち、オントロジ460、語彙索引444、ユーザデータ448、タスクフローモデル454、サービスモデル456、及び自動発語認識(automatic speech recognition、ASR)431である。
[0063]
いくつかの実施例では、デジタルアシスタントは、デジタルアシスタントモジュール426中に実装される処理モジュール、データ及びモデルを使用して、発語入力をテキストに変換すること、ユーザから受信した、自然言語入力で表されたユーザの意図を特定すること、(例えば、単語、ゲーム、意図などの曖昧性を回避することによって)ユーザの意図を完全に推測するために必要な情報をアクティブに引き出し、取得すること、推測された意図を達成するためのタスクフローを判定すること、及び推測された意図を達成するタスクフローを実行することのうちの少なくともいくつかを実行することができる。
[0064]
いくつかの実施例では、図4Bに示すように、I/O処理モジュール428は、ユーザ入力(例えば、発語入力)を取得するために、及びユーザ入力への応答を(例えば、発語出力として)提供するために、図4AにおけるI/Oデバイス416を通じてユーザと対話するか、又は、図4Aにおけるネットワーク通信インタフェース408を通じて電子デバイス(例えば、デバイス104又は122)と対話することができる。I/O処理モジュール428は、ユーザ入力と共に、又はその受信の直後に、ユーザ入力に関連付けられるコンテキスト情報を電子デバイスから任意選択的に取得することができる。コンテキスト情報は、ユーザ入力に関連するユーザ固有のデータ、語彙、及び/又は設定を含むことができる。いくつかの実施例では、コンテキスト情報はまた、ユーザ要求の受信時におけるデバイスのソフトウェア及びハードウェア状態、並びに/又はユーザ要求の受信時におけるユーザの周囲環境に関する情報も含む。いくつかの実施例では、I/O処理モジュール428はまた、ユーザ要求について、ユーザに補足質問を送信し、ユーザから回答を受信することができる。ユーザ要求をI/O処理モジュール428により受信し、ユーザ要求が発語入力を包含することができる時には、I/O処理モジュール428は、発語テキスト化変換のために、発語入力をSTT処理モジュール430(又は発語レコナイザ)へ転送することができる。
[0065]
STT処理モジュール430は、1つ以上のASRシステム(例えば、ASRシステム431)を含むことができる。1つ以上のASRシステムは、I/O処理モジュール428を介して受信した発語入力を処理して、認識結果を生成することができる。各ASRシステムは、フロントエンド発語プリプロセッサを含むことができる。フロントエンド発語プリプロセッサは、発語入力から代表的な特徴を抽出することができる。例えば、フロントエンド発語プリプロセッサは、発語入力を代表的な多次元ベクトルの列として特徴付けるスペクトル特徴を抽出するために、発語入力に対してフーリエ変換を実行することができる。更に、各ASRシステムは、1つ以上の発語認識モデル(例えば、音響モデル及び/又は言語モデル)を含むことができ、1つ以上の音声認識エンジンを実装することができる。発語認識モデルの実施例は、隠れマルコフモデル、混合ガウスモデル、ディープニューラルネットワークモデル、nグラム言語モデル、及び他の統計モデルを含むことができる。発語認識エンジンの実施例は、動的時間伸縮ベースのエンジン及び重み付き有限状態トランスデューサ(WFST)ベースのエンジンを含むことができる。フロントエンド発語プリプロセッサの抽出された代表的な特徴を処理して、中間認識結果(例えば、音素、音素文字列及びサブワード)を生成し、最終的には、テキスト認識結果(例えば、単語、単語文字列、又はトークンの列)を生成するために、1つ以上の発語認識モデル及び1つ以上の発語認識エンジンを使用ことができる。いくつかの実施例では、認識結果を生成するために、サードパーティサービスによって、又は電子デバイス(例えば、デバイス104又は122)上で発語入力を少なくとも部分的に処理することができる。STT処理モジュール430がテキスト文字列(例えば、単語、単語の列、又はトークンの列)を包含する認識結果を生成すると、意図の推定のために、その認識結果を自然言語処理モジュール432に渡すことができる。
[0066]
いくつかの実施例では、1つ以上のASRシステムの1つ以上の言語モデルは、メディアに関係する結果に向かってバイアスするように構成することができる。1つの実施例では、メディアに関係するテキストのコーパスを使用して、1つ以上の言語モデルをトレーニングすることができる。別の実施例では、ASRシステムは、メディアに関係する認識結果のほうを選ぶように構成することができる。いくつかの実施例では、1つ以上のASRシステムは、静的言語モデル及び動的言語モデルを含むことができる。静的言語モデルは、一般的なテキストのコーパスを使用してトレーニングすることができ、動的言語モデルは、ユーザ固有のテキストを使用してトレーニングすることができる。例えば、ユーザから受信した以前の発語入力に対応するテキストを使用して、動的言語モデルを生成することができる。いくつかの実施例では、1つ以上のASRシステムは、静的言語モデル及び/又は動的言語モデルに基づいて認識結果を生成するように構成することができる。更に、いくつかの実施例では、1つ以上のASRシステムは、より最近に受信された以前の発語入力に対応する認識結果のほうを選ぶように構成することができる。
[0067]
発語テキスト化処理についての追加の詳細が、2011年9月20日に出願された、「Consolidating Speech Recognition Results」についての米国実用特許出願第13/236,942号に記載されている。同出願の開示全体は本明細書において参照により組み込まれている。
[0068]
いくつかの実施例では、STT処理モジュール430は、認識可能な単語の語彙を含むことができ、及び/又は、音標アルファベット変換モジュール431を介してそれにアクセスすることができる。各語彙語は、1つ以上の発語認識音標アルファベットで表される単語の発音候補と関連付けることができる。詳細には、認識可能な単語の語彙は、複数の発音候補に関連付けられた単語を含むことができる。例えば、語彙は、発音候補
[図1]
に関連付けられた単語「トマト」を含むことができる。更に、ユーザからの以前の発語入力に基づいて、語彙語を、カスタム発音候補と関連付けることができる。そのようなカスタム発音候補を、STT処理モジュール430に記憶することができて、デバイス上のユーザのプロファイルを介して、特定のユーザと関連付けることができる。いくつかの実施例では、単語の綴り並びに1つ以上の言語規則及び/又は音標規則に基づいて、単語の発音候補を判定することができる。いくつかの実施例では、例えば、既知の正規発音に基づいて、発音候補を手動で生成することができる。
[0069]
いくつかの実施例では、発音候補の一般性に基づいて、発音候補をランク付けされることができる。例えば、発音候補
[図2]
よりも高くランク付けすることができるが、これは、発音候補
[図3]
が(例えば、全ユーザのうち、特定の地理的領域のユーザについて、又は、任意の他の適切なユーザのサブセットについて)より一般的に使用される発音だからである。いくつかの実施例では、発音候補が、ユーザに関連付けられたカスタム発音候補であるかどうかに基づいて、その発音候補をランク付けすることができる。例えば、カスタム発音候補を、正規発音候補よりも高くランク付けすることができる。このことは、正規発音から逸脱して独特の発音を有する固有名詞を認識するために有用であり得る。いくつかの実施例では、発音候補を出身地、国籍又は民族性などの1つ以上の発語特性と関連付けることができる。例えば、発音候補
[図4]
が米国と関連付けることができるのに対し、発音候補
[図5]
は英国と関連付けることができる。更に、発音候補のランクは、デバイス上のユーザのプロファイルに記憶されたユーザの1つ以上の特性(例えば、出身地、国籍、民族など)に基づくことができる。例えば、ユーザのプロファイルから、ユーザが米国に関連付けられていることを判定することができる。ユーザが米国に関連付けられていることに基づいて、(米国に関連付けられた)発音候補
[図6]
を、(英国に関連付けられた)発音候補
[図7]
よりも高くランク付けすることができる。いくつかの実施例では、ランク付けされた発音候補のうちの1つを、予測された発音(例えば、最も可能性が高い発音)として選択することができる。
[0070]
発語入力を受信すると、STT処理モジュール430を使用して、発語入力に対応する音素を(例えば、音響モデルを使用して)判定し、次いで、音素と一致する単語を(例えば、言語モデルを使用して)判定しようと試みることができる。例えば、STT処理モジュール430は、発語入力の一部分に対応する音素の列
[図8]
を最初に特定することができた場合、語彙インデックス444に基づいて、この音素の列が単語「トマト」に対応すると判定することができる。
[0071]
いくつかの実施例では、STT処理モジュール430は、近似マッチング技術を使用して、発言内の単語を判定することができる。したがって、例えば、STT処理モジュール430は、特定の音素の列が、単語「トマト」の候補音素の列のうちの1つではない場合でも、音素の列
[図9]
が単語「トマト」に対応すると判定することができる。
[0072]
デジタルアシスタントの自然言語処理モジュール432(「自然言語プロセッサ」)は、STT処理モジュール430により生成された単語又はトークンの列(「トークン列」)を獲得し、トークン列を、デジタルアシスタントにより認識される1つ以上の「実施可能な意図」に関連付けようと試みることができる。「実施可能な意図」は、デジタルアシスタントにより実行することができるタスクを表すことができ、タスクフローモデル454内に実装される、関連付けられたタスクフローを有することができる。関連付けられたタスクフローは、タスクを実行するためにデジタルアシスタントが取る一連のプログラムされたアクション及びステップとすることができる。デジタルアシスタントの能力の範囲は、タスクフローモデル454内に実装され、記憶されているタスクフローの数及び種類に依存し、又は、換言すれば、デジタルアシスタントが認識する実施可能な意図の数及び種類に依存することができる。しかし、デジタルアシスタントの有効性もまた、自然言語で表現されたユーザ要求から正しい「実施可能な意図(単数又は複数)」を推定するアシスタントの能力に依存することができる。
[0073]
いくつかの実施例では、STT処理モジュール430から取得される単語又はトークン列に加えて、自然言語処理モジュール432はまた、例えば、I/O処理モジュール428から、ユーザ要求に関連付けられるコンテキスト情報も受信することができる。自然言語処理モジュール432は、任意選択的に、コンテキスト情報を使用して、STT処理モジュール430から受信したトークン列内に包含されている情報を明らかにし、補完し、及び/又は更に定義することができる。コンテキスト情報は、例えば、ユーザ設定、ユーザデバイスのハードウェア及び/又はソフトウェア状態、ユーザ要求の前、最中、若しくは直後に集められたセンサ情報、デジタルアシスタントとユーザとの間の以前の対話(例えば、ダイアログ)などを含むことができる。本明細書で説明するように、コンテキスト情報は動的であり得、かつ時間、場所、ダイアログの内容及び他の因子によって変化することができる。
[0074]
いくつかの実施例では、自然言語処理はオントロジ460に基づくことができる。オントロジ460は、多数のノードを包含する階層構造とすることができ、各ノードは、「実施可能な意図」又は他の「属性」のうちの1つ以上に関連する「実施可能な意図」又は「属性」のいずれかを表す。上述したように、「実施可能な意図」は、デジタルアシスタントが実行する能力を有する、即ち、それは「実施可能」である、又は作用を及ぼされ得るタスクを表すことができる。「属性」は、実施可能な意図、又は別の属性の下位態様に関連付けられるパラメータを表すことができる。オントロジ460内の実施可能な意図ノードと属性ノードとの間のリンクは、属性ノードにより表されるパラメータが、実施可能な意図ノードにより表されるタスクにどのくらい関係するのかを定義することができる。
[0075]
いくつかの実施例では、オントロジ460は実施可能な意図ノード及び属性ノードで構成することができる。オントロジ460内において、各実施可能な意図ノードは、直接又は1つ以上の中間属性ノードを介して、1つ以上の属性ノードにリンクすることができる。同様に、各属性ノードは、直接又は1つ以上の中間属性ノードを介して、1つ以上の実施可能な意図ノードにンクすることができる。例えば、図4Cに示すように、オントロジ460は「メディア」ノード(即ち、実施可能な意図ノード)を含むことができる。属性ノード「俳優(単数又は複数)」、「メディアジャンル」及び「メディアタイトル」を、それぞれ、実施可能な意図ノード(即ち、「メディア検索」ノード)に直接リンクすることができる。更に、属性ノード「名前」、「年齢」、「ウルマースケールランキング」及び「国籍」は、属性ノード「俳優」のサブノードであり得る。
[0076]
別の実施例では、図4Cに示すように、オントロジ460はまた、「天気」ノード(即ち、別の実施可能な意図ノード)も含むことができる。属性ノード「日付/時間」及び「場所」は、それぞれ、「天気検索」ノードにリンクすることができる。いくつかの実施例では、1つ以上の属性ノードは、2つ以上の実施可能な意図に関連し得ることを認識されたい。これらの実施例では、1つ以上の属性ノードは、オントロジ460中の2つ以上の実施可能な意図に対応するそれぞれのノードにリンクすることができる。
[0077]
実施可能な意図ノードは、そのリンクされた属性ノードと共に、時として「ドメイン」として説明することができる。本説明では、各ドメインは、それぞれの実施可能な意図に関連付けることができ、特定の実施可能な意図に関連付けられたノードのグループ(及びノード間の関係)を指すことができる。例えば、図4Cに示したオントロジ460は、オントロジ460内のメディアメディアドメイン462の例及び464天気ドメインの例を含むことができる。メディアドメイン462は、実施可能な意図ノード「メディア検索」と、属性ノード「俳優(単数又は複数)」、「メディアジャンル」及び「メディアのタイトル」を含むことができる。天気ドメイン464は、実施可能な意図ノード「天気検索」、及び属性ノード「場所」及び「日付/時間」が含むことができる。いくつかの実施例では、オントロジ460は多くのドメインで構成することができる。各ドメインは、1つ以上の他のドメインと、1つ以上の属性ノードを共有することができる。
[0078]
図4Cは、オントロジ460内の2つの例示的なドメインを示しているが、他のドメインとして、例えば、「アスリート」、「株式」、「方向」、「メディア設定」、「スポーツチーム」、及び「時間」並びに「ジョークを言う(tell joke)」などを挙げることができる。「アスリート」ドメインは、「アスリート情報検索」という実施可能な意図ノードと関連付けることができ、「アスリートの名前」、「アスリートのチーム」及び「アスリートの成績」などの属性ノードを更に含み得る。
[0079]
いくつかの実施例では、オントロジ460は、デジタルアシスタントが理解し、作用を及ぼすことができる全てのドメイン(したがって実施可能な意図)を含むことができる。いくつかの実施例では、オントロジ460は、ドメイン若しくはノード全体を追加又は除去すること、又はオントロジ460内のノード間の関係を変更することなどによって、修正することができる。
[0080]
いくつかの実施例では、オントロジ460内の各ノードは、そのノードによって表される属性又は実施可能な意図に関連する単語及び/又はフレーズのセットに関連付けることができる。各ノードに関連付けられる単語及び/又はフレーズのそれぞれのセットは、そのノードに関連付けられるいわゆる「語彙」とすることができる。各ノードに関連付けられる単語及び/又はフレーズのそれぞれのセットは、ノードによって表される属性又は実施可能な意図に関連して語彙索引444内に記憶することができる。例えば、図4Cに戻ると、「俳優」の属性についてのノードに関連付けられる語彙は、「Aリスト」、「Reese Witherspoon」、「Arnold Schwarzenegger」、「Brad Pitt」などの単語を含むことができる。別の例として、「天気検索」という実施可能な意図のノードに関連付けられる語彙は、「天気」、「どんな様子か」、「予報」などの単語及びフレーズを含むことができる。語彙索引444は異なる言語の単語及びフレーズを任意選択的に含むことができる。
[0081]
自然言語処理モジュール432は、STT処理モジュール430からトークン列(例えば、テキスト文字列)を受信し、トークン列内の単語がどのノードを暗示しているのかを判定することができる。いくつかの実施例では、トークン列内の単語又はフレーズが(語彙索引444を介して)オントロジ460内の1つ以上のノードに関連付けられていることが分かった場合、その単語又はフレーズが、それらのノードを「トリガする」又は「アクティブ化する」ことができる。アクティブ化されたノードの量及び/又は相対的重要度に基づき、自然言語処理モジュール432は、ユーザがデジタルアシスタントに実行させようと意図したタスクとして、実施可能な意図のうちの1つを選択することができる。いくつかの実施例では、最も多く「トリガされた」ノードを有するドメインを選択することができる。いくつかの実施例では、最も高い信頼値を有するドメインを(例えば、その種々のトリガされたノードの相対的重要度に基づいて)選択することができる。いくつかの実施例では、トリガされたノードの数及び重要度の組み合わせに基づいて、ドメインを選択することができる。いくつかの実施例では、ノードを選択する際には、デジタルアシスタントはユーザからの同様の要求を以前に正確に解釈したかどうかなどの追加の因子も考慮される。
[0082]
ユーザデータ448は、ユーザ固有語彙、ユーザ設定、ユーザアドレス、ユーザの既定言語及び第二言語、ユーザの連絡先リスト、並びに各ユーザに関するその他の短期的若しくは長期的情報などの、ユーザ固有の情報を含むことができる。いくつかの実施例では、自然言語処理モジュール432は、ユーザ入力内に包含されている情報を補完してユーザ意図を更に明確にするために、ユーザ固有の情報を使用することができる。例えば、ユーザ要求「今週の天気はどんなか」に対して、自然言語処理モジュール432は、ユーザの要求時にユーザがいる場所を明示的に提供するようにユーザに要求するのではなく、ユーザデータ448にアクセスしてそのような情報を判定することができる。
[0083]
トークン文字列に基づくオントロジ検索のその他の詳細が、2008年12月22日出願の「Method and Apparatus for Searching Using an Active Ontology」に対する米国実用特許出願第12/341,743号に記載されている。同出願の開示全体は本明細書において参照により組み込まれている。
[0084]
いくつかの実施例では、自然言語処理モジュール432が、ユーザ要求に基づいて、実施可能な意図(又はドメイン)を特定すると、自然言語処理モジュール432は、特定された実施可能な意図を表すように、構造化されたクエリを生成することができる。いくつかの実施例では、構造化されたクエリは、実施可能な意図に関するドメイン内の1つ以上のノードのためのパラメータを含むことができ、パラメータの少なくともいくつかにはユーザ要求内で指定された特定の情報及び要求事項が追加される。例えば、ユーザは、「このTVシリーズの他のシーズンを見つけて」と言ってもよい。この場合には、自然言語処理モジュール432は、ユーザ入力に基づいて、実施可能な意図を「メディア検索」であると正確に特定することができる。オントロジによれば、「メディア」ドメインのための構造化されたクエリは、{メディア俳優}、{メディアジャンル}、{メディアタイトル}などのようなパラメータを含み得る。いくつかの実施例では、発語入力、及びSTT処理モジュール430を使用して発語入力から導き出されたテキストに基づいて、自然言語処理モジュール432は、レストラン予約ドメインについての部分的な構造化されたクエリを生成することができ、部分的な構造化されたクエリは、パラメータ{メディアジャンル=テレビシリーズ}を含む。しかし、本例では、ユーザの発言は、ドメインに関連付けられる構造化されたクエリを完成するために十分な情報を包含していない。したがって、{メディアのタイトル}などの他の必要パラメータは、現在利用可能な情報に基づいては、構造化されたクエリ内に指定されないことがある。いくつかの実施では、自然言語処理モジュール432は、構造化されたクエリのいくつかのパラメータに、受信したコンテキスト情報を追加することができる。例えば、TVシリーズ「Mad Men」が、メディアデバイス上で現在再生していることがある。このコンテキスト情報に基づいて、自然言語処理モジュール432は、構造化されたクエリの{メディアのタイトル}パラメータに、「Mad Men」を追加することができる。
[0085]
いくつかの実施例では、自然言語処理モジュール432は、(任意の完成したパラメータを含む)生成した構造化されたクエリをタスクフロー処理モジュール436(「タスクフロープロセッサ」)に渡すことができる。タスクフロー処理モジュール436は、自然言語処理モジュール432から、構造化されたクエリを受信し、必要ならば、構造化されたクエリを完成させ、ユーザの最終的な要求を「完了する」ために必要とされるアクションを実行するように構成することができる。いくつかの実施例では、これらのタスクを完成させるために必要な種々の手順を、タスクフローモデル454内で行うことができる。いくつかの実施例では、タスクフローモデル454は、ユーザから追加情報を取得するための手順、及び実施可能な意図に関連付けられるアクションを実行するためのタスクフローを含むことができる。
[0086]
上述したように、構造化されたクエリを完成させるために、タスクフロー処理モジュール436は、追加情報を取得し、及び/又は潜在的に曖昧な発言の曖昧性を回避するために、ユーザとの追加のダイアログを開始することが時により必要になることがある。このような対話が必要となる場合には、タスクフロー処理モジュール436は、ユーザとのダイアログに携わるためにタスクフロー処理モジュール434を呼び出すことができる。いくつかの実施例では、ダイアログフロー処理モジュール434は、どのように(及び/又はいつ)ユーザに追加情報を求めるべきかを判定し、ユーザ応答を受信し、これらを処理する。I/O処理モジュール428を通じてユーザに質問を提供することができ、ユーザから回答を受信することができる。いくつかの実施例では、ダイアログフロー処理モジュール434はオーディオ出力及び/又は視覚出力を介してユーザにダイアログ出力を提示することができ、口頭の又は物理的な(例えば、クリック)応答を介してユーザから入力を受信することができる。例えば、ユーザは「パリの天気は?」と質問することができる。タスクフロー処理モジュール436がダイアログフロー処理モジュール434を呼び出して、ドメイン「天気検索」に関連付けられた構造化されたクエリの「場所」情報を判定すると、ダイアログフロー処理モジュール434は、「どのパリ?」などの質問を生成して、ユーザに渡すことができる。更に、ダイアログフロー処理モジュール434は、ユーザ選択のために、「パリ、テキサス」及び「パリ、フランス」に関連付けられたアフォーダンスを提示させることができる。ユーザから応答を受信すると、ダイアログフロー処理モジュール434は、次いで、構造化されたクエリに、欠けている情報を追加するか、又は構造化されたクエリから欠けている情報を完成させるために、その情報をタスクフロー処理モジュール436に渡すことができる。
[0087]
タスクフロー処理モジュール436が、実施可能な意図のための構造化されたクエリを完成すると、タスクフロー処理モジュール436は、実施可能な意図に関連付けられる最終的なタスクの実行に進むことができる。それに応じて、タスクフロー処理モジュール436は、構造化されたクエリ内に包含されている具体的なパラメータに応じて、タスクフローモデル454内のステップ及び命令を実行することができる。例えば、「メディア検索」の実施可能な意図のためのタスクフローモデルは、関連するメディアアイテムを取得するためにメディア検索クエリを実行するステップ及び命令を含むことができる。例えば、{メディア検索、メディアジャンル=TVシリーズ、メディアのタイトル=Mad Men}などの構造化されたクエリを使用して、タスクフロー処理モジュール436は、(1)関連するメディアアイテムを取得するために、メディアデータベースを使用してメディア検索クエリを実行するステップと、(2)関連性及び/又は人気に従って、取得したメディアアイテムをランク付けするステップと、(3)関連性及び/又は人気に従ってソートされたメディアアイテムを表示するステップとを実行することができる。
[0088]
いくつかの実施例では、タスクフロー処理モジュール436は、ユーザ入力で要求されたタスクを完了するために、又はユーザ入力で要求された情報の回答を提供するために、サービス処理モジュール438(「サービス処理モジュール」)の支援を採用することができる。例えば、サービス処理モジュール438は、タスクフロー処理モジュール436の代わりに、メディア検索を実行するように、天気情報を取り出すように、他のユーザデバイス上にインストールされたアプリケーションを呼び出す又はそれと対話するように、並びに、サードパーティサービス(例えば、ソーシャルネットワーキングウェブサイト、メディアレビューウェブサイト、メディアサブスクリプションサービスなど)を呼び出す又はそれと対話するように作用することができる。いくつかの実施例は、各サービスによって必要とされるプロトコル及びAPIは、サービスモデル456の中のそれぞれのサービスモデルによって指定され得る。サービス処理モジュール438は、サービスのための適当なサービスモデルにアクセスし、サービスモデルに係るサービスによって必要とされるプロトコル及びAPIに従ってサービスの要求を生成することができる。
[0089]
例えば、サードパーティーメディア検索サービスは、メディア検索を行うために必要なパラメータ、及び必要なパラメータの値をメディア検索サービスに通信するためのAPIを指定するサービスモデルを提出することができる。タスクフロー処理モジュール436により要求されると、サービス処理モジュール438は、メディア検索サービスとのネットワーク接続を確立し、メディア検索サービスのAPIに従ったフォーマットで、メディア検索の必要なパラメータ(例えば、メディア俳優、メディアジャンル、メディアタイトル)をオンライン予約インタフェースに送信することができる。
[0090]
いくつかの実施例では、ユーザの意図を推定して明確にし、ユーザ意図を更に明らかにして絞り込むための情報を入手し、ユーザの意図を達成するべく応答(即ち、ユーザへの出力又はタスクの完了)を最終的に生成するために、自然言語処理モジュール432、ダイアログフロー処理モジュール434、及びタスクフロー処理モジュール436を集合的かつ反復的に使用することができる。生成した応答は、ユーザの意図を少なくとも部分的に達成する、発語入力へのダイアログ応答とすることができる。更に、いくつかの実施例では、生成した応答を、発語出力として出力することができる。これらの実施例では、生成した応答を、発語合成モジュール440(例えば、発語合成器)に送信することができ、そこで、生成した応答を処理して、発語形態のダイアログ応答を合成することができる。更に他の実施例では、生成した応答は、発語入力のユーザ要求を満たすことに関連するデータコンテンツとすることができる。
[0091]
発語合成モジュール440は、ユーザに提示するために、発語出力を合成するように構成することができる。発語合成モジュール440は、デジタルアシスタントにより提供されたテキストに基づいて、発語出力を合成する。例えば、生成されたダイアログ応答は、テキスト文字列の形態とすることができる。発語合成モジュール440は、テキスト文字列を可聴の発語出力に変換することができる。発語合成モジュール440は、テキストから発語出力を生成するために、波形接続合成、単位選択合成、ダイフォン合成、分野限定合成、フォルマント合成、調音合成、隠れマルコフモデル(HMM)ベースの合成、及びサイン波合成を含むが、これらには限定されない任意の適切な音声合成技法を使用することができる。いくつかの実施例では、発語合成モジュール440は、単語に対応する音素文字列に基づいて、個々の単語を合成するように構成することができる。例えば、音素文字列は、生成したダイアログ応答中の単語に関連付けることができる。音素文字列は、単語に関連付けられたメタデータ中に記憶することができる。発語合成モジュール440は、メタデータ中の音素文字列を直接処理して、発語形態の単語を合成するように構成されることができる。
[0092]
いくつかの実施例では、発語合成モジュール440の使用の代わりに(又は、それに加えて)、リモートデバイス(例えば、サーバシステム108)上で発語の合成を実行することができ、合成した発語を、ユーザへの出力のために、ユーザデバイスに送信することができる。例えば、これは、デジタルアシスタントのための出力がサーバシステムにおいて生成される、いくつかの実装形態で起こり得る。また、サーバシステムは概して、ユーザデバイスよりも多くの処理電力又はリソースを有するので、クライアント側合成を用いた実用的な出力よりも高い品質発語出力を取得することが可能であり得る。
[0093]
デジタルアシスタントに関する追加の詳細は、その開示全体が参照により本明細書に組み込まれる、2011年1月10日出願の「Intelligent Automated Assistant」と題された米国実用特許出願第12/987,982号、2011年9月30日出願の「Generating and Processing Data Items That Represent Tasks to Perform」と題された米国実用特許出願第13/251,088号に記載されている。
4.メディア環境においてデジタルアシスタントを動作させるためのプロセス
[0094]
図5A〜図5Eは、種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセス500を示す。プロセス500は、デジタルアシスタントを実装する1つ以上の電子デバイスを使用して実行することができる。例えば、プロセス500は、上述のシステム100、メディアシステム128、メディアデバイス104、ユーザデバイス122、又はデジタルアシスタントシステム400のうちの1つ以上を使用して実行することができる。図6A〜図6Kは、種々の実施例に係る、プロセス500の種階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す。図5A〜図5E及び図6A〜図6Kを同時に参照して、以下にプロセス500を説明する。プロセス500のいくつかの動作を組み合わせることができ、いくつかの動作の順序を変更することができ、いくつかの動作を省略することができる。
[0095]
プロセス500のブロック502で、図6Aを参照すると、表示ユニット上にメディアアイテムの1次セット604を表示することができる。各メディアアイテムは、特定のメディアコンテンツ(例えば、映画、ビデオ、テレビショー/シリーズ、ビデオゲームなど)に対応することができる。以前に受信したメディア検索要求に応じて、メディアアイテムの1次セット604を表示することができる。いくつかの実施例では、以前に受信したメディア検索要求は、デジタルアシスタントとの口頭対話であり得る。他の実施例では、以前に受信したメディア検索要求は、メディアデバイスのキーボードインタフェースを介して受信したデジタルアシスタントとのテキスト対話であり得る。
[0096]
以前に受信したメディア検索要求に従って1次メディア検索クエリを実行することによって、メディアアイテムの1次セット604を取得することができる。いくつかの実施例では、1次メディア検索クエリは、以前に受信したメディア検索要求中で定義された1つ以上のパラメータ値に基づく構造化された検索であり得る。これらの実施例では、メディアアイテムの1次セット604の各メディアアイテムは、以前に受信したメディア検索要求中で定義された1つ以上のパラメータ値と一致する1つ以上のパラメータ値を含むことができる。他の実施例では、1次メディア検索クエリは、以前に受信したメディア検索要求のテキスト入力文字列に基づく文字列検索であり得る。これらの実施例では、メディアアイテムの1次セット604の各メディアアイテムは、以前に受信したメディア検索要求のテキスト入力文字列と一致するテキストと関連付けることができる。
[0097]
メディアアイテム604は、以前に受信したメディア検索要求に対応する共通の属性又はパラメータ値を共有することができる。図6Aに示した本実施例では、以前に受信したメディア検索要求は、直近10年間のアクション映画の要求であり得る。以前に受信したメディア検索要求を満たすメディアアイテムの1次セット604を取得することができる。この例では、メディアアイテムの1次セット604は、「The Amazing Spider Man 2」、「Furious 7」及び「Iron Man 3」など、直近10年間に公開されたアクション映画を含むことができる。メディアアイテムの1次セット612に関連して、以前に受信したメディア検索要求に対応する属性又はパラメータ値について説明するテキスト612を表示することができる。
[0098]
図6Aに示すように、ユーザインタフェース602を介して、メディアアイテムの1次セット604を表示することができる。ユーザインタフェース602は、ユーザが、ユーザインタフェース602のメディアアイテム間をナビゲートし、消費のための特定のメディアアイテムを選択することを可能化するように構成することができる。いくつかの実施例では、メディアアイテムの1次セット604と共に、1つ以上のメディアアイテムの2次セット606をユーザインタフェース602に表示することができる。常にメディアアイテムの2次セットが表示されるわけでないことを認識されたい。いくつかの実施例では、ユーザインタフェース602は、表示ユニットの少なくとも大部分の表示範囲を占めることができる。他の実施例では、表示ユニットは、ユーザインタフェース602を表示しながら、メディアデバイス上で再生しているメディアコンテンツ(図示せず)を表示することができる。これらの実施例では、表示ユニット上でユーザインタフェース602が占める表示範囲は、表示ユニット上でメディアコンテンツが占める表示範囲よりも小さくなり得る。更に、これらの実施例では、ユーザインタフェース602は、メディアアイテムの2次セット606を含ないことがある。詳細には、ユーザインタフェース602を介して表示されるメディアアイテムのみが、メディアアイテムの1次セット604であり得る。
[0099]
メディアアイテムの1次セット604及びメディアアイテムの2次セット606の表示された各メディアアイテムは、メディアタイプ、メディアタイトル、俳優、メディアのキャラクター、監督、メディアの公開日、メディアの所要時間、メディアのクオリティレーティング、メディアの人気率などのようなパラメータのパラメータ値と関連付けることができる。いくつかの実施例では、ユーザインタフェース602を介して、各メディアアイテムの1つ以上のパラメータ値を、各メディアアイテムに隣接して、又はその上にテキストとして表示することができる。
[0100]
本実施例では、1つ以上のメディアアイテムの2次セット606は、メディアアイテムの1次セット604に基づくことができる。詳細には、1つ以上のメディアアイテムの2次セット606は、共通の属性又はパラメータ値をメディアアイテムの1次セット604と共有することができる。図6Aに示すように、メディアアイテムの2次セット608はアクション映画であり得、メディアアイテムの2次セット610は、外国のアクション映画であり得る。したがって、この実施例では、メディアアイテムの1次セット604及び2次セット606は全て、アクション映画のメディアジャンルに関係することができる。他の実施例では、メディアアイテムの2次セット606は、以前のメディア検索要求、あるいは人気がある流行のメディアアイテム及びカテゴリーなどの他の情報から導き出されるパラメータ値に基づき得ることを認識されたい。
[0101]
プロセス500のブロック504で、ユーザ入力を検出することができる。ブロック502でメディアアイテムの1次セット604を表示する間に、ユーザ入力を検出することができる。いくつかの実施例では、メディアデバイスの遠隔制御(例えば、遠隔制御124)上で、ユーザ入力を検出することができる。詳細には、ユーザ入力は、ボタン(例えば、ボタン274)の押下など、遠隔制御とのユーザ対話、又は、遠隔制御のタッチ感知面(例えば、タッチ感知面278)の接触とすることができる。いくつかの実施例では、メディアデバイスと対話するように構成された第2の電子デバイス(例えば、デバイス122)を介して、ユーザ入力を検出することができる。ユーザ入力は、メディアデバイスのデジタルアシスタントの呼び出しと関連付けることができる。ユーザ入力を検出したことに応じて、ブロック506〜510のうちの1つ以上を実行することができる。
[0102]
プロセス500のブロック506で、オーディオ入力を受信することができる。オーディオ入力は、メディアに関係する要求を包含することができる。例えば、ブロック504でユーザ入力を検出したことに応じて、メディアデバイスのマイクロフォン(例えば、マイクロフォン272)を介して、オーディオ入力をサンプリングすることができる。サンプリングしたオーディオ入力は、ユーザ発言の形態のメディアに関係する要求を含むことができる。いくつかの実施例では、メディアアイテムの1次セット604の少なくとも一部分を表示している間に、メディアに関係する要求を包含するオーディオ入力を受信することができる。メディアに関係する要求は、自然言語形式とすることができる。いくつかの実施例では、メディアに関係する要求は曖昧であることがあり、要求を満たすために必要な情報の全てが明示的に定義されているわけではない。例えば、メディアに関係する要求は、「Jack Ryan」とすることができる。この実施例では、要求は、キャラクターJack Ryanに関する映画の新しいメディア検索要求であるか、又はキャラクターJack Ryanに基づいて現在表示されているメディアアイテムをフィルタリング要求であるかを、明示的には特定しない。
[0103]
いくつかの実施例では、メディアに関係する要求は、1つ以上の曖昧な用語を含むことがある。例えば、メディアに関係する要求は、「良いものはどれ?」とすることができる。この実施例では、メディアに関係する要求は、メディアアイテム(例えば、メディアアイテムの1次セット604及び/又は2次セット606)を指すことを意図する曖昧な用語「もの」が表示されていることを含む。更に、この実施例では、メディアに関係する要求は、曖昧な用語(例えば「良い」)を使用して、メディアアイテムのパラメータ値(例えば、ユーザ評価又は評論家評価)を定義する。
[0104]
メディアに関係する要求は、メディアアイテムに関連付けられた1つ以上のパラメータ値を定義することができる。メディアに関係する要求において定義することができるパラメータ値の例として、メディアタイプ、メディアタイトル、俳優、メディアのキャラクター、メディアの監督、メディアの公開日、メディアの所要時間、メディアのクオリティレーティング、メディアの人気率などを挙げられる。
[0105]
いくつかの実施例では、メディアに関係する要求は、メディア検索要求であり得る。いくつかの実施例では、メディアに関係する要求は、1次メディア検索クエリを訂正するという要求であり得る。他の実施例では、メディアに関係する要求は、ユーザインタフェース602上の表示されたメディアアイテム間をナビゲートするという要求であり得る。更に他の実施例では、メディアに関係する要求は、メディアデバイスのアプリケーションの状態又は設定を調整するという要求であり得る。
[0106]
本実施例では、オーディオ入力でメディアに関係する要求を受信するが、他の実施例では、メディアに関係する要求をテキスト入力として受信することができることを了解されたい。詳細には、オーディオ入力の代わりに、ブロック506で、キーボードインタフェースを介して、メディアに関係する要求を包含するテキスト入力を受信することができる。テキスト入力としてメディアに関係する要求を受信する実施例では、ブロック508を実行する必要はないことを認識されたい。そうではなく、ブロック510で、テキスト入力から1次ユーザ意図を直接判定することができる。
[0107]
プロセス500のブロック508で、メディアに関係する要求のテキスト表現を判定することができる。例えば、ブロック506で受信したオーディオ入力に対して発語テキスト化(STT)処理を実行することによって、テキスト表現を判定することができる。詳細には、STT処理モジュール(例えば、STT処理モジュール430)を使用して、オーディオ入力を処理して、オーディオ入力中のメディアに関係する要求をテキスト表現へと変換することができる。テキスト表現は、対応するテキスト文字列を表すトークン文字列とするができる。いくつかの実施例では、表示ユニット上に、テキスト表現を表示することができる。詳細には、ブロック506でオーディオ入力を受信している間に、リアルタイムでテキスト表現を表示することができる。
[0108]
STT処理中に1つ以上の言語モデルを使用して、テキスト表現を判定することができる。いくつかの実施例では、メディアに関係するテキスト結果に向かってSTT処理をバイアスさせることができる。具体的には、テキスト表現を判定するために使用される1つ以上の言語モデルを、メディアに関係するテキスト結果に向かってバイアスさせることができる。例えば、メディアに関係するテキストのコーパスを使用して、1つ以上の言語モデルをトレーニングすることができる。それに加えて、又は代替として、バイアスは、メディアに関係する候補テキスト結果をより重く重み付けすることによって実装することができる。このようにすると、バイアスしない場合よりも、バイアスをした場合に、メディアに関係する候補テキスト結果を高く評価することができる。バイアスは、メディアに関係する要求におけるメディアに関係する単語又はフレーズ(例えば、映画の名前、映画の俳優など)に対するSTT処理の精度を増大させるためには望ましいことがある。例えば、テキストの典型的なコーパスで、「Jurassic Park」、「Arnold Schwarzenegger」及び「Shrek」など、ある特定のメディアに関係する単語又はフレーズを稀に発見することができ、したがって、メディアに関係するテキスト結果に向かってバイアスすることなく、STT処理中に正常に認識されないことがある。
[0109]
上述したように、ブロック502で表示したメディアアイテムに関連付けられたテキスト(例えば、メディアアイテムの1次セット604、及びメディアアイテムの2次セット606)を、ユーザインタフェース602を介して表示することができる。テキストは、ユーザインタフェース602の各メディアアイテムの1つ以上の属性又はパラメータ値について説明することができる。例えば、メディアアイテムの1次セット604は、映画「Iron Man 3」に対応するメディアアイテムを含むことができる。この実施例では、表示したテキストは、タイトル「Iron Man 3」、俳優「Robert Downey Jr」及び「Gwyneth Paltrow」、並びに監督「Shane Black」を含むことができる。いくつかの実施例では、表示されたメディアアイテムに関連付けられた表示されたテキストを使用して、カスタム言語モデルを生成することができる。次いで、カスタム言語モデルを使用してSTT処理を実行して、テキスト表現を判定することができる。詳細には、テキスト表現を判定する時に、カスタム言語モデルからの候補テキスト結果に、他の言語モデルからの候補テキスト結果と比較して、より大きな重みを与えることができる。いくつかの実施例では、メディアアイテムの1次セット604及びメディアアイテムの2次セット606に関連付けられた全ての属性又はパラメータ値が、表示ユニット上にテキストとして表示されるわけではないことを認識されたい。また、これらの実施例では、表示ユニット上に表示されていないメディアアイテムの1次セット604及びメディアアイテムの2次セット606の属性又はパラメータ値のテキストを使用して、カスタム言語モデルを生成することができる。
[0110]
いくつかの実施例では、テキスト表現を使用して、予測テキストを判定することができる。例えば、テキスト表現中の単語の列に基づいて1つ以上の後続の単語を予測するために、言語モデルを使用することができる。オーディオ入力を受信している間に、予測テキストを判定することができる。更に、テキスト表現と共に、予測テキストを表示ユニット上に表示することができる。詳細には、ブロック506でオーディオ入力を受信している間に、リアルタイムで予測テキストを表示することができる。
[0111]
オーディオ入力のエンドポイントの検出に基づいて、予測テキストが、ユーザにより受け入れられ得る。いくつかの実施例では、ブロック504のユーザ入力が検出されなくなると、エンドポイントを検出することができる。他の実施例では、オーディオ入力の1つ以上のオーディオ特徴が所定の評価基準を満たさなくなった後、所定の継続期間において、エンドポイントを検出することができる。予測テキストの表示後にオーディオ入力のエンドポイントが検出されるどうかについて、判定を生成することができる。予測テキストの表示後にオーディオ入力のエンドポイントが検出されたという判定に従って、予測テキストがユーザにより受け入れられると判定することができる。詳細には、ブロック510で、テキスト表現及び受け入れられた予測テキストを使用して、1次ユーザ意図を判定することができる。
[0112]
いくつかの実施例では、テキスト表現を判定するために使用される1つ以上の言語モデルは、複数の言語におけるメディアに関係する用語を認識するように構成することができる。詳細には、メディアに関係する用語(例えば、メディアタイトル、俳優の名前など)は、様々な言語にわたって固有の翻訳を有することがある。例えば、俳優「Arnold Schwarzenegger」は、中国語では
[図10]
に対応し、ヒンズー語では
[図11]
に対応する。種々の言語におけるメディアに関係するテキストのコーパスを使用して、テキスト表現を判定するために使用される1つ以上の言語モデルをトレーニングすることができる。したがって、1つ以上の言語モデルは、種々の言語におけるメディアに関係する用語の対応する翻訳を認識するように構成することができる。
[0113]
プロセス500のブロック510で、メディアに関係する要求に対応する1次ユーザ意図を判定することができる。テキスト表現に対して自然言語処理を実行することによって、1次ユーザ意図を判定することができる。詳細には、自然言語処理モジュール(例えば、自然言語処理モジュール432)を使用して、テキスト表現をパース及び処理して、メディアに関係する要求に対応する複数の候補ユーザ意図を判定することができる。確率に従って候補ユーザ意図をランク付けすることができ、最も高い確率を有する候補ユーザ意図を1次ユーザ意図であると判定することができる。
[0114]
1次ユーザ意図を判定することは、テキスト表現に関連付けられた、関連するドメイン又は実施可能な意図を判定することを含むことができる。いくつかの実施例では、ブロック510で、メディアに関係する要求に関連付けられたメディアのタイプを判定することができ、メディアに関係する要求に関連付けられた判定されたメディアタイプに基づいて、関連するドメイン又は実施可能な意図を判定することができる。例えば、メディアに関係する要求「James Bond」に基づいて、メディアタイプは、「映画/テレビショー」であると判定することができ、対応する実施可能な意図又はドメインは、「映画/テレビショーを見つける」であると判定することができる。この実施例では、メディアに関係する要求は、メディアのタイプ「映画/テレビショー」に従って、「James Bond」のメディア検索を実行することによって達成することができる。具体的には、メディアのキャラクター「James Bond」について、映画及びテレビのデータベースを検索して、メディアに関係する要求を達成することができる。他の実施例では、メディアに関係する要求「Taylor Swift」に基づいて、メディアのタイプは、「音楽」であると判定することができ、対応する実施可能な意図又はドメインは、「音楽を見つける」であると判定することができる。この実施例では、メディアに関係する要求は、歌手「Taylor Swift」についての音楽データベースを検索すること(例えば、iTunes(登録商標)音楽サービス上で検索を実行すること)によって達成することができる。
[0115]
いくつかの実施例では、1次ユーザ意図を判定するための自然言語処理を、メディアに関係するユーザ意図に向かってバイアスさせることができる。詳細には、自然言語処理モジュールは、オントロジ内のメディアに関係するノードをトリガするメディアに関係する語及びフレーズ(例えば、メディアタイトル、メディアジャンル、俳優、MPAAフィルム−レーティングラベルなど)を特定するようにトレーニングすることができる。例えば、自然言語処理モジュールは、映画のタイトルとして、テキスト表現のフレーズ「Jurassic Park」を特定することができ、その結果、メディアアイテムを検索するという実施可能な意図に関連付けられたオントロジ内の「メディア検索」ノードをトリガすることができる。いくつかの実施例では、オントロジ内のノードをメディアに関係するノードの所定のセットに限定することによって、バイアスを実施することができる。例えば、メディアに関係するノードのセットは、メディアデバイスのアプリケーションに関連付けられたノードであり得る。更に、いくつかの実施例では、メディアに関係していない候補ユーザ意図よりも重くメディアに関係する候補ユーザ意図を重み付けすることによって、バイアスを実施することができる。
[0116]
いくつかの実施例では、1次ユーザ意図は、別個のデバイス(例えば、DAサーバ106)から取得することができる。詳細には、自然言語処理を実行するために、オーディオデータを別個のデバイスに送信することができる。これらの実施例では、メディアデバイスは、(例えば、サンプリングされたオーディオデータと共に別個のデバイスに送信されるデータを介して)サンプリングされたオーディオデータがメディアアプリケーションと関連付けられた別個のデバイスを示すことができる。このように示すことにより、メディアに関係するユーザ意図に向かって自然言語処理をバイアスすることができる。
[0117]
自然言語処理モジュールは、種々の言語及び領域において、メディアに関係する用語の意味を特定するように更にトレーニングことができる。例えば、自然言語処理モジュールは、「Arnold Schwarzenegger」、
[図12]
全てが、同じ俳優を指すことを認識することができる。更に、映画のタイトルは、異なる言語及び領域にわたって変わることがある。例えば、米国の映画「Live Free or Die Hard」は、英国において「Die Hard 4.0」というタイトルである。別の例では、米国の映画「Top Gun」は、イスラエルでは「Love in the Skies」というタイトルである。したがって、自然言語処理モジュールは、英語の「Top Gun」とヘブライ語の「Love in the Skies」は共に、同じ映画を指すことを識別するように構成することができる。
[0118]
いくつかの実施例では、自然言語処理モジュールは、メディアに関係する要求中の曖昧な用語に基づいて、意図されたパラメータ値を特定するように構成することができる。詳細には、自然言語処理モジュールは、曖昧な用語と1つ以上のパラメータ値との間の接続強度(例えば、関連性、顕著性、意味上の類似性など)を判定することができる。曖昧な用語に対して最も強い接続を有するパラメータ値を、意図されたパラメータ値であると判定することができる。例えば、メディアに関係する要求は、「良いものを見せて」とすることができる。用語「良い」は、特定のパラメータ値を明示的には定義しないので曖昧とすることができる。この例では、用語「良い」に対する接続強度に基づいて、自然言語処理モジュールは、「良い」が、所定の値よりも高い平均的なユーザの評価のパラメータ値を指すと判定することができる。
[0119]
いくつかの実施例では、1次ユーザ意図を判定する前に、仮のユーザ意図を判定することができる。仮のユーザ意図は、ブロック506で受信した(オーディオ全体入力でなく)オーディオ入力の一部分を使用して、実施可能な意図又はドメインを判定することを含むことができる。仮のユーザ意図を判定するためのプロセスは、1次ユーザ意図を判定することよりもロバストではなく、したがって、より高速であり得る。これにより、オーディオ入力を依然として受信している間に、仮のユーザ意図を判定することを可能にすることができる。仮のユーザ意図を判定することは、メディアに関係する要求を満たすために必要なデータをプリフェッチすることを可能化し、それにより、デジタルアシスタントの応答時間を低減することができる。例えば、メディアに関係する要求は、「午後7時には何がある?(What's on at 7PM?)」とすることができる。この要求の第1の部分「...時には何がある(What's on...))」に基づいて、仮のユーザ意図が「チャンネルプログラミングの検索」であると判定することができる。この仮のユーザ意図に基づいて、この仮のユーザ意図を満たすために必要なデータを特定することができる。詳細には、ユーザが利用可能なチャンネルを判定するためには、ユーザのサブスクリプション情報が必要となると判定することができる。次いで、それらのチャンネルに対応するプログラミングを判定することができる。デジタルアシスタントは最初に、必要なデータがメディアシステム又はデジタルアシスタントサーバに既に記憶されているどうかを判定することができる。仮のユーザ意図の判定時に、メディアシステム又はデジタルアシスタントサーバにデータが記憶されているという判定に従って、1次ユーザ意図を判定している間にデータを取り出すことができる。仮のユーザ意図の判定時に、メディアシステム又はデジタルアシスタント上にデータが記憶されていないという判定に従って、1次ユーザ意図を判定している間に、必要なデータを取得することができる。例えば、デジタルアシスタントは、ユーザの操作なしに、ユーザのサブスクリプションサービスプロバイダと自動的に通信し、ユーザが利用可能なチャンネルを取り出すことができる。
[0120]
図5Aに示したように、プロセス500のブロック510は、ブロック512〜518のうちの1つ以上を含むことができる。プロセス500のブロック512で、1次ユーザ意図は、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかについて、判定を行うことができる。換言すると、ブロック510で、ブロック506のメディアに関係する要求が、依然に受信したメディア検索要求を絞り込む要求であるかどうかを判定することができる。いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1次メディア検索クエリを絞り込むユーザ意図に対応する所定の単語又はフレーズを含むかどうかを判定することを含むことができる。所定の単語又はフレーズは、複数の絞り込み用語のうちの1つを含むことができる。例えば、所定の単語又はフレーズは、メディア検索要求よりも前に受信した以前のメディア検索要求を絞り込む明示的な要求を示すことができる。更に、いくつかの実施例では、メディアに関係する要求中の所定の単語又はフレーズの位置(例えば、メディアに関係する要求の文頭にあるか、中間にあるか、又は文末にあるか)に基づいて、判定を行うことができる。
[0121]
図6B〜図6Cに示した例では、メディアに関係する要求は、「Jack Ryanに関するもののみ(Just the ones with Jack Ryan)」とすることができる。このメディアに関係する要求に対応するテキスト表現612を自然言語処理中にパースして、メディアに関係する要求が1次メディア検索クエリを絞り込むユーザ意図に対応する所定の単語又はフレーズを含むかどうかを判定することができる。1次メディア検索クエリを絞り込むユーザ意図に対応する所定の単語又はフレーズの例として、「のみ(just)」、「だけ(only)」、「でフィルタリングする(filter by)」、「するもの(which ones)」などを挙げるができる。この実施例では、メディアに関係する要求の文頭に位置する所定の単語「のみ(just)」に基づいて、1次ユーザ意図が、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えると判定することができる。具体的には、1次ユーザ意図がキャラクターJack Ryanに関するメディアアイテムだけを含めるために、直近10年間に公開されたアクション映画の検索を絞り込むことであると判定することができる。1次ユーザ意図は、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかについて判定するために、他の技術を実施できることを認識されたい。更に、1次ユーザ意図は、ブロック506のメディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求に対応する1つ以上の以前のユーザ意図に基づくことができる。
[0122]
1次ユーザ意図が、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、ブロック520〜534のうちの1つ以上を実行することができる。
[0123]
プロセス500のブロック520で、1次ユーザ意図を満たすために、メディアアイテムの第2の1次セット612を取得することができる。ブロック520は、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することを含むことができる。第2の1次メディア検索クエリは、メディアに関係する要求(例えば、「Jack Ryanに関するもののみ」)及び1次メディア検索クエリ(例えば、「直近10年間のアクション映画」)に基づくことができる。具体的には、第2の1次メディア検索クエリは、パラメータ値のセットを含むことができる。パラメータ値のセットは、メディアに関係する要求中で定義された1つ以上のパラメータ値、及び1次メディア検索クエリの1つ以上のパラメータ値を含むことができる。例えば、第2の1次メディア検索クエリは、メディアタイプが「映画」であり、メディアジャンルが「アクション」であり、公開日が「直近10年」であり、メディアのキャラクターが「Jack Ryan」であるメディアアイテムを検索するクエリとすることができる。代替的には、第2の1次メディア検索クエリは、メディアアイテムの1次セット604をフィルタングし、メディアのキャラクターが「Jack Ryan」であるメディアアイテムのセット604内のメディアアイテムだけを特定するというクエリとすることできる。第2の1次メディア検索クエリは、1次ユーザ意図に基づいて、自然言語処理モジュール(例えば、自然言語処理モジュール432)により生成することができる。
[0124]
ブロック520は、メディアアイテムの第2の1次セット612を取得するために、第2の1次メディア検索クエリを実行することを更に含むことができる。第2の1次メディア検索クエリは、第2の1次メディア検索クエリのパラメータ値要件を満たすメディアアイテムについて、1つ以上のメディアデータベースを検索することによって実行することができる。メディアアイテムの第2の1次セットの各メディアアイテムは、パラメータ値のセットと関連付けることができる。パラメータ値のセットは、1次メディア検索クエリ中の1つ以上のパラメータ値、及びブロック506のメディアに関係する要求中で定義された1つ以上のパラメータ値を含むことができる。更に、メディアアイテムの第2の1次セット612の各メディアアイテムは、関連性スコアと関連付けることができる。関連性スコアは、メディアアイテムが1次ユーザ意図を満たす尤度を示すことができる。例えば、より高い関連性スコアは、メディアアイテムが1次ユーザ意図を満たすより高い尤度を示すことができる。第2の1次メディア検索クエリは、タスクフロー処理モジュール(例えば、タスクフロー処理モジュール436)により実行することができる。
[0125]
以前に受信した(例えば、キーボードインタフェースを介して受信した)メディア検索要求に基づいて文字列検索を実行することによって、メディアアイテムの1次セット604を取得する実施例では、メディアに関係する要求中で定義されたパラメータ値要件(例えば、「Jack Ryan」)を満たすメディアアイテムについて、メディアアイテムの1次セット604を検索することによって、第2の1次メディア検索クエリを実行することができる。詳細には、最初に、メディアアイテムの1次セット604に関連付けられたパラメータ値を取得することができる。次いで、取得したパラメータ値を使用し、かつ、メディアに関係する要求中で定義されたパラメータ値に基づいて、構造化された検索を実行することによって、メディアアイテムの第2の1次セット612を取得することができる。
[0126]
プロセス500のブロック522で、表示ユニット上に、ユーザインタフェース602を介してメディアアイテムの第2の1次セット612を表示することができる。詳細には、図6Cに示したように、表示ユニット上のメディアアイテムの1次セット604の表示を、メディアアイテムの第2の1次セット612の表示と入れ替えることができる。各メディアアイテムに関連付けられた関連性スコアに従って、メディアアイテムの第2の1次セット612を表示することができる。例えば、図6Cを参照すると、ユーザインタフェース602上の左から右へと関連性スコアの高い順にメディアアイテムの第2の1次セット612を配列することができる。
[0127]
プロセス500のブロック524で、メディアアイテムの追加セットを取得することができる。1次ユーザ意図に関係し得る代替ユーザオプションを提供するために、メディアアイテムの追加セットを取得することができる。図5Bに示したように、ブロック524は、ブロック526〜532を含むことができる。
[0128]
プロセス500のブロック526で、メディアアイテムの第2の1次セット612に関連付けられたパラメータ値のコアセットを特定することができる。パラメータ値のコアセットは、第2の1次メディア検索クエリ中のパラメータ値のセットから特定することができる。詳細には、パラメータ値のセット中の顕著でないパラメータ値を特定し、それを無視することができる。顕著でないパラメータ値を無視した後のパラメータ値のセットの残りのパラメータ値を、パラメータ値のコアセットとして特定することができる。顕著でないパラメータ値は、例えば、メディアの公開日の範囲、メディアタイプ、メディアの供給元、メディアのクオリティレーティング、無料又は有料のメディア、ライブ又はオンデマンドのメディアなどのような所定のパラメータ値であることができる。パラメータ値のコアセットは、パラメータ値のセットよりも少数のパラメータ値を有することができる。
[0129]
図6Cの実施例では、第2の1次メディア検索クエリ中のパラメータ値のセットは、パラメータ値「アクション映画」、「直近10年間」及び「Jack Ryan」を含む。この実施例では、パラメータ値「直近10年間」を、顕著でないパラメータ値(例えば、メディアの公開データ範囲)として特定し、除外することができる。したがって、残りのパラメータ値「アクション映画」及び「Jack Ryan」を、パラメータ値のコアセットとして特定することができる。
[0130]
プロセス500のブロック528で、1つ以上の追加のパラメータ値を特定することができる。ユーザのメディア消費興味を反映する可能性がある情報に基づいて、1つ以上の追加のパラメータ値を特定することができる。例えば、ユーザのメディア選択履歴、ユーザのメディア検索履歴又はユーザのウォッチリストのメディアアイテムに基づいて、1つ以上の追加のパラメータ値を特定することができる。それに加えて、又は代替として、メディアデバイスのユーザの間で現在最も人気があるメディアアイテムのパラメータ値を示すことができる、複数のユーザのメディア選択履歴に基づいて、1つ以上の追加のパラメータ値を特定することができる。いくつかの実施例では、1つ以上の追加のパラメータ値を特定する方法は、ブロック560で説明した他の関連するパラメータ値を判定する方法と同様とすることができる。
[0131]
図6Cの実施例に戻ると、Ben Affleckが主演したアクション映画は、メディアデバイスのユーザの間で人気があると判定することができる。更に、Ben Affleckが主演した映画をユーザが最近検索又は選択したと判定することができる。したがって、この実施例では、「Ben Affleck」は、1つ以上の追加のパラメータ値のうちのパラメータ値として特定することができる。
[0132]
プロセス500のブロック530で、1つ以上の追加のメディア検索クエリを生成することができる。追加のメディア検索クエリは、ブロック526で特定したパラメータ値のコアセットに基づくことができる。更に、追加のメディア検索クエリは、ブロック528で特定した1つ以上の追加のパラメータ値に基づくことができる。例えば、図6Cでは、1つ以上の追加のメディア検索クエリは、Jack Ryanに関するアクション映画(パラメータ値のコアセット)の検索と、Ben Affleckが主演したアクション映画(ブロック528で特定した追加のパラメータ値)の検索とを含むことができる。
[0133]
ブロック526〜530は、自然言語処理モジュール(例えば、自然言語処理モジュール432)により実行することができる。詳細には、自然言語処理モジュールは、(ブロック526で)パラメータ値のコアセットを特定し、(ブロック528で)1つ以上の追加のメディア検索クエリを特定して、1つ以上の追加のユーザ意図を判定することができる。自然言語処理モジュールは、次いで、1つ以上の追加のユーザ意図に基づいて、1つ以上の追加のメディア検索クエリ(例えば、図4Bを参照して上述した構造化されたクエリ)を生成することができる。
[0134]
プロセス500のブロック532で、ブロック530の1つ以上の追加のメディア検索クエリを実行することができる。例えば、追加のメディア検索クエリを満たすメディアアイテムについて、1つ以上のメディアデータベースを検索することによって、1つ以上の追加のメディア検索クエリを実行することができる。使用するメディアデータベースは、検索するメディアタイプに基づくことができる。例えば、音楽に関するメディア検索クエリには、音楽データベースを使用することができ、音楽/テレビショーに関するメディア検索クエリには、映画/テレビショーデータベースを使用することができる。したがって、ブロック530の1つ以上の追加のメディア検索クエリの実行から、1つ以上のメディアアイテムの追加セット614を取得することができる。具体的には、図6Cでは、Jack Ryanに関するアクション映画の検索から、メディアアイテムの追加セット616(例えば、映画「Patriot Games」、「Clear and Present Danger」など)取得することができ、Ben Affleckが主演したアクション映画の検索から、メディアアイテムの追加セット618(例えば、映画「The Sum of All Fears」、「Daredevil」など)を取得することができる。ブロック532は、タスクフロー処理モジュール(例えば、タスクフロー処理モジュール436)により実行することができる。
[0135]
上述したブロック524のいくつかの態様は、ブロック546又は562に同様に当てはめることができる。
[0136]
プロセス500のブロック534で、表示ユニット上に1つ以上のメディアアイテムの追加セットを表示することができる。例えば、図6Cに示したように、ユーザインタフェース602を介して、メディアアイテムの追加セット616及び618を表示することができる。メディアアイテムの追加セット616及び618は、ユーザの興味を引く可能性がある追加のオプションをユーザに提供する役割を果たすことができる。これは、ユーザが、別の検索を要求することなく、消費のためのメディアアイテムを発見及び選択するという尤度を増大させるために望ましいことがあり、それにより、ブラウジング時間を低減し、ユーザエクスペリエンスを向上させることができる。
[0137]
メディアアイテムのセットを表示するやり方は、それぞれのユーザ意図がユーザの実際の意図に対応するという尤度を反映することができる。例えば、図6Cに示したように、メディアアイテムの第2の1次セットは、1次ユーザ意図(実際のユーザ意図を反映する可能性が最も高いユーザ意図)に関連付けられ、ユーザインタフェース602の最上行に表示される。1つ以上のメディアアイテムの追加セット616及び618は、追加のユーザ意図(実際のユーザ意図を反映する可能性が低いユーザ意図)に関連付けられ、最上行よりも下の、ユーザインタフェース602の1つ以上の後続行に表示される。更に、メディアアイテムの追加セット616に関連付けられた追加のユーザ意図は、メディアアイテム618の追加セットに関連付けられた追加のユーザ意図よりも、実際のユーザ意図を反映する可能性が高くなり得る。したがって、この実施例では、メディアアイテムの追加セット618は、メディアアイテムの追加セット616よりも下の行に表示され得る。本実施例では、メディアアイテムのセットは行に表示されるが、他の実施例では、他の表示構成を実施できることを認識されたい。
[0138]
ブロック512を再び参照すると、1次ユーザ意図が1次メディア検索クエリを絞り込むユーザ意図を備えないという判定に従って、ブロック514〜518又は536〜548のうちの1つ以上を実行することができる。
[0139]
プロセス500のブロック514で、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を備えるかどうかについて、判定を行うことができる。いくつかの実施例では、メディアに関係する要求中の明示的な単語又はフレーズに基づいて、判定を行うことができる。具体的には、新たなメディア検索クエリを実行するユーザ意図に対応する単語又はフレーズをディアに関係する要求が含むかどうかを判定することができる。単語又はフレーズは、「見せて(Show me)」、「見つけて(Find)」、「検索して(Search for)」、「に関する他の映画(Other movies with)」などの所定の単語とすることができる。更に、いくつかの実施例では、メディアに関係する要求中の所定の単語又はフレーズの位置(例えば、メディアに関係する要求の文頭、中間、又は文末)に基づいて、判定を行うことができる。特定の実施例では、メディアに関係する要求は、「Jack Ryanの映画をいくつか見せて(Show me some Jack Ryan movies)」とすることができる。メディアに関係する要求の文頭にある単語「見せて(Show me)」に基づいて、1次ユーザ意図が、Jack Ryanに関する映画についての新たなメディア検索クエリを実行するものであると判定することができる。
[0140]
ユーザ意図を示している明示的な単語又はフレーズ(例えば、「見せて(Show me)」、「見つけて(Find)」、「検索して(Search for)」など)がない場合には、ブロック514の判定は、1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズに基づくことができる。例えば、図6Dに示したように、メディアに関係する要求は、「Jack Ryan」とすることができる。この実施例では、メディアに関係する要求は、ユーザ意図が1次メディア検索クエリを絞り込む、又は新たな検索を実行するものであるかどうかの明示的な指示を含まない。しかしながら、デジタルアシスタントは、「Jack Ryan」が、1つ以上のメディアアイテムのパラメータ値に対応すると認識することができる。具体的には、「Jack Ryan」は、いくつかの電子書籍及び映画に関連付けられたメディアのキャラクターであると判定することができる。これらのパラメータ値に基づいて、1次ユーザ意図は、キャラクターJack Ryanに関する電子書籍及び映画についての新たなメディア検索クエリを実行するものであると判定することができる。1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズの他の例として、「Tom Cruise」、「Jurassic Park」、「Spy movies」、「Sean Connery」、「Cartoons」、「Frozen」などを挙げることができる。
[0141]
1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を備えるという判定に従って、ブロック536〜548のうちの1つ以上を実行することができる。プロセス500のブロック536で、1次ユーザ意図に従って、メディアアイテムの第3の1次セットを取得することができる。ブロック536は、ブロック520と同様とすることができる。詳細には、ブロック536は、メディアに関係する要求に基づいて第3の1次メディア検索クエリを生成することを含むことができる。第3の1次メディア検索クエリは、新たなメディア検索クエリを実行する1次ユーザ意図に対応することができる。具体的には、第2の1次メディア検索クエリは、メディアに関係する要求中で定義された1つ以上のパラメータ値を含むことができる。例えば、図6Dを参照すると、生成した第3の1次メディア検索クエリは、メディアのキャラクター「Jack Ryan」に関するメディアアイテムを検索するクエリとすることができる。
[0142]
ブロック536は、メディアアイテムの第3の1次セット620を取得するために、第3の1次メディア検索クエリを実行することを更に含むことができる。第3の1次メディア検索クエリは、第3の1次メディア検索クエリのパラメータ値要件を満たすメディアアイテムについて、1つ以上のメディアデータベースを検索することによって実行することができる。メディアアイテムの第3の1次セット620の各メディアアイテムは、メディアに関係する要求中で定義された1つ以上のパラメータ値を含むことができる。具体的には、本実施例では、メディアアイテムの第3の1次セット620の各メディアアイテムは、メディアのキャラクターとして「Jack Ryan」を含むことができる。
[0143]
いくつかの実施例では、メディアに関係する要求に関連付けられたメディアタイプに従って、第3の1次メディア検索クエリを実行することができる。上述したように、1次ユーザ意図を判定している間に、ブロック510で、メディアに関係する要求に関連付けられたメディアタイプを判定することができる。第3の1次メディア検索クエリを実行するために使用されるアプリケーション又はデータベースは、判定したメディアタイプに固有であり得る。1つの実施例では、メディアタイプが音楽であると判定した場合には、例えば、映画データベースではなく、音楽検索アプリケーション及び/又は音楽データベース(例えば、iTunes(登録商標)storeアプリケーション)を使用して、第3の1次メディア検索クエリを実行することができる。
[0144]
いくつかの実施例では、メディアに関係する要求は、2つ以上のメディアタイプと関連付けることができる。例えば、メディアに関係する要求「Frozen」は、映画/テレビショー、音楽(例えば、サウンドトラック)及び電子書籍などのいくつかのメディアタイプ)と関連付けることができる。第3の1次メディア検索クエリを実行すると、1つ以上のメディアデータベースから、種々のメディアタイプに関連付けられた複数のメディアアイテムを取得することができる。各メディアアイテムは、関連性スコアと関連付けることができる。関連性スコアは、第3の1次メディア検索クエリに関してそれぞれのメディアアイテムがどれくらい関連するかについて示すことができる。更に、関連性スコアは、候補メディアアイテムが取得されたメディアデータベースに固有であり得る。いくつかの実施例では、異なるデータベースからのメディアアイテムを同じ基準に基づいて比較するために、複数の候補メディアアイテムの正規化されたランク付けを実行することができる。詳細には、1つ以上のメディアデータベースにわたって関連性スコアを正規化することができ、正規化した関連性スコアを使用して、候補メディアアイテムの正規化されたランク付けを実行することができる。例えば、汎用的なメディア検索アプリケーション又はデータベース(例えば、Apple(登録商標)OS X又はiOS(商標)のスポットライト)を使用して、第3の1次メディア検索クエリを実行することができる。汎用的なメディア検索アプリケーション又はデータベースは、デジタルアシスタントの外部のサービスとすることができる。汎用的なメディア検索アプリケーション又はデータベースを使用して、種々のソース又はデータベース(例えば、iTunes(登録商標)store、App store、iBook(登録商標)、ユーザのデバイスに記憶されたメディアアイテムなど)から関連するメディアアイテムを取得することができ、正規化された関連性スコアに基づいて、関連するメディアアイテムをランク付けすることができる。次いで、ユーザが選択するために、ブロック540での正規化されたランク付けに従って、メディアアイテムを順序付けし、表示することができる。
[0145]
メディアアイテムの第3の1次セットを取得するために使用された1つ以上のデータベースは、種々のソースから導き出された情報を含むことができる。いくつかの実施例では、1つ以上のデータベースは、1つ以上のメディア批評家のレビューからの情報を含むことができる。メディア批評家のレビューは、例えば、プロのメディア批評家、ジャーナリスト、ブロガー、ソーシャルメディアサービスのユーザなどが書くことができる。例示的な実施例では、1つ以上のメディア批評家レビューは、「Bullitt」、「The Bourne Identity」又は「Fast Five」のような映画について説明するために、「カーチェイス」などのフレーズを含むことがある。1つ以上のメディア批評家のレビューから、パラメータ値としてフレーズ「カーチェイス」を抽出することができ、このパラメータ値は、メディアデータベースのこれらの映画のうちの1つ以上と関連付けることができる。したがって、メディアに関係する要求「良いカーチェイスに関する映画を見せて」については、生成された対応する第3の1次メディア検索クエリは、パラメータ値「カーチェイス」に関する映画の検索とすることができる。したがって、1つ以上のデータベースを検索すると、「Bullitt」、「The Bourne Identity」又は「Fast Five」などの候補メディアアイテムを取得することができる。
[0146]
他の実施例では、1つ以上のデータベースは、種々の映画、ビデオ又はテレビショーのクローズドキャプションから導き出された情報を含むことができる。詳細には、クローズドキャプションに基づいて、1つ以上のパラメータ値を抽出することができる。例えば、「Bullitt」、「The Bourne Identity」又は「Fast Five」などの映画のクローズドキャプションは、カーチェイスに関連付けられた音を示す、キャプション[タイヤスクリーミング(Tire screeching)]のいくつかの例を含むことができる。このキャプションに基づいて、これら映画のうちの1つ以上がメディアデータベース中のパラメータ値「カーチェイス」と関連付けられ得る。したがって、第3の1次メディア検索クエリを実行した時に、このパラメータ値に関連付けられる候補メディアアイテム(例えば、「Bullitt」、「The Bourne Identity」、「Fast Five」など)を特定することができる。
[0147]
いくつかの実施例では、メディアに関係する要求は、ユーザインタフェース602がその上にフォーカスしたメディアアイテムに基づくメディア検索要求であり得る。例えば、ブロック506で、メディアに関係する要求を受信している間、メディアアイテム611上にユーザインタフェース602のカーソル609が位置することがある。メディアに関係する要求が、メディアアイテム611と類似するメディアアイテムの代替セットを取得する要求であるかどうかについて、判定を行うことができる。1つの例では、メディアに関係する要求は、「これにもっと似ているもの(More like this)」であり得る。この例では、カーソル609の位置のコンテキストに基づいて、「これ(this)」はメディアアイテム611を指すと判定することができる。したがって、メディアに関係する要求が、メディアアイテム611と類似するメディアアイテムの代替セットを取得するという要求であると判定することができる。メディアに関係する要求が、メディアアイテム611と類似するメディアアイテムの代替セットを取得するという要求である判定したことに応じて、ブロック536で、メディアアイテムの第3の1次セットを取得することができ、メディアアイテムの第3の1次セットの各メディアアイテムは、メディアアイテム611の1つ以上のパラメータ値を含む。例えば、1つの例では、メディアアイテム611は、外国のアクション映画「Crouching Tiger,Hidden Dragon」であり得る。この例では、取得したメディアアイテムの第3の1次セットは、この映画の1つ以上のパラメータ値を共有するメディアアイテムを含むことができる。詳細には、取得したメディアアイテムの第3の1次セットは、例えば、Ang Leeが監督した映画を含むことができ、武術シーンを含むことができ、あるいはChow Yun−Fat、Michelle Yeoh又はZhang Ziyiが主演していてもよい。
[0148]
上述したブロック536のいくつかの態様は、ブロック520、524、546、562又は566に同様に当てはめることができる。
[0149]
プロセス500のブロック538で、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得することができるかどうかについて、判定を行うことができる。ブロック536で第3の1次メディア検索クエリを実行すると、検索クエリから取得される(又は、取得可能である)メディアアイテムの数を判定することができる。取得されるメディアアイテムの数が1つ以上の場合、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できると判定することができる。例えば、メディアに関係する要求「Jack Ryan」についての第3の1次メディア検索クエリは、少なくとも映画「Patriot Games」及び「Clear and Present Danger」を戻すことができる。したがって、この実施例では、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できると判定することができる。第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるという判定に従って、ブロック540を実行することができる。以下の説明で明白になるように、ブロック536で実行した第3の1次メディア検索クエリについて、少なくとも1つのメディアアイテムが取得されることを保証するために、ブロック538での判定が望ましいことがある。これにより、メディア検索要求について、メディアアイテムが1つも表示されない状況を防止することができ、別のメディア検索要求を提供しなければならないユーザの手間を省くことができ、ユーザエクスペリエンスが改善する。
[0150]
プロセス500のブロック540で、表示ユニット上に、ユーザインタフェース602を介してメディアアイテムの第3の1次セット620を表示することができる。詳細には、図6Eに示したように、表示ユニット上のメディアアイテムの1次セット604の表示を、メディアアイテムの第3の1次セット620の表示と入れ替えることができる。ブロック540は、ブロック522と同様とすることができる。各メディアアイテムに関連付けられた関連性スコアに従って、メディアアイテムの第3の1次セット620を表示することができる。例えば、図6Eを参照すると、ユーザインタフェース602上の左から右へと関連性スコアの高い順にメディアアイテムの第3の1次セット612を配列することができる。
[0151]
ブロック538を再び参照すると、いくつかの実施例では、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できないと判定することがある。例えば、STT処理によるメディアに関係する要求又は対応するテキスト表現は、誤ったパラメータ値、又はユーザが実際に意図するものとは異なるパラメータ値を定義することがある。1つのそのような例では、図6Fに示すように、メディアに関係する要求は、「Jackie Chan及びChris Rucker(Jackie Chan and Chris Rucker)」であり得る。この例では、このメディアに関係する要求に対応する第3の1次メディア検索クエリを実行することでは、メディアアイテムが取得されないことがあり、したがって、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できないと判定することができる。他の例では、メディアに関係する要求は、「Jackie Chan」及び「Spiderman」、又は「写実的な暴力(Graphic violence)」及び「小児に適した(suitable for young children)」など、両立しないパラメータを定義することがある。第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できないという判定に従って、ブロック542〜548を実行して、ユーザの実際の意図を満たす可能性がある代替結果をユーザに提示することができる。
[0152]
プロセス500のブロック542で、第3の1次メディア検索クエリの最も妥当性が低いパラメータ値を特定することができる。詳細には、パラメータ値を有するメディアアイテムの人気、以前のメディア検索要求におけるパラメータ値の出現頻度、又はメディアアイテムの母集団におけるパラメータ値の出現頻度などの因子に基づいて、第3の1次メディア検索クエリ中の各パラメータ値の顕著性スコアを判定することができる。最も妥当性が低いパラメータ値を、顕著性スコアが最も低いパラメータ値として特定することができる。例えば、パラメータ値「Jackie Chan」と「Chris Rucker」との間では、Chris Ruckerはフットボール選手であるが、Jackie Chanは人気俳優であるので、パラメータ値「Chris Rucker」は、より低い顕著性スコアを有し得る。したがって、Jackie Chanは、Chris Ruckerよりも多数のメディアアイテム及び以前のメディア検索クエリと関連付けることができる。したがって、この例では、パラメータ値「Chris Rucker」は、最も妥当性の低いパラメータ値であると判定することができる。
[0153]
プロセス500のブロック544で、1つ以上の代替パラメータ値を特定することができる。特定された最も妥当性の低いパラメータ値に基づいて、1つ以上の代替パラメータ値を判定することができる。例えば、データ構造中の特定された最も妥当性の低いパラメータ値と複数のメディアに関係するパラメータ値との間で、ファジー文字列マッチングを実行することができる。詳細には、所定のしきい値内の編集距離が最も短いデータ構造中のパラメータ値を、代替パラメータ値であると判定することができる。例えば、パラメータ値「Chris Rucker」のファジー文字列マッチングに基づいて、パラメータ値「Chris Tucker」は、データ構造中の複数のメディアに関係するパラメータ値の中で編集距離が最も短いと判定することができる。したがって、この例では、パラメータ値「Chris Tucker」を、代替パラメータ値であると判定することができる。
[0154]
それに加えて、又は代替として、第3の1次メディア検索クエリ中の他のパラメータ値(例えば、最も妥当性の低いパラメータ値以外のパラメータ値)に基づいて、1つ以上の代替パラメータ値を判定することができる。詳細には、第3の1次メディア検索クエリ中の他のパラメータ値に密接に関係するパラメータ値を判定することができる。例えば、「アクション映画」及び「武術」などのパラメータ値は、「アクション映画」及び「武術」のパラメータ値を同じく有する、「Jackie Chan」が主演した複数のメディアアイテムの存在に基づいて、パラメータ値「Jackie Chan」に密接に関係していると判定することができる。
[0155]
プロセス500のブロック546で、1次ユーザ意図を満たすために、メディアアイテムの第4の1次セットを取得することができる。ブロック546は、ブロック520と同様とすることができる。詳細には、1つ以上の代替1次メディア検索クエリを生成することができる。ブロック544で判定された1つ以上の代替パラメータ値を使用して、1つ以上の代替1次検索クエリを生成することができる。例えば、メディアに関係する要求が「Jackie Chan及びChris Rucker」であり、代替パラメータ値が「Chris Tucker」であると判定される図6F〜図6Gにおいて、代替1次検索クエリは、パラメータ値「Jackie Chan」及び「Chris Tucker」用いたメディアアイテムの検索とすることができる。したがって、この実施例では、最も妥当性の低いパラメータ値を、ユーザの実際の意図を反映する可能性がより高い代替パラメータ値により置換することができる。次いで、1つ以上の代替1次メディア検索クエリを実行して、メディアアイテムの第4の1次セット628を取得することができる。パラメータ値「Jackie Chan」及び「Chris Tucker」を用いてメディアアイテムを検索する本実施例では、メディアアイテムの第4の1次セット628は、「Rush Hour」、「Rush Hour 2」又は「Rush Hour 3」などの映画を含むことができる。
[0156]
プロセス500のブロック548で、表示ユニット上に、ユーザインタフェース602を介してメディアアイテムの第4の1次セット628を表示することができる。ブロック548は、ブロック522と同様とすることができる。詳細には、図6Gに示したように、表示ユニット上のメディアアイテムの1次セット604の表示を、メディアアイテムの第4の2次セット628の表示と入れ替えることができる。
[0157]
プロセス500のブロック550で、1つ以上の以前のユーザ意図が存在するかどうかについて、判定を行うことができる。1つ以上の以前のユーザ意図は、ブロック506のメディアに関係する要求よりも前に受信した、1つ以上の以前のメディアに関係する要求に対応することができる。以前のメディアに関係する要求の例は、ブロック502の1次メディア検索クエリ及びメディアアイテムの1次セット604に対応する、以前に受信したメディアに関係する要求を含むことができる。メディアデバイス(例えば、メディアデバイス104)又はサーバ(例えば、DAサーバ106)に記憶された以前のユーザ意図の履歴の分析に基づいて、判定を行うことができる。いくつかの実施例では、1つ以上の以前のユーザ意図が存在するかどうかの判定時には、関連する時間フレーム内の以前のユーザ意図のみを考慮に入れる。関連する時間フレームは、ブロック506のメディアに関係する要求の受信時よりも前の所定の時間フレームを指すことができる。他の実施例では、関連する時間フレームは、デジタルアシスタントとの対話型セッションに基づくことができる。詳細には、ブロック506のメディアに関係する要求は、メディアに関係する要求のシーケンスを含むデジタルアシスタントとの対話型セッションの一部であり得る。これらの実施例では、関連する時間フレームは、対話型セッションの開始時から、対話型セッションの終了時までであり得る。対話型セッションが、ブロック506のメディアに関係する要求よりも前に受信した1つ以上の以前のメディアに関係する要求を包含するかどうかについて、判定を行うことができる。対話型セッションが1つ以上の以前のメディアに関係する要求を包含する場合、1つ以上の以前のユーザ意図が存在すると判定することができる。したがって、1つ以上の以前のユーザ意図及び1次ユーザ意図を、デジタルアシスタントとの同じ対話型セッションと関連付けることができる。反対に、対話型セッションが1つ以上の以前のメディアに関係する要求を包含しない場合、1つ以上の以前のユーザ意図が存在しないと判定することができる。1つ以上の以前のユーザ意図が存在すると判定したことに応じて、ブロック552を実行することができる。代替的には、1つ以上の以前のユーザ意図が存在しないと判定したことに応じて、ブロック560を実行することができる。
[0158]
プロセス500のブロック552で、1つ以上の2次ユーザ意図を特定することができる。ブロック510の1次ユーザ意図とブロック550で存在すると判定された1つ以上の以前のユーザ意図とに基づいて、1つ以上の2次ユーザ意図を判定することができる。具体的には、1つ以上の2次ユーザ意図は、1次ユーザ意図と1つ以上の以前のユーザ意図との組み合わせを含むことができる。いくつかの実施例では、メディアデバイス上の、ユーザのメディアに関係する要求履歴に基づいて、1つ以上の以前のユーザ意図を判定することができる。
[0159]
図6D〜図6Eの実施例に戻ると、1次ユーザ意図は、キャラクター「Jack Ryan」に関するメディアアイテムを検索する意図であり得る。1つの例では、第1の以前のユーザ意図は、過去10年間のアクション映画を検索するという意図であり得る。更に、第2の以前のユーザ意図は、Ben Affleckが主演したメディアアイテムを検索するという意図であり得る。したがって、2次ユーザ意図は、これらのユーザ意図のうちの2つ以上の組み合わせでとすることができる。詳細には、1つの2次ユーザ意図は、1次ユーザ意図と第1の以前のユーザ意図との組み合わせ(例えば、過去10年間のJack Ryanに関するアクション映画を検索するユーザ意図)であることができる。別の2次ユーザ意図は、第1の以前のユーザ意図と第2の以前のユーザ意図との組み合わせ(例えば、直近10年間のBen Affleckが主演したアクション映画を検索するユーザ意図)であることができる。ブロック552は、メディアデバイスの自然言語処理モジュール(例えば、自然言語処理モジュール432)を使用して実行することができる。図5Dに示したように、ブロック552は、ブロック554〜560を含むことができる。
[0160]
プロセス500のブロック554で、1つ以上の以前のユーザ意図の中の誤ったユーザ意図を特定することがある。詳細には、1つ以上の以前のユーザ意図を分析して、任意の誤ったユーザ意図が含まれるかどうかを判定するために分析することができる。後続の以前のユーザ意図により誤っていると明示的に又は暗黙に示された場合に、以前のユーザ意図を誤っていると判定することができる。例えば、1つ以上の以前のユーザ意図は、以前のメディアに関係する要求の後続のシーケンスに対応するユーザ意図を含むことができる。
[A]「いくつかのJames Bondの映画を見せて。(Show me some James Bond movies.)」
[B]「Daniel Smithに関するもののみ。(Just the ones with Daniel Smith.)」
[C]「いいえ、私は、Daniel Craigと言いました。(No, I meant Daniel Craig.)」
この例では、「いいえ、私は、...と言いました(No, I meant ...)」という明示的なフレーズに基づいて、要求[C]に関連付けられた以前のユーザ意図を、要求[B]に関連付けられた以前のユーザ意図に訂正するとい意図であると判定することができる。したがって、この例では、要求[C]に先行する要求[B]に関連付けられた以前のユーザ意図を誤っていると判定することができる。他の実施例では、要求[C]は、要求[B]が誤っていると暗黙に示すことができることを了解されたい。例えば、要求[C]は、代替的には、単に「Daniel Craig」とすることができる。文字列「Daniel Smith」に対する「Daniel Craig」の類似性と、パラメータ値「Daniel Smith」と対比した「Daniel Craig」に関連付けられた向上した関連性とに基づいて、要求[C]に関連付けられた以前のユーザ意図を、要求[B]に関連付けられた以前のユーザ意図に訂正するという意図であると判定することができる。
[0161]
他の実施例では、以前のユーザ意図と矛盾するメディアアイテムのユーザ選択に基づいて、以前のユーザ意図を誤っていると判定することができる。例えば、以前の要求は、「Russell Simmonsが製作したビデオを見せて」とすることができる。この以前の要求に応じて、Russell Simmonsが製作したビデオを含むメディアアイテムの1次セットを、ユーザ選択のために表示済みであることがある。更に、以前の要求に関連するメディアアイテムの追加セットを、メディアアイテムの1次セットと共に表示済みであることがある。この例では、「Russell Simmons」ではなく「Richard Simmons」が製作したメディアアイテムの追加セット中のメディアアイテムをユーザが選択したと判定することができる。このメディアアイテムのユーザ選択が、Russell Simmonsが製作したビデオを検索するという以前のユーザ意図と矛盾していることに基づいて、以前のユーザ意図が誤っていると判定することができる。換言すると、正しいユーザ意図は、「Russell Simmons」ではなく「Richard Simmons」が製作したビデオの検索であるはずであると判定することができる。
[0162]
1つ以上の以前のユーザ意図が誤った以前のユーザ意図を含むという判定に従って、1つ以上の2次ユーザ意図を判定するために、この誤った以前のユーザ意図を使用することはできない。詳細には、誤った以前のユーザ意図は、除外され得、したがって、1つ以上の2次ユーザ意図を判定するためのブロック556でユーザ意図の組み合わせを生成するためには使用されないことがある。ただし、いくつかの実施例では、ユーザ意図の組み合わせを生成し、1つ以上の2次ユーザ意図を判定するために、訂正したユーザ意図を使用することができる。例えば、上述したそれぞれの例では、「Daniel Craig」に関連付けられた訂正後の以前のユーザ意図(例えば、Daniel Craigに関するJames Bondの映画の検索)」と「Richard Simmons」に関連付けられた訂正後の以前のユーザ意図(例えば、Richard Simmonsが製作したビデオの検索)とを使用して、1つ以上の2次ユーザ意図を判定することができる。
[0163]
プロセス500のブロック556で、1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、複数のユーザ意図の組み合わせを生成することができる。例示的な実施例では、メディアデバイスは、メディアに関係する要求の後続のシーケンスを受信済みであることがあり、1次ユーザ意図は要求[G]に関連付けられ、1つ以上の以前のユーザ意図は、要求[D]〜[F]に関連付けられる。
[D]「Keanu Reevesが主演した映画(Movies starring Keanu Reeves.)」
[E]「写実的な暴力を包含しているショー(Shows containing graphic violence.)」
[F]「小児に適した映画(Movies suitable for young children)」
[G]「アニメ(Cartoons.)」
この実施例では、複数のユーザ意図の組み合わせは、1次ユーザ意図と、要求[G]から[D]に関連付けられる1つ以上の以前のユーザ意図との任意の組み合わせを含むことができる。1つの例示的なユーザ意図の組み合わせは、写実的な暴力に関する、Keanu Reevesが主演した映画(例えば、要求[D]及び[E]に基づく組み合わせ)の検索とすることができる。別の例示的なユーザ意図の組み合わせは、小児に適したアニメ映画(例えば、要求[F]及び[G]に基づく組み合わせ)の検索とすることができる。
[0164]
プロセス500のブロック558で、両立しないユーザ意図を除外することができる。詳細には、両立しないユーザ意図の組み合わせを特定することができ、特定した両立しないユーザ意図の組み合わせに基づいて、1つ以上の2次ユーザ意図を判定しないことができる。いくつかの実施例では、両立しないユーザ意図の組み合わせは、任意のメディアアイテムに対応しないユーザ意図の組み合わせであり得る。具体的には、各ユーザ意図の組み合わせについて、対応するメディア検索を実行することができる。特定のメディア検索について、メディアアイテムが取得されない場合、対応するユーザ意図の組み合わせを、両立しないユーザ意図の組み合わせであると判定することができる。例えば、ユーザ意図の組み合わせは、上述した要求[E]及び[F]に基づくことができる。この例では、写実的な暴力を包含する、子どもに適した映画の対応するメディア検索を実行することができる。ただし、メディア検索は、いかなるメディアアイテムももたらさないことがある。したがって、この例では、要求[E]及び[F]に基づくユーザ意図の組み合わせを、両立しないユーザ意図の組み合わせであると判定することができる。他の実施例では、両立しないユーザ意図の組み合わせを判定するために、異なる所定の閾値を確立することができることを了解されたい。例えば、メディアアイテムの所定の数よりも多数には対応しないユーザ意図の組み合わせを、両立しないと判定することができる。
[0165]
他の実施例では、ユーザ意図の組み合わせに関連付けられたパラメータ値に基づいて、両立しないユーザ意図の組み合わせを判定することができる。詳細には、ある特定のパラメータ値を、両立しないと予め定めることができる。例えば、パラメータ値「写実的な暴力(graphic violence)」を、パラメータ値「小児に適した(suitable for young children)」と両立しないと予め定めることができる。したがって、両立しないと予め定めた2つ以上のパラメータ値を包含するユーザ意図の組み合わせを、両立しないユーザ意図の組み合わせであると判定することができる。更に、ある特定のパラメータが特異値を要求することを予め定めることができる。例えば、「メディアタイトル」、「メディアタイプ」及び「アメリカ映画協会(Motion Picture Association of America)フィルムレーティング」のパラメータをそれぞれ、ユーザ意図の組み合わせ中の1つ以下のパラメータ値と関連付けることができる。詳細には、映画を検索する第1のユーザ意図と楽曲を検索する第2のユーザ意図との組み合わせは、両立しない組み合わせとなる。したがって、ユーザ意図の組み合わせは、特異値を必要とすると予め定められたパラメータについて2つ以上のパラメータ値を包含する場合、両立しないと判定することができる。ブロック552で1つ以上の2次ユーザ意図を判定するために、両立しないユーザ意図の組み合わせを使用しないように、両立しないユーザ意図の組み合わせを除外することができる。詳細には、1つ以上の2次ユーザ意図は、いかなる両立しないユーザ意図の組み合わせも含まないことがある。両立しないユーザ意図の組み合わせを考慮から除外することは、ユーザ選択のために表示されるメディアアイテムの関連性を増大させるために望ましいことがある。
[0166]
両立しないと判定されなかった残りのユーザ意図の組み合わせに基づいて、1つ以上の2次ユーザ意図を判定することができる。詳細には、残りのユーザ意図の各組み合わせのユーザ意図をマージして、1つ以上の2次ユーザ意図を生成することができる。更に、残りのユーザ意図の組み合わせの各々を、少なくとも1つのメディアアイテム(又は、少なくとも所定の数のメディアアイテム)と関連付けることができる。いくつかの実施例では、1つ以上の2次意図は、1つ以上の残りのユーザ意図の組み合わせを含むことができる。
[0167]
上述した要求[D]〜[G]に関する例に戻ると、1つ以上の2次ユーザ意図のうちの1つの2次ユーザ意図は、1次ユーザ意図の組み合わせ(例えば、要求[G]に関連付けられた1次ユーザ意図)、及び1つ以上の以前のユーザ意図のうちの1つの以前のユーザ意図(例えば、要求[F]に関連付けられた以前のユーザ意図)を含むことができる。例えば、2次ユーザ意図は、小児に適したアニメ映画についてのメディア検索とすることができる。更に、1つ以上の2次ユーザ意図のうちの1つ2次ユーザ意図は、1つ以上の以前のユーザ意図の2つ以上の以前のユーザ意図の組み合わせ(例えば、要求[D]及び[E]に関連付けられた以前のユーザ意図)を含むことができる。例えば、2次ユーザ意図は、Keanu Reevesが主演した写実的な暴力に関する映画についてのメディア検索とすることができる。
[0168]
プロセス500のブロック560で、他の関連するパラメータ値に基づいて、1つ以上の2次ユーザ意図を生成することができる。ブロック552で判定した1つ以上の2次意図に加えて、又はそれに代えて、ブロック560で、1つ以上の2次ユーザ意図を判定することができる。他の関連するパラメータ値は、メディアデバイス上のユーザのメディア検索履歴以外の情報に基づき得る。詳細には、他の関連するパラメータ値を判定するために使用される情報は、ユーザのメディアの興味及び傾向を反映することができ、したがって、ユーザの実際の意図を合理的に予測することができる。
[0169]
いくつかの実施例では、他の関連するパラメータ値は、メディアデバイス上のユーザのメディア選択履歴に基づき得る。詳細には、他の関連するパラメータ値は、消費のためにユーザが以前に選択した(例えば、ブロック506でメディアに関係する要求を受信するよりも前に選択した)メディアアイテムに関連付けられたパラメータ値を含むことができる。いくつかの実施例では、他の関連するパラメータ値は、メディアデバイス上のユーザのウォッチリストに基づき得る。メディアのウォッチリストは、ユーザが興味と持っている、又は近い将来消費したいと望むメディアアイテムのユーザ定義リストとすることができる。したがって、ユーザの選択履歴又はユーザメディアのウォッチリストに関連付けられたパラメータ値は、ユーザのメディアの興味又は傾向を反映することができる。いくつかの実施例では、他の関連するパラメータは、メディアデバイスの外部のデバイス上のユーザのメディア検索履歴に基づき得る。詳細には、外部のメディアデバイス(例えば、ユーザデバイス122)上で実行されたメディアに関係する検索の履歴を、その外部のメディアデバイスから取得することができる。これらのメディアに関係する検索は、ウェブ検索、iTunes(登録商標)store検索、デバイス上のローカルメディアファイル検索などであり得る。したがって、他の関連するパラメータ値は、外部のメディアデバイスのメディアに関係する検索履歴から導き出されるパラメータ値を含むことができる。
[0170]
いくつかの実施例では、他の関連するパラメータ値は、ユーザインタフェースがその上にフォーカスしたメディアアイテムに基づき得る。例えば、図6Aを参照すると、ブロック506で、メディアに関係する要求を受信する間、カーソル609は、メディアアイテム611の上にあり得る。したがって、ブロック506で、メディアに関係する要求を受信する間、ユーザインタフェース602のフォーカスは、メディアアイテム611の上にあると判定することができる。この実施例では、他の関連するパラメータ値は、メディアアイテム611にコンテキストで関係し得る。具体的には、他の関連するパラメータ値は、メディアアイテム611の1つ以上のパラメータ値を含むことができる。いくつかの実施例では、他の関連するパラメータ値は、ブロック506でメディアに関係する要求を受信する間、表示ユニット上に表示されたメディアアイテムに関連付けられたテキストに基づき得る。例えば、図6Aでは、ブロック506でメディアに関係する要求を受信する間、メディアアイテムの1次セット604及びメディアアイテムの2次セット606に関連付けられた複数のテキストを、表示ユニット上に表示することができる。複数のテキストは、関連付けられたメディアアイテムのパラメータ値を記述することができる。したがって、他の関連するパラメータ値は、複数のテキストが記述する1つ以上のパラメータ値を含むことができる。
[0171]
メディアデバイスは、内部又は外部の他の情報を使用して、他の関連するパラメータ値を判定することができる。例えば、いくつかの実施例では、ブロック528で特定した追加のパラメータ値と同様に、他の関連するパラメータ値を判定することができる。
[0172]
ブロック552及び560の1つ以上の2次ユーザ意図の各々について、ランキングスコアを判定することができる。ランキングスコアは、2次ユーザ意図がユーザの実際のユーザ意図に対応する尤度を表すことができる。いくつかの実施例では、より高いランキングスコアは、それぞれの2次ユーザ意図が実際のユーザ意図に対応する、より高い尤度を表すことができる。以下で説明するように、1つ以上の2次ユーザ意図を導き出すために使用される同様の情報に基づいて、ランキングスコアを判定することができる。
[0173]
いくつかの実施例では、ユーザ又は複数のユーザのメディアに関係する要求の履歴(例えば、メディア検索履歴)に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定することができる。詳細には、メディアに関係する要求及び1つ以上の以前のメディアに関係する要求の各々が受信された時刻及び順序に基づいて、ランキングスコアを判定することができる。より最近受信したメディア検索要求に基づく2次ユーザ意図は、より早く受信したメディアに関係する要求に基づく2次ユーザ意図よりもより高いランキングスコアを有する可能性がより高い。例えば、要求[D]〜[G]の上記で説明した例では、要求[G]を、最も早くに受信したメディアに関係する要求とすることでき、要求[D]を、最も早くに受信したメディアに関係する要求とすることができる。この例では、要求[G]に基づく2次ユーザ意図は、要求[D]に基づく2次ユーザ意図によりも高いランキングスコアをする可能性が高くなる。
[0174]
更に、ランキングスコアは、ユーザ又は複数のユーザのメディアに関係する要求の履歴におけるパラメータ値の出現頻度に基づき得る。例えば、パラメータ値「Keanu Reeves」が、ユーザのメディアに関係する要求の履歴又は複数のユーザのメディアに関係する要求の履歴において、パラメータ値「写実的な暴力(graphic violence)」よりも頻繁に出現する場合、パラメータ値「Keanu Reeves」を包含する2次ユーザ意図は、パラメータ値「写実的な暴力(graphic violence)」を包含する2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。
[0175]
いくつかの実施例では、ユーザ又は複数のユーザの選択履歴に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定することができる。ユーザ選択履歴は、消費のためにユーザ又は複数のユーザが以前に選択したメディアアイテムのリストを含むことができる。1つ以上の以前に選択されたメディアアイテムのパラメータ値を含む2次ユーザ意図は、任意の以前に選択されたメディアアイテムのパラメータ値を含まない2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。更に、より最近選択されたメディアアイテムのパラメータ値を含む2次ユーザ意図は、より早くに選択されたメディアアイテムのパラメータ値を含む2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。更に、以前に選択されたメディアアイテムのうちより高い頻度で生じるパラメータ値を有する2次ユーザ意図は、以前に選択されたメディアアイテムのうちより低い頻度で生じるパラメータ値を有する2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。
[0176]
いくつかの実施例では、ユーザ又は複数のユーザのメディアウォッチリストに基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定することができる。例えば、メディアウォッチリスト上の1つ以上のメディアアイテムパラメータ値を含む2次ユーザ意図は、メディアウォッチリスト上の任意のメディアアイテムのパラメータ値を含まない2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。
[0177]
プロセス500のブロック562で、1つ以上のメディアアイテムの2次セットを取得することができる。ブロック562は、ブロック520と同様とすることができる。詳細には、ブロック552及び/又は560の1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成することができる。1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得することができる。例えば、図6Eを再び参照すると、直近10年間のJack Ryanに関するアクション映画についての第1の2次メディア検索クエリを生成し、それを実行して、メディアアイテムの2次セット624を取得することができる。更に、直近10年間のBen Affleckが主演したアクション映画についての第2の2次メディア検索クエリを生成し、それを実行して、メディアアイテムの2次セット626を取得することができる。
[0178]
プロセス500のブロック564で、表示ユニット上に1つ以上のメディアアイテムの2次セットを表示することができる。ブロック564は、ブロック534と同様とすることができる。図6Eに示すように、ユーザインタフェース602の最上行に、メディアアイテムの第3の1次セット620を表示することができる。最上行よりも下の、ユーザインタフェース602の後続の行に、メディアアイテムの2次セット624及び626を表示することができる。後続の行の各行は、ブロック552及び/又は560の1つ以上の2次ユーザ意図の2次ユーザ意図に対応することができる。
[0179]
メディアアイテムの1つ以上の2次セットは、対応する1つ以上の2次ユーザ意図のランキングスコアに従って表示することができる。詳細には、ランキングスコアがより高い2次ユーザ意図に対応するメディアアイテムの2次セットは、ランキングスコアがより低い2次ユーザ意図に対応するメディアアイテムの2次セットよりも目立つように(例えば、最上行に近いより高い行に)表示することができる。
[0180]
ブロック510を再び参照すると、1次ユーザ意図が新たなメディア検索クエリを実行するユーザ意図を備えないという判定に従って、ブロック516〜518のうちの1つ以上を実行することができる。プロセス500のブロック516で、1次ユーザ意図は、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるかどうかについて、判定を行うことができる。この判定は、1次メディア検索クエリの一部分を訂正するユーザ意図を示す明示的な単語又はフレーズに基づいて行うことができる。具体的には、メディアに関係する要求が、1次メディア検索クエリの一部分を訂正するユーザ意図を示す所定の単語又はフレーズを含むかどうかを判定することができる。例えば、図6H〜図6Iを参照すると、メディアに関係する要求は、「いいえ、アドベンチャー映画と言いました(No, I meant adventure movies)」とすることができる。この実施例では、明示的なフレーズ「いいえ、私は...と言いました(No, I meant ...)」がメディアに関係する要求の文頭に出現していることに基づいて、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えると判定することができる。具体的には、1次メディア検索クエリを直近10年間のアクション映画の検索から、直近10年間のアドベンチャー映画の検索に1次ユーザ意図を訂正するユーザ意図であると判定することができる。1次メディア検索クエリの一部分を訂正するユーザ意図を示す所定の単語又はフレーズの他の例として、「いいえ(no)」、「ではない(not)、「私は、言いました(I mean)」、「間違っている(wrong)]を挙げることができる。
[0181]
他の実施例では、ブロック516での判定は、メディアに関係する要求中のパラメータ値と1次メディア検索クエリ中のパラメータ値との類似性に基づいて行うことができる。例えば、1つの実施例では、1次メディア検索クエリに関連付けられた以前に受信したメディアに関係する要求は、「Jackie Chan及びChris Rucker(Jackie Chan and Chris Rucker)」であり得、メディアに関係する要求は、「Chris Tucker」であり得る。パラメータ値「Chris Rucker」と「Chris Tucker」との間の判定された編集距離が所定の値以下であることに基づいて、1次ユーザ意図が、1次メディア検索クエリ中のパラメータ値「Chris Rucker」を「Chris Tucker」に訂正するユーザ意図を備えると判定することができる。それに加えて、又は代替として、「Chris Rucker」及び「Chris Tucker」を表す音素の列を比較することができる。「Chris Rucker」を表す音素の列が、「Chris Tucker」を表す音素の列と実質的に同様であることに基づいて、1次ユーザ意図が、1次メディア検索クエリ中の「Chris Rucker」を「Chris Tucker」に訂正するユーザ意図を備えると判定することができる。
[0182]
更に、パラメータ値「Jackie Chan」に関して、パラメータ値「Chris Rucker」の顕著性をパラメータ値「Chris Tucker」の顕著性と比較することができる。詳細には、パラメータ値「Jackie Chan」を使用してメディア検索を実行し、Jackie Chanに関係するメディアアイテムのセットを特定することができる。「Jackie Chan」に関して、「Chris Rucker」及び「Chris Tucker」の顕著性は、2つのパラメータ値の各々に関連付けられるJackie Chanに関係するメディアアイテムのセットの中のメディアアイテムの数に基づくことができる。例えば、「Chris Tucker」は、「Chris Rucker」よりも「Jackie Chan」に関係するメディアアイテムのセットの中の著しく多くのメディアアイテムに関連付けられていると判定することができる。したがって、「Jackie Chan」に関して、「「Chris Tucker」の顕著性は、Chris Rucker」の顕著性よりも著しく高いと判定することができる。この比較された顕著性に基づいて、1次ユーザ意図が、1次メディア検索クエリ中の「Chris Rucker」を訂正するユーザ意図を備えると判定することができる。
[0183]
1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、メディアに関係する要求に関連付けられた1つ以上の2次ユーザ意図を判定する時に(例えば、ブロック552)、1次メディア検索クエリに関連付けられた以前のユーザ意図を考慮から除外することができる。例えば、1つ以上の2次ユーザ意図の判定時、「Jackie Chan及びChris Rucker」の以前に受信したメディアに関係する要求に関連付けられた以前のユーザ意図を考慮から除外することができる。代わりに、1つ以上の2次ユーザ意図の判定時に、訂正したメディアに関係する要求「Jackie Chan及びChris Tucker」に関連付けられた以前のユーザ意図を考慮することができる。
[0184]
更に、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、ブロック566〜568のうちの1つ以上を実行することができる。プロセス500のブロック566で、メディアアイテムの第5の1次セットを取得することができる。ブロック566は、ブロック520と同様とすることができる。詳細には、1次ユーザ意図に対応する第5の1次メディア検索クエリを生成することができる。第5の1次メディア検索クエリは、メディアに関係する要求及び1次メディア検索クエリに基づくことができる。具体的には、第5の1次メディア検索クエリを生成する、メディアに関係する要求に従って、1次メディア検索クエリの一部分を訂正することができる。1次メディア検索クエリが、「Jackie Chan」及び「Chris Rucker」が主演したメディアアイテムを検索することであり、メディアに関係する要求が、「Chris Tucker」である例に戻ると、「Jackie Chan」及び「Chris Tucker」が主演したメディアアイテムを検索する第5の1次メディア検索クエリを生成するように、1次メディア検索クエリを訂正することができる。次いで、第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得することができる。
[0185]
プロセス500のブロック568で、ユーザインタフェース(例えば、ユーザインタフェース602)を介して、メディアアイテムの第5の1次セットを表示ユニット上に表示することができる。詳細には、メディアアイテムの1次セット(例えば、メディアアイテムの1次セット604)の表示を、第5のメディアアイテムの1次セットの表示と入れ替えることができる。ブロック540は、ブロック522と同様とすることができる。更に、いくつかの実施例では、ユーザに追加のオプションを提供するために、ブロック550〜564を実行して、メディアアイテムの第5の1次セットと共にメディアアイテムの1つ以上の2次セットを取得し、表示することができる。
[0186]
ブロック510を再び参照すると、1次ユーザ意図が1次メディア検索クエリの一部分を訂正するユーザ意図を備えないという判定に従って、ブロック518を実行することができる。プロセス500のブロック518で、1次ユーザ意図は、表示ユニット上に表示されたユーザインタフェース(例えば、ユーザインタフェース602)のフォーカスを変更するユーザ意図を備えるかどうかについて、判定を行うことができる。ユーザインタフェースは、複数のメディアアイテムを含むことができる。いくつかの実施例では、ユーザインタフェースのフォーカスを変更するユーザ意図に対応するメディアに関係する要求中の明示的な単語又はフレーズに基づいて、ブロック518での判定を行うことができる。1つの例では、メディアに関係する要求は、「The Dark Knightに進む(Go to The Dark Knight)」であり得る。この例では、「...に進む(Go to ...)」というフレーズが、ユーザインタフェースのフォーカスを変更するユーザ意図に対応する所定のフレーズであると判定することができる。ユーザインタフェースのフォーカスを変更するユーザ意図に対応する所定の単語又はフレーズの他の例として、「選択する(Select)」、「へ移動する(Move to)」、「へジャンプする(Jump to)」、「再生する(Play)」、「購入する(Buy)」などを挙げることができる。所定の単語又はフレーズに基づいて、1次ユーザ意図が、ユーザインタフェースのフォーカスを変更するユーザ意図を備えると判定することができる。
[0187]
他の実施例では、ブロック518での判定は、ユーザインタフェースに表示されるメディアアイテムに対応するテキストに基づいて、暗黙に行うことができる。例えば、図6Aを参照すると、メディアアイテム604及び606は、メディアアイテム604及び606の1つ以上のパラメータ値について説明するテキストと関連付けることができる。詳細には、テキストは、メディアタイトル、俳優、公開日などのような、メディアアイテム604及び606のパラメータ値について説明することができる。上述したように、このテキストの少なくとも一部分を、それぞれのメディアアイテムに関して、ユーザインタフェース602上に表示することができる。メディアアイテム604及び606の1つ以上のパラメータ値について説明するこのテキストに基づいて、ブロック518での判定を行うことができる。本実施例では、メディアアイテム613は、映画「The Dark Knight」とすることができ、テキストは、メディアアイテム613に関連付けられたメディアタイトル「The Dark Knight」を含むことができる。メディアに関係する要求中で定義されるパラメータ値「The Dark Knight」が、メディアアイテム613に関連付けられたテキストのメディアタイトル「The Dark Knight」と一致するという判定に基づいて、1次ユーザ意図が、ユーザインタフェース602のフォーカスを、メディアアイテム611からメディアアイテム613に変更するユーザ意図を備えると判定することができる。いくつかの実施例では、表示されたテキストは、ユーザインタフェース602を介して表示されたメディアアイテムの全てのパラメータ値を含むわけではないことを認識されたい。これらの実施例では、また、ブロック518での判定は、表示されたテキストでは説明されていない表示されたメディアアイテムのパラメータ値に基づくことができる。
[0188]
1次ユーザ意図が、ユーザインタフェースのフォーカスを変更するユーザ意図を備えるという判定に従って、ブロック570を実行することができる。プロセス500のブロック570で、ユーザインタフェースのフォーカスを、第1のメディアアイテムから第2のメディアアイテムに変更することができる。例えば、図6Kを参照すると、ユーザインタフェース602のカーソル609の位置を、メディアアイテム611からメディアアイテム613に変更することができる。いくつかの実施例では、ユーザインタフェース602のフォーカスを変更することは、メディアアイテムを選択することを含むことができる。例えば、ブロック570で、メディアアイテム613を選択することができる。メディアアイテム613を選択することにより、メディアアイテム613に関連付けられた情報(例えば、映画プレビュー情報)を表示させることができる。それに加えて、又は代替として、メディアアイテム613を選択することにより、メディアアイテム613に関連付けられたメディアコンテンツを、メディアデバイス上で再生させ、表示ユニット上に表示させることができる。
[0189]
プロセス500のある特定のブロックは、デバイス又はシステム(例えば、メディアデバイス104、ユーザデバイス122又はデジタルアシスタントシステム400)により実行されるものとして上述しているが、いくつかの実施例では、これらのブロックを実行するために、2つ以上のデバイスを使用できることを認識されたい。例えば、判定を行うブロックで、第1のデバイス(例えば、メディアデバイス104)は、第2のデバイス(例えば、サーバシステム108)から判定を取得することができる。したがって、いくつかの実施例では、判定することは、判定を取得することを指すことができる。同様に、コンテンツ、オブジェクト、テキスト又はユーザインタフェースを表示するブロックで、第1のデバイス(例えば、メディアデバイス104)は、コンテンツ、オブジェクト、テキスト又はユーザインタフェースを、第2のデバイス(例えば、表示ユニット126)上に表示させることができる。したがって、いくつかの実施例では、表示することは、表示させることを指すことができる。
[0190]
更にまた、いくつかの実施例では、ユーザインタフェースに表示されるアイテム(例えば、メディアアイテム、テキスト、オブジェクト、グラフィクスなど)は、ユーザインタフェース中に含まれるが、ユーザからは直ぐには見えないアイテムを指すことができる。例えば、ユーザインタフェースに表示されるアイテムは、ユーザインタフェースの好適な領域までスクロールすることによって、ユーザから見えるようにすることができる。
5.電子デバイス
[0191]
いくつかの実施例に従って、図7は、例えば、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するように、説明する様々な実施例の原理に従って構成された電子デバイス700の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図7で説明する機能ブロックを組み合わせる、又はサブブロックに分離することができることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0192]
図7に示すように、電子デバイス700は、触覚入力、ジェスチャ入力及びテキスト入力などのユーザ入力を受信するように構成された入力ユニット703(例えば、遠隔制御124など)、オーディオデータを受信するように構成されたオーディオ受信ユニット704(例えば、マイクロフォン272など)、オーディオを出力するように構成されたスピーカユニット706(例えば、スピーカ268など)、並びに、ネットワークを介して外部のデバイスから情報を送受信するように構成された通信ユニット707(例えば、通信サブシステム224など)を含むことができる。いくつかの実施例では、電子デバイス700は、任意選択的に、メディア、インタフェース及び他のコンテンツを表示するように構成された表示ユニット702(例えば、表示ユニット126など)を含むことができる。いくつかの実施例では、表示ユニット702は電子デバイス700の外部にあってもよい。電子デバイス700は、入力ユニット703、オーディオ受信ユニット704、スピーカユニット706、通信ユニット707及び任意選択的に表示ユニット702に結合された、処理ユニット708を更に含むことができる。いくつかの実施例では、処理ユニット708は、表示可能化ユニット710、検出ユニット712、判定ユニット714、オーディオ受信可能化ユニット716、取得ユニット718、特定ユニット720、受信ユニット722、除外ユニット724、及び生成ユニット726を含むことができる。
[0193]
いくつかの実施形態によれば、処理ユニット708は、(例えば、表示ユニット702又は別の表示ユニットを用いて)表示ユニット上に、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1次セットを表示するように構成される。処理ユニット708は、(例えば、検出ユニット712を用いて)ユーザ入力を検出するように更に構成される。処理ユニット708は、ユーザ入力を検出したことに応じて、(例えば、オーディオ受信可能化ユニット716を用いて)オーディオ受信ユニット704で、オーディオ入力を受信するように更に構成される。オーディオ入力は、自然言語発語形態のメディアに関係する要求を包含する。処理ユニット708は、(例えば、判定ユニット714を用いて)メディアに関係する要求に対応する1次ユーザ意図を判定するように更に構成される。処理ユニット708は、1次ユーザ意図は、(例えば、判定ユニット714を用いて)メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかについて、判定を行うことができる。処理ユニット708は、1次ユーザ意図が1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、(例えば、取得ユニット718を用いて)メディアに関係する要求及び1次メディア検索クエリに基づいて、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成し、(例えば、取得ユニット720を用いて)第2の1次メディア検索クエリを実行してメディアアイテムの第2の1次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第2の1次セットの表示と入れ替えるように更に構成される。
[0194]
いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1次メディア検索クエリを絞り込むユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む。
[0195]
いくつかの実施例では、第2の1次メディア検索クエリは、メディアに関係する要求中で定義された1つ以上のパラメータ値、及び1次メディア検索クエリの1つ以上のパラメータ値を含む。いくつか実施例では、メディアアイテムの1次セットに基づいて、メディアアイテムの第2の1次セットを取得することができる。
[0196]
いくつかの実施例では、第2の1次メディア検索クエリは、パラメータ値のセットを含む。処理ユニット708は、(例えば、特定ユニット720を用いて)パラメータ値のセットから、パラメータ値のセットよりも少数のパラメータ値を有するパラメータ値のコアセットを特定するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)パラメータ値のコアセットに基づいて、1つ以上の追加のメディア検索クエリを生成するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の追加のメディア検索クエリを実行して、メディアアイテムの1つ以上の追加セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1つ以上の追加セットを表示ユニット上に表示するように更に構成される。
[0197]
いくつかの実施例では、処理ユニット708は、(例えば、特定ユニット720を用いて)複数のユーザのメディア選択履歴に基づいて、1つ以上の追加のパラメータ値を特定するように更に構成される。1つ以上の追加のメディア検索クエリは、1つ以上の追加のパラメータ値を使用して生成される。
[0198]
いくつかの実施例では、メディアアイテムの第2の1次セットは、表示ユニット上のユーザインタフェースの最上行に表示され、メディアアイテムの1つ以上の追加セットは、表示ユニット上のユーザインタフェースの1つ以上の後続の行に表示される。
[0199]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、(例えば、判定ユニット714を用いて)1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を備えるかどうかを判定するように更に構成される。処理ユニット708は、1次ユーザ意図が新たなメディア検索クエリを実行するユーザ意図を備えるという判定に従って、(例えば、取得ユニット718を用いて)メディアに関係する要求に基づいて、1次ユーザ意図に対応する第3の1次メディア検索クエリを生成し、(例えば、判定ユニット714を用いて)第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得することができるかどうか判定するように更に構成される。処理ユニット708は、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得することができるという判定に従って、(例えば、取得ユニット718を用いて)第3の1次メディア検索クエリを実行して第3のメディアアイテムの1次セットを取得し、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、第3のメディアアイテムの1次セットの表示と入れ替えるように更に構成される。
[0200]
いくつかの実施例では、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、新たなメディア検索クエリを実行するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを更に含む。いくつかの実施例では、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズを含むかどうかを判定することを更に含む。
[0201]
いくつかの実施例では、処理ユニット708は、(例えば、取得ユニット718を用いて)複数のメディアタイプを備える複数の候補メディアアイテムの正規化されたランク付けを実行することを含めて、第3の1次メディア検索クエリを実行するように更に構成される。
[0202]
いくつかの実施例では、1次ユーザ意図を判定することは、メディアに関係する要求に関連付けられたメディアタイプを判定することを含み、判定したメディアタイプに従って、第3の1次メディア検索クエリを実行する。
[0203]
いくつかの実施例では、第3の1次メディア検索クエリを実行することは、パラメータ値に関連付けられる候補メディアアイテムを特定することを含み、このパラメータ値は、特定された候補メディアアイテムの1つ以上のメディア批評家のレビュー中に含まれる。
[0204]
いくつかの実施例では、第3の1次メディア検索クエリを実行することは、パラメータ値に関連付けられる候補メディアアイテムを特定することを含み、このパラメータ値は、特定された候補メディアアイテムのクローズドキャプション情報から導き出される。
[0205]
いくつかの実施例では、処理ユニット708は、第3の1次メディア検索クエリに対応するメディアアイテムがないという判定に従って、(例えば、特定ユニット720を用いて)第3の1次メディア検索クエリの最も妥当性の低いパラメータ値を特定するように更に構成される。処理ユニット708は、特定した最も妥当性の低いパラメータ値に基づいて、(例えば、判定ユニット714を用いて)1つ以上の代替パラメータ値を判定するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の代替パラメータ値を使用して1つ以上の代替1次メディア検索クエリを実行して、メディアアイテムの第4の1次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第4の1次セットの表示と入れ替えるように更に構成される。
[0206]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を備えないという判定に従って、(例えば、判定ユニット714を用いて)1つ以上の2次ユーザ意図に基づいて、1次ユーザ意図及び1つ以上の以前のユーザ意図を判定するように更に構成され、1つ以上の以前のユーザ意図は、メディアに関係する要求のよりも前に受信した1つ以上の以前のメディアに関係する要求に対応する。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1つ以上の2次セットを表示ユニット上に表示するように更に構成される。
[0207]
いくつかの実施例では、1つ以上の以前のメディアに関係する要求は、メディアアイテムの1次セットに対応する以前のメディアに関係する要求を含む。
[0208]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)1次ユーザ意図と1つ以上の以前のユーザ意図との1つ以上の組み合わせを判定するように更に構成され、1つ以上の組み合わせの各々は、少なくとも1つのメディアアイテムと関連付けられ、1つ以上の2次意図は、1つ以上の組み合わせを備える。
[0209]
いくつかの実施例では、1つ以上の以前のユーザ意図及び1次ユーザ意図は、デジタルアシスタントとの同一の対話型セッションと関連付けられる。いくつかの実施例では、1つ以上の電子デバイス上のユーザのメディア検索履歴に基づいて、1つ以上の2次ユーザ意図を生成する。いくつかの実施例では、1つ以上の電子デバイス上のユーザのメディア選択履歴、メディア選択履歴に基づいて、1つ以上の2次ユーザ意図を生成する。
[0210]
いくつかの実施例では、処理ユニット708は、(例えば、受信ユニット722を用いて)第2の電子デバイスから(例えば、通信ユニットを介して)メディア検索履歴を受信するように更に構成される。第2の電子デバイスから受信したメディア検索履歴に基づいて、1つ以上の2次ユーザ意図を生成する。
[0211]
1つ以上の電子デバイス上のユーザのメディアウォッチリストに基づいて、1つ以上の2次ユーザ意図を生成する。いくつかの実施例では、オーディオ入力を受信している間に、表示ユニット上に複数のテキストを表示し、その複数のテキストは、オーディオ入力を受信している間に表示ユニット上に表示された複数のメディアアイテムと関連付けられ、表示した複数のテキストに基づいて、1つ以上の2次ユーザ意図を生成する。
[0212]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定するように更に構成され、1つ以上の2次ユーザ意図の各々についてのランキングスコアに従って、メディアアイテムの1つ以上の2次セットを表示する。
[0213]
いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、メディアに関係する要求及び1つ以上の以前のメディアに関係する要求の各々を受信した時刻に基づく。いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、1つ以上の電子デバイス上のユーザのメディア検索履歴に基づく。いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、1つ以上の電子デバイス上のユーザのメディア選択履歴に基づく。いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、1つ以上の電子デバイス上のユーザのメディアウォッチリストに基づく。
[0214]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含まないという判定に従って、(例えば、判定ユニット714を用いて)1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるかどうかを判定するように更に構成される。処理ユニット708は、1次ユーザ意図が1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、(例えば、取得ユニット718を用いて)メディアに関係する要求及び1次メディア検索クエリ要求に基づいて、1次ユーザ意図に対応する第5の1次メディア検索クエリを生成するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第5の1次セットの表示と入れ替えるように更に構成される。
[0215]
いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1次メディア検索クエリの一部分を訂正するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む。いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することは、メディアに関係する要求の一部分を表す音素の列が、1次メディア検索クエリに対応する以前のメディアに関係する要求の一部分を表す音素の列と実質的に類似しているかどうかを判定することを含む。
[0216]
いくつかの実施例では、第5の1次メディア検索クエリを生成することは、訂正されない1次メディア検索クエリの一部分に関連付けられたメディアアイテムのセットを特定することを含み、訂正されない1次メディア検索クエリの一部分に関連付けられたメディアアイテムのセットの1つ以上のパラメータ値に基づいて、第5の1次メディア検索クエリを生成する。
[0217]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、(例えば、除外ユニット724を用いて)メディアに関係する要求に対応する2次ユーザ意図の判定時に、1次メディア検索クエリを考慮から除外するように更に構成される。
[0218]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を含まないという判定に従って、(例えば、判定ユニット714を用いて)1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるかどうかを判定するように更に構成され、ユーザインタフェースは、複数のメディアアイテムを含む。処理ユニット708は、1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるという判定に従って、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースのフォーカスを、複数のメディアアイテムのうちの第1のメディアアイテムから複数のメディアアイテムのうちの第2のメディアアイテムに変更するように更に構成される。
[0219]
いくつかの実施例では、1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるかどうか判定することは、メディアに関係する要求が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む。
[0220]
いくつかの実施例では、ユーザインタフェースは、ユーザインタフェース中の複数のメディアアイテムに対応する複数のテキストを含み、1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるかどうかの判定は、これらの複数のテキストに基づく。
[0221]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)メディアに関係する要求のテキスト表現を判定し、(例えば、表示可能化ユニット710を用いて)そのテキスト表現を表示ユニット上に表示するように更に構成される。いくつかの実施例では、1つ以上の言語モデルを使用して、テキスト表現を判定する。いくつかの実施例では、メディアに関係するテキスト結果に向かって1つ以上の言語モデルをバイアスさせる。いくつかの実施例では、1つ以上の言語モデルは、複数の言語におけるメディアに関係するテキストを認識するように構成される。
[0222]
いくつかの実施例では、複数のメディアアイテムに関連付けられた複数のメディアアイテム及びテキストが表示ユニット上に表示される。処理ユニット708は、(例えば、生成ユニット726を用いて)複数のメディアアイテムに関連付けられたテキストを使用して第2の言語モデルを生成するように更に構成され、この第2の言語モデルを使用してテキスト表現を判定する。
[0223]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)テキスト表現を使用して予測テキストを判定し、(例えば、表示可能化ユニット710を用いて)テキスト表現の予測テキストを表示ユニット上に表示するように更に構成される。
[0224]
いくつかの実施例では、オーディオ入力を受信している間に、表示ユニット上に表示したテキストに基づいて、予測テキストを判定する。
[0225]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)オーディオ入力のエンドポイントが予測テキストの表示後に検出されたかどうかを判定するように更に構成され、オーディオ入力のエンドポイントが、予測テキストの表示後に検出されたという判定に従って、テキスト表現及び予測テキストを使用して、1次ユーザ意図を判定する。
[0226]
いくつかの実施例では、処理ユニット708は、オーディオ入力を受信している間に、(例えば、判定ユニット714を用いて)オーディオ入力の受信した部分に基づいて仮のユーザ意図を判定し、(例えば、特定ユニット720を用いて)仮のユーザ意図を満たすために必要なデータを特定し、(例えば、判定ユニット714を用いて)仮のユーザ意図の判定時に、そのデータが1つ以上の電子デバイス上に記憶されているかどうかを判定し、仮のユーザ意図の判定時にそのデータが1つ以上の電子デバイス上に記憶されていないという判定に従って、(例えば、取得ユニット718を用いて)データを取得するように更に構成される。
[0227]
いくつかの実施形態によれば、処理ユニット708は、(例えば、入力ユニット703又はオーディオ受信ユニット704で、受信ユニット722又はオーディオ受信可能化ユニット716を使用して)ユーザから、自然言語発語形態のメディア検索要求を受信するように構成される。処理ユニット708は、(例えば、判定ユニット714を用いて)メディア検索要求に対応する1次ユーザ意図を判定するように更に構成され、その1次ユーザ意図に従って、メディアアイテムの1次セットを取得する。処理ユニット708は、(例えば、判定ユニット714を用いて)1つ以上の以前のユーザ意図が存在するかどうかを判定するように構成され、1つ以上の以前のユーザ意図は、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求に対応する。処理ユニット708は、1つ以上の以前のユーザ意図が存在すると判定したことに応じて、(例えば、判定ユニット714を用いて)1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)メディアアイテムの複数の2次セットを取得するように更に構成され、メディアアイテムの各2次セットは、1つ以上の2次ユーザ意図のそれぞれの2次ユーザ意図に対応する。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1次セット及びメディアアイテムの複数の2次セットを表示するように更に構成される。
[0228]
いくつかの実施例では、1次ユーザ意図を判定することは、メディア検索要求が、メディア検索要求よりも前に受信した以前のメディア検索要求を絞り込む明示的な要求を包含するかどうかを判定することを更に含み、メディア検索要求が、以前のメディア検索要求を絞り込む明示的な要求を包含するという判定に従って。メディア検索要求及び1つ以上の以前のユーザ意図のうちの少なくとも1つから、1次ユーザ意図を判定する。
[0229]
いくつかの実施例では、メディア検索要求が以前のメディア検索要求を絞り込む明示的な要求を包含しないと判定したことに応じて、メディア検索要求から、1次ユーザ意図を判定する。
[0230]
いくつかの実施例では、メディア検索要求は、デジタルアシスタントとの対話型セッションの一部である。1つ以上の以前のユーザ意図が存在するかどうかを判定することは、対話型セッションが、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求を含むかどうかを判定することを更に含み、1つ以上の以前のメディア検索要求は、1つ以上の以前のユーザ意図に対応する。対話型セッションが、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求を包含するという判定に従って、その1つ以上の以前のユーザ意図の判定を行う。対話型セッションが、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求を包含しないという判定に従って、1つ以上の以前のユーザ意図が存在しないという判定を行う。
[0231]
いくつかの実施例では、処理ユニット708は、1つ以上の以前のメディアユーザ意図が存在しないと判定したことに応じて、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1次セットを表示するように更に構成される。
[0232]
いくつかの実施例では、1つ以上の2次ユーザ意図の2次ユーザ意図は、1次ユーザ意図と1つ以上の以前のユーザ意図の以前のユーザ意図との組み合わせを含む。
[0233]
いくつかの実施例では、1つ以上の2次ユーザ意図の2次ユーザ意図は、1つ以上の以前のユーザ意図の第1の以前のユーザ意図と1つ以上の以前のユーザ意図の第2の以前のユーザ意図との組み合わせを含む。
[0234]
いくつかの実施例では、1つ以上の2次ユーザ意図を判定することは、1次ユーザ意図と1つ以上の以前のユーザ意図との複数の組み合わせを生成することを更に含む。
[0235]
いくつかの実施例では、1つ以上の2次ユーザ意図を判定することは、複数の組み合わせが、マージできない組み合わせを含むかどうかを判定することを更に含む。複数の組み合わせが、マージできないユーザ意図の組み合わせを含むという判定に従って、1つ以上の2次ユーザ意図は、マージできない組み合わせを含めない。
[0236]
いくつかの実施例では、マージできない組み合わせは、特異値を必要とするパラメータについての2つ以上の値を含む。
[0237]
いくつかの実施例では、1つ以上の2次ユーザ意図を判定することは、1つ以上の以前のユーザ意図が誤ったユーザ意図を含むかどうか判定することを更に含む。1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むという判定に従って。1つ以上の2次ユーザ意図は、誤ったユーザ意図に基づかない。
[0238]
いくつかの実施例では、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むかどうかを判定することは、1つ以上の以前のユーザ意図が、1つ以上の以前のユーザ意図の第4のユーザ意図を訂正する第3のユーザ意図を含むかどうか判定することを含む。1つ以上の以前のユーザ意図が、1つ以上の以前のユーザ意図の第4のユーザ意図と訂正する第3のユーザ意図を含むという判定に従って、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むという判定を行う。第4のユーザ意図は、誤ったユーザ意図であると判定される。
[0239]
いくつかの実施例では、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むかどうか判定することは、1つ以上の以前のユーザ意図が、第5のユーザ意図と矛盾するメディアアイテムのユーザ選択に関連付けられた第5のユーザ意図を含むかどうかを判定することを含む。1つ以上の以前のユーザ意図が、誤ったユーザ意図を訂正する第3のユーザ意図を含むという判定に従って、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むという判定を行い、第5のユーザ意図が誤ったユーザ意図であると判定される。
[0240]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)複数の含み合わせが、所定の数よりも少数のメディアアイテムに関連付けられる複数の組み合わせを含むかどうかを判定するように更に構成される。複数の組み合わせが、所定の数よりも少数のメディアアイテムに関連付けられる組み合わせをむという判定に従って、1つ以上の2次ユーザ意図は、所定の数よりも少数のメディアアイテムに関連付けられる組み合わせを含まない。
[0241]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定するように更に構成され、1つ以上の2次ユーザ意図の各々についてのランキングスコアに従って、メディアアイテムの複数の2次セットを表示する。
[0242]
いくつかの実施例では、メディア検索要求及び1つ以上の以前のメディア検索要求を受信した順序に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定する。いくつかの実施例では、ユーザが以前に選択したメディアを備えるユーザの選択履歴に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定する。いくつかの実施例では、ユーザのメディア検索履歴に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定する。
[0243]
いくつかの実施例では、メディアアイテムの1次セットは、ユーザインタフェースの最上行に表示され、メディアアイテムの複数の2次セットは、最上行よりも下のユーザインタフェースの後続の行に表示され、後続の行の各行は、1つ以上の2次ユーザ意図のそれぞれの2次ユーザ意図に対応する。
[0244]
いくつかの実施例では、後続の行は、1つ以上の2次ユーザ意図のそれぞれのランキングスコアに従って順序付けられる。
[0245]
いくつかの実施形態によれば、処理ユニット708は、(例えば、入力ユニット703又はオーディオ受信ユニット704で、受信ユニット722又はオーディオ受信可能化ユニット716を用いて)第1のメディア検索要求を受信するように構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)メディア検索要求を満たすメディアアイテムの第1のセットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニットを用いて)ユーザインタフェースを介して、メディアアイテムの第1のセットを表示ユニット上に表示するように更に構成される。メディアアイテムの第1のセットの少なくとも一部分を表示している間、処理ユニット708は、(例えば、入力ユニット703又はオーディオ受信ユニット704で、受信ユニット722又はオーディオ受信可能化ユニット716を用いて)第2のメディア検索要求を受信し、(例えば、取得ユニット718)第2のメディア検索要求が第1のメディア検索要求を絞り込む要求であるかどうかの判定を取得するように更に構成される。処理ユニット708は、第2のメディア検索要求が、第1のメディア検索要求を絞り込む要求であるという判定を取得したことに応じて、(例えば、取得718を用いて)第2のメディア検索要求を満たす、複数のメディアアイテムのサブセットである、メディアアイテムの第2のセットを取得し、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、表示ユニット上のメディアアイテムの第1のセットの少なくとも一部分の表示を、メディアアイテムの第2のセットの少なくとも一部分の表示と入れ替えるように更に構成される。
[0246]
いくつかの実施例では、メディアアイテムの第2のセットの各メディアアイテムは、第1のメディア検索要求の1つ以上のパラメータ値及び第2のメディア検索要求の1つ以上のパラメータ値に関連付けられる。
[0247]
いくつかの実施例では、処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの第1のセットを表示している間、及びメディアアイテムの第2のセットの少なくとも一部分を表示している間、表示ユニット上のメディアコンテンツを表示するように更に構成される。
[0248]
いくつかの実施例では、ユーザインタフェースは、表示ユニットの少なくとも大部分の表示範囲を占めることができる。処理ユニット708は、(例えば、取得ユニット718)第2のメディア検索要求を少なくとも部分的に満たすメディアアイテムの第3のセットを取得するように更に構成され、メディアアイテムの第2のセットとメディアアイテムの第3のセットとは異なる。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、メディアアイテムの第3のセットの少なくとも一部分を表示ユニット上に表示するように更に構成される。
[0249]
いくつかの実施例では、メディアアイテムの第3のセットの各メディアアイテムは、第1のメディア検索要求又は第2のメディア検索要求中で定義された少なくとも1つのパラメータ値に関連付けられる。いくつかの実施例では、メディアアイテムの第2のセットの少なくとも一部分は、ユーザインタフェースの最上行に表示され、メディアアイテムの第3のセットの少なくとも一部分は、ユーザインタフェース上の1つ以上の後続の行に表示される。
[0250]
いくつかの実施例では、第2のメディア検索要求の受信時、ユーザインタフェースのフォーカスは、メディアアイテムのうちの第1のセットのメディアアイテム上にあり、メディアアイテムの第3のセットは、メディアアイテムの第1のセットのメディアアイテムにコンテキストで関係する。
[0251]
いくつかの実施例では、第2のメディア検索要求が、メディア検索要求を絞り込む要求であるかどうかの判定を取得することは、第2のメディア検索要求が、複数の絞り込み用語のうちの1つを包含するかどうかの判定を取得することを含む。
[0252]
いくつかの実施例では、第2のメディア検索要求は、自然言語形式である。いくつかの実施例では、第2のメディア検索要求は、曖昧な用語を使用して、パラメータ値を定義する。
[0253]
いくつかの実施例では、処理ユニット708は、(例えば、特定ユニット720を用いて)自然言語処理を使用して、曖昧な用語とパラメータ値との間の接続強度に基づいてパラメータ値を特定するように更に構成される。
[0254]
いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、クオリティレーティングに関連付けられ、第2のメディア検索要求は、クオリティレーティングに関連付けられたパラメータ値を定義する。いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、所要時間に関連付けられ、第2のメディア検索要求は、所要時間に関連付けられたパラメータ値を定義する。
[0255]
いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、人気率に関連付けられ、第2のメディア検索要求は、人気率に関連付けられたパラメータ値を定義する。
[0256]
いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、公開日に関連付けられ、第2のメディア検索要求は、公開日に関連付けられたパラメータ値を定義する。
[0257]
いくつかの実施例では、処理ユニット708は、第2のメディア検索要求が、第1のメディア検索要求を絞り込む要求であるという判定を取得したことに応じて、(例えば、取得ユニット718を用いて)第2のメディア検索要求を満たすメディアアイテムの第4のセットを取得し、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、表示ユニット上のメディアアイテムの第1のセットの少なくとも一部分の表示を、メディアアイテムの第1のセットとは異なる、メディアアイテムの第4のセットの少なくとも一部分の表示と入れ替えるように更に構成される。
[0258]
いくつかの実施例では、メディアアイテムの第4のセットの各メディアアイテムは、第2のメディア検索要求中で定義された1つ以上のパラメータ値に関連付けられる。
[0259]
いくつかの実施例では、処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの第1のセットを表示している間、及びメディアアイテムの第4のセットの少なくとも一部分を表示している間、表示ユニット上のメディアコンテンツを表示するように更に構成される。
[0260]
いくつかの実施例では、ユーザインタフェースは、表示ユニットの少なくとも大部分の表示範囲を占めることができる。処理ユニット708は、(例えば、取得ユニット718を用いて)メディアアイテムの第5のセットを取得するように更に構成され、メディアアイテムの第5のセットの各メディアアイテムは、第1のメディア検索要求中で定義された1つ以上のパラメータ及び第2のメディア検索要求中で定義された1つ以上のパラメータに関連付けられる。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、メディアアイテムの第5のセットを表示ユニット上に表示するように更に構成される。
[0261]
いくつかの実施例では、第2のメディア検索要求の受信時、ユーザインタフェースのフォーカスは、メディアアイテムの第2のセットの第2のメディアアイテム上にあり、第5のメディアアイテムのうちの1つ以上のメディアアイテムは、メディアアイテムの第1のセットの第2のメディアアイテムに関連付けられるパラメータ値を含む。
[0262]
いくつかの実施例では、ユーザインタフェースのフォーカスは、第2のメディア検索要求の検出時、メディアアイテムの第1のセットのうちの第3のメディアアイテム上にある。処理ユニット708は、第2のメディア検索要求が、第1のメディア検索要求を絞り込む要求ではないという判定を取得したことに応じて、(例えば、取得ユニット718を用いて)第2のメディア検索要求が、メディアアイテムの第1のセットのうちの第3のメディアアイテムに類似するメディアアイテムの代替セットを取得する要求であるかどうかの判定を取得するように更に構成される。処理ユニット708は、第2のメディア検索要求が、メディアアイテムの第1のセットのうちの第3のメディアアイテムに類似するメディアアイテムの代替セットを取得する要求であるという判定を取得したことに応じて、(例えば、取得ユニット718を用いて)メディアアイテムの第6のセットであって、メディアアイテムの第6のセットの各メディアアイテムは、第3のメディアアイテムの1つ以上のパラメータ値に関連付けられる、メディアアイテムの第6のセットを取得し、(例えば、表示可能化ユニット710を用いて)、ユーザインタフェースを介して、メディアアイテムの第6のセットを表示ユニット上に表示するように更に構成される。
[0263]
いくつかの実施例では、第1のメディア検索要求に基づいて文字列検索を実行することによって、メディアアイテムの第1のセットを取得し、第2のメディア検索要求中で定義された1つ以上のパラメータ値に基づいて構造化された検索を実行することによって、メディアアイテムの第2のセットを取得する。
[0264]
いくつかの実施例では、キーボードインタフェースを介して、第1のメディア検索要求を受信し、自然言語発語形式の第2のメディア検索要求を受信する。いくつかの実施例では、構造化された検索は、メディアアイテムの第1のセットを使用して実行される。
[0265]
図5A〜図5Eを参照した上述した動作は、任意選択的に、図1〜図3、図4A及び図4Bに示した構成要素により実装される。例えば、表示動作502、522、534、540、548、564、568、検出動作504、判定動作508、510、538、544、550、552、560、取得動作520、524、536、546、562、566、特定動作526、528、542、554、除外動作558、及び生成動作530、556は、オペレーティングシステム252、GUIモジュール256、アプリケーションモジュール262、I/O処理モジュール428、STT処理モジュール430、自然言語処理モジュール432、タスクフロー処理モジュール436、サービス処理モジュール438、又はプロセッサ(単数又は複数)204、404のうちの1つ以上により実施することができる。当業者には、他の処理が図1〜図3及び図4A〜図4Bに示した構成要素に基づいてどのように実装されるかは明らかであるだろう。
[0266]
いくつかの実施態様によると、コンピュータ可読記憶媒体(例えば、永続的コンピュータ可読記憶媒体)が提供されており、このコンピュータ可読記憶媒体は、電子デバイスの1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶し、この1つ以上のプログラムは、本明細書に記載の方法のいずれかを行う命令を含む。
[0267]
いくつかの実施態様によると、本明細書に記載のいずれかの方法を行う手段を含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
[0268]
いくつかの実施態様によると、本明細書に記載のいずれかの方法を行うよう構成された処理ユニットを含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
[0269]
いくつかの実施態様によると、1つ以上のプロセッサ及び、1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリを含み、この1つ以上のプログラムは、本明細書に記載のいずれかの方法を行う命令を含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
[0270]
上述の説明では、様々な要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のユーザ入力を、第2のユーザ入力と称することがあり、同様に、第2のユーザ入力を、第1のユーザ入力と称することがある。
[0271]
本明細書で説明される様々な実施形態の説明で使用される用語は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用される時、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図されている。本明細書で使用される時に、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上の任意の全ての可能な組み合わせを指し、かつこれを含むことをもまた理解されたい。用語「includes(含む)、「including(含む)」、「comprises(含む)」及び/又は「comprising(含む)」は、本明細書で使用される時、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらの群、の存在又は追加を除外しないことが更に理解されるであろう。
[0272]
用語「if(〜場合に)」は、文脈に応じて「when(〜時に)」、「upon(〜すると)」、「in response to determining(〜という判定に応じて)」、又は「in response to detecting(〜を検出したことに応じて)」を意味すると解釈することができる。同様に、句「if it is determined(〜と判定される場合に)」又は「if[a stated condition or event] is detected([述べられる条件又はイベント]が検出される場合に)」は、文脈に応じて「upon determining(〜と判定される時に)」、「in response to determining(〜との判定に応じて)」、「upon detecting[the stated condition or event]([述べられる条件又はイベント]の検出時に)」、又は「in response to detecting[the stated condition or event]([述べられる条件又はイベント]の検出に応じて)」を意味すると解釈することができる。
[0273]
更に、上述の説明は、説明の目的上、特定の実施形態を参照して説明されている。しかしながら、上記の例示的な論考は、網羅的であること、又は本発明を、開示される厳密な形態に限定することを意図するものではない。上記の教示を鑑みて、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最も良好に説明するために、選択及び説明されたものである。それにより、他の当業者は、想到される具体的な用途に適するような様々な修正を使用して、本技術及び様々な実施形態を最も良好に利用することが可能となる。
[0274]
添付図面を参照して、本開示及び実施例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。このような変更及び修正は、特許請求の範囲によって定義されるとおりの本開示及び実施例の範囲内に含まれるものと理解されるべきである。
[0275]
加えて、本明細書で説明した様々な実施例のいずれでも、様々な態様は、特定のユーザのために個人専用にすることができる。連絡先、好み、位置、お気に入りのメディアなどを含むユーザデータは、音声コマンドを解釈して本明細書で説明した様々なデバイスとのユーザ対話を促進するために使用することができる。本明細書で説明した様々なプロセスはまた、ユーザの好み、連絡先、テキスト、使用履歴、プロフィールデータ、人口統計などに従って、様々な他の方法で変更することができる。加えて、そのような好み及び設定は、ユーザ対話(例えば、頻繁に発言されたコマンド、頻繁に選択されたアプリケーションなど)に基づいて、経時的に更新することができる。様々なソースから使用可能なユーザデータの収集及び利用は、ユーザが興味があり得る招待者だけのコンテンツ又は任意の他のコンテンツのユーザへの配信を改善するために使用することができる。本開示は、いくつかの場合では、この収集されたデータが、特定の個人を一意に識別する又は連絡するため若しくは位置を特定するために使用することができる、個人情報データを含むことができることを意図している。そのような個人情報データとしては、人口統計データ、位置に基づくデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
[0276]
本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データは、ユーザがより興味がある的を絞ったコンテンツを配信するために使用することができる。したがって、そのような個人情報データの使用は、配信されるコンテンツの計算された制御を可能にする。更に、ユーザを利する個人情報データに関するその他の使用もまた、本開示により意図されている。
[0277]
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又はその他の使用に応答するエンティティは、確固たるプライバシーのポリシー及び/又はプライバシー慣行に従うであろうことを更に意図している。具体的には、そのようなエンティティは、個人情報データを秘密で安全に維持するために、産業若しくは政府の要求を満たす又は上回るとして一般的に認識される、プライバシーのポリシー及び慣行を実施及び一貫して使用しなければならない。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザに告知して同意を得た後にのみ実施するべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーのポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるであろう。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
[0278]
上述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する例も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、広告配信サービスの場合において、この技術は、ユーザが、サービスの登録中、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成することができる。別の実施例では、ユーザは、ターゲットコンテンツ配信サービスに位置情報を提供しないように選択することができる。更に別の実施例では、ユーザは、精密な位置情報を提供しないが、位置区域情報の伝送を許可するように選択することができる。
[0279]
それゆえ、本開示は、1つ以上の様々な開示された実施例を実施するための個人情報データの使用を、広範に網羅するものであるが、本開示は、それらの様々な実施例がまた、そのような個人情報データにアクセスすることを必要とせずに実施することも可能である点も、また想到する。すなわち、本技術の様々な実施例は、そのような個人情報データの全て又は一部分の欠如により、実施不可能となるものではない。例えば、コンテンツは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、コンテンツ配信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて好みを推測することにより、選択してユーザに配信することができる。
[書類名]特許請求の範囲
[請求項1]
メディアシステムのデジタルアシスタントを動作させる命令を記憶する非一時的コンピュータ可読媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
メディアアイテムの1次セットをディスプレイ上に表示させ、
ユーザ入力を検出したことに応じて、自然言語発語形式のメディアに関係する要求を包含するオーディオ入力を受信させ、
前記メディアに関係する要求に対応する1次ユーザ意図を判定させ、
前記1次ユーザ意図が、前記メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリに基づいて、前記1次ユーザ意図に対応する第2の1次メディア検索クエリを生成させ、
前記第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第2の1次セットの表示と入れ替えさせる、
非一時的コンピュータ可読媒体。
[請求項2]
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することは、
前記メディアに関係する要求が、前記1次メディア検索クエリを絞り込むユーザ意図に対応する単語又はフレーズを含むかどうかを判定すること
を含む、請求項1に記載の非一時的コンピュータ可読媒体。
[請求項3]
前記第2の1次メディア検索クエリが、前記メディアに関係する要求中で定義された1つ以上のパラメータ値、及び前記1次メディア検索クエリの1つ以上のパラメータ値を含む、請求項1に記載の非一時的コンピュータ可読媒体。
[請求項4]
前記第2の1次メディア検索クエリが、パラメータ値のセットを含み、前記命令が、前記1つ以上のプロセッサに、更に
前記パラメータ値のセットから、パラメータ値のコアセットであって、前記パラメータ値のコアセットが、前記パラメータ値のセットよりも少数のパラメータ値を有する、パラメータ値のコアセットを特定させ、
前記パラメータ値のコアセットに基づいて、1つ以上の追加のメディア検索クエリを生成させ、
前記1つ以上の追加のメディア検索クエリを実行して、メディアアイテムの1つ以上の追加セットを取得させ、
前記メディアアイテムの1つ以上の追加セットを、前記ディスプレイ上に表示させる、
請求項1に記載の非一時的コンピュータ可読媒体。
[請求項5]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むという判定に従って、
前記メディアに関係する要求に基づいて、前記1次ユーザ意図に対応する第3の1次メディア検索クエリを生成させ、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるかどうかを判定させ、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるという判定に従って、
前記第3の1次メディア検索クエリを実行して、メディアアイテムの第3の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第3の1次セットの表示と入れ替えさせる、
請求項1に記載の非一時的コンピュータ可読媒体。
[請求項6]
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することは、
前記メディアに関係する要求が、1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズを含むかどうかを判定することを更に含む、請求項5に記載の非一時的コンピュータ可読媒体。
[請求項7]
前記第3の1次メディア検索クエリを実行することが、パラメータ値に関連付けられる候補メディアアイテムを特定することを含み、前記パラメータ値は、前記特定された候補メディアアイテムの1つ以上のメディア批評家のレビュー中に含まれる、請求項5に記載の非一時的コンピュータ可読媒体。
[請求項8]
前記命令は、前記1つ以上のプロセッサに、更に、
前記第3の1次メディア検索クエリに対応するメディアアイテムがないという判定に従って、
前記第3の1次メディア検索クエリの最も妥当性の低いパラメータ値を特定させ、
前記特定した最も妥当性の低いパラメータ値に基づいて、1つ以上の代替パラメータ値を判定させ、
1つ以上の代替パラメータ値を使用して、1つ以上の代替1次メディア検索クエリを実行して、メディアアイテムの第4の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第4の1次セットの表示と入れ替えさせる、
請求項5に記載の非一時的コンピュータ可読媒体。
[請求項9]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図及び1つ以上の以前のユーザ意図であって、前記1つ以上の以前のユーザ意図が、前記メディアに関係する要求よりも前に受信した1つ以上の以前のメディアに関係する要求に対応する、1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定させ、
前記1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成させ、
前記1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得させ、
前記メディアアイテムの1つ以上の2次セットを、前記ディスプレイ上に表示させる、
請求項5に記載の非一時的コンピュータ可読媒体。
[請求項10]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図と前記1つ以上の以前のユーザ意図との1つ以上の組み合わせを判定させ、前記1つ以上の組み合わせの各々が、少なくとも1つのメディアアイテムと関連付けられ、前記1つ以上の2次意図が、前記1つ以上の組み合わせを含む、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項11]
前記命令は、前記1つ以上のプロセッサに、更に、
第2の電子デバイスから、メディア検索履歴を受信させ、前記第2の電子デバイスから受信した前記メディア検索履歴に基づいて、1つ以上の2次ユーザ意図を生成させる、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項12]
前記オーディオ入力を受信している間に、前記ディスプレイ上に複数のテキストを表示し、
前記複数のテキストが、前記オーディオ入力を受信している間に前記ディスプレイ上に表示した複数のメディアアイテムに関連付けられ、
前記表示した複数のテキストに基づいて、前記1つ以上の2次ユーザ意図を生成する、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項13]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定させ、前記1つ以上の2次ユーザ意図の各々についての前記ランキングスコアに従って、前記メディアアイテムの1つ以上の2次セットを表示する、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項14]
前記1つ以上の2次ユーザ意図の各々についての前記ランキングスコアが、前記メディアに関係する要求及び前記1つ以上の以前のメディアに関係する要求の各々を受信した時刻に基づく、請求項13に記載の非一時的コンピュータ可読媒体。
[請求項15]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリ要求に基づいて、前記1次ユーザ意図に対応する第5の1次メディア検索クエリを生成させ、
前記第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第5の1次セットの表示と入れ替えさせる、
請求項5に記載の非一時的コンピュータ可読媒体。
[請求項16]
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することは、
前記メディアに関係する要求の一部分を表す音素の列が、前記1次メディア検索クエリに対応する以前のメディアに関係する要求の一部分を表す音素の列と実質的に類似しているかどうかを判定することを含む、請求項15に記載の非一時的コンピュータ可読媒体。
[請求項17]
前記第5の1次メディア検索クエリを生成することは、
訂正されない前記1次メディア検索クエリの一部分に関連付けられたメディアアイテムのセットを特定することを含み、訂正されない前記ディア検索クエリの前記一部分に関連付けられた前記メディアアイテムのセットの1つ以上のパラメータ値に基づいて、前記第5の1次メディア検索クエリを生成する、
請求項15に記載の非一時的コンピュータ可読媒体。
[請求項18]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むという判定に従って、
前記メディアに関係する要求に対応する2次ユーザ意図の判定時に、前記1次メディア検索クエリを考慮から除外させる、
請求項15に記載の非一時的コンピュータ可読媒体。
[請求項19]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースであって、前記ユーザインタフェースが、複数のメディアアイテムを含む、ユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むという判定に従って、前記ユーザインタフェースのフォーカスを、前記複数のメディアアイテムのうちの第1のメディアアイテムから前記複数のメディアアイテムのうちの第2のメディアアイテムに変更させる、
請求項15に記載の非一時的コンピュータ可読媒体。
[請求項20]
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうか判定することは、
前記メディアに関係する要求が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む、請求項19に記載の非一時的コンピュータ可読媒体。
[請求項21]
前記ユーザインタフェースが、前記ユーザインタフェース中の前記複数のメディアアイテムに対応する複数のテキストを含み、前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうかの前記判定は、前記複数のテキストに基づく、請求項19に記載の非一時的コンピュータ可読媒体。
[請求項22]
前記命令は、前記1つ以上のプロセッサに、更に、
前記オーディオ入力を受信している間に、
前記オーディオ入力の受信部分に基づいて、仮のユーザ意図を判定させ、
前記仮のユーザ意図を満たすのに必要なデータを特定させ、
前記仮のユーザ意図の判定時に、前記データが、前記メディアシステム上に記憶されているかどうかを判定させ、
前記仮のユーザ意図の判定時に、前記メディアシステム上に前記データが記憶されていないという判定に従って、前記データを取得させる、
請求項1に記載の非一時的コンピュータ可読媒体。
[請求項23]
メディアシステムのデジタルアシスタントを動作させる方法であって、
1つ以上のプロセッサ及びメモリを含む1つ以上の電子デバイスにおいて、
メディアアイテムの1次セットをディスプレイ上に表示することと、
ユーザ入力を検出したことに応じて、自然言語発語形式のメディアに関係する要求を包含するオーディオ入力を受信することと、
前記メディアに関係する要求に対応する1次ユーザ意図を判定すること、
前記1次ユーザ意図が、前記メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することと、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリに基づいて、前記1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することと、
前記第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得することと、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第2の1次セットの表示と入れ替えることと、
を含む方法。
[請求項24]
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することと、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むという判定に従って、
前記メディアに関係する要求に基づいて、前記1次ユーザ意図に対応する第3の1次メディア検索クエリを生成することと、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるかどうかを判定することと、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるという判定に従って、
前記第3の1次メディア検索クエリを実行して、メディアアイテムの第3の1次セットを取得することと、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第3の1次セットの表示と入れ替えることと、
を更に含む、請求項23に記載の方法。
[請求項25]
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定することであって、前記1つ以上の以前のユーザ意図が、前記メディアに関係する要求よりも前に受信した1つ以上の以前のメディアに関係する要求に対応する、1つ以上の2次ユーザ意図を判定することと、
前記1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成することと、
前記1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得することと、
前記メディアアイテムの1つ以上の2次セットを、前記ディスプレイ上に表示することと、
を更に含む、請求項24に記載の方法。
[請求項26]
前記1次ユーザ意図と前記1つ以上の以前のユーザ意図との1つ以上の組み合わせを判定することであって、前記1つ以上の組み合わせの各々が、少なくとも1つのメディアアイテムと関連付けられ、前記1つ以上の2次意図が、前記1つ以上の組み合わせを含む、1つ以上の組み合わせを判定することを更に含む、請求項25に記載の方法。
[請求項27]
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することと、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリ要求に基づいて、前記1次ユーザ意図に対応する第5の1次メディア検索クエリを生成することと、
前記第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得することと、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第5の1次セットの表示と入れ替えることと、
を更に含む、請求項24に記載の方法。
[請求項28]
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうかを判定することであって、前記ユーザインタフェースが、複数のメディアアイテムを含む、ことと、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むという判定に従って、前記複数のメディアアイテムのうちの第1のメディアアイテムから、前記複数のメディアアイテムのうちの第2のメディアアイテムに前記ユーザインタフェースのフォーカスを変更することと、
を含む、請求項27に記載の方法。
[請求項29]
メディアシステムのデジタルアシスタントを動作させるための電子デバイスであって、
1つ以上のプロセッサと、
命令を記憶するメモリと、
を備え、前記命令は、前記プロセッサによって実行されると、前記1つ以上のプロセッサに、
メディアアイテムの1次セットをディスプレイ上に表示させ、
ユーザ入力を検出したことに応じて、自然言語発語形式のメディアに関係する要求を包含するオーディオ入力を受信させ、
前記メディアに関係する要求に対応する1次ユーザ意図を判定させ、
前記1次ユーザ意図が、前記メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリに基づいて、前記1次ユーザ意図に対応する第2の1次メディア検索クエリを生成させ、
前記第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第2の1次セットの表示と入れ替えさせる、
電子デバイス。
[書類名] 要約書
[要約]
メディア環境においてデジタルアシスタントを動作させるためのシステム及びプロセスが開示される。例示的なプロセスでは、メディアアイテムの1次セットを表示することができる。メディアに関係する要求を包含するオーディオ入力を受信することができる。メディアに関係する要求に対応する1次ユーザ意図を判定することができる。1次ユーザ意図が、メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することができる。第2の1次メディア検索クエリは、メディアに関係する要求及び1次メディア検索クエリに基づくことができる。第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得することができる。メディアアイテムの1次セットの表示を、メディアアイテムの第2の1次セットの表示と入れ替えることができる。
[書類名] 図面
[図1]
[図2]
[図3]
[図4A]
[図4B]
[図4C]
[図5A]
[図5B]
[図5C]
[図5D]
[図5E]
[図6A]
[図6B]
[図6C]
[図6D]
[図6E]
[図6F]
[図6G]
[図6H]
[図6I]
[図6J]
[図6K]
[図7]
[関連出願の相互参照]
[0001]
本出願は、2014年6月30日付けで出願された「INTELLIGENT AUTOMATED ASSISTANT FOR TV USER INTERACTIONS」と題する米国特許仮出願第62/019,312号、及び2014年9月26日付けで出願された「INTELLIGENT AUTOMATED ASSISTANT FOR TV USER INTERACTIONS」と題する米国特許出願第14/498,503号に基づく優先権を主張し、これらの出願は、あらゆる目的のためにその全体が参照として本明細書に組み込まれる。
[0002]
本出願はまた、同時係属中の、2014年6月30日付けで出願された「REAL−TIME DIGITAL ASSISTANT KNOWLEDGE UPDATES」と題する米国特許出願第62/019,292号(代理人書類番号106843097900(P22498USP1))に関し、この出願は、その全体が参照として本明細書に組み込まれる。
[技術分野]
[0003]
本出願は、概して、テレビユーザ対話を制御することに関し、より詳細には、テレビユーザ対話を制御するために、仮想アシスタントに対する発語を処理することに関する。
[背景技術]
[0004]
インテリジェント自動アシスタント(又は仮想アシスタント)は、ユーザと電子デバイスとの間の直観的なインタフェースを提供する。これらのアシスタントは、ユーザが、口頭形態及び/又はテキスト形態の自然言語を使用してデバイス又はシステムと対話することを可能にすることができる。例えば、ユーザは、電子デバイスと関連付けられた仮想アシスタントに、自然言語形態の口頭ユーザ入力を提供することによって、電子デバイスのサービスにアクセスすることができる。仮想アシスタントは、ユーザの意図を推測し、ユーザの意図をタスクへと操作できるようにするために、口頭ユーザ入力に対して自然言語処理を実行することができる。次いで、電子デバイスの1つ以上の機能を実行することによってタスクを実行することができ、いくつかの実施例では、関連する出力を自然言語形態でユーザに戻すことができる。
[0005]
携帯電話(例えば、スマートフォン)、タブレットコンピュータなどが、仮想アシスタント制御から恩恵を受ける一方で、多くの他のユーザデバイスには、そのような便利な制御機構がない。例えば、メディア制御デバイス(例えば、テレビ、テレビセットトップボックス、ケーブルボックス、ゲームデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)とのユーザ対話の学習は、複雑で難しいことがある。更に、そのようなデバイス(例えば、オーバージエアTV、サブスクリプションTVサービス、ストリーミングビデオサービス、ケーブルオンデマンドビデオサービス、ウェブベースのビデオサービスなど)を介して利用可能なソースが増えると、一部のユーザには、消費する所望のメディアコンテンツを発見することが煩雑で、面倒でさえあり得る。その結果、多くのメディア制御デバイスは、ユーザエクスペリエンスを低下させ、多くのユーザを失望させることがある。
[発明の概要]
[0006]
仮想アシスタントを使用してテレビ対話を制御するためのシステム及びプロセスを開示する。1つの実施例では、ユーザからの発語入力を受信することができる。その発語入力に基づいて、メディアコンテンツを判定することができる。第1のサイズを有する第1のユーザインタフェースを表示することができ、第1のユーザインタフェースは、メディアコンテンツに選択可能なリンクを含むことができる。選択可能なリンクのうちの1つの選択を受信することができる。その選択に応じて、第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースを表示することができ、第2のユーザインタフェースは、その選択と関連付けられたメディアコンテンツを備える。
[0007]
別の実施例では、第1のディスプレイを有する第1のデバイスにおいて、ユーザからの発語入力を受信することができる。第1のディスプレイ上に表示されたコンテンツに基づいて、この発語入力のユーザの意図を判定することができる。そのユーザ意図に基づいて、メディアコンテンツを判定することができる。第2のディスプレイと関連付けられた第2のデバイス上で、このメディアコンテンツを再生することができる。
[0008]
別の実施例では、ユーザからの発語入力を受信することができ、その発語入力は、テレビディスプレイ上に表示されたコンテンツと関連付けられたクエリを含むことができる。テレビディスプレイ上に表示されたコンテンツのうちの1つ以上とメディアコンテンツの閲覧履歴とに基づいて、クエリのユーザ意図を判定することができる。判定したユーザ意図に基づいて、クエリの結果を表示することができる。
[0009]
別の実施例では、ディスプレイ上にメディアコンテンツを表示することができる。ユーザからの入力を受信することができる。メディアコンテンツ及び/又はメディアコンテンツの閲覧履歴に基づいて、仮想アシスタントクエリを判定することができる。推薦された仮想アシスタントクエリをディスプレイ上に表示することができる。
[図面の簡単な説明]
[0010]
[図1] 仮想アシスタントを使用してテレビユーザ対話を制御するための例示的なシステムを示す図である。
[0011]
[図2] 種々の実施例に係る、例示的なユーザデバイスのブロック図である。
[0012]
[図3] テレビユーザ対話を制御するためのシステムにおける例示的なメディア制御デバイスのブロック図である。
[0013]
[図4A] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[図4C] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[図4D] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[図4E] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[0014]
[図5] 動画コンテンツ上の例示的なメディアコンテンツインタフェースを示す。
[0015]
[図6A] 動画コンテンツ上の例示的なメディア詳細インタフェースを示す図である。
[図6B] 動画コンテンツ上の例示的なメディア詳細インタフェースを示す図である。
[0016]
[図7A] 例示的なメディア遷移インタフェースを示す図である。
[図7B] 例示的なメディア遷移インタフェースを示す図である。
[0017]
[図8A] メニューコンテンツ上の例示的な発語入力インタフェースを示す図である。
[図8B] メニューコンテンツ上の例示的な発語入力インタフェースを示す図である。
[0018]
[図9] メニューコンテンツ上の例示的な仮想アシスタント結果インタフェースを示す図である。
[0019]
[図10] 仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連付けられた情報を表示するための例示的なプロセスを示す図である。
[0020]
[図11] モバイルユーザデバイス上の例示的なテレビメディアコンテンツを示す図である。
[0021]
[図12] 仮想アシスタントを使用した例示的なテレビ制御を示す図である。
[0022]
[図13] モバイルユーザデバイス上の例示的な写真及び動画コンテンツを示す図である。
[0023]
[図14] 仮想アシスタントを使用した例示的なメディア表示制御を示す図である。
[0024]
[図15] モバイルユーザデバイス及びメディア表示デバイス上の結果を備える例示的な仮想アシスタント対話を示す図である。
[0025]
[図16] メディア表示デバイス及びモバイルユーザデバイス上のメディア結果を備える例示的な仮想アシスタント対話を示す図である。
[0026]
[図17] 近接度に基づく例示的なメディアデバイス制御を示す図である。
[0027]
[図18] 仮想アシスタント及び複数のユーザデバイスを使用してテレビ対話を制御するための例示的なプロセスを示す図である。
[0028]
[図19] 動画バックグラウンドコンテンツに関する仮想アシスタントクエリを備える例示的な発語入力インタフェースを示す図である。
[0029]
[図20] 動画コンテンツ上の例示的な情報仮想アシスタント応答を示す図である。
[0030]
[図21] 動画バックグラウンドコンテンツと関連付けられたメディアコンテンツについての仮想アシスタントクエリを備える例示的な発語入力インタフェースを示す図である。
[0031]
[図22] 選択可能なメディアコンテンツを備える例示的な仮想アシスタント応答インタフェースを示す図である。
[0032]
[図23A] プログラムメニューの例示的なページを示す図である。
[図23B] プログラムメニューの例示的なページを示す図である。
[0033]
[図24] カテゴリーに分けられた例示的なメディアメニューを示す図である。
[0034]
[図25] ディスプレイ上の示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用して、テレビ対話を制御するための例示的なプロセスを示す図である。
[0035]
[図26] 動画バックグラウンドコンテンツに基づく仮想アシスタントクエリ推薦を備える例示的なインタフェースを示す図である。
[0036]
[図27] 推薦されたクエリの選択を確認するための例示的なインタフェースを示す図である。
[0037]
[図28A]選択されたクエリに基づく例示的な仮想アシスタント回答インタフェースを示す図である。
[図28B]選択されたクエリに基づく例示的な仮想アシスタント回答インタフェースを示す図である。
[0038]
[図29] メディアコンテンツ通知、及びその通知に基づく仮想アシスタントクエリ推薦を備える例示的なインタフェースを示す図である。
[0039]
[図30] メディア制御デバイス上で再生可能な例示的な写真及び動画コンテンツを備えるモバイルユーザデバイスを示す図である。
[0040]
[図31] 再生可能なユーザデバイスコンテンツに基づき、かつ、別個のディスプレイ上に表示される動画コンテンツに基づく仮想アシスタントクエリ推薦を備える例示的なモバイルユーザデバイスインタフェースを示す図である
[0041]
[図32] 別個のユーザデバイスからの再生可能なコンテンツに基づく仮想アシスタントクエリ推薦を備える例示的なインタフェースを示す図である。
[0042]
[図33] メディアコンテンツを制御するための仮想アシスタント対話を推薦するための例示的なプロセスを示す図である。
[0043]
[図34] 種々の実施例に係る、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連情報を表示するように構成される電子デバイスの機能ブロック図を示す図である。
[0044]
[図35] 種々の実施例に係る、仮想アシスタントと複数のユーザデバイスとを使用してテレビ対話を制御するように構成される電子デバイスの機能ブロック図を示す図である。
[0045]
[図36] 種々の実施例に係る、ディスプレイ上に表示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用してテレビ対話を制御するように構成される電子デバイスの機能ブロック図を示す図である。
[0046]
[図37] 種々の実施例に係る、メディアコンテンツを制御するための仮想アシスタント対話を推薦するように構成された電子デバイスの機能ブロック図を示す図である。
[発明を実施するための形態]
[0047]
以下の実施例の説明では、実践することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができる点を理解されたい。
[0048]
これは、仮想アシスタントを使用してテレビユーザ対話を制御するためのシステム及びプロセスに関する。1つの実施例では、テレビディスプレイ上に表示されるコンテンツを制御するテレビセットトップボックスなどのメディア制御デバイスと対話するために、仮想アシスタントを使用することができる。仮想アシスタントのための発語入力を受信するために、マイクロフォンを備えるモバイルユーザデバイス又は遠隔制御を使用することができる。発語入力からユーザの意図を判定することができ、仮想アシスタントは、接続されたテレビ上でメディアを再生させること、及びテレビセットトップボックス又は同様のデバイスの任意の他の機能を制御すること(例えば、ビデオ録画を管理すること、メディアコンテンツ検索すること、メニューをナビゲートすることなど)を含む、ユーザの意図に従ったタスクを実行することができる。
[0049]
仮想アシスタント対話は、接続されたテレビ又は他のディスプレイ上に表示することができる。1つの実施例では、ユーザから受信した発語入力に基づいて、メディアコンテンツを判定することができる。判定したメディアコンテンツへの選択可能なリンクを含む、第1の小さいサイズの第1のユーザインタフェースを表示することができる。メディアリンクの選択を受信した後、その選択と関連付けられたメディアコンテンツを含む、第2のより大きなサイズの第2のユーザインタフェースを表示することができる。他の実施例では、仮想アシスタント対話を伝達するため使用されるインタフェースは、所望の情報を伝達しながら、占有スペースを最小量にするように拡大又は縮小することができる。
[0050]
いくつかの実施例では、複数のディスプレイと関連付けられた複数のデバイスを使用して、発語入力からユーザ意図を判定するだけでなく、種々のやり方でユーザに情報を伝達することができる。例えば、第1のディスプレイを有する第1のデバイスにおいて、ユーザからの発語入力を受信することができる。第1のディスプレイ上に表示されたコンテンツに基づいて、発語入力からユーザの意図を判定することができる。そのユーザ意図に基づいて、メディアコンテンツを判定することができ、第2のディスプレイと関連付けられた第2のデバイス上で、そのメディアコンテンツを再生することができる。
[0051]
また、発語入力からユーザ意図を判定するために、テレビディスプレイコンテンツをコンテキスト入力として使用することもできる。例えば、ユーザから、テレビディスプレイ上に表示されたコンテンツと関連付けられたクエリを含む発語入力を受信することができる。テレビディスプレイ上に表示されたコンテンツ、並びにテレビディスプレイ上のメディアコンテンツの閲覧履歴に基づいて、クエリのユーザ意図を判定する(例えば、再生中のTV番組におけるキャラクターに基づいてクエリの曖昧性を回避する)ことができる。次いで、判定したユーザ意図に基づいて、クエリの結果を表示することができる。
[0052]
いくつかの実施例では、仮想アシスタントクエリ推薦をユーザに提供することができる(例えば、利用可能なコマンドをユーザに知らせる、面白いコンテンツを推薦する、など)。例えば、ディスプレイ上にメディアコンテンツを表示することができ、ユーザから、仮想アシスタントクエリ推薦を要求する入力を受信することができる。ディスプレイ上に表示されたメディアコンテンツとディスプレイ上に表示されたメディアコンテンツの閲覧履歴とに基づいて、仮想アシスタントクエリーズ推薦を判定することができる(例えば、再生中のTV番組に関するクエリを推薦する)。次いで、推薦された仮想アシスタントクエリをディスプレイ上に表示することができる。
[0053]
本明細書で論じる種々の実施例に従って、仮想アシスタントを使用してテレビユーザ対話を制御すると、効率的で楽しいユーザエクスペリエンスを提供することができる。自然言語クエリ又はコマンドを受信することが可能な仮想アシスタントを使用すると、メディア制御デバイスとのユーザ対話を直観的かつ単純にすることができる。所望に応じて、コンテンツを再生することに基づく有意味なクエリ推薦を含めて、利用可能な機能をユーザに推薦することができ、これは、ユーザが制御能力を学習するのに役立ち得る。更に、直観的な口頭コマンドを使用すると、利用可能なメディアに簡単にアクセスできるようにすることができる。ただし、本明細書で論じる種々の実施例によれば、更に多くの他の利点を達成できることを理解されたい。
[0054]
図1は、仮想アシスタントを使用してテレビユーザ対話を制御するための例示的なシステム100を示す。本明細書で論じるようにテレビユーザ対話を制御することは、1つの種類のディスプレイ技術に基づいたメディアの制御の一例にすぎず、参照のために使用されるものであり、本明細書で論じる概念を使用して、一般的には種々のデバイス及び関連付けられたディスプレイ(例えば、モニタ、ラップトップディスプレイ、デスクトップコンピュータディスプレイ、モバイルユーザデバイスディスプレイ、プロジェクタディスプレイなど)のいずれかの上などで、任意のメディアコンテンツ対話を制御できることを理解されたい。したがって、用語「テレビ」は、種々のデバイスのうちのいずれかと関連付けられる任意の種類のディスプレイを指すことができる。更に、用語「仮想アシスタント」、「デジタルアシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、口頭及び/又はテキスト形式の自然言語入力を解釈してユーザ意図を推測し、推測されたユーザ意図に基づきアクションを実行する任意の情報処理システムを指すことができる。例えば、推定されたユーザ意図に基づいてアクションを行うために、システムは、以下のうちの1つ以上を実行することができる。すなわち、推定されたユーザ意図を果たすように設計されるステップ及びパラメータを有するタスクフローを識別すること、推定されたユーザ意図から具体的な要求をタスクフローに入力すること、プログラム、方法、サービス、APIなどを呼び出すことによりタスクフローを実行すること、並びにユーザへの出力応答を聴覚形態(例えば、口頭形態)及び/又は視覚形態で生成することである。
[0055]
仮想アシスタントは、自然言語コマンド、要求、陳述、叙述、及び/又は照会の形で少なくとも部分的にユーザ要求を受け入れることができる。典型的には、ユーザ要求は、(例えば、特定の媒体を表示させる)仮想アシスタントによる、情報回答又はタスクの実行のいずれかを要求する。ユーザの要求に対する満足な応答は、要求された情報回答を提供すること、要求されたタスクを実行すること、又はその2つの組み合わせを含むことができる。例えば、ユーザは仮想アシスタントに「私は今どこにいますか?」などの質問をすることができる。ユーザの現在の場所に基づき、仮想アシスタントは、「あなたはセントラルパーク内にいます」と回答することができる。ユーザはまた、例えば、「今日午後4時に母に電話することを私に思い出させてください」と、タスクの実行を要求することができる。それに応じて、仮想アシスタントは要求を確認し、次に、ユーザの電子スケジュール内に適当なリマインダ項目を作成することができる。要求されたタスクの実行中、仮想アシスタントは、時には、長時間にわたって情報を複数回交換する連続的なダイアログにおいて、ユーザと対話することができる。情報又は種々のタスクの実行を要求するために仮想アシスタントと対話するやり方は他にも数多く存在する。言葉による応答を提供し、プログラムされたアクションを取ることに加えて、仮想アシスタント、他の視覚形態又はオーディオ形態の応答を(例えば、テキスト、アラート、音楽、動画、アニメーションなどとして)提供することもできる。更に、本明細書で説明するように、例示的な仮想アシスタントは、メディアコンテンツの再生を制御する(例えば、テレビで動画を再生する)ことができ、ディスプレイ上に情報を表示させることができる。
[0056]
仮想アシスタントの1つの例が、その開示全体が参照により本明細書に組み込まれる2011年1月10日付で出願された「Intelligent Automated Assistant」についての本願出願人の米国実用特許出願第12/987,982号に記載されている。
[0057]
図1に示したように、いくつかの実施例では、クライアント−サーバモデルに従って、仮想アシスタントを実装することができる。仮想アシスタントは、ユーザデバイス102上で実行されるクライアント側部分と、サーバシステム110上で実行されるサーバ側部分とを含むことができる。また、遠隔制御106と連携して、テレビセットトップボックス104上でクライアント側部分を実行することができる。ユーザデバイス102は、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、ウェアラブル電子デバイス(例えば、デジタルグラス、リストバンド、腕時計、ブローチ、アームバンドなど)のような任意の電子デバイスを含むことができる。テレビセットトップボックス104は、ケーブルボックス、衛星ボックス、ビデオプレーヤ、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲームシステム、DVDプレーヤ、Blu−ray(登録商標)ディスクプレーヤ、そのようなデバイスの組み合わせなどのような任意のメディア制御デバイスを含むことができる。有線接続又は無線接続を介して、ディスプレイ112及びスピーカ111にテレビセットトップボックス104を接続することができる。(スピーカ111を有する、又は有しない)ディスプレイ112は、テレビディスプレイ、モニタ、プロジェクタなどのような任意の種類のディスプレイとすることができる。いくつかの実施例では、テレビセットトップボックス104は、オーディオシステム(例えば、オーディオ受信器)に接続することができ、スピーカ111は、ディスプレイ112とは別個とすることができる。他の実施例では、ディスプレイ112と、スピーカ111と、テレビセットトップボックス104とを、高度な処理能力及びネットワーク接続能力をもつ、スマートテレビなどの単一のデバイスに一緒に組み込むことができる。そのような実施例では、複合デバイス上のアプリケーションとしてテレビセットトップボックス104の機能を実行することができる。
[0058]
いくつかの実施例では、テレビセットトップボックス104は、メディアコンテンツの複数の種類及びソースについてのメディア制御センターとして機能することができる。例えば、テレビセットトップボックス104は、生放送のテレビ(例えば、オーバージエアテレビ、衛星テレビ、又はケーブルテレビ)へのユーザアクセスを可能にすることができる。したがって、テレビセットトップボックス104は、ケーブルチューナ、衛星チューナなどを含むことができる。いくつかの実施例では、テレビセットトップボックス104はまた、後でタイムシフト視聴するためにテレビプログラムを録画することができる。他の実施例では、テレビセットトップボックス104は、(例えば、種々の無料の、有料の、及びサブスクリプションベースのストリーミングサービスから)ケーブル配信されるオンデマンドのテレビ番組、動画及び音楽、並びにインターネット配信されるテレビ番組、動画及び音楽など、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、テレビセットトップボックス104は、モバイルユーザデバイスから写真を表示すること、結合された記憶デバイスから動画を再生すること、結合された音楽プレーヤから音楽を再生することなど、任意の他のソースからのメディアコンテンツの再生又は表示を可能にすることができる。また、テレビセットトップボックス104はまた、所望に応じて、本明細書で論じるメディア制御特徴部の種々の他の組み合わせを含むことができる。
[0059]
ユーザデバイス102及びテレビセットトップボックス104は、1つ以上のネットワーク108を介してサーバシステム110と通信することができ、1つ以上のネットワーク108は、インターネット、イントラネット、又は任意の他の有線若しくは無線のパブリック若しくはプライベートネットワークを含むことができる。更に、ユーザデバイス102は、ネットワーク108を介して、又は、任意の他の有線通信機構又は無線通信機構(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、無線周波数、赤外線伝送など)により直接、テレビセットトップボックス104と通信することができる。例示したように、遠隔制御106は、ネットワーク108を介することを含めて、有線接続、又は任意の種類の無線通信(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、無線周波数、赤外線伝送など)などの任意の種類の通信を使用して、テレビセットトップボックス104と通信することができる。いくつかの実施例では、ユーザは、ユーザデバイス102、遠隔制御106、又はテレビセットトップボックス104内に組み込まれるインタフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を介して、テレビセットトップボックス104と対話することができる。例えば、ユーザデバイス102及び/又は遠隔制御106において、仮想アシスタントのためのメディアに関係するクエリ又はコマンドを含む発語入力を受信することができ、その発語入力を使用して、メディアに関係するタスクをテレビセットトップボックス104上で実行させることができる。同様に、ユーザデバイス102及び/又は遠隔制御106において(並びに、図示されていない他のデバイスから)、テレビセットトップボックス104上でメディアを制御するための触覚コマンドを受信することができる。したがって、種々のやり方でテレビセットトップボックス104の種々の機能を制御することができ、ユーザには、複数のデバイスからのメディアコンテンツを制御するための複数のオプションが与えられる。
[0060]
遠隔制御106を用いてユーザデバイス102及び/又はテレビセットトップボックス104上で実行される例示的な仮想アシスタントのクライアント側部分は、ユーザ対応入力及び出力処理及びサーバシステム110との通信など、クライアント側機能を提供することができる。サーバシステム110は、それぞれのユーザデバイス102又はそれぞれのテレビセットトップボックス104上に常駐している任意の数のクライアントに、サーバ側機能を提供することができる。
[0061]
サーバシステム110は、クライアント対応I/Oインタフェース122と、1つ以上の処理モジュール118と、データ及びモデルストレージ120と、外部サービスへのI/Oインタフェース116とを含むことができる1つ以上の仮想アシスタントサーバ114を含むことができる。クライアント対応I/Oインタフェース122は、仮想アシスタントサーバ114のためのクライアント対応入力及び出力処理を可能にすることができる。1つ以上の処理モジュール118は、自然言語入力に基づいてユーザの意図を判断するために、データ及びモデルストレージ120を利用することができ、推定されたユーザ意図に基づいてタスク実行を行うことができる。いくつかの実施例では、仮想アシスタントサーバ114は、タスク完了又は情報収集のためにネットワーク(単数又は複数)108を介して、電話サービス、カレンダーサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビプログラムサービス、ストリーミングメディアサービスなどの外部サービス124と通信することができる。外部サービスへのI/Oインタフェース116は、このような通信を可能にすることができる。
[0062]
サーバシステム110は、1つ以上のスタンドアロンデータ処理デバイス、又はコンピュータの分散型ネットワーク上に実装することができる。また、いくつかの実施例では、サーバシステム110は、サーバシステム110の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供するために、種々の仮想デバイス及び/又はサードパーティサービスプロバイダ(例えば、サードパーティクラウドサービスプロバイダ)のサービスを採用することができる。
[0063]
仮想アシスタントの機能は、クライアント側部分とサーバ側部分の双方を含むものとして図1に示されているが、いくつかの実施例では、ユーザデバイス、テレビセットトップボックス、スマートテレビなどにインストールされたスタンドアロンアプリケーションとして、アシスタントの機能(又は、一般的には、発語認識及びメディア制御)を実装することができる。更に、異なる実施例にでは、仮想アシスタントのクライアント部分とサーバ部分との間の機能の分配を変動させることができる。例えば、いくつかの実施例では、ユーザデバイス102又はテレビセットトップボックス104上で実行されるクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、バックエンドサーバに仮想アシスタントの全ての他の機能を委ねるシンクライアントとすることができる。
[0064]
図2は、種々の実施例に係る、例示的なユーザデバイス102のブロック図を示す。ユーザデバイス102は、メモリインタフェース202、1つ以上のプロセッサ204、及び周辺機器インタフェース206を含むことができる。1つ以上の通信バス又は信号線によって、ユーザデバイス102内の種々の構成要素を1つに結合することができる。ユーザデバイス102は、周辺機器インタフェース206に結合される種々のセンサ、サブシステム、及び周辺デバイスを更に含むことができる。センサ、サブシステム、及び周辺デバイスは情報を収集し、及び/又はユーザデバイス102の種々の機能を可能にすることができる。
[0065]
例えば、ユーザデバイス102は、向き、光、及び近接度の検知機能を可能にするための動きセンサ210、光センサ212、及び近接センサ214を含むことができ、それらは、周辺機器インタフェース206に結合される。また、関係する機能を可能にするために、測位システム(例えば、GPS受信機)、温度センサ、生体測定センサ、ジャイロスコープ、コンパス、加速度計、及び同様のものなどの、1つ以上の他のセンサ216を周辺機器インタフェース206に接続することができる。
[0066]
いくつかの実施例では、カメラサブシステム220及び光学センサ222を利用して、写真の撮影及びビデオクリップの録画などの、カメラ機能を可能にすることができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができ、1つ以上の有線及び/又は無線通信サブシステム224を介して、通信機能を可能にすることができる。音声認識機能、音声複製機能、デジタル録音機能、及び電話機能などの音声対応機能を可能にするために、オーディオサブシステム226をスピーカ228及びマイクロフォン230に結合することができる。
[0067]
いくつかの実施例では、ユーザデバイス102は、周辺機器インタフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は、タッチスクリーンコントローラ242及び/又は他の入力コントローラ(単数又は複数)244を含むことができる。タッチスクリーンコントローラ242は、タッチスクリーン246に結合することができる。タッチスクリーン246及びタッチスクリーンコントローラ242は、例えば、容量性、抵抗性、赤外線、表面弾性波技術、近接センサアレイなどの複数のタッチ感知技術のうちのいずれかを用いて、接触及びその移動又は中断を検出することができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなど、他の入力/制御デバイス248に結合することができる。
[0068]
いくつかの実施例では、ユーザデバイス102は、メモリ250に結合されたメモリインタフェース202を更に含むことができる。メモリ250は、任意の、電子、磁気、光学、電磁、赤外若しくは半導体システム、装置若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読み出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R若しくはDVD−RWなどのポータブル光ディスク、又はコンパクトフラッシュカード、セキュアなデジタルカード、USBメモリデバイス、メモリースティックなどのフラッシュメモリなどを含むことができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体を使用して、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行することができる他のシステムなどの、命令実行システム、装置、若しくはデバイスによって、又はそれらと共に使用するための(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令を記憶することができる。他の実施例では、(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令は、サーバシステム110の非一時的コンピュータ可読記憶媒体上に記憶されても、あるいはメモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体とに分割してもよい。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0069]
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインタフェースモジュール256、センサ処理モジュール258、電話モジュール260、及びアプリケーション262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加のデバイス、1つ以上のコンピュータ及び/又は1つ以上のサーバとの通信を可能にすることができる。グラフィカルユーザインタフェースモジュール256はグラフィックユーザインタフェース処理を可能にすることができる。センサ処理モジュール258はセンサに関係する処理及び機能を可能にすることができる。電話モジュール260は電話に関係するプロセス及び機能を可能にすることができる。アプリケーションモジュール262は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング及び/又はその他のプロセス及び機能などの、ユーザアプリケーションの種々の機能性を可能にすることができる。
[0070]
本明細書で説明するように、メモリ250はまた、例えば仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール264内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビプログラムの好みなど)も記憶することができる。また、ユーザデータ266は、仮想アシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。
[0071]
種々の実施例では、仮想アシスタントクライアントモジュール264は、ユーザデバイス102の種々のユーザインタフェース(例えば、I/Oサブシステム240、オーディオサブシステム226など)を通じて音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントトクライアントモジュール264はまた、オーディオ(例えば、発語出力)形態、視覚形態、及び/又は触覚形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール264は、通信サブシステム224を用いて仮想アシスタントサーバと通信することができる。
[0072]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話及び/又は現在のユーザ入力と関連付けられたコンテキストを確立するために、種々のセンサ、サブシステム及び周辺デバイスを利用してユーザデバイス102の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、テレビセットトップボックス104からの情報など、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力と共にコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、コンテキスト情報を使用して、ユーザへの出力をどのように準備し、配信するのかを判定することができる。更に、正確な発語認識をサポートするために、ユーザデバイス102又はサーバシステム110によりコンテキスト情報を使用することができる。
[0073]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、周囲環境の画像又は動画、他のオブジェクトまでの距離などの、センサ情報を含むことができる。コンテキスト情報は、ユーザデバイス102の物理状態(例えば、デバイスの向き、デバイスの位置、デバイスの温度、電力レベル、速度、加速度、モーションパターン、セルラー信号強度など)、又はユーザデバイス102のソフトウェア状態(例えば、実行中の処理、インストールされているプログラム、過去及び現在のネットワークアクティビティ、バックグラウンドサービス、エラーログ、リソース使用など)と関連付けられた情報を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザと関連付けられた他のデバイスの状態と関連付けられた情報(例えば、テレビセットトップボックス104により表示されたメディアコンテンツ、テレビセットトップボックス104が利用可能なメディアコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報のうちのいずれかを、ユーザ入力と関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供することができる(あるいは、ユーザデバイス102自体で使用することができる)。
[0074]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、仮想アシスタントサーバ114からの要求に応じて、ユーザデバイス102に記憶された情報(例えば、ユーザデータ266)を選択的に提供することができる(あるいは、発語認識及び/又は仮想アシスタント機能を実行する際にユーザデバイス102自体で使用することができる)。仮想アシスタントクライアントモジュール264はまた、仮想アシスタントサーバ114による要求時に、自然言語ダイアログ又は他のユーザインタフェースを介して、ユーザからの追加入力も引き出すことができる。仮想アシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0075]
種々の実施例では、メモリ250は追加の命令又はより少数の命令を含むことができる。更に、ユーザデバイス102の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装され得る。
[0076]
図3は、テレビユーザ対話を制御するためのシステム300における例示的なテレビセットトップボックス104のブロック図である。システム300は、システム100の要素のサブセットを含むことができる。いくつかの実施例では、システム300は、ある特定の機能のみを実行することができ、他の機能を実行するために、システム100の他の要素と一緒に機能することができる。例えば、システム300の要素は、サーバシステム110と対話することなく、ある特定のメディア制御機能(例えば、ローカルに記憶されたメディアの再生、録画機能、チャンネル同調など)を処理することができ、システム300は、システム100のサーバシステム110及び他の要素と連携して、他のメディア制御機能(例えば、遠隔に記憶されたメディアの再生、メディアコンテンツのダウンロード、ある特定の仮想アシスタントクエリの処理など)を処理することができる。他の実施例では、システム300の要素は、ネットワークを介して外部サービス124にアクセスすることを含む、より大きいシステム100の機能を実行することができる。種々の他の方法で、ローカルデバイスとリモートサーバデバイスとで機能を分配してもよいことを理解されたい。
[0077]
図3に示すように、1つの実施例では、テレビセットトップボックス104は、メモリインタフェース302、1つ以上のプロセッサ304、及び周辺機器インタフェース306を含むことができる。1つ以上の通信バス又は信号線によって、テレビセットトップボックス104内の種々の構成要素を1つに結合することができる。テレビセットトップボックス104は、周辺機器インタフェース306に結合される種々のセンサ、サブシステム、及び周辺デバイスを更に含むことができる。サブシステム、及び周辺デバイスは情報を収集し、及び/又はテレビセットトップボックス104の種々の機能を可能にすることができる。
[0078]
例えば、テレビセットトップボックス104は、通信サブシステム324を含むことができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができ、1つ以上の有線及び/又は無線通信サブシステム324を介して、通信機能を可能にすることができる。
[0079]
いくつかの実施例では、テレビセットトップボックス104は、周辺機器インタフェース306に結合されたI/Oサブシステム340を更に含むことができる。I/Oサブシステム340は、オーディオ/動画出力コントローラ370を含むことができる。オーディオ/動画出力コントローラ370は、ディスプレイ112及びスピーカ111に結合され得、あるいは場合によっては、(例えば、オーディオ/動画ポート、無線伝送などを介して)オーディオ及び動画出力を提供することができる。I/Oサブシステム340は、遠隔コントローラ342を更に含むことができる。遠隔コントローラ342を、(例えば、有線接続、Bluetooth(登録商標)、Wi−Fi(登録商標)などを介して)遠隔制御106に通信可能に結合することができる。遠隔制御106は、オーディオ入力(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン372と、触覚入力をキャプチャするためのボタン(単数又は複数)374と、遠隔コントローラ342を介したテレビセットトップボックス104との通信を可能にするための送受信機376とを含むことができる。遠隔制御106はまた、キーボード、ジョイスティック、タッチパッドなどのような他の入力機構を含むことができる。遠隔制御106は、光、ディスプレイ、スピーカなどのような出力機構を更に含むことができる。遠隔制御106において受信した入力(例えば、ユーザ発語、ボタンの押下など)を、遠隔コントローラ342を介してテレビセットトップボックス104に通信することができる。I/Oサブシステム340は、他の入力コントローラ(単数又は複数)344を更に含むことができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなど、他の入力/制御デバイス348に結合することができる。
[0080]
いくつかの実施例では、テレビセットトップボックス104は、メモリ350に結合されたメモリインタフェース302を更に含むことができる。メモリ350は、任意の、電子、磁気、光学、電磁、赤外若しくは半導体システム、装置若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読み出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R若しくはDVD−RWなどのポータブル光ディスク、又はコンパクトフラッシュカード、セキュアなデジタルカード、USBメモリデバイス、メモリースティックなどのフラッシュメモリなどを含むことができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体を使用して、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行することができる他のシステムなどの、命令実行システム、装置、若しくはデバイスによって、又はそれらと共に使用するため(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令を記憶することができる。他の実施例では、(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令は、サーバシステム110の非一時的コンピュータ可読記憶媒体上に記憶されても、あるいはメモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体とに分割してもよい。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0081]
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインタフェースモジュール356、オンデバイスメディアモジュール358、オフデバイスメディアモジュール360、及びアプリケーション362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加のデバイス、1つ以上のコンピュータ及び/又は1つ以上のサーバとの通信を可能にすることができる。グラフィカルユーザインタフェースモジュール356はグラフィックユーザインタフェース処理を可能にすることができる。オンデバイスメディアモジュール358は、テレビセットトップボックス104上にローカルに記憶されたメディアコンテンツ、及びローカルに利用可能な他のメディアコンテンツの記憶及び再生(例えば、ケーブルチャンネルの同調)を可能にすることができる。オフデバイスメディアモジュール360は、(例えば、リモートサーバ上、ユーザデバイス102上などに)遠隔に記憶されたメディアコンテンツのストリーミング再生又はダウンロードを可能にすることができる。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ゲーム、及び/又は他のプロセス及び機能などの、ユーザアプリケーションの種々の機能性を可能にすることができる。
[0082]
本明細書で説明するように、メモリ350はまた、例えば仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール364内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビプログラムの好みなど)も記憶することができる。また、ユーザデータ366は、仮想アシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。
[0083]
種々の実施例では、仮想アシスタントクライアントモジュール364は、テレビセットトップボックス104の種々のユーザインタフェース(例えば、I/Oサブシステム340など)を通じて音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントクライアントモジュール364はまた、オーディオ形態(例えば、発語出力)、視覚形態、及び/又は触覚形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール364は、通信サブシステム324を用いて仮想アシスタントサーバと通信することができる。
[0084]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザ、現在のユーザ対話及び/又は現在のユーザ入力と関連付けられたコンテキストを確立するために、種々のセンサ、サブシステム及び周辺デバイスを利用してテレビセットトップボックス104の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、ユーザデバイス102からの情報など、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザの意図の推測を助けるために、ユーザ入力と共にコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、コンテキスト情報を使用して、ユーザへの出力をどのように準備し、配信するのかを判定することができる。更に、正確な発語認識をサポートするために、テレビセットトップボックス104又はサーバシステム110によりコンテキスト情報を使用することができる。
[0085]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、他のオブジェクトまでの距離などの、センサ情報を含むことができる。コンテキスト情報は、テレビセットトップボックス104の物理状態(例えば、デバイスの位置、デバイスの温度、電力レベルなど)、又はテレビセットトップボックス104のソフトウェア状態(例えば、実行中の処理、インストールされているプログラム、過去及び現在のネットワークアクティビティ、バックグラウンドサービス、エラーログ、リソース使用など)と関連付けられた情報を更に含むことができる。コンテキスト情報は、接続されたデバイス、又はユーザと関連付けられた他のデバイスの状態と関連付けられた情報(例えば、ユーザデバイス102により表示されたコンテンツ、ユーザデバイス102上の再生可能なコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報のうちのいずれかを、ユーザ入力と関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供することができる(あるいは、テレビセットトップボックス104自体で使用することができる)。
[0086]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、仮想アシスタントサーバ114からの要求に応じて、テレビセットトップボックス104に記憶された情報(例えば、ユーザデータ366)を選択的に提供することができる(あるいは、発語認識及び/又は仮想アシスタント機能を実行する際にテレビセットトップボックス104自体で使用することができる)。仮想アシスタントクライアントモジュール364はまた、仮想アシスタントサーバ114による要求時に、自然言語ダイアログ又は他のユーザインタフェースを介して、ユーザからの追加入力も引き出すことができる。仮想アシスタントクライアントモジュール364は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0087]
種々の実施例では、メモリ350は追加の命令又はより少数の命令を含むことができる。更に、テレビセットトップボックス104の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0088]
システム100及びシステム300は、図1及び図3に示した構成要素及び構成には限定されず、同様に、ユーザデバイス102、テレビセットトップボックス104及び遠隔制御106は、図2及び図3に示した構成要素及び構成には限定されないことを理解されたい。システム100、システム300、ユーザデバイス102、テレビセットトップボックス104及び遠隔制御106は全て、種々の実施例に係る複数の構成において、より少数のあるいは他の構成要素を含むことができる。
[0089]
本開示全体にわたって、「システム」に言及した場合、システム100、システム300、又はシステム100若しくはシステム300のいずれかの1つ以上の要素を含むことができる。例えば、本明細書で言及する典型的なシステムは、少なくとも、遠隔制御106及び/又はユーザデバイス102からユーザ入力を受信するテレビセットトップボックス104を含むことができる。
[0090]
図4A〜図4Eは、ユーザに発語入力情報を伝達するためにディスプレイ(ディスプレイ112など)上に表示することができる例示的な発語入力インタフェース484を示す。1つの実施例では、発語入力インタフェース484を動画480上に表示することができ、動画480は、任意の動画像又は休止した動画を含むことができる。例えば、動画480は、生放送のテレビ、再生動画、ストリーミング映画、録画プログラムの再生などを含むことができる。発語入力インタフェース484は、動画480のユーザ閲覧と著しく干渉しないように、最小量のスペースを占めるように構成され得る。
[0091]
1つの実施例では、コマンド又はクエリを含んでいる発語入力をリッスンする(又は、後続の処理のために発語入力の記録を開始する、若しくは発語入力のリアルタイム処理を開始する)ために、仮想アシスタントをトリガーすることができる。例えば、ユーザが、遠隔制御106上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の仮想ボタンを押すこと、ユーザが、常時リッスンデバイスにより認識可能なトリガーフレーズを発すること(例えば、コマンドのリッスンを開始するように「Hey Assistant」と発すること)、ユーザが、センサにより検出可能なジェスチャを行うこと(例えば、カメラの前で合図すること)などの指示を含む、種々のやり方でリッスンをトリガーすることができる。別の実施例では、ユーザは、リッスンを開始するために、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができる。更に他の実施例では、ユーザは、クエリ又はコマンドを発語しながら、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができ、終了時にボタンを離すことができる。同様に、ユーザからの発語入力の受信を開始するために、種々の他の指示を受信することができる。
[0092]
発語入力をリッスンする指示を受信したことに応じて、発語入力インタフェース484を表示することができる。図4Aは、ディスプレイ112の下部分から上向きに拡張する通知エリア482を示す。発語入力をリッスンする指示を受信すると、通知エリア482に発語入力インタフェース484を表示することができ、図示のように、ディスプレイ112の閲覧エリアの下縁部から上向きにスライドするようにそのインタフェースをアニメーション化することができる。図4Bは、上向きにスライドして現れた後の発語入力インタフェース484を示す。発語入力インタフェース484は、動画480とのと干渉を回避するために、ディスプレイ112下部において最小量のスペースを占めるように構成することができる。発語入力をリッスンする指示を受信したことに応じて、準備完了確認486を表示することができる。準備完了確認486は、図示のようなマイクロフォンのシンボルを含むことができ、あるいは、システム(例えば、システム100の1つ以上の要素)がユーザからの発語入力をキャプチャする準備ができていることを伝達する任意の他の画像、アイコン、アニメーション又はシンボルを含むことができる。
[0093]
ユーザが発語し始めると、システムが発語入力をキャプチャしていることを確認するために、図4Cに示したリッスン確認487を表示することができる。いくつかの実施例では、発語入力を受信したこと(例えば、発語をキャプチャしたこと)に応じて、リッスン確認487を表示することができる。他の実施例では、所定の時間(例えば、500ミリ秒、1秒、3秒など)にわたって準備完了確認486を表示することができ、その後に、リッスン確認487を表示することができる。リッスン確認487は、図示のような波形シンボルを含むことができ、あるいは、ユーザ発語に応じて動く(例えば、周波数を変える)アクティブな波形アニメーションを含むことができる。他の実施例では、リッスン確認487は、任意の他の画像、アイコン、アニメーション、又はシステムがユーザからの発語入力をキャプチャしていることを伝達するシンボルを含むことができる。
[0094]
(例えば、休止、クエリの終わりを示す発語解釈、又は任意の他のエンドポイント検出法に基づいて)ユーザが発語し終えたことを検出すると、システムが発語入力のキャプチャを完了し、発語入力を処理していること(例えば、発語入力の解釈、ユーザ意図の判定、及び/又は関連付けられたタスクの実行)を確認するために、図4Dに示した処理確認488を表示することができる。処理確認488は、図示のような砂時計のシンボルを含むことができ、あるいは、キャプチャした発語入力をシステムが処理していることを伝達する任意の他の画像、アイコン、アニメーション又はシンボルを含むことができる。別の実施例では、処理確認488は、回転している円、又は円の周りを動く色のついた/光る点のアニメーションを含むことができる。
[0095]
キャプチャした発語入力をテキストとして解釈した後(又は、発語入力をテキストに正常に変換したことに応じて)、システムが発語入力を受信し解釈したことを確認するために、図4Eに示したコマンド受信確認490及び/又は音声表記492を表示することができる。音声表記492は、受信した発語入力(例えば、「現在、どんなスポーツイベントが放送されているか?」)の音声表記を含むことができる。いくつかの実施例では、ディスプレイ112の下部から、音声表記492をスライドアップさせるようにアニメーション化することができ、図4Eに示した位置に、しばらくの間(例えば、数秒)表示することができ、次いで、(例えば、あたかもテキストがスクロールアップして、最終的にビューから消えるかのように)音声表記を発語入力インタフェース484の上部までスライドアップさせてビューから消すことができる。他の実施例では、音声表記を表示しないことがあり、ユーザのコマンド又はクエリを処理することができ、音声表記を表示することなく、関連付けられたタスクを実行することができる(例えば、単純なチャンネルの変更は、ユーザの発語の音声表記を表示することなく、直ぐに実行することができる)。
[0096]
他の実施例では、ユーザが発語するにつれて、発語の音声表記をリアルタイムで実行することができる。単語を音声表記しながら、発語入力インタフェース484に単語を表示することができる。例えば、リッスン確認487の横に単語を表示することができる。ユーザが発語し終えた後に、コマンド受信確認490を一時的に表示し、その後、ユーザのコマンドと関連付けられたタスクを実行することができる。
[0097]
更に、他の実施例では、コマンド受信確認490は、受信して理解したコマンドに関する情報を伝達することができる。例えば、別のチャンネルに変えるという単純な要求の場合、チャンネルを変えた時に、(例えば、数秒間にわたって)コマンド受信確認490としてそのチャンネルと関連付けられたロゴ又は番号を一時的に表示することができる。別の実施例では、動画(例えば、動画480)を休止するという要求の場合、コマンド受信確認490として、休止シンボル(例えば、2本の垂直方向の平行なバー)を表示することができる。休止シンボルは、例えば、ユーザが別のアクションを実行する(例えば再生を再開する再生コマンドを出す)まで、ディスプレイ上に残ることができる。同様に、任意の他のコマンドについて、シンボル、ロゴ、アニメーションなど(例えば、巻戻し、早送り、停止、再生などのためのシンボル)表示することができる。したがって、コマンド受信確認490を使用して、コマンド固有の情報を伝達することができる。
[0098]
いくつかの実施例では、ユーザクエリ又はコマンドの受信後、発語入力インタフェース484を隠すことができる。例えば、発語入力インタフェース484は、ディスプレイ112の下部から消えるまで、下向きにスライドするようにアニメーション化され得る。更なる情報をユーザに表示する必要がない場合には、発語入力インタフェース484を非表示にすることができる。例えば、一般的な又は簡単なコマンド(例えば、チャンネル10に変更、スポーツチャンネルに変更、再生、休止、早送り、巻戻しなど)の場合、コマンドの受信を確認した後直ちに発語入力インタフェース484を非表示にすることができ、関連付けられたタスク(単数又は複数)を直ちに実行することができる。本明細書の種々の実施例は、ディスプレイの下部又は上縁部にあるインタフェースを例示し、それについて説明しているが、ディスプレイの周りの他の場所に、種々のインタフェースのうちのいずれかを配置できることを了解されたい。例えば、発語入力インタフェース484は、ディスプレイ112の側縁部から、ディスプレイ112の中心、ディスプレイ112の隅角部などに出現することができる。同様に、本明細書で説明する種々の他のインタフェースの実施例は、ディスプレイ上の種々の異なる場所に、種々の異なる向きで配列することができる。更に、本明細書で説明する種々のインタフェースは、不透明であるものとして示されているが、種々のインタフェースのうちのいずれかは、透明とすることができ、あるいは場合によっては、画像(ぼやけた画像又は画像全体)を、インタフェースを介して閲覧できるようにする(例えば、下にあるメディアコンテンツを完全に不明瞭にすることなく、メディアコンテンツ上にインタフェースコンテンツを重ねる)ことができる。
[0099]
他の実施例では、発語入力インタフェース484内に、又は異なるインタフェースに、クエリの結果を表示することができる。図5は、動画480上の例示的なメディアコンテンツインタフェース510を示し、図4Eの音声表記されたクエリの例示的な結果が表示されている。いくつかの実施例では、仮想アシスタントクエリの結果は、テキストコンテンツの代わりに、又はそれに加えてメディアコンテンツを含むことができる。例えば、仮想アシスタントクエリの結果は、テレビプログラム、動画、音楽などを含むことができる。いくつかの結果は、再生のために直ちに利用可能なメディアを含むことができる一方で、他の結果は、購入などのために利用可能であり得るメディアを含むことができる。
[0100]
図示のとおり、メディアコンテンツインタフェース510は、発語入力インタフェース484よりも大きいサイズとすることができる。1つの実施例では、発語入力インタフェース484は、発語入力情報に適応するようにより小さい第1のサイズのものとすることができ、メディアコンテンツインタフェース510は、クエリ結果に適応するようにより大きい第2のサイズとすることができ、メディアコンテンツインタフェース510は、テキスト、静止画像像及び動画像を含むことができる。このようにすると、仮想アシスタント情報を伝達するためのインタフェースのサイズは、伝達されるコンテンツに応じた縮尺にすることができ、それにより、スクリーンの面積への侵入が制限される(例えば、動画480などの他のコンテンツの遮蔽が最小限に抑えられる)。
[0101]
例示したように、メディアコンテンツインタフェース510は、(仮想アシスタントクエリの結果として)選択可能な動画リンク512、選択可能なテキストリンク514、及び追加のコンテンツリンク513を含むことができる。いくつかの実施例では、遠隔制御(例えば、遠隔制御106)を使用して、フォーカス、カーソルなどを特定の要素にナビゲートし、それを選択することによって、リンクを選択することができる。他の実施例では、仮想アシスタントへの音声コマンド(例えば、そのサッカーの試合を視聴する、バスケットボールの試合に関する詳細を表示する、など)を使用して、リンクを選択することができる。選択可能な動画リンク512は、静止画像又は動画像を含むことができ、関連付けられた動画を再生させるために選択可能であり得る。1つの実施例では、選択可能な動画リンク512は、関連付けられた動画コンテンツの再生動画を含むことができる。別の実施例では、選択可能な動画リンク512は、テレビチャンネルのライブフィードを含むことができる。例えば、選択可能な動画リンク512は、テレビで現在放送されているスポーツイベントに関する仮想アシスタントクエリの結果として、スポーツチャネルのサッカーの試合のライブフィードを含むことができる。選択可能な動画リンク512はまた、任意の他の動画、アニメーション、画像など(例えば、三角形の再生シンボル)を含むことができる。更に、リンク512は、映画、テレビ番組、スポーツイベント、音楽などのような、任意の種類のメディアコンテンツにリンクすることができる。
[0102]
選択可能なテキストリンク514は、選択可能な動画リンク512と関連付けられたテキストコンテンツを含むことができ、あるいは、仮想アシスタントクエリの結果のテキストレプリゼンテーションを含むことができる。1つの実施例では、選択可能なテキストリンク514は、仮想アシスタントクエリの結果として生じるメディアの記述を含むことができる。例えば、選択可能なテキストリンク514は、テレビプログラムの名前、映画のタイトル、スポーツイベントの記述、テレビチャンネルの名前又は番号などを含むことができる。1つの実施例では、テキストリンク514の選択は、関連付けられたメディアコンテンツを再生することができる。別の例では、テキストリンク514の選択は、メディアコンテンツ又は他の仮想アシスタントクエリ結果に関する追加の詳細を提供することができる。追加のコンテンツリンク513は、仮想アシスタントクエリの追加の結果にリンクし、それを表示させることができる。
[0103]
ある特定のメディアコンテンツの実施例が図5に示されているが、メディアコンテンツについての仮想アシスタントクエリの結果として、任意の種類のメディアコンテンツを含んでもよいことを了解されたい。例えば、仮想アシスタントの結果として戻され得るメディアコンテンツとして、動画、テレビプログラム、音楽、テレビチャンネルなどを挙げることができる。更に、いくつかの実施例では、ユーザが検索若しくはクエリの結果、又は表示されたメディアオプションをフィルタリングすることを可能にするために、本明細書のインタフェースのうちのいずれかに、カテゴリーフィルタを提供することができる。例えば、結果を種類(例えば、映画、音楽アルバム、書籍、テレビ番組など)によってフィルタリングするために、選択可能なフィルタを提供することができる。他の実施例では、選択可能なフィルタは、ジャンル記述子又はコンテンツ記述子(例えば、コメディ、インタビュー、特定のプログラムなど)を含むことができる。更に他の実施例では、選択可能なフィルタは、時(例えば、今週、先週、昨年など)を含むことができる。表示されたコンテンツに関連するカテゴリーに基づいて、ユーザが結果をフィルタリングする(例えば、メディア結果が種々の種類を有する場合に、種類によってフィルタリングする、メディア結果が種々のジャンルを有する場合にはジャンルによってフィルタリングする、メディア結果が種々の時を有する場合には時によってフィルタリングする、など)ことを可能にするために、本明細書で説明する種々のインタフェースのうちのいずれかにフィルタを提供することができることを了解されたい。
[0104]
他の実施例では、メディアコンテンツインタフェース510は、メディアコンテンツ結果に加えて、クエリのパラフレーズを含むことができる。例えば、メディアコンテンツ結果の上方に(選択可能な動画リンク512及び選択可能なテキストリンク514の上方に)、ユーザのクエリのパラフレーズを表示することができる。図5の実施例では、ユーザのクエリのそのようなパラフレーズは、「現在、いくつかのスポーツイベント放送されている」を含むことができる。同様に、メディアコンテンツ結果を紹介する他のテキストを表示することができる。
[0105]
いくつかの実施例では、インタフェース510を含む任意のインタフェースを表示した後、ユーザは、新しいクエリ(以前のクエリに関係していることも、関係していないこともある)を用いた追加の発語入力のキャプチャを開始することができる。ユーザクエリは、動画リンク512を選択するコマンドなど、インタフェース要素に対して作用するコマンドを含むことができる。別の実施例では、ユーザの発語は、表示されたメニュー情報、再生動画(例えば、動画480)など、表示されたコンテンツと関連付けられたクエリを含むことができる。表示された情報(例えば、表示テキスト)、及び/又は表示されたコンテンツと関連付けられたメタデータ(例えば、再生動画と関連付けられたメタデータ)に基づいて、そのようなクエリに対する応答を判定することができる。例えば、ユーザは、インタフェース(例えば、インタフェース510)に表示されたメディア結果に関して質問することができ、そのメディアと関連付けられたメタデータを検索して、回答又は結果を提供することができる。次いで、別のインタフェースに又は同じインタフェース内に(例えば、本明細書で論じるインタフェースのうちのいずれかに)、そのような回答又は結果を提供することができる。
[0106]
上述のように、1つの実施例では、テキストリンク514の選択に応じて、メディアコンテンツに関する追加の詳細を表示することができる。図6A及び図6Bは、テキストリンク514の選択後の、動画480上の例示的なメディア詳細インタフェース618を示す。1つの実施例では、追加詳細情報を提供する際に、図6Aのインタフェース拡張遷移616により例示されるように、メディアコンテンツインタフェース510をメディア詳細インタフェース618へと拡張することができる。詳細には、図6Aに示すように、選択されたコンテンツのサイズを拡張することができ、スクリーンの面積のうちのより多くを占めるようにディスプレイ112上でインタフェースを上向きに拡張することによって、追加のテキスト情報を提供することができる。ユーザが所望する追加の詳細情報に適応するように、インタフェースを拡張することができる。このようにすると、インタフェースのサイズは、ユーザが所望するコンテンツ量に伴う縮尺にすることができ、それにより、所望のコンテンツを依然として伝達しながら、スクリーンの面積への侵入が最小限に抑えられる。
[0107]
図6Bは、完全に拡張した後の詳細インタフェース618を示す。図示のとおり、詳細インタフェース618は、所望の詳細情報に適応するように、メディアコンテンツインタフェース510又は発語入力インタフェース484のいずれかよりも大きいサイズのものとすることができる。詳細インタフェース618は、メディアコンテンツ又は仮想アシスタントクエリの別の結果と関連付けられた種々の詳細情報を含む、詳細なメディア情報622を含むことができる。詳細なメディア情報622は、プログラムのタイトル、プログラムの記述、プログラムの放送時間、チャンネル、エピソード概要、映画の記述、俳優の名前、キャラクターの名前、スポーツイベントの参加者、プロデューサーの名前、ディレクターの名前、又は仮想アシスタントクエリの結果と関連付けられた任意の他の詳細情報を含むことができる。
[0108]
1つの実施例では、詳細インタフェース618は、選択可能な動画リンク620(又は、メディアコンテンツを再生するための別のリンク)を含むことができ、選択可能な動画リンク620は、対応する選択可能な動画リンク512のより大きいバージョンを含むことができる。したがって、選択可能な動画リンク620は、静止画像又は動画像を含むことができ、関連付けられた動画を再生させるために選択可能であり得る。選択可能な動画リンク620は、関連付けられた動画コンテンツの再生動画、テレビチャンネルのライブフィード(例えば、スポーツチャンネルでのサッカーの試合のライブフィード)などを含むことができる。選択可能な動画リンク620はまた、任意の他の動画、アニメーション、画像など(例えば、三角形の再生シンボル)を含むことができる。
[0109]
上述のように、動画リンク620又は動画リンク512などの動画リンクの選択に応じて、動画を再生することができる。図7A及び図7Bは、動画リンク(又は動画コンテンツを再生するための他のコマンド)の選択に応じて表示することができる例示的なメディア遷移インタフェースを示す。例示したように、動画480を動画726と入れ替えることができる。1つの実施例では、図7Aのインタフェース拡張遷移724により示すように、動画480の上に重なる又はそれを覆うように動画726を拡張することができる。遷移の結果は、図7Bの拡張されたメディアインタフェース728を含むことができる。他のインタフェースの場合と同様に、拡張されたメディアインタフェース728のサイズは、ユーザに所望の情報を提供するのに十分であり得、ここでは、ディスプレイ112全体に拡張することを含む。したがって、所望の情報が、ディスプレイ全体にわたる再生メディアコンテンツを含むことができるので、拡張されたメディアインタフェース728は、任意の他のインタフェースよりも、大きくすることができる。図示されていないが、いくつかの実施例では、動画726上に(例えば、スクリーンの下部に沿って)、記述情報を一時的に重ねることができる。そのような記述情報は、関連付けられたプログラム、動画、チャンネルなどの名前を含むことができる。次いで、(例えば、数秒後に)記述情報をビューから非表示にすることができる。
[0110]
図8A〜図8Bは、ユーザに発語入力情報を伝達するためにディスプレイ112上に表示することができる例示的な発語入力インタフェース836を示す。1つの実施例では、メニュー830上に発語入力インタフェース836を表示することができる。メニュー830は、種々のメディアオプション832を含むことができ、同様に、任意の他の種類のメニュー(例えば、コンテンツメニュー、カテゴリーメニュー、コントロールメニュー、セットアップメニュー、プログラムメニューなど)上に発語入力インタフェース836を表示することができる。1つの実施例では、発語入力インタフェース836は、ディスプレイ112のスクリーンの面積のうち比較的大きな量を占めるように構成され得る。例えば、発語入力インタフェース836は、上記で論じた発語入力インタフェース484よりも大きくすることができる。1つの実施例では、バックグラウンドコンテンツに基づいて、使用される発語入力インタフェース(例えば、より小さいインタフェース484又はより大きいインタフェース836のいずれか)のサイズを判定することができる。バックグラウンドコンテンツが動画像を含む時には、例えば、小さい発語入力インタフェース(例えば、インタフェース484)を表示することができる。一方、バックグラウンドコンテンツが静止画像(例えば、休止された動画)又はメニューを含む時には、例えば、大きい発語入力インタフェース(例えば、インタフェース836)を表示することができる。このようにすると、ユーザが動画コンテンツを視聴している場合には、より小さい発語入力インタフェースを表示することができ、スクリーンの面積に対する侵入が最小限に抑えられるが、ユーザが、メニューをナビゲートしている場合、又は休止された動画又は他の静止画像を閲覧している場合には、より大きい発語入力インタフェースを表示し、追加の面積を占めることによって、より多くの情報を伝達する、あるいは、より重大な効果を有することができる。同様に、バックグラウンドコンテンツに基づいて、本明細書で論じる他のインタフェースを異なるようにサイズ設定することができる。
[0111]
上記で論じたように、仮想アシスタントは、コマンド又はクエリを含んでいる発語入力を聞き取る(又は、後続の処理のために発語入力の記録を開始する、若しくは発語入力のリアルタイム処理を開始する)ようにトリガーされ得る。例えば、ユーザが、遠隔制御106上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の仮想ボタンを押すこと、ユーザが、常時リッスンデバイスにより認識可能なトリガーフレーズを発すること(例えば、コマンドのリッスンを開始するように「Hey Assistant」と発すること)、ユーザが、センサにより検出可能なジェスチャを行うこと(例えば、カメラの前で合図すること)などの指示を含む、種々のやり方でリッスンをトリガーすることができる。別の実施例では、ユーザは、リッスンを開始するために、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができる。更に他の実施例では、ユーザは、クエリ又はコマンドを発語しながら、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができ、終了時にボタンを離すことができる。同様に、ユーザからの発語入力の受信を開始するために、種々の他の指示を受信することができる。
[0112]
発語入力をリッスンする指示を受信したことに応じて、メニュー830の上に発語入力インタフェース836を表示することができる。図8Aは、ディスプレイ112の下部分から上向きに拡張する大きな通知エリア834を示す。発語入力をリッスンする指示を受信すると、大きい通知エリア834に発語入力インタフェース836を表示することができ、図示のように、ディスプレイ112の閲覧エリアの下縁部から上向きにスライドするようにそのインタフェースをアニメーション化することができる。いくつかの実施例では、(例えば、発語入力をリッスンする指示を受信したことに応じて)重なっているインタフェースが表示されるので、バックグラウンドメニュー、休止された動画、静止画像又は他のバックグラウンドコンテンツを、z方向に(あたかも、更にディスプレイ112に入るように)縮小する、及び/又は逆方向に移動させることができる。バックグラウンドインタフェース縮小遷移831及び関連付けられた内向き矢印は、どのようにバックグラウンドコンテンツ(例えば、メニュー830)を縮小する(表示されたメニュー、画像、テキストなどを小さくする)ことができるかについて説明する。これにより、新しいフォアグラウンドインタフェース(例えば、インタフェース836)の邪魔にならないところに、バックグラウンドコンテンツユーザから離れて移動するように見える視覚的効果を提供することができる。図8Bは、縮小された(小さくなった)バージョンのメニュー830を含む、縮小されたバックグラウンドインタフェース833を示す。図示のとおり、(枠線を含むことができる)縮小されたバックグラウンドインタフェース833は、フォアグラウンドインタフェース836に焦点を譲りながらも、ユーザから遠くに現れることができる。重複しているインタフェースが表示されるので、本明細書で論じる他の実施例のうちのいずれかにおける(バックグラウンド動画コンテンツを含む)バックグラウンドコンテンツを同様に、z方向に縮小する及び/又は逆方向に移動させることができる。
[0113]
図8Bは、上向きにスライドさせて現れた後の発語入力インタフェース836を示す。上記で論じたように、発語入力を受信している間、種々の確認を表示することができる。ここでは図示されていないが、発語入力インタフェース836は、図4B、図4C及び図4Dをそれぞれ参照して上記で論じた発語入力インタフェース484と同様に、より大きいバージョンの準備完了確認486、リッスン確認487及び/又は処理確認488を同様に表示することができる。
[0114]
図8Bに示すように、システムが発語入力を受信し解釈したことを確認するために、コマンド受信確認838を(上記で論じたより小さいサイズのコマンド受信確認490の場合と同様に)表示することができる。また、音声表記840を表示することができ、音声表記840は、受信した発語入力の音声表記(例えば、「ニューヨークの天気は?」)を含むことができる。いくつかの実施例では、ディスプレイ112の下部から、音声表記840をスライドアップさせるようにアニメーション化することができ、図8Bに示した位置に、しばらくの間(例えば、数秒)表示することができ、次いで、(例えば、あたかもテキストスクロールアップし、最終的にビューから消えるかのように)音声表記を発語入力インタフェース836の上部までスライドアップさせてビューから消すことができる。他の実施例では、音声表記を表示しないことがあり、ユーザのコマンド又はクエリを処理することができ、音声表記を表示することなく、関連付けられたタスクを実行することができる。
[0115]
他の実施例では、ユーザが発語するにつれて、発語の音声表記をリアルタイムで実行することができる。単語を音声表記しながら、発語入力インタフェース836に単語を表示することができる。例えば、上記で論じたリッスン確認487のより大きなバージョンの横に単語を表示することができる。ユーザが発語し終えた後に、コマンド受信確認838を一時的に表示し、その後、ユーザのコマンドと関連付けられたタスクを実行することができる。
[0116]
更に、他の実施例では、コマンド受信確認838は、受信して理解したコマンドに関する情報を伝達することができる。例えば、特定のチャンネルに同調させるという単純な要求の場合、チャンネルを同調させた時に、(例えば、数秒間にわたって)コマンド受信確認838としてそのチャンネルと関連付けられたロゴ又は番号を一時的に表示することができる。別の実施例では、表示されたメニュー項目(例えば、メディアオプション832のうちの1つ)を選択するという要求の場合、コマンド受信確認838として、選択されたメニュー項目と関連付けられた画像を表示することができる。したがって、コマンド受信確認838を使用して、コマンド固有の情報を伝達することができる。
[0117]
いくつかの実施例では、ユーザクエリ又はコマンドの受信後、発語入力インタフェース836を非表示にすることができる。例えば、発語入力インタフェース836は、ディスプレイ112の下部から消えるまで、下向きにスライドするようにアニメーション化することができる。更なる情報をユーザに表示する必要がない場合には、発語入力インタフェース836を非表示にすることができる。例えば、一般的な又は簡単なコマンド(例えば、チャンネル10に変更、スポーツチャンネルに変更、その映画の再生など)の場合、コマンドの受信を確認した後直ちに発語入力インタフェース836を隠すことができ、関連付けられたタスク(単数又は複数)を直ちに実行することができる。
[0118]
他の実施例では、発語入力インタフェース836内に、又は異なるインタフェースに、クエリの結果を表示することができる。図9は、図8Bの音声表記されたクエリの例示的な結果を備える例示的なメニュー830上の(詳細には、縮小されたバックグラウンドインタフェース833上の)仮想アシスタント結果インタフェース942を示している。いくつかの実施例では、仮想アシスタントクエリの結果は、テキスト回答944などのテキスト回答を含むことができる。仮想アシスタントクエリの結果はまた、選択可能な動画リンク946及び購入リンク948と関連付けられたコンテンツなど、ユーザのクエリに対処するメディアコンテンツを含むことができる。詳細には、この実施例では、ユーザは、ニューヨークの特定の場所についての気象情報を尋ねることができる。仮想アシスタントは、ユーザのクエリに直接答える(例えば、良い天気に見えることを示し、温度情報を提供する)テキスト回答944を提供することができる。テキスト回答944の代わりに、又はそれに加えて、仮想アシスタントは、購入リンク948及び関連付けられたテキストと共に、選択可能な動画リンク946を提供することができる。また、リンク946及び948と関連付けられたメディアは、ユーザのクエリに対する応答を提供することができる。ここで、リンク946及び948と関連付けられたメディアは、特定の場所における気象情報の10分間クリップ(詳細には、天気予報チャンネルと呼ばれるテレビチャンネルから、ニューヨークの5日間予報)を含むことができる。
[0119]
1つの実施例では、ユーザのクエリに対処するクリップは、(録画又はストリーミングサービスから利用可能であり得る)以前に放送されたコンテンツの時間キュー部分を含むことができる。仮想アシスタントは、1つの実施例では、発語入力と関連付けられたユーザ意図に基づいて、利用可能なメディアコンテンツに関する詳細情報を検索することによって、(例えば、ストリーミングコンテンツに関する詳細なタイミング情報又は詳細情報と共に、録画された放送についてのメタデータを含む)そのようなコンテンツを識別することができる。いくつかの実施例では、ユーザは、ある特定のコンテンツへのアクセスを有しないことがあり、あるいは、ある特定のコンテンツについてのサブスクリプションを有しないことがある。そのような場合、購入リンク948などを介して、コンテンツの購入を勧めることができる。購入リンク948又は動画リンク946を選択すると、自動的に、コンテンツの費用をユーザアカウントから回収する、あるいは、コンテンツの費用をユーザアカウントに課金することができる。
[0120]
図10は、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連付けられた情報を表示するための例示的なプロセス1000を示す。ブロック1002で、ユーザからの発語入力を受信することができる。例えば、システム100のユーザデバイス102又は遠隔制御106で、発語入力を受信することができる。いくつかの実施例では、発語入力(あるいは発語入力の一部又は全部のデータ表現)は、サーバシステム110及び/又はテレビセットトップボックス104に送信され、そこで受信され得る。ユーザが発語入力の受信を開始したことに応じて、ディスプレイ(ディスプレイ112など)上に種々の通知を表示することができる。例えば、図4A〜図4Eを参照して上記で論じたように、準備完了確認、リッスン確認、処理確認及び/又はコマンド受信確認を表示することができる。更に、受信したユーザ発語入力を音声表記することができ、音声表記を表示することができる。
[0121]
再び図10のプロセス1000を参照すると、ブロック1004で、発語入力に基づいて、メディアコンテンツを判定することができる。例えば、(例えば、利用可能なメディアコンテンツを検索することなどによって)仮想アシスタントにおいてダイレクトされたユーザクエリに対処するメディアコンテンツを判定することができる。例えば、図4Eの音声表記492(「現在、どんなスポーツイベントが放送されているか?」)に関係するメディアコンテンツを判定することができる。そのようなメディアコンテンツは、ユーザが閲覧するために利用可能な1つ以上のテレビチャンネル上に表示されているライブスポーツイベントを含むことができる。
[0122]
ブロック1006で、選択可能なメディアリンクを備える第1のサイズの第1のユーザインタフェースを表示することができる。例えば、図5に示すように、選択可能な動画リンク512と選択可能なテキストリンク514とを備えるメディアコンテンツインタフェース510を、ディスプレイ112上に表示することができる。上記で論じたように、メディアコンテンツインタフェース510は、バックグラウンド動画コンテンツと干渉することを回避するために、より小さいサイズとすることができる。
[0123]
ブロック1008で、リンクうちの1つの選択を受信することができる。例えば、リンク512及び/又はリンク514のうちの1つの選択を受信することができる。ブロック1010で、その選択と関連付けられたメディアコンテンツを備えるより大きい第2のサイズの第2のユーザインタフェースを表示することができる。図6Bに示すように、例えば、選択可能な動画リンク620と詳細なメディア情報622とを備える詳細インタフェース618を、ディスプレイ112上に表示することができる。上記で論じたように、詳細インタフェース618は、所望の追加の詳細なメディア情報を伝達するために、より大きいサイズのものとすることができる。同様に、図7Bに示すように、動画リンク620を選択すると、動画726を備える拡張されたメディアインタフェース728を表示することができる。上記で論じたように、拡張されたメディアインタフェース728は、所望のメディアコンテンツを依然としてユーザに提供するために、より大きいサイズのものとすることができる。このようにすると、本明細書で論じる種々のインタフェースを、場合によっては制限されたスクリーンの面積を占めながら、(より大きいサイズのインタフェースに拡張すること、又はより小さいサイズのインタフェースまで縮小することを含めて)所望のコンテンツに適応するようにサイズ設定することができる。したがって、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連付けられた情報を表示するために、プロセス1000を使用することができる。
[0124]
別の実施例では、バックグラウンド動画コンテンツ上ではなく、コントロールメニュー上により大きいサイズインタフェースを表示することができる。例えば、図8Bに示すように、メニュー830上に発語入力インタフェース836を表示することができ、図9に示すように、メニュー830上にアシスタント結果インタフェース942を表示することができる一方で、図5に示すように、動画480上により小さいメディアコンテンツインタフェース510を表示することができる。このようにすると、インタフェースのサイズ(例えば、インタフェースが占めるスクリーンの面積の量)を、少なくとも部分的にバックグラウンドコンテンツの種類によって判定することができる。
[0125]
図11は、ユーザデバイス102上の例示的なテレビメディアコンテンツを示し、ユーザデバイス102は、タッチスクリーン246(又は別のディスプレイ)を備える、携帯電話、タブレットコンピュータ、遠隔制御などを含むことができる。図11は、複数のテレビプログラム1152を備えるTVリストを含むインタフェース1150を示す。インタフェース1150は、テレビ制御アプリケーション、テレビコンテンツリストアプリケーション、インターネットアプリケーションなどのような、ユーザデバイス102上の特定のアプリケーションに対応することができる。いくつかの実施例では、ユーザデバイス102上に(例えば、タッチスクリーン246上に)表示されたコンテンツを使用して、そのコンテンツに関係する発語入力からユーザ意図を判定することができ、そのユーザ意図を使用して、別のデバイス及びディスプレイ上で(例えば、テレビセットトップボックス104、並びにディスプレイ112及び/又はスピーカ111上で)コンテンツを再生又は表示させることができる。例えば、ユーザデバイス102上のインタフェース1150に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避すし、発語入力からユーザ意図を判定でき、次いで、判定したユーザ意図を使用して、テレビセットトップボックス104を介して、メディアを再生又は表示することができる。
[0126]
図12は、仮想アシスタントを使用した例示的なテレビ制御を示す。図12は、インタフェース1254を示し、インタフェース1254は、アシスタントとユーザとの間の会話型ダイアログとしてフォーマットされた仮想アシスタントインタフェースを含むことができる。例えば、インタフェース1254は、ユーザに要求を行うようにプロンプトを出すアシスタントグリーティング1256を含むことができる。次いで、音声表記されたユーザ発語1258など、その後受信したユーザ発語を音声表記することができ、会話のやり取りが表示される。いくつかの実施例では、インタフェース1254は、発語入力の受信を開始するトリガー(ボタン押下、キーフレーズなどのようなトリガー)に応じて、ユーザデバイス102上に現れることができる。
[0127]
1つの実施例では、テレビセットトップボックス104を介して(例えばディスプレイ112及びスピーカ111上で)コンテンツを再生するというユーザ要求は、ユーザデバイス102上の表示されたものへの曖昧な参照を含むことができる。例えば、音声表記されたユーザ発語1258は、「その」サッカーの試合への参照を含む(「そのサッカーの試合をつけて。」)。所望される特定のサッカーの試合は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ユーザデバイス102上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。1つの実施例では、ユーザが要求を行う前に(例えば、インタフェース1254がタッチスクリーン246上に現れる前に)ユーザデバイス102に表示されたコンテンツを使用して、(以前のクエリ及び結果など、インタフェース1254内に現れているコンテンツができるように)ユーザ意図を判定することができる。例示した実施例では、図11のインタフェース1150に表示されたコンテンツを使用して、「その」サッカーの試合をつけるというコマンドから、ユーザ意図を判定することができる。テレビプログラム1152のTVリストは、種々の異なるプログラムを含み、それらのうちの1つのタイトルが、チャンネル5で放送されている「サッカー」である。サッカーのリストが現れていることを使用して、「その」サッカーの試合と発したことから、ユーザの意図を判定することができる。詳細には、「その」サッカーの試合へのユーザの参照を、インタフェース1150のTVリストに現れているサッカープログラムと解釈することができる。したがって、仮想アシスタントは、(例えば、テレビセットトップボックス104を、適切なチャンネルに同調させ、その試合を表示させることによって)ユーザが望んだその特定のサッカーの試合を再生させることができる。
[0128]
他の実施例では、ユーザは、種々の他のやり方で、インタフェース1150に表示されたテレビプログラム(例えば、チャンネル8の番組、ニュース、ドラマ番組、広告、第1の番組など)を参照することができ、表示されたコンテンツに基づいて、ユーザ意図を同様に判定することができる。表示されたコンテンツと関連付けられたメタデータ(例えば、TVプログラムの記述)、ファジーマッチング技術、シノニムマッチングなどを、ユーザ意図を判定するために、表示されたコンテンツと併せて更に使用することができることを了解されたい。例えば、「広告」を表示するという要求からユーザ意図を判定するために、(例えば、シノニム及び/又はファジーマッチング技術を使用して)記述「テレビショッピング」に用語「広告」はマッチングすることができる。同様に、ユーザ意図を判定する際に、特定のTVプログラムの記述を分析することができる。例えば、用語「法律」は、法廷ドラマの詳細な説明において識別され得、インタフェース1150に表示されたコンテンツと関連付けられた詳細な記述に基づいて、「法律」番組を視聴するというユーザ要求から、ユーザ意図を判定することができる。したがって、表示されたコンテンツ及びそれと関連付けられたデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。
[0129]
図13は、ユーザデバイス102上の例示的な写真及び動画コンテンツを示し、ユーザデバイス102は、タッチスクリーン246(又は別のディスプレイ)を備える、携帯電話、タブレットコンピュータ、遠隔制御などを含むことができる。図13は、写真及び動画のリストを含むインタフェース1360を示す。インタフェース1360は、メディアコンテンツアプリケーション、ファイルナビゲーションアプリケーション、ストレージアプリケーション、遠隔ストレージ管理アプリケーション、カメラアプリケーションなどのような、ユーザデバイス102上の特定のアプリケーションに対応することができる。図示のとおり、インタフェース1360は、動画1362、フォトアルバム1364(例えば、複数の写真のグループ)、及び写真1366を含むことができる。図11及び図12を参照して上記で論じたように、ユーザデバイス102に表示されたコンテンツを使用して、そのコンテンツに関係する発語入力からユーザ意図を判定することができる。次いで、ユーザ意図を使用して、別のデバイス及びディスプレイ(例えば、テレビセットトップボックス104、並びにディスプレイ112及び/又はスピーカ111上に)上にコンテンツを再生又は表示させることができる。例えば、ユーザデバイス102上のインタフェース1360に表示されたコンテンツを使用して、にユーザ要求の曖昧性を回避し、発語入力からユーザ意図を判定することができ、次いで、判定したユーザ意図を使用して、テレビセットトップボックス104を介して、メディアを再生又は表示することができる。
[0130]
図14は、仮想アシスタントを使用した例示的なメディア表示制御を示す。図14は、インタフェース1254を示し、インタフェース1254は、アシスタントとユーザとの間の会話型ダイアログとしてフォーマットされた仮想アシスタントインタフェースを含むことができる。図示のとおり、インタフェース1254は、ユーザに要求を行うようにプロンプトを出すアシスタントグリーティング1256を含むことができる。次いで、図14の実施例によって示すようにダイアログ内にユーザ発語を音声表記することができる。いくつかの実施例では、インタフェース1254は、発語入力の受信を開始するトリガー(ボタン押下、キーフレーズなどのようなトリガー)に応じて、ユーザデバイス102上に現れることができる。
[0131]
1つの実施例では、テレビセットトップボックス104を介して(例えばディスプレイ112及びスピーカ111上で)メディアコンテンツを再生する、又はメディアを表示するというユーザ要求は、ユーザデバイス102上の表示されたものへの曖昧な参照を含むことができる。例えば、音声表記されたユーザ発語1468は、「その」動画への参照(「その動画を表示する。」)を含む。参照される特定の動画は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ユーザデバイス102上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。1つの実施例では、ユーザが要求を行う前に(例えば、インタフェース1254がタッチスクリーン246上に現れる前に)ユーザデバイス120に表示されたコンテンツを使用して、(以前のクエリ及び結果など、インタフェース1254内に現れているコンテンツができるように)ユーザ意図を判定することができる。ユーザ発語1468の実施例では、図13のインタフェース1360に表示されたコンテンツを使用して、「その」動画を表示するというコマンドから、ユーザ意図を判定することができる。インタフェース1360における写真及び動画のリストは、動画1362、フォトアルバム1354及び写真1366を含む、種々の異なる写真及び動画を含む。インタフェース1360に動画が1つしか現れていないので(例えば、動画1362)、インタフェース1360に動画1362が現れていることを使用して、「その」動画と発したことからユーザの意図を判定することができる。詳細には、「その」動画へのユーザの参照を、インタフェース1360に現れている動画1362(タイトル「卒業式の動画」)と解釈することができる。したがって、仮想アシスタントは、(例えば、ユーザデバイス102又は遠隔ストレージからテレビセットトップボックス104に動画1362を送信させ、再生を開始させることによって)動画1362を再生させることができる。
[0132]
別の実施例では、音声表記されたユーザ発語1470は、「その」アルバムへの参照(「そのアルバムのスライドショーを再生して。」)を含む。参照される特定のアルバムは、発語入力のみからでは不明瞭であることがある。ユーザデバイス102上に表示されたコンテンツを再び使用して、ユーザ要求の曖昧性を回避することができる。詳細には、図13のインタフェース1360に表示されたコンテンツを使用して、「その」アルバムのスライドショーを再生するというコマンドから、ユーザ意図を判定することができる。インタフェース1360における写真及び動画のリストは、フォトアルバム1354を含む。インタフェース1360にフォトアルバム1364が現れていることを使用して、「その」アルバムと発したことから、ユーザの意図を判定することができる。詳細には、「その」アルバムへのユーザの参照を、インタフェース1360に現れているフォトアルバム1364(タイトル「卒業式のアルバム」)と解釈することができる。したがって、ユーザ発語1470に応じて、仮想アシスタントは、(例えば、フォトアルバム1364の写真をユーザデバイス102又は遠隔ストレージからテレビセットトップボックス104に送信させ、写真のスライドショーを開始させることによって)フォトアルバム1364からの写真を含むスライドショーを表示させることができる。
[0133]
更に別の実施例では、音声表記されたユーザ発語1472は、「最新の」写真への参照(「キッチンのテレビに最新の写真を表示して。」)を含む。参照される特定の写真は、発語入力のみからでは不明瞭であることがある。ユーザデバイス102上に表示されたコンテンツを再び使用して、ユーザ要求の曖昧性を回避することができる。詳細には、図13のインタフェース1360に表示されたコンテンツを使用して、「最新の」写真を表示するというコマンドから、ユーザ意図を判定することができる。インタフェース1360における写真及び動画のリストは、2つの個別の写真1366を含む。インタフェース1360に写真1366が現れていること(特に、インタフェース内における写真1366の出現順序)を使用して、「最新の」写真と発したことから、ユーザの意図を判定することができる。詳細には、「最新の」写真へのユーザの参照と、インタフェース1360の下部に現れている写真1366(2014年6月21日付け)と解釈することができる。したがって、ユーザ発語1472に応じて、仮想アシスタントは、(例えば、最新の写真1366をユーザデバイス102又は遠隔ストレージからテレビセットトップボックス104に送信させ、写真表示させることによって)最新の写真1366をインタフェース1360に表示させることができる。
[0134]
他の実施例では、ユーザは、種々の他のやり方で、インタフェース1360に表示されたメディアコンテンツ(例えば、最新の2枚の写真、全ての動画ニュース、全ての写真、卒業式のアルバム、卒業式の動画、6月21日以降の写真など)を参照することができ、表示されたコンテンツに基づいて、ユーザ意図を同様に判定することができる。表示されたコンテンツと関連付けられたメタデータ(例えば、タイムスタンプ、場所、情報、タイトル、説明など)、ファジーマッチング技術、シノニムマッチングなどを、ユーザ意図を判定するために、表示されたコンテンツと併せて更に使用することができることを了解されたい。したがって、表示されたコンテンツ及びそれと関連付けられたデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。
[0135]
ユーザ意図を判定する際に、任意のアプリケーションの任意のアプリケーションインタフェースにおける任意の種類の表示されたコンテンツを使用することができることを了解されたい。例えば、発語入力において、インターネットブラウザアプリケーションにおいてウェブページ上に表示された画像を参照することができ、表示されたウェブページコンテンツを分析して、所望の画像を識別することができる。同様に、タイトル、ジャンル、アーティスト、バンド名などによる発語入力において、音楽アプリケーションにおける音楽のリストの音楽トラックを参照することができ、音楽アプリケーションにおける表示されたコンテンツ(及びいくつかの実施例では、関連メタデータ)を使用して、発語入力からユーザ意図を判定することができる。次いで、上記で論じたように、判定したユーザ意図を使用して、テレビセットトップボックス104など、別のデバイスを介して、メディアを表示又は再生させることができる。
[0136]
いくつかの実施例では、メディア制御を許可することができるかどうかを判定する、表示のために利用可能なメディアコンテンツを判定する、アクセス許可を判定するなどのために、ユーザ識別、ユーザ認証及び/又はデバイス認証を採用することができる。例えば、例えばテレビセットトップボックス104上でメディアを制御するために、特定のユーザデバイス(例えば、ユーザデバイス102)が認証されているかどうかを判定することができる。登録、ペアリング、信用判定、パスコード、秘密の質問、システム設定などに基づいて、ユーザデバイスを認証することができる。特定のユーザデバイスが認証されていると判定したことに応じて、テレビセットトップボックス104を制御するための試行を許可することができる(例えば、要求側デバイスがメディアを制御することを認証されていると判定したことに応じて、メディアコンテンツを再生することができる)。対照的に、認証されていないデバイスからのメディア制御コマンド又は要求を無視することができ、及び/又は、そのようなデバイスのユーザに、特定のテレビセットトップボックス104を制御する際に使用するために、それらのデバイスを登録するようにプロンプトを出すことができる。
[0137]
別の実施例では、特定のユーザを識別することができ、そのユーザと関連付けられた個人情報を使用して、要求のユーザ意図を判定することができる。例えば、ユーザの声紋を使用する音声認識によるなど、発語入力に基づいて、ユーザを識別することができる。いくつかの実施例では、ユーザは特定のフレーズを発し、そのフレーズを音声認識のために分析することができる。他の実施例では、仮想アシスタントにダイレクトされた発語入力要求を、音声認識を使用して分析して、話者を識別することができる。また、(例えば、ユーザの個人用デバイス102上の)発語入力サンプルのソースに基づいて、ユーザを識別することができる。また、パスワード、パスコード、メニュー選択などに基づいて、ユーザを識別することができる。次いで、識別されたユーザの個人情報に基づいて、ユーザから受信した発語入力を解釈することができる。例えば、ユーザから以前の要求、ユーザが所有するメディアコンテンツ、ユーザのデバイスに記憶されたメディアコンテンツ、ユーザの好み、ユーザ設定、ユーザの人口統計(例えば、話されている言語など)、ユーザプロファイル情報、ユーザ支払方法、又は特定の識別されたユーザと関連付けられた種々の他の個人情報に基づいて、発語入力のユーザ意図を判定することができる。例えば、個人情報に基づいて、お気に入りリストを参照する発語入力などの曖昧性を回避することができ、ユーザの個人的なお気に入りリストを識別することができる。ユーザと関連付けられた写真、動画及び番組(例えば、個人用のユーザデバイスに記憶された写真など)を正確に識別するために、ユーザ識別に基づいて、同様に、「私」の写真、「私」の動画、「私」の番組などを参照する発語入力の曖昧性を回避することができる。同様に、コンテンツの購入を要求する発語入力の曖昧性を回避して、購入のために、(別のユーザの支払方法と対比して)識別されたユーザの支払方法を変更すべきであると判定することができる。
[0138]
いくつかの実施例では、ユーザ認証を使用して、ユーザがメディアコンテンツにアクセスすることが可能であるかどうか、メディアコンテンツを購入することが可能であるかどうかなどを判定することができる。例えば、(例えば、彼らの声紋を使用して)特定のユーザの識別情報を検証して、そのユーザが自身の支払方法を使用して購入を行うことを可能にするために、音声認識を使用することができる。同様に、ユーザを認証して購入を可能にするために、パスワードなどを使用することができる。別の実施例では、特定のユーザの識別情報を検証して、そのユーザが特定のプログラム(例えば、特定のペアレンタルガイドラインレーティングを有するプログラム、特定の対象年齢レーティングを有する映画など)を視聴することを可能になるかどうかを判定するために、音声認識を使用することができる。例えば、特定のプログラムに対する子どもの要求を、要求者がそのようなコンテンツを閲覧することが可能な認証ユーザ(例えば、親)でないことを示す音声認識に基づいて拒否することができる。他の実施例では、音声認識を使用して、ユーザが特定のサブスクリプションコンテンツへのアクセス権を有するかどうか判定することができる(例えば、音声認識に基づいて、プレミアムチャネルのコンテンツにアクセスを制限する)。いくつかの実施例では、ユーザは特定のフレーズを発し、そのフレーズを音声認識のために分析することができる。他の実施例では、仮想アシスタントにダイレクトされた発語入力要求を、音声認識を使用して分析して、話者を識別することができる。したがって、種々のやり方のいずれかでユーザが認証されると最初に判定したことに応じて、ある特定のメディアコンテンツを再生することができる。
[0139]
図15は、モバイルユーザデバイス及びメディア表示デバイス上の結果を備える例示的な仮想アシスタント対話を示す。いくつかの実施例では、仮想アシスタントは、ユーザデバイス102並びにテレビセットトップボックス104など、2つ以上のデバイス上に情報及び制御を提供することができる。更に、いくつかの実施例では、ユーザデバイス102上の制御及び情報のために使用される同じ仮想アシスタントインタフェースを使用して、テレビセットトップボックス104上のメディアを制御するための要求を発行することができる。したがって、仮想アシスタントシステムは、結果を、ユーザデバイス102上に表示すべきか、あるいはテレビセットトップボックス104上に表示すべきかを判定することができる。いくつかの実施例では、テレビセットトップボックス104を制御するためにユーザデバイス102を採用する時、ユーザデバイス102上に(例えば、タッチスクリーン246上に)情報を表示することによって、テレビセットトップボックス104と関連付けられたディスプレイ(例えば、ディスプレイ112)上での仮想アシスタントインタフェースの侵入は最小限に抑えることができる。他の実施例では、ディスプレイ112上にのみ仮想アシスタント情報を表示することができ、あるいは、ユーザデバイス102とディスプレイ112の双方の上に仮想アシスタント情報を表示することができる。
[0140]
いくつかの実施例では、ユーザデバイス102上に直接、仮想アシスタントクエリの結果を表すべきか、あるいは、テレビセットトップボックス104と関連付けられたディスプレイ112上に仮想アシスタントクエリの結果を表示すべきかについて、判定を行うことができる。1つの実施例では、クエリのユーザ意図が情報の要求を含むと判定したことに応じて、ユーザデバイス102上に情報応答を表示することができる。別の例では、クエリのユーザ意図が、メディアコンテンツを再生するという要求を含むと判定したことに応じて、クエリに応じたメディアコンテンツを、テレビセットトップボックス104を介して再生することができる。
[0141]
図15は、仮想アシスタントとユーザとの間の会話型ダイアログの例を示す仮想アシスタントインタフェース1254を示す。アシスタントグリーティング1256は、ユーザに要求を行うようにプロンプトを出すことができる。第1のクエリでは、音声表記されたユーザ発語1574(他のやり方ではタイプ又は入力することもできる)は、表示されたメディアコンテンツと関連付けられた情報回答の要求を含む。詳細には、音声表記されたユーザ発語1574は、例えば、(例えば、図11のインタフェース1150に列挙された)ユーザデバイス102上のインタフェース上に、又は(例えば、図5のインタフェース510に列挙された、あるいは、図7Bのディスプレイ112上で動画726として再生する)ディスプレイ112上に表示され得るサッカーの試合で誰がプレイしているかを問い合わせる。表示されたメディアコンテンツに基づいて、音声表記されたユーザ発語1574のユーザ意図を判定することができる。例えば、ユーザデバイス102又はディスプレイ112上に表示されたコンテンツに基づいて、問題となっている特定のサッカーの試合を識別することができる。音声表記されたユーザ発語1574のユーザ意図は、表示されたコンテンツに基づいて識別されるサッカーの試合においてプレイしているチームについて詳述する情報回答を取得することを含むことができる。ユーザ意図が情報回答の要求を含むと判定したことに応じて、システムは、(ディスプレイ112上とは対照的に)図15のインタフェース1254内に応答を表示することを判定することができる。いくつかの実施例では、表示されたコンテンツと関連付けられたメタデータに(例えば、テレビリストにおけるサッカーの試合の記述に基づいて)基づいて、クエリに対する応答を判定することができる。したがって、図示のとおり、インタフェース1254において、ユーザデバイス102のタッチスクリーン246上に、チームアルファとシータとが試合で対戦していると識別するアシスタントの応答1576を表示することができる。したがって、いくつかの実施例では、クエリが情報要求を含むと判定したことに基づいて、ユーザデバイス102上のインタフェース1254内に情報応答を表示することができる。
[0142]
ただし、インタフェース1254における第2のクエリは、メディア要求を含む。詳細には、音声表記されたユーザ発語1578は、表示されるメディアコンテンツを「ゲーム」に変更することを要求する。(例えば、ユーザがどのゲームを望むかを識別するために)図5のインタフェース510に列挙されたゲーム、図11のインタフェース1150に列挙されたゲーム、(例えば、音声表記されたユーザ発語1574における)以前のクエリで参照されたゲームなど、表示されたコンテンツに基づいて、音声表記されたユーザ発語1578のユーザ意図を判定することができる。したがって、音声表記されたユーザ発語1578のユーザ意図は、表示されたコンテンツを特定のゲーム(ここでは、チームアルファ対シータのサッカーの試合)に変更することを含むことができる。1つの実施例では、ユーザデバイス102上にゲームを表示することができる。ただし、他の実施例では、メディアコンテンツを再生するという要求を含むクエリに基づいて、テレビセットトップボックス104を介して、ゲームを表示することができる。詳細には、ユーザ意図がメディアコンテンツを再生するという要求を含むと判定したことに応じて、システムは、(図15のインタフェース1254内とは対照的に)テレビセットトップボックス104を介してディスプレイ112上に、メディアコンテンツ結果を表示すると判定することができる。いくつかの実施例では、インタフェース1254に、又はディスプレイ112上に、仮想アシスタントが意図するアクションを確認する応答又はパラフレーズ(例えば、「サッカーの試合に変更して。」)を表示することができる。
[0143]
図16は、メディア表示デバイス及びモバイルユーザデバイス上のメディア結果を備える例示的な仮想アシスタント対話を示す。いくつかの実施例では、仮想アシスタントは、ユーザデバイス102とテレビセットトップボックス104の双方の上でのメディアへのアクセスを提供することができる。更に、いくつかの実施例では、ユーザデバイス102上のメディアのために使用される同じ仮想アシスタントインタフェースを使用して、テレビセットトップボックス104上のメディアについての要求を発行することができる。したがって、仮想アシスタントシステムは、結果を、テレビセットトップボックス104を介してユーザデバイス102上に表示すべきか、あるいはディスプレイ112上に表示すべきかを判定することができる。
[0144]
いくつかの実施例では、メディ結果フォーマット、ユーザの好み、デフォルト設定、要求自体中の明示コマンドなどに基づいて、デバイス102又はディスプレイ112上にメディアを表示すべきかどうかにつて判定を行うことができる。例えば、クエリに対するメディア結果のフォーマットを使用して、(例えば、特定の命令なしに)デフォルトでメディア結果をどのデバイス上に表示するかを判定することができる。テレビプログラムは、テレビ上に表示するのにより一層適することがあり、ラージフォーマットの動画は、テレビ上に表示するのにより一層適することがあり、サムネイル写真は、ユーザデバイス上に表示するのにより一層適することがあり、スモールフォーマットのウェブ動画は、ユーザデバイス上に表示するのにより一層適することがあり、種々の他のメディアフォーマットは、比較的大きいテレビスクリーン又は比較的小さいユーザデバイスのディスプレイのいずれかに表示するのにより一層適することがある。したがって、(例えば、メディアフォーマットに基づいて)特定のディスプレイ上にメディアコンテンツを表示すべきであるという判定に応じて、デフォルトで、その特定のディスプレイ上にメディアコンテンツを表示することができる。
[0145]
図16は、メディアコンテンツを再生すること又は表示することに関係するクエリの実施例と共に、仮想アシスタントインタフェース1254を示す。アシスタントグリーティング1256は、ユーザに要求を行うようにプロンプトを出すことができる。第1のクエリにおいて、音声表記されたユーザ発語1680は、サッカーの試合を表示するという要求を含む。上記で論じた実施例と同様に、(例えば、ユーザがどのゲームを望むかを識別するために)図5のインタフェース510に列挙されたゲーム、図11のインタフェース1150に列挙されたゲーム、以前のクエリで参照されたゲームなど、表示されたコンテンツに基づいて、音声表記されたユーザ発語1680のユーザ意図を判定することができる。したがって、音声表記されたユーザ発語1680のユーザ意図は、例えば、テレビで放送され得る特定のサッカーの試合を表示することを含むことができる。ユーザ意図が、テレビ用にフォーマットされるメディア(例えば、テレビ放送されるサッカーの試合)を表示するという要求を含むと判定したことに応じて、システムは、所望のメディアを、テレビセットトップボックス104を介して(ユーザデバイス102自体上とは対照的に)ディスプレイ112上に表示することを自動的に判定することができる。次いで、仮想アシスタントシステムは、(例えば、必要なタスクを実行すること、及び/又は適切なコマンドを送信することによって)テレビセットトップボックス104を、サッカーの試合に同調させ、ディスプレイ112上にそれを表示することができる。
[0146]
ただし、第2のクエリでは、音声表記されたユーザ発語1682は、チームの選手の写真(例えば、「チームアルファ」の写真)を表示するとう要求を含む。上記で説明した実施例と同様に、音声表記されたユーザ発語1682のユーザ意図を判定することができる。音声表記されたユーザ発語1682のユーザ意図は、「チームアルファ」と関連付けられた写真の検索(例えば、ウェブ検索)を実行することと、得られた写真を表示することとを含むことができる。ユーザ意図が、サムネイルフォーマットで提示することができるメディア、又は、特定のフォーマットなしに、ウェブ検索と関連付けられたメディア若しくは他の不特定メディアを表示するという要求を含むと判定したことに応じて、システムは、(得られた写真を、テレビセットトップボックス104を介してディスプレイ112上に表示することとは対照的に)ユーザデバイス102のインタフェース1254において、タッチスクリーン246上に所望のメディア結果を表示することを自動的に判定することができる。例えば、図示のとおり、ユーザのクエリに応じて、ユーザデバイス102上のインタフェース1254内にサムネイル写真1684を表示することができる。したがって、仮想アシスタントシステムは、デフォルトで、ある特定のフォーマットのメディアを、又はある特定のフォーマットで(例えば、サムネイルのグループで)提示され得るメディアを、ユーザデバイス102上に表示させることができる。
[0147]
いくつかの実施例では、ユーザデバイス102上にユーザ発語1680で参照されたサッカーの試合を表示することができ、テレビセットトップボックス104を介してディスプレイ112上に写真1684を表示することができることを了解されたい。ただし、メディアフォーマットに基づいて、表示用のデフォルトデバイスを自動的に判定することができ、それにより、ユーザのためのメディアコマンドが簡略化される。他の実施例では、ユーザの好み、デフォルト設定、コンテンツを表示するために直近に使用されたデバイス、ユーザを識別する音声認識、そのユーザと関連付けられたデバイスなどに基づいて、要求されたメディアコンテンツを表示するためのデフォルトデバイスを判定することができる。例えば、ユーザが好みを設定することができる、あるいは、ある特定の種類のコンテンツ(例えば、動画、スライドショー、テレビプログラムなど)を、テレビセットトップボックス104を介してディスプレイ112上に表示し、他の種類のコンテンツ(例えば、サムネイル、写真、ウェブ動画など)を、ユーザデバイス102のタッチスクリーン246上に表示するように、デフォルト構成を設定することができる。同様に、1つのデバイス又はその他にコンテンツを表示することによって、ある特定のクエリに応答するように、好み又はデフォルト構成を設定することができる。別の実施例では、ユーザが特段別に命令しない限り、全てのコンテンツをユーザデバイス102上に表示することができる。
[0148]
更に他の実施例では、ユーザクエリは、特定のディスプレイ上にコンテンツを表示するコマンドを含むことができる。例えば、図14のユーザ発語1472は、キッチンのテレビに写真を表示するコマンドを含む。その結果、システムは、ユーザデバイス102上に写真を表示することとは対照的に、ユーザのキッチンと関連付けられたテレビディスプレイ上に、写真を表示させることができる。他の実施例では、ユーザは、種々の他のやり方で、どの表示デバイスを使用すべきか(例えば、TVに、大型スクリーンに、リビングルームに、ベッドルームに、自分のタブレットに、自分の電話に、など)を指示することができる。したがって、種々の異なるやり方で、仮想アシスタントクエリのメディアコンテンツ結果を表示するために使用する表示デバイスを判定することができる。
[0149]
図17は、近接度に基づく例示的なメディアデバイス制御を示す。いくつかの実施例では、ユーザは、同じ家庭内に又は同じネットワーク上に、複数のテレビ及びテレビセットトップボックスを有することができる。例えば、ある家庭は、リビングルームにテレビとセットトップボックスのセットを有し、別のセットをベッドルームに有し、キッチンに別のセットを有していることがある。他の実施例では、アパート又はオフィスビルの共有ネットワークなど、同じネットワークに、複数のセットトップボックスを接続することができる。ユーザは、未認証のアクセスを回避するために、特定のセットトップボックスについて遠隔制御106とユーザデバイス102とをペアリングすること、接続すること、あるいは場合によっては認証することができるが、他の実施例では、遠隔制御及び/又はユーザデバイスを使用して、2つ以上のセットトップボックスを制御することができる。ユーザは、例えば、単一のユーザデバイス102を使用して、ベッドルームの、リビングルームの、及びキッチンのセットトップボックスを制御することができる。ユーザはまた、例えば、単一のユーザデバイス102を使用して、自身のアパートの自身のセットトップボックスを制御するばかりでなく、近隣のアパートの近隣のセットトップボックスを制御する(例えば、ユーザデバイス102に記憶された写真のスライドショーを近隣のTV上に表示するなど、ユーザデバイス102からのコンテンツを近隣と共有する)ことができる。ユーザは、単一のユーザデバイス102を使用して複数の異なるセットトップボックスを制御することができるので、システムは、複数セットトップボックスのうち、どのセットトップボックスにコマンドを送信すべきかを判定することができる。同様に、複数のセットトップボックスを動作することができる複数の遠隔制御106を家庭に装備することができるので、システムは同様に、複数セットトップボックスのうち、どのセットトップボックスにコマンドを送信すべきかを判定することができる。
[0150]
1つの実施例では、デバイスの近接度を使用して、複数のセットトップボックスのうち、どれにコマンドを送近隣のTV上に送るべきか(又は、要求されたメディアコンテンツをどのディスプレイ上に表示すべきか)を判定することができる。ユーザデバイス102又は遠隔制御106と複数のセットトップボックスの各々との間で、近接度を判定することができる。次いで、最も近いセットトップボックスに、発行されたコマンドを送信することができる(又は、最も近いディスプレイ上に、要求されたメディアコンテンツを表示することができる)。(例えば、無線周波数を使用する)飛行時間測定、Bluetooth(登録商標)LE、電子ピング信号、近接センサ、サウンドトラベル測定など、種々のやり方のいずれかで、近接度を判定する(又は、少なくとも概算する)ことができる。次いで、測定又は概算した距離を比較することができ、最短距離のデバイス(例えば、最も近いセットトップボックス)にコマンドを発行することができる。
[0151]
図17は、第1のディスプレイ1786を備える第1のセットトップボックス1792と、第2のディスプレイ1788を備える第2のセットトップボックス1794とを含むマルチデバイスシステム1790を示す。1つの実施例では、ユーザは、ユーザデバイス102から、(例えば、どこにかを、又はどのデバイス上にかを必ずしも指定することなく)メディアコンテンツを表示するコマンドを発行することができる。次いで、第1のセットトップボックス1792までの距離1795及び第2のセットトップボックス1794までの距離1796を判定する(又は、概算する)ことができる。図示のとおり、距離1796を、距離1795よりも長くすることができる。近接度に基づいて、ユーザデバイス102からのコマンドを、最も近いデバイスであり、ユーザの意図と一致する見込みが最も高い第1のセットトップボックス1792に発行することができる。いくつかの実施例では、単一の遠隔制御106を使用して、2つ以上のセットトップボックスを制御することもできる。近接度に基づいて、所与の時間に制御するための所望のデバイスを判定することができる。次いで、第2のセットトップボックス1794までの距離1797及び第1のセットトップボックス1792までの距離1798を判定する(又は、概算する)ことができる。図示のとおり、距離1798を、距離1797よりも長くすることができる。近接度に基づいて、遠隔制御106からのコマンドを、最も近いデバイスであり、ユーザの意図と一致する見込みが最も高い第2のセットトップボックス1794に発行することができる。例えば、ユーザが異なる部屋に移動したこと、及びユーザが異なるデバイスを制御したいと望んでいることに適応するように、距離測定を定期的に、又はコマンド毎にリフレッシュすることができる。
[0152]
ユーザは、コマンドについて異なるデバイスを指定することができ、いくつかの場合には近接度をオーバーライドすることを理解されたい。例えば、ユーザデバイス102上に、利用可能な表示デバイスのリストを表示することができる(例えば、セットアップ名、指定された部屋などによって、第1のディスプレイ1786及び第2のディスプレイ1788がリストアップされる、又はセットアップ名、指定された部屋などによって、第1のセットトップボックス1792及び第2のセットトップボックス1794がリストアップされる)。ユーザは、そのリストからデバイスのうちの1つを選択することができる。次いで、選択されたデバイスに、コマンドを送信することができる。次いで、選択されたデバイス上に所望のメディアを表示することによって、ユーザデバイス102で発行されたメディアコンテンツの要求を処理することができる。他の実施例では、ユーザは、口頭コマンドの一部として、所望のデバイスを発語することができる(例えば、キッチンのテレビに試合を表示して、リビングルームで漫画チャンネルに変えて、など)。
[0153]
更に他の実施例では、特定のデバイスと関連付けられたステータス情報に基づいて、要求されたメディアコンテンツを表示するためのデフォルトデバイスを判定することができる。例えば、ユーザデバイス102にヘッドホン(又はヘッドセット)が取り付けられているかどうかを判定することができる。メディアコンテンツを表示するという要求を受信した時に、ユーザデバイス102にヘッドホンが取り付けられていると判定したことに応じて、(例えば、ユーザがテレビではなくユーザデバイス102上でコンテンツを消費すると仮定すると)要求されたコンテンツを、デフォルトで、ユーザデバイス102上に表示することができる。メディアコンテンツを表示するという要求を受信した時に、ユーザデバイス102にヘッドホンが取り付けられていないと判定したことに応じて、本明細書で論じる種々の判定方法のうちのいずれかに従って、要求されたコンテンツを、ユーザデバイス102又はテレビのいずれかに表示することができる。同様に、ユーザデバイス102又はセットトップボックス104の周りの環境光、ユーザデバイス102又はセットトップボックス104に対する他のデバイスの近接度、ユーザデバイス102の向き(例えば、横長方向は、ユーザデバイス102上の所望のビューをより示し易くすることができる)、セットトップボックス104のディスプレイ状態(例えばスリープモード中)、特定のデバイス上の最後の対話以後の時間、あるいは、ユーザデバイス102及び/又はセットトップボックス104のための種々の他のステータスインジケータのうちのいずれかなど、他のデバイスステータス情報を使用して、要求されたメディアコンテンツをユーザデバイス102上に表示すべきか、あるいはセットトップボックス104上に表示すべきかを判定することができる。
[0154]
図18は、仮想アシスタント及び複数のユーザデバイスを使用してテレビ対話を制御するための例示的なプロセス1800を示す。ブロック1802で、第1のディスプレイを備える第1のデバイスにおいて、ユーザからの発語入力を受信することができる。例えば、システム100のユーザデバイス102又は遠隔制御106において、ユーザからの発語入力を受信することができる。いくつかの実施例では、第1のディスプレイは、ユーザデバイス102のタッチスクリーン246、又は遠隔制御106と関連付けられたディスプレイを含むことができる。
[0155]
ブロック1804で、第1のディスプレイ上に表示されたコンテンツに基づいて、発語入力からユーザの意図を判定することができる。例えば、図11のインタフェース1150におけるテレビプログラム1152、あるいは図13のインタフェース1360における写真及び動画などのコンテンツを分析し、それを使用して発語入力についてのユーザ意図を判定することができる。いくつかの実施例では、ユーザは、第1のディスプレイ上に表示されたコンテンツを曖昧に参照することがあり、図12及び図14を参照して上記で論じたように、第1のディスプレイ上に示されたコンテンツを分析して、その参照を解釈する(例えば、「その」動画、「その」アルバム、「その」試合などについてのユーザ意図を判定する)ことによって、参照の曖昧性を回避することができる。
[0156]
再び図18のプロセス1800を参照すると、ブロック1806で、ユーザ意図に基づいて、メディアコンテンツを判定することができる。例えば、ユーザ意図に基づいて、特定の動画、写真、フォトアルバム、テレビプログラム、スポーツイベント、音楽トラックなどを識別することができる。上記で論じた図11及び図12の実施例では、例えば、図11のインタフェース1150に表示される「その」サッカーの試合を参照しているユーザ意図に基づいて、チャンネル5に表示される特定のサッカーの試合を識別することができる。上記で論じた図13及び図14の実施例では、図14の発語入力例から判定されるユーザ意図に基づいて、「卒業式の動画」というタイトルの特定の動画1362、「卒業式のアルバム」というタイトルの特定のフォトアルバム1364、又は特定の写真1366を識別することができる。
[0157]
再び図18のプロセス1800を参照すると、ブロック1808で、第2のディスプレイと関連付けられた第2のデバイス上に、メディアコンテンツを表示することができる。例えば、判定したメディアコンテンツを、テレビセットトップボックス104を介して、スピーカ111を備えるディスプレイ112上で再生することができる。メディアコンテンツを再生することは、テレビセットトップボックス104又は別のデバイス上で、特定のテレビチャンネルに同調させること、特定の動画を再生すること、写真のスライドショーを表示すること、特定の写真を表示すること、特定のオーディオトラックを再生することなどを含むことができる。
[0158]
いくつかの実施例では、仮想アシスタントにダイレクトされた発語入力への応答を、第1のデバイス(例えば、ユーザデバイス102)と関連付けられた第1のディスプレイ上に表示すべきか、あるいは、第2のデバイス(例えば、テレビセットトップボックス104)と関連付けられた第2のディスプレイ上に表示すべきかについて、判定を行うことができる。例えば、図15及び図16を参照して上記で論じたように、ユーザデバイス102上には、より小さいスクリーン上での表示に適した情報回答又はメディアコンテンツを表示することができる一方で、セットトップボックス104と関連付けられたディスプレイ上には、より大きいスクリーン上での表示に適したメディア応答又はメディアコンテンツを表示することができる。図17を参照して上記で論じたように、いくつかの実施例では、ユーザデバイス102と複数のセットトップボックスとの間の距離を使用して、どのセットトップボックス上でメディアコンテンツを再生すべきか、あるいは、どのセットトップボックスにコマンドを発行すべきかを判定することができる。同様に、複数のデバイスが対話し得る便利でユーザフレンドリなエクスペリエンスを提供するために、種々の他の判定を行うことができる。
[0159]
いくつかの実施例では、上記で論じたように、ユーザデバイス102上に表示されたコンテンツを使用して、発語入力の解釈を通知することができるので、同様に、ディスプレイ112上に表示されたコンテンツを使用して、発語入力の解釈を通知することができる。詳細には、テレビセットトップボックス104と関連付けられたディスプレイ上に表示されたコンテンツを、そのコンテンツと関連付けられたメタデータと共に使用して、発語入力からユーザ意図を判定すること、ユーザクエリの曖昧性を回避すること、コンテンツに関係するクエリに応答することなどを行うことができる。
[0160]
図19は、(上述した)例示的な発語入力インタフェース484を示しており、動画480に関する仮想アシスタントクエリがバックグラウンドに表示されている。いくつかの実施例では、ユーザクエリは、ディスプレイ112に表示されたメディアコンテンツに関する質問を含むことができる。例えば、音声表記1916は、女優の識別を要求するクエリを含む(「それらの女優は誰?」)。ディスプレイ112上に表示されたコンテンツを(そのコンテンツに関するメタデータ又は他の記述情報と共に)使用して、そのコンテンツに関係する発語入力からユーザ意図を判定するだけでなく、クエリに対する応答(ユーザにメディア選択を提供する、情報応答並びにメディア応答を含む応答)を判定することができる。例えば、動画480、動画480の記述、動画480のキャラクターと俳優のリスト、動画480のレーティング情報、動画480のジャンル情報、及び動画480と関連付けられた種々の他の記述情報を使用して、ユーザ要求の曖昧性を回避し、ユーザクエリに対する応答を判定することができる。関連付けられたメタデータは、例えば、キャラクター1910とキャラクター1912とキャラクター1914との識別情報(例えば、そのキャラクターを演じる女優の名を伴うキャラクター名)を含むことができる。同様に、任意の他のコンテンツのメタデータは、タイトル、説明、キャラクターのリスト、俳優のリスト、選手のリスト、ジャンル、プロデューサー名、ディレクター名、又はディスプレイ上に表示されたコンテンツ若しくはディスプレイ上のメディアコンテンツの閲覧履歴(例えば、最近表示されたメディア)と関連付けられた表示スケジュールを含むことができる。
[0161]
1つの実施例では、仮想アシスタントにダイレクトされたユーザクエリは、ディスプレイ112上に表示されたものへの曖昧な参照を含むことができる。音声表記1916は、例えば、「それらの」女優への参照を含む(「それらの女優は誰?」)。ユーザが尋ねている特定の女優は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ディスプレイ112上に表示されたコンテンツ及び関連メタデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。例示した実施例では、ディスプレイ112に表示されたコンテンツを使用して、「それらの」女優に対する参照から、ユーザ意図を判定することができる。1つの実施例では、テレビセットトップボックス104は、コンテンツと関連付けられた詳細と共にコンテンツを再生することを識別することができる。この事例では、テレビセットトップボックス104は、種々の記述コンテンツと共に動画480のタイトルを識別することができる。他の実施例では、テレビ番組、スポーツイベント又は他のコンテンツを、関連付けられたメタデータと併せて使用して、ユーザ意図を判定することができる。更に、本明細書で論じる種々の実施例のうちのいずれかでは、発語認識結果及び意図判定は、表示されたコンテンツと関連付けられた用語を、代替物よりも高く重み付けすることができる。例えば、スクリーン上のキャラクターの俳優がスクリーン上に現れている間(又は、彼らが出演している番組を再生している間)、彼らの俳優名により高く重み付けすることができ、それにより、表示されたコンテンツと関連付けられた、可能性が高いユーザ要求の正確な発語認識及び意図判定を行うことができる。
[0162]
1つの実施例では、動画480と関連付けられたキャラクター及び/又は俳優のリストを使用して、動画480に出演している全ての又は最も目立った女優を識別することができ、そこには、女優1910、1912及び1914が含まれ得る。識別された女優を、可能な結果として戻すことができる(メタデータの分解能が粗い場合には、より少数の又は追加の女優が含まれる)。別の実施例では、動画480と関連付けられたメタデータは、所与の時間にスクリーン上に現れている俳優及び女優の識別情報を含むことができ、そのメタデータから、クエリ時に現れている女優を判定することができる(例えば、詳細には、女優1910、1912及び1914が識別される)。更に別の実施例では、顔認識アプリケーションを使用して、ディスプレイ112上に表示された画像から、女優1910、1912及び1914を識別することができる。更に他の実施例では、動画480と関連付けられた種々の他のメタデータ、及び種々の他の認識手法を使用して、「それらの」女優を参照する際のユーザの可能性がある意図を識別することができる。
[0163]
いくつかの実施例では、ディスプレイ112上に表示されたコンテンツは、クエリの発信及び応答の判定中に変化することがある。したがって、メディアコンテンツの閲覧履歴を使用して、ユーザ意図を判定し、クエリに対する応答を判定することができる。例えば、クエリに対する応答が生成される前に、動画480が(例えば、他のキャラクターがいる)別のビューに動いた場合、クエリが発語された時点のユーザのビュー(例えば、ユーザがクエリを開始した時点でスクリーン上に表示されるキャラクター)に基づいて、クエリの結果を判定することができる。いくつかの事例では、ユーザは、クエリを発行するためにメディアの再生を休止することがあり、休止時に表示されたコンテンツを、関連付けられたメタデータと共に使用して、ユーザ意図及びクエリに対する応答を判定することができる。
[0164]
判定したユーザ意図が与えられると、クエリの結果をユーザに提供することができる。図20は、アシスタント応答2020を含む例示的なアシスタント応答インタフェース2018を示し、アシスタント応答2020は、図19の音声表記1916のクエリから判定される応答を含むことができる。アシスタント応答2020は、図示のとおり、動画480中の各女優の名前とその関連キャラクターとのリストを含むことができる(「女優Jennifer Jonesは、キャラクターBlancheを演じており、女優Elizabeth Arnoldは、キャラクターJuliaを演じており、女優Whitney Davidsonは、キャラクターMelissaを演じています。」)。応答2020中の列挙された女優及びキャラクターは、ディスプレイ112上に現れているキャラクター1910、1912及び1914に対応することができる。上述のように、いくつかの実施例では、ディスプレイ112上に表示されたコンテンツは、クエリの発信及び応答の判定中に変化することがある。したがって、応答2020は、ディスプレイ112上にはもはや現れていないコンテンツ又はキャラクターに関する情報を含むことができる。
[0165]
ディスプレイ112上に表示される他のインタフェースの場合と同様に、アシスタント応答インタフェース2018が占めるスクリーンの面積を、所望の情報を伝達するのに十分なスペースを提供しながら、最小量に抑えることができる。いくつかの実施例では、ディスプレイ112上のインタフェースに表示される他のテキストの場合と同様に、アシスタント応答2020を、ディスプレイ112の下部から図20に示した位置へとスクロールアップし、ある特定の時間量(例えば、応答の長さに基づく遅延)にわたって表示し、スクロールアップさせてビューから消すことができる。他の実施例では、遅延後に、インタフェース2018を下向きにスライドしてビューから消すことができる。
[0166]
図21及び図22は、ディスプレイ112に表示されたコンテンツに基づくユーザ意図の判定とクエリに対する応答との別の実施例を示す。図21は、動画480と関連付けられたメディアコンテンツに関する仮想アシスタントクエリを示す例示的な発語入力インタフェース484を示す。いくつかの実施例では、ユーザクエリは、ディスプレイ112に表示されたメディアと関連付けられたメディアコンテンツに関する要求を含むことができる。例えば、ユーザは、例えば、キャラクター、俳優、ジャンルなどに基づいて、特定のメディアと関連付けられた他の映画、テレビプログラム、スポーツイベントなど要求することができる。例えば、音声表記2122は、動画480における女優のキャラクターの名前を参照して、動画480の女優と関連付けられた他のメディアを要求するクエリを含む(「Blancheは他に何に出演している?」)。同じく、ディスプレイ112上に表示されたコンテンツを(そのコンテンツに関するメタデータ又は他の記述情報と共に)使用して、そのコンテンツに関係する発語入力からユーザ意図を判定するだけでなく、クエリに対する応答(情報応答、又はメディア選択における得られる応答のいずれか)を判定することができる。
[0167]
いくつかの実施例では、仮想アシスタントにダイレクトされたユーザクエリは、キャラクターの名前、俳優の名前、プログラムの名前、選手の名前などを使用する曖昧な参照を含むことができる。ディスプレイ112上に表示されたコンテンツのコンテキスト及びその関連メタデータなしには、そのよう参照を正確に解釈するのは難しいことがある。音声表記2122は、例えば、動画480の「Blanche」という名前のキャラクターに対する参照を含む。ユーザが尋ねている特定の女優又は他の人は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ディスプレイ112上に表示されたコンテンツ及び関連メタデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。例示した実施例では、ディスプレイ112に表示されたコンテンツ及び関連メタデータを使用して、キャラクター名「Blanche」から、ユーザ意図を判定することができる。この事例では、動画480と関連付けられたキャラクターリストを使用して、「Blanche」が動画480のキャラクター「Blanche」を参照する可能性があることを判定することができる。別の実施例では、詳細なメタデータ及び/又は顔認識を使用して、スクリーンに名前が「Blanche」のキャラクターが現れている(又は、ユーザのクエリの開始時にスクリーン上にあらわ割れていた)ことを判定し、そのキャラクターと関連付けられた女優を、最も可能性の高いユーザのクエリの意図とすることができる。例えば、キャラクター1910、1912及び1914がディスプレイ112上に現れている(又は、ユーザのクエリの開始時にディスプレイ112上に現れていた)と判定することができ、次いで、彼らの関連付けられたキャラクター名を参照して、キャラクターBlancheを参照しているクエリのユーザ意図を判定することができる。次いで、俳優リストを使用して、Blancheを演じる女優を識別することができ、識別された女優が出演している他のメディアを識別するために検索を行うことができる。
[0168]
判定したユーザ意図(例えば、キャラクター参照「Blanche」の解釈)、及びクエリの結果の判定(例えば、「Blanche」を演じる女優と関連付けられた他のメディア)が与えられると、応答をユーザに提供することができる。図22は、アシスタントテキスト応答2226と選択可能な動画リンク2228とを含む例示的なアシスタント応答インタフェース2224を示し、それは、図21の音声表記2122のクエリに応じることができる。アシスタントテキスト応答2226は、図示のとおり、選択可能な動画リンク2228を紹介するユーザ要求のパラフレーズを含むことができる。また、アシスタントテキスト応答2226は、ユーザのクエリの曖昧性除去の指示を含むことができる(詳細には、動画480においてキャラクターBlancheを演じる女優Jennifer Jonesを識別する)。そのようなパラフレーズは、仮想アシスタントがユーザのクエリを正しく解釈し、所望の結果を提供していることをユーザに確認することができる。
[0169]
また、アシスタント応答インタフェース2224は、選択可能な動画リンク2228を含むことができる。いくつかの実施例では、仮想アシスタントクエリに対する結果として、映画(例えば、インタフェース2224の映画A及び映画B)を含む種々の種類のメディアコンテンツを提供することができる。クエリの結果として表示されるメディアコンテンツは、(無料で、購入して、又はサブスクリプションの一部として)ユーザが消費するために利用可能であり得るメディアを含むことができる。ユーザは、表示されたメディアを選択して、得られたコンテンツを閲覧又は消費することができる。例えば、ユーザは、女優Jennifer Jonesが出演している他の映画のうちの1つを視聴するために、(例えば、遠隔制御、音声コマンドなどを使用して)選択可能な動画リンク2228のうちの1つを選択することができる。選択可能な動画リンク2228のうちの1つの選択に応じて、その選択と関連付けられた動画を再生し、ディスプレイ112上の動画480を置換することができる。したがって、表示されたメディアコンテンツ及び関連メタデータを使用して、発語入力からユーザ意図を判定することができ、いくつかの実施例では、結果として、再生可能なメディアを提供することができる。
[0170]
ユーザは、クエリを形成する際に、表示されたコンテンツと関連付けられた、俳優、選手、キャラクター、場所、チーム、スポーツイベントの詳細、映画の主題、又は種々の他の情報を参照することができ、仮想アシスタントシステムは、同様に、表示されたコンテンツ及び関連メタデータに基づいて、そのような要求の曖昧性を回避し、ユーザ意図を判定することができることを理解されたい。同様に、いくつかの実施例では、結果は、(ユーザがそのようなメディアコンテンツを具体的には要求するか否かにかかわらず)クエリの主題である人物と関連付けられた、映画、テレビ番組又はスポーツイベントなど、クエリと関連付けられたメディア推薦を含むことができることを理解されたい。
[0171]
更に、いくつかの実施例では、ユーザクエリは、キャラクター、エピソード、映画のプロット、以前のシーンなどに関するクエリのような、メディアコンテンツ自体と関連付けられた情報の要求を含むことができる。上記で論じた実施例の場合と同様に、表示されたコンテンツ及び関連メタデータを使用して、そのようなクエリからユーザ意図を判定し、応答を判定することができる。例えば、ユーザは、キャラクターの記述を要求することがある(例えば、「Blancheは、この映画で何をしている?」)。次いで、仮想アシスタントシステムは、表示されたコンテンツと関連付けられたメタデータから、キャラクターの記述又は配役など、キャラクターに関する要求された情報を識別することができる(例えば、「Blancheは、弁護士のグループの1人であり、Hartfordのトラブルメーカーとして知られている。)。同様に、ユーザは、エピソードの概要を要求することがあり(例えば、「最後のエピソードで何が起こった?」)、仮想アシスタントシステムは、エピソードの記述を検索し、それを提供することができる。
[0172]
いくつかの実施例では、ディスプレイ112上に表示されたコンテンツは、メニューコンテンツを含むことができ、そのようなメニューコンテンツを同様に使用して、発語入力のユーザ意図及びユーザクエリに対する応答を判定するために使用されることができる。図23A〜図23Bは、プログラムメニュー830の例示的なページを示す図である。図23Aは、メディアオプション832の第1のページを示し、図23Bは、(2ページ以上にわたるコンテンツのリストの連続する次のページを含むことができる)メディアオプション832の第2のページを示す。
[0173]
1つの実施例では、コンテンツを再生するというユーザ要求は、メニュー830における、ディスプレイ112上に表示されたものへの曖昧な参照を含むことができる。例えば、ユーザが閲覧するメニュー830は、「その」サッカーの試合、「その」バスケットボールの試合、掃除機の広告、法律番組などを視聴することを要求することができる。所望される特定のプログラムは、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、デバイス112上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。例示した実施例では、メニュー830のメディアオプションを(いくつかの実施例では、メディアオプションと関連付けられたメタデータと共に)使用して、曖昧な参照を含むコマンドから、ユーザ意図を判定することができる。例えば、「その」サッカーの試合は、スポーツチャンネルのサッカーの試合と解釈することができる。「その」バスケットボールの試合は、カレッジスポーツチャンネルのバスケットボールの試合と解釈することができる。掃除機の広告は、(例えば、掃除機について説明している番組と関連付けられたメタデータに基づいて)テレビショッピング番組と解釈することができる。法律番組は、番組と関連付けられたメタデータ、及び/又はシノニムマッチング、ファジーマッチング若しくは他のマッチング技術に基づいて、法廷ドラマと解釈することができる。したがって、ディスプレイ112上のメニュー830に種々のメディアオプション832が現れていることを使用して、ユーザ要求の曖昧性を回避することができる。
[0174]
いくつかの実施例では、カーソル、ジョイスティック、矢印、ボタン、ジェスチャなどで、表示されたメニューをナビゲートすることができる。そのような場合、選択された項目についてフォーカスを表示することができる。例えば、選択された項目は、太字で、下線を付して、枠線で囲み、他のメニュー項目よりも大きなサイズで、影付きで、反射させて、光らせて、及び/又は、どのメニュー項目が選択され、フォーカスを有するかを強調する任意の他の特徴部を用いて示される。例えば、図23Aの選択されたメディアオプション2330は、現在選択されているメディアオプションとしてフォーカスを有することができ、大きく下線付きでタイプされ、枠線を用いて示されている。
[0175]
いくつかの実施例では、コンテンツ又はメニュー項目を再生又は選択するという要求は、フォーカスを有するメニュー項目の曖昧な参照を含むことができる。例えば、図23Aのユーザが閲覧しているメニュー830は、「その」番組を再生すること要求することができる(例えば、「その番組を再生して。」)。同様に、ユーザは、再生、削除、非表示、視聴リマインダ、録画など、フォーカスを有するメニュー項目と関連付けられた種々の他のコマンドを要求することができる。所望される特定のメニュー項目又は番組は、発語入力のみからでは不明瞭であることがある。ただし、デバイス112上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。詳細には、選択されたメディアオプション2330は、メニュー830にフォーカスを有するという事実を使用して、「その」番組を参照するコマンド、主題のないコマンド(例えば、再生、削除、非表示など)、又はフォーカスを有するメディアコンテンツを参照する任意の他の曖昧なコマンドのうちのいずれかの所望のメディアの主題を識別することができる。したがって、発語入力からユーザ意図を判定する際に、フォーカスを有するメニュー項目を使用することができる。
[0176]
(例えば、ユーザの要求開始時には表示されていたが、それから経過後に)ユーザ要求の曖昧性を回避するために使用することができるメディアコンテンツの閲覧履歴の場合と同様に、以前に表示されたメニュー又は検索結果コンテンツを同様に使用して、それ以降のメニューコンテンツ又は検索結果コンテンツに移動した後、それ以降のユーザ要求の曖昧性を回避することができる。例えば、図23Bは、追加のメディアオプション832を備えるメニュー830の第2のページを示す。ユーザは、図23Bに例示した第2のページに進むことができるが、図23Aに例示した第1のページに表示されたコンテンツ(例えば、図23Aに示したメディアオプション832)を再び参照することができる。例えば、メニュー830の第2のページに移動したにもかかわらず、ユーザは、「その」サッカーの試合、「その」バスケットボールの試合又は法律番組の視聴を要求することができ、それらは全て、メニュー830の以前のページに最近表示されたメディアオプション832である。そのような参照は曖昧であることがあるが、メニュー830の第1のページのうち最近表示されたメニューコンテンツを使用して、ユーザ意図を判定することができる。詳細には、図23Aの最近表示されたメディアオプション832を分析して、例示的な曖昧な要求で参照される特定のサッカーの試合、バスケットボールの試合、又は法廷ドラマを識別することができる。いくつかの実施例では、コンテンツがどれくらい最近表示されたかに基づいて、結果にバイアスをかける(例えば、以前に閲覧された結果よりも、結果の直近に閲覧されたページに重み付けする)ことができる。このようにすると、ディスプレイ112上に最近表示されたものの閲覧履歴を使用して、ユーザ意図を判定することができる。以前に表示された検索結果、以前に表示されたプログラム、以前に表示されたメニューなど、任意の最近表示されたコンテンツを使用することができることを理解されたい。これにより、ユーザは、自身が見た特定のビューを発見し、それにナビゲートすることなく、以前に見たものを再び参照することが可能になる。
[0177]
更に他の実施例では、デバイス112上のメニュー又は結果リストに表示された種々の表示キューを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。図24は、カテゴリーに分けられた例示的なメディアメニューを示し、それらのうちの1つ(映画)がフォーカスを有する。図24は、カテゴリーインタフェース2440を示し、カテゴリーインタフェース2440は、TVオプション2442、映画オプション2444及び音楽オプション2446を含むカテゴリーに分けられたたメディアオプションのカルーセルスタイルのインタフェースを含むことができる。図示のとおり、音楽カテゴリーは一部のみが表示されており、追加のコンテンツを表示するために、カルーセルでメディアを回転させるかのように、(例えば、矢印により示されるように)カルーセルインタフェースを右側にシフトすることができる。例示した実施例では、(例えば、他のカテゴリーよりもユーザに近く見えるように、そのカテゴリーをより大きくする、光を加える、など)種々の他のやり方のいずれかでフォーカスを示すことができるが、映画カテゴリーは、下線付きのタイトル及び枠線によって示されるフォーカスを有する。
[0178]
いくつかの実施例では、コンテンツ又はメニュー項目を再生又は選択するという要求は、項目のグループ(カテゴリーなど)におけるメニュー項目の曖昧な参照を含むことができる。例えば、ユーザが閲覧しているカテゴリーインタフェース2440は、サッカー番組を再生するように要求することができる(「サッカー番組を再生して。」)。所望される特定のメニュー項目又は番組は、発語入力のみからでは不明瞭であることがある。更に、クエリを、ディスプレイ112上に表示される2つ以上の番組と解釈することができる。例えば、サッカー番組の要求は、TVプログラムカテゴリーに列挙されたサッカーの試合、又は映画カテゴリーに列挙されたサッカーの映画のいずれかを指し得る。デバイス112上に表示されたコンテンツ(表示キューを含む)を使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。詳細には、カテゴリーインタフェース2440において映画カテゴリーがフォーカスを有するという事実を使用して、映画カテゴリー上でフォーカスを与えられたサッカーの映画である、所望される特定のサッカー番組を識別することができる。したがって、発語入力からユーザ意図を判定する際に、ディスプレイ112上に表示されるようなフォーカスを有するメディアのカテゴリー(又は、メディアの任意の他のグループ)を使用することができる。また、ユーザは、ある特定のカテゴリーコンテンツの表示を要求するなど、カテゴリーと関連付けられた種々の他の要求を行うことができる(例えば、コメディ映画を表示する、ホラー映画を表示する、など)。
[0179]
他の実施例では、ユーザは、種々の他のやり方で、ディスプレイ112上に表示されたメニュー又はメディア項目を参照することができる。同様に、表示されたコンテンツに基づいて、ユーザ意図は判定することができる。表示されたコンテンツと関連付けられたメタデータ(例えば、TVプログラムの記述、映画の記述など)、ファジーマッチング技術、シノニムマッチングなどを、発語入力からユーザ意図を判定するために、表示されたコンテンツと併せて更に使用することができることを了解されたい。したがって、自然言語要求を含む種々の形態のユーザ要求を適応することができ、本明細書で論じる種々の実施例に従って、ユーザ意図を判定することができる。
[0180]
ディスプレイ112に表示されたコンテンツは、単独で使用しても、あるいは、ユーザデバイス102上に、又はユーザ意図を判定する際に遠隔制御106と関連付けられたディスプレイ上に表示されたコンテンツと併せて使用してもよいことを理解されたい。同様に、テレビセットトップボックス104に通信可能に結合された種々のデバイスのいずれかで仮想アシスタントクエリを受信することができ、どのデバイスがクエリを受信するかにかかわらず、ディスプレイ112上に表示されたコンテンツを使用してユーザ意図を判定することができることを理解されたい。クエリの結果も同様に、ディスプレイ112上に、又は別のディスプレイ上に(例えば、ユーザデバイス102上に)表示することができる。
[0181]
更に、本明細書では論じる種々の実施例のうちのいずれかでは、仮想アシスタントシステムは、ユーザが、具体的にメニューを開いて、メニュー項目にナビゲートすることを必要とせずに、メニューをナビゲートし、メニューオプションを選択することができる。例えば、図24における映画オプション2444の選択など、メディアコンテンツ又はメニューボタンを選択した後に、オプションのメニューが現れることがある。メニューオプションは、メディアの再生だけでなく、後でメディアを視聴するためにリマインダを設定すること、メディア録画を設定すること、お気に入りリストにメディアを加えること、更なるビューからメディアを非表示にすることなどのような、単なるメディアの再生の代替を含み得る。ユーザが、メニューの上でコンテンツ又はサブメニューオプションを有するコンテンツを閲覧している間、ユーザは、選択するメニュー又はサブメニューにナビゲートすることを場合によっては必要とする仮想アシスタントコマンドを発行することができる。例えば、図24のユーザが閲覧しているカテゴリーインタフェース2440は、関連付けられるメニューを手動で開くことなく、映画オプション2444と関連付けられた任意のメニューコマンドを発行することができる。例えば、ユーザは、サッカー映画をお気に入りリストに加えること、夜のニュースを録画すること、映画Bを視聴するためのリマインダを設定することを、そのようなコマンドが利用可能であり得るそれらのメディアオプションと関連付けられたメニュー又はサブメニューを常にナビゲートすることなしに要求し得る。したがって、仮想アシスタントシステムは、ユーザに代わってコマンドを実行するために、メニュー及びサブメニューのメニューオプションがディスプレイ112上に現れているか否かにかかわらず、メニュー及びサブメニューをナビゲートすることができる。これにより、ユーザ要求を単純にすることができ、ユーザが所望のメニュー機能を達成するために行わなければならないクリック又は選択の回数を低減することができる。
[0182]
図25は、ディスプレイ上の示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用して、テレビ対話を制御するための例示的なプロセス2500を示す。ブロック2502で、テレビディスプレイ上に表示されたコンテンツと関連付けられたクエリを含む、ユーザからの発語入力を受信することができる。例えば、発語入力は、(テレビセットトップボックス104によって示される)システム100のディスプレイ112上に現れているキャラクター、俳優、映画、テレビプログラム、スポーツイベント、選手などに関するクエリを含むことができる。例えば、図19の音声表記1916は、ディスプレイ112上の動画480に表示された女優と関連付けられたクエリを含む。同様に、図21の音声表記2122は、例えば、ディスプレイ112上に表示された動画480中のキャラクターと関連付けられたクエリを含む。また、発語入力は、特定のメニュー項目を選択するためのクエリ、又は特定の検索結果に関する情報を得るためのクエリなど、ディスプレイ112上に現れているメニュー又は検索コンテンツと関連付けられたクエリを含むことができる。例えば、表示されたメニューコンテンツは、図23A及び図23Bにおけるメニュー830のメディアオプション832を含むことができる。表示されたメニューコンテンツは同様に、図24のカテゴリーインタフェース2440に現れている、TVオプション2442、映画オプション2444、及び/又は音楽オプション2446を含むことができる。
[0183]
図25のプロセス2500を再び参照すると、ブロック2504で、表示されたコンテンツとメディアコンテンツの閲覧履歴とに基づいて、クエリのユーザ意図を判定することができる。例えば、テレビプログラム、スポーツイベント、映画などの表示されている、又は最近表示されたシーンに基づいて、ユーザ意図を判定することができる。また、表示されている、又は最近表示されたメニュー又は検索コンテンツに基づいて、ユーザ意図を判定することができる。また、表示されたコンテンツを、コンテンツと関連付けられたメタデータと共に分析して、ユーザ意図を判定することができる。例えば、図示され、図19、図21、図23A、図23B及び図24を参照して説明したコンテンツを単独で、又は表示されたコンテンツと関連付けられたメタデータと併せて使用して、ユーザ意図を判定することができる。
[0184]
ブロック2506で、判定したユーザ意図に基づいて、クエリの結果を表示することができる。例えば、図20のアシスタント応答インタフェース2018におけるアシスタント応答2020と同様の結果をディスプレイ112上に表示することができる。別の実施例では、結果として、図22に示したアシスタント応答インタフェース2224におけるアシスタントテキスト応答2226及び選択可能な動画リンク2228など、テキスト及び選択可能なメディアを提供することができる。更に別の実施例では、クエリの結果を表示することは、選択されたメディアコンテンツを表示すること、又は再生すること(例えば、選択された動画を、テレビセットトップボックス104を介してディスプレイ112上で再生すること)を含むことができる。したがって、コンテキストとして表示されたコンテンツ及び関連メタデータを使用する様々なやり方で、発語入力からユーザ意図を判定することができる。
[0185]
いくつかの実施例では、例えば、利用可能なクエリをユーザに通知する、ユーザが楽しみ得るコンテンツを推薦する、どのようにシステムを使用するかをユーザに教える、消費のために追加のメディアコンテンツを見つけるようにユーザに勧めるなどのために、ユーザに仮想アシスタントクエリ推薦を提供することができる。いくつかの実施例では、クエリ推薦は、考えられ得るコマンドの包括的な推薦(例えば、コメディを見つける、TVガイドを表示する、アクション映画を検索する、クローズドキャプションをオンにする、など)を含むことができる。他の実施例では、クエリ推薦は、表示されたコンテンツに関係するターゲット推薦(例えば、この番組をウォッチリストに加える、ソーシャルメディアを介してこの番組を共有する、この映画のサウンドトラックを教える、このゲストが販売している本を教える、ゲストがプラグインしている映画のトレーラを教える、など)、ユーザの好み(例えば、クローズドキャプションの使用など)、ユーザが所有するコンテンツ、ユーザのデバイス上に録画されたコンテンツ、通知、アラート、メディアコンテンツの閲覧履歴(例えば、最近表示されたメニュー項目、番組の最近表示されたシーン、俳優の最近の出演など)などを含むことができる。テレビセットトップボックス104を介したディスプレイ112上での表示、ユーザデバイス102上での表示、又は遠隔制御106と関連付けられたディスプレイ上での表示を含めて、任意のデバイス上に推薦を表示することができる。更に、近くにあるデバイス、及び/又は特定の時間にテレビセットトップボックス104と通信するデバイスに基づいて、推薦を判定する(例えば、特定の時間にTVを視聴している室内のユーザのデバイスから、コンテンツを推薦する)ことができる。他の実施例では、時刻、クラウドソースの情報(例えば、所与の時間に視聴されている人気番組)、生放送番組(例えば、ライブスポーツイベント)、メディアコンテンツの閲覧履歴(例えば、最後に視聴されたいくつかの番組、最近閲覧された検索結果のセット、最近閲覧されたメディアオプションのグループなど)、又は種々の他のコンテキスト情報のうちのいずれかを含む、種々の他のコンテキスト情報に基づいて、推薦を判定することができる。
[0186]
図26は、コンテンツベースの仮想アシスタントクエリ推薦2652を含む例示的な推薦インタフェース2650を示す。1つの実施例では、推薦を要求しているユーザから受信した入力に応じて、インタフェース2650などのインタフェースに、クエリ推薦を提供することができる。例えば、ユーザデバイス102又は遠隔制御106から、クエリ推薦を要求する入力を受信することができる。いくつかの実施例では、入力は、ボタン押下、ボタンのダブルクリック、メニュー選択、音声コマンド(例えば、いくつかの推薦を表示する、何ができるのか、どんなオプションがあるのか、など)、又は、ユーザデバイス102若しくは遠隔制御106において受信するものを含むことができる。例えば、ユーザは、クエリ推薦を要求するために、遠隔制御106上の物理ボタンをダブルクリックすることができ、あるいは、クエリ推薦を要求するために、テレビセットトップボックス104と関連付けられたインタフェースの閲覧時にユーザデバイス102上の物理ボタン又は仮想ボタンをダブルクリックすることができる。
[0187]
動画480などの動画像の上に、又は任意の他のバックグラウンドコンテンツ(例えば、メニュー、静止画像、休止された動画など)の上に、推薦インタフェース2650を表示することができる。本明細書で論じる他のインタフェースの場合と同様に、ディスプレイ112の下部からスライドアップするように推薦インタフェース2650をアニメーション化することができ、バックグラウンドの動画480との干渉を制限するように、所望の情報を十分に伝達しながら、推薦インタフェース2650が占めるスペース量を最小限に抑えることができる。他の実施例では、バックグラウンドコンテンツが静止している時に(例えば、休止された動画、メニュー、画像など)、推薦のインタフェースをより大きくすることができる。
[0188]
いくつかの実施例では、表示されたメディアコンテンツ又はメディアコンテンツの閲覧履歴(例えば、映画、テレビ番組、スポーツイベント、最近閲覧された番組、最近閲覧されたメニュー、最近閲覧された映画のシーン、放送中のテレビエピソードの最近のシーンなど)に基づいて、仮想アシスタントクエリ推薦を判定することができる。例えば、図26は、表示された動画480に基づいて判定することができるコンテンツベースの推薦2652を示しており、表示された動画480はバックグラウンドに表示され、キャラクター1910、1912及び1914がディスプレイ112に現れている。また、表示されたコンテンツと関連付けられたメタデータ(例えば、メディアコンテンツの記述的な詳細)を使用して、クエリ推薦を判定することができる。メタデータは、番組タイトル、キャラクターリスト、俳優リスト、エピソードの記述、チーム名簿、チームランキング、番組概要、映画の詳細、プロットの記述、ディレクター名、プロデューサー名、俳優の出演時間、スポーツの順位表、スポーツのスコア、ジャンル、シーズンエピソードリスト、関係するメディアコンテンツ、又は種々の他の関連情報を含めて、表示されたコンテンツと関連付けられた種々の情報を含むことができる。例えば、動画480と関連付けられたメタデータは、キャラクター1910、1912及び1914を演じている女優と共に、それらのキャラクター名を含むことができる。メタデータはまた、動画480、(動画480がシリーズのテレビエピソードである場合)以前の又は次のエピソードの記述など、プロットの記述を含むことができる。
[0189]
図26は、動画480及び動画480と関連付けられたメタデータに基づいて推薦インタフェース2650に示すことができる種々のコンテンツベースの推薦2652を示す。例えば、動画480のキャラクター1910の名前は「Blanche」とすることができ、キャラクター名を使用して、キャラクターBlancheに関する、又はそのキャラクターを演じる女優に関する情報についてのクエリ推薦を策定することができる(例えば、「Blancheを演じている女優は誰?」)。動画480と関連付けられたメタデータ(例えば、キャラクターリスト、俳優リスト、俳優の出演と関連付けられた時間など)から、キャラクター1910を識別することができる。他の実施例では、顔認識を使用して、所与の時間にディスプレイ112上に現れる女優及び/又はキャラクターを識別することができる。キャラクターの配役、プロファイル、他のキャラクターとの関係などに関するクエリなど、メディア自体におけるキャラクターと関連付けられた種々の他のクエリ推薦を提供することができる。
[0190]
別の実施例では、(例えば、メタデータ及び/又は顔認識に基づいて)ディスプレイ112上に現れている俳優又は女優を識別することができ、その俳優又は女優と関連付けられたクエリ推薦を提供することができる。そのようなクエリ推薦は、演じた配役(単数又は複数)、映画賞、年齢、出演している他のメディア、経歴、親族、関係者、又は俳優若しくは女優に関する種々の他の詳細のうちのいずれかを含むことができる。例えば、キャラクター1914は、Whitney Davidsonという名前の女優に演じられ得、女優名Whitney Davidsonを使用して、女優Whitney Davidsonが出演している他の映画、テレビプログラム、又は他のメディアを識別するためのクエリ推薦を策定することができる(例えば、「Whitney Davidsonは他に何に出演している?」)。
[0191]
他の実施例では、番組に関する詳細を使用してクエリ推薦を策定することができる。エピソードの概要、プロットの要旨、エピソードリスト、エピソードのタイトル、シリーズタイトルなどを使用して、クエリ推薦を策定することができる。例えば、テレビプログラムの最後のエピソードで何が起こったかを説明するための推薦(例えば、「最後のエピソードで何が起こった?」)を提供することができ、仮想アシスタントシステムはそこに、ディスプレイ112上に現在表示されているエピソードに基づいて識別される前のエピソードからのエピソードの概要(及びその関連メタデータ)を応答として提供することができる。別の実施例では、次のエピソードの録画を設定するための推薦を提供することができ、それは、システムが、ディスプレイ112上に表示された現在放送しているエピソードに基づいて、次のエピソードを識別することによって達成される。更に別の実施例では、ディスプレイ112上に現れている現在のエピソード又は番組に関する情報を得るための推薦を提供することができ、メタデータから取得された番組のタイトルを使用して、クエリ推薦を策定することができる(例えば、「『Their Show』のこのエピソードは何について?」又は「『Their Show』は何について?」)。
[0192]
別の実施例では、表示されたコンテンツと関連付けられたカテゴリー、ジャンル、レーティング、賞、記述などを使用して、クエリ推薦を策定することができる。例えば、動画480は、女性が主人公であるコメディとして説明されるテレビプログラムに対応することができる。この情報から、同様の特徴をもつ他の番組を識別するためのクエリ推薦を策定することができる(例えば、「女性が主演の他のコメディを見つけて。」)。他の実施例では、ユーザサブスクリプション、再生するために利用可能なコンテンツ(例えば、テレビセットトップボックス104上のコンテンツ、ユーザデバイス102上のコンテンツ、ストリーミングために利用可能なコンテンツなどの)などに基づいて、推薦を判定することができる。例えば、情報又はメディア結果が利用可能であるかどうかに基づいて、潜在的なクエリ推薦をフィルタリングすることができる。再生可能なメディアコンテンツ若しくは情報回答を生じないかもしれないクエリ推薦を除外することができ、及び/又は、直ちに利用可能な情報回答若しくは再生可能なメディアコンテンツによるクエリ推薦を提供する(若しくは、それに、どの推薦を提供するべきか判定する際により重度に重み付けする)ことができる。したがって、表示されたコンテンツ及び関連メタデータを様々なやり方で使用して、クエリ推薦を判定することができる。
[0193]
図27は、推薦されたクエリの選択を確認するための例示的な選択インタフェース2754を示す。いくつかの実施例では、ユーザは、クエリを発語すること、ボタンを用いてそれらを選択すること、カーソルを用いてそれらにナビゲートすることなどによって、表示されたクエリ推薦を選択することができる。選択に応じて、選択インタフェース2754などの確認インタフェースに、選択された推薦を一時的に表示することができる。1つの実施例では、選択された推薦2756を、推薦インタフェース2650において選択された推薦2756が現れているところから、コマンド受信確認490の隣の図27に示した位置まで動くように、(例えば、矢印が示すように)アニメーション化することができ、他の選択されていない推薦をディスプレイから非表示にすることができる。
[0194]
図28A〜図28Bは、選択されたクエリに基づく例示的な仮想アシスタント回答インタフェース2862を示す図である。いくつかの実施例では、回答インタフェース2862などの回答インタフェースに、選択されたクエリに対する情報回答を表示することができる。推薦インタフェース2650又は選択インタフェース2754のいずれかから切り替える際には、図28Aに示すように、遷移インタフェース2858に表示することができる。詳細には、次のコンテンツがディスプレイ112の下部から上向きにスクロールするにつれて、インタフェース内の以前に表示されたコンテンツが上向きにスクロールされ、インタフェースから消える。例えば、選択された推薦2756を、仮想アシスタントインタフェースの上縁部で見えなくなるまで上向きにスライド又はスクロールすることができ、アシスタント結果2860を、図28Bに示した位置に到着するまで、ディスプレイ112の下部から上向きにスライド又はスクロールすることができる。
[0195]
回答インタフェース2862は、選択されたクエリ推薦に応じた(又は、任意の他のクエリに応じた)情報回答及び/又はメディア結果を含むことができる。例えば、選択されたクエリ推薦2756に応じて、アシスタント結果2860を判定し、提供することができる。詳細には、前のエピソードの概要の要求に応じて、表示されたコンテンツに基づいて前のエピソードを識別することができ、関連付けられた記述又は概要を識別し、それをユーザに提供することができる。例示した実施例では、アシスタント結果2860は、ディスプレイ112上の動画480に対応するプログラムの以前のエピソードについて説明することができる(例えば、「『Their Show』のエピソード203において、Blancheが、ゲスト演説者としてカレッジの心理学クラスに招待される。JuliaとMelissaが、予告なしに現れ、騒動を起こす。」)。また、本明細書では論じた他のやり方のいずれかで情報回答及びメディア結果(例えば、選択可能な動画リンク)を提示することができ、又は、種々の他のやり方(例えば、回答を発語する、直ちにコンテンツを再生する、アニメーションを示す、画像を表示する、など)で結果を提示することができる。
[0196]
別の実施例では、通知又はアラートを使用して、仮想アシスタントクエリ推薦を判定することができる。図29は、メディアコンテンツ通知2964(推薦を判定する際に、任意の通知を考慮に入れることができるが)と、通知ベースの推薦2966及びコンテンツベースの推薦2652の双方を備える推薦インタフェース2650(図26を参照して上記で論じた同じ概念のうちのいくつかを含むことができる)とを示す。いくつかの実施例では、通知のコンテンツを分析して、関連するメディアに関係する名前、タイトル、主題、アクションなどを識別することができる。例示した実施例では、通知2964は、表示のために利用可能な代替メディアコンテンツについてユーザに通知するアラートを含み、詳細には、スポーツイベントが生放送であり、試合のコンテンツがユーザにとって興味の対象であり得る(例えば、「チームシータとチームアルファは、試合残り5分間の時点で同点です。」)。いくつかの実施例では、ディスプレイ112の上部に、通知を瞬間的に表示することができる。通知を、(矢印が示すように)ディスプレイ112の上部から、図29に示した位置へとスライドダウンし、ある特定の時間にわたって表示し、ディスプレイ112の上部において再び見えなくなるようにスライドアップして戻すことができる。
[0197]
通知又はアラートは、利用可能な代替メディアコンテンツ(例えば、ディスプレイ112上に現在表示され得るものの代替物)、利用可能な濱放送のテレビプログラム、新たにダウンロードされたメディアコンテンツ、最近追加されたサブスクリプションコンテンツ、友人から受信した推薦、別のデバイスから送信されたメディアの受信などのような、種々の情報のユーザを通知することができる。また、家庭用の又は識別されたユーザが視聴しているにメディアに基づいて、通知をパーソナライズする(例えば、アカウント選択を使用したユーザ認証、音声認識、パスワードなどに基づいて識別する)ことができる。1つの実施例では、システムは、番組に割り込み、(ユーザプロファイル、好きなチーム(単数又は複数)、好みのスポーツ(単数又は複数)、閲覧履歴などに基づいて通知のコンテンツを望む可能性があり得る)ユーザのための表示通知2964など、可能性がある所望のコンテンツに基づいて通知を表示することができる。例えば、スポーツイベントのスコア、試合の状況、残り時間などを、スポーツデータフィード、報道機関、ソーシャルメディアのディスカッションなどから取得することができ、それを使用して、ユーザに通知するための考えられ得る代替メディアコンテンツを識別することができる。
[0198]
他の実施例では、現在閲覧されているコンテンツの代替物を推薦するために、アラート又は通知を介して(例えば、多くのユーザに)人気があるメディアコンテンツを提供することができる(例えば、人気がある番組又はユーザが好きなジャンルの番組がちょうど始まったこと、又は場合によっては閲覧するために利用可能であることをユーザに通知する)。例示した実施例では、ユーザは、チームシータ及びチームアルファの一方又は双方をフォローし得る(あるいは、サッカー又は特定のスポーツ、リーグなどをフォローし得る)。システムは、利用可能なライブコンテンツがユーザの好みと一致すると判定することができる(例えば、別のチャンネルの試合が、ユーザの好みと一致する、試合の残り時間がほとんどない、スコアが近接している)。次いで、システムは、可能性がある所望のコンテンツの通知2964を介してユーザにアラートを出すことを判定することができる。いくつかの実施例では、ユーザは、通知2964(又は、通知2964内のリンク)を選択して、(例えば、遠隔制御ボタン、カーソル、口頭要求などを使用して)推薦されたコンテンツに切り替えることができる。
[0199]
関連するメディア、関連する用語、名前、タイトル、主題、アクションなどを識別するために通知コンテンツを分析することによって、通知に基づいて、仮想アシスタントクエリ推薦を判定することができる。次いで、識別された情報を使用して、通知2964に基づいて、通知ベースの推薦2966など、適切な仮想アシスタントクエリ推薦を策定することができる。例えば、ライブスポーツイベントのエキサイティングな終わりに関する通知を表示することができる。次いで、ユーザがクエリ推薦を要求すると、スポーツイベントを閲覧するための、チームの成績に関して照会するための、又は通知に関係するコンテンツを発見するためのクエリ推薦を含む推薦インタフェース2650(例えば、シータ/アルファの試合に変える、チームシータのステータスはどんなか、他にどんなサッカーの試合が放送されているか)を表示することができる。通知で識別された興味の対象である特定の用語に基づいて、種々の他のクエリ推薦を同様に判定し、それをユーザに提供することができる。
[0200]
また、ユーザデバイス上のコンテンツから、(例えば、テレビセットトップボックス104を介した消費のための)メディアコンテンツに関係する仮想アシスタントクエリ推薦を判定することができ、推薦をユーザデバイス上に提供することもできる。いくつかの実施例では、テレビセットトップボックス104に接続された、又はそれと通信するユーザデバイス上で、再生可能なデバイスコンテンツを識別することができる。図30は、インタフェース1360中に例示的な写真及び動画コンテンツを備えるユーザデバイス102を示す。どんなコンテンツがユーザデバイス上での再生のために利用可能であるか、又はどんなコンテンツが再生を望まれる可能性があるかについて、判定を行うことができる。例えば、アクティブなアプリケーションに基づいて、再生可能なメディア3068(例えば、写真及び動画アプリケーション)を識別することができ、又は、インタフェース1360上に表示されているかどうかにかかわりなく、記憶されたコンテンツについて、再生可能なメディア3068を識別することができる(例えば、いくつかの実施例では、アクティブなアプリケーションから、又は、他の実施例では、所与の時間に表示されることなく、コンテンツを識別することができる)。再生可能なメディア3068は、例えば、動画1362、フォトアルバム1364及び写真1366を含むことができ、それらはそれぞれ、表示又は再生のために、テレビセットトップボックス104に送信され得るパーソナルユーザコンテンツを含むことができる。他の実施例では、クエリ推薦を判定するために、任意の写真、動画、音楽、ゲームインタフェース、アプリケーションインタフェース、又は、ユーザデバイス102上に記憶又は表示された他のメディアコンテンツを識別し、使用することができる。
[0201]
識別された再生可能なメディア3068を用いて、仮想アシスタントクエリ推薦を判定し、それをユーザに提供することができる。図31は、再生可能なユーザデバイスコンテンツに基づく仮想アシスタントクエリ推薦と、別個のディスプレイ(例えば、テレビセットトップボックス104と関連付けられたディスプレイ112)上に表示された動画コンテンツに基づく仮想アシスタントクエリ推薦とを備える、ユーザデバイス102上の例示的なTVアシスタントインタフェース3170を示す。TVアシスタントインタフェース3170は、特に、メディアコンテンツ及び/又はテレビセットトップボックス104と対話するための仮想アシスタントインタフェースを含むことができる。ユーザは、インタフェース3170を閲覧する時に、例えば物理ボタンのダブルクリックによって、ユーザデバイス102上でクエリ推薦を要求することができる。同様に、他の入力を使用して、クエリ推薦の要求を示すことができる。図示のとおり、アシスタントグリーティング3172は、提供されたクエリ推薦を紹介することができる(例えば、「あなたのTV体験を制御するための推薦がいくつかあります。」)。
[0202]
ユーザデバイス102上に提供された仮想アシスタントクエリ推薦は、種々のソースデバイスに基づく推薦、並びに全般的な推薦を含むことができる。例えば、デバイスベースの推薦3174は、(ユーザデバイス102上に表示されたコンテンツを含む)ユーザデバイス102に記憶されたコンテンツに基づくクエリ推薦を含むことができる。コンテンツベースの推薦2652は、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示されたコンテンツに基づくことができる。全般的な推薦3176は、特定のメディアコンテンツ又はメディアコンテンツを備える特定のデバイスと関連付けられた全般的な推薦を含むことができる。
[0203]
例えば、ユーザデバイス102上で識別された再生可能なコンテンツ(例えば、動画、音楽、写真、ゲームインタフェース、アプリケーションインタフェース、など)に基づいて、デバイスベースの推薦3174を判定することができる。例示した実施例では、図30に示した再生可能なメディア3068に基づいて、デバイスベースの推薦3174を判定することができる。例えば、フォトアルバム1364が再生可能なメディア3068として識別されたと仮定すると、フォトアルバム1364の詳細を使用して、クエリを策定することができる。システムは、スライドショーで表示することができる複数の写真のアルバムとしてコンテンツを識別することができ、次いで、(いくつかの事例では)アルバムのタイトルを使用して、写真の特定のアルバムのスライドショーを表示するクエリ推薦を策定することができる(例えば、「あなたの写真から「卒業式のアルバム」のスライドショーを表示する。」)。いくつかの実施例では、推薦は、コンテンツのソースの指示(例えば、「あなたの写真から」「Jenniferの電話から」、「Danielのタブレットから」など)を含むことができる。また、推薦は、特定の日付から写真を閲覧するための推薦(例えば、6月21日から写真を表示する)など、特定のコンテンツを参照するめに他の詳細を使用することができる。別の実施例では、再生可能なメディア3068として、動画1362を識別することができ、動画のタイトル(又は、他の識別情報)を使用して、動画を再生するためのクエリ推薦を策定することができる(例えば、「あなたの動画から『卒業式の動画』を表示する。」)。
[0204]
他の実施例では、他の接続されたデバイス上で利用可能なコンテンツを識別し、それを使用して、仮想アシスタントクエリ推薦を策定することができる。例えば、共通のテレビセットトップボックス104に接続された2つのユーザデバイス102の各々からのコンテンツを識別し、仮想アシスタントクエリ推薦を策定する際にそれを使用することができる。いくつかの実施例では、ユーザは、共有するためにどのコンテンツをシステムから見えるようにするかを選択することができ、他のコンテンツをクエリ推薦に含めないように、あるいは場合によっては、再生するために他のコンテンツを利用可能しないように、システムから他のコンテンツを非表示にすることができる。
[0205]
図31のインタフェース3170に表示されたコンテンツベースの推薦2652は、例えば、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示されたコンテンツに基づいて判定することができる。いくつかの実施例では、図26を参照して上述したのと同じように、コンテンツベースの推薦2652を判定することができる。例示された実施例では、図31に示したコンテンツベースの推薦2652は、(例えば、図26の場合のように)ディスプレイ112上に表示された動画480に基づくことができる。このようにすると、任意の数の接続されたデバイス上に表示される、又はそこで利用可能なコンテンツに基づいて、仮想アシスタントクエリ推薦を導き出すことができる。ターゲットの推薦に加えて、全般的な推薦3176(例えば、ガイドを表示する、どんなスポーツが放送されているか、チャンネル3では何が放送されているか、など)をあらかじめ判定し、提供することができる。
[0206]
図32は、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示されたコンテンツベースの推薦2652と共に、接続されたデバイスベースの推薦3275を備える例示的な推薦インタフェース2650を示す。いくつかの実施例では、図26を参照して上述したのと同じように、コンテンツベースの推薦2652を判定することができる。上述のように、任意の数の接続されたデバイス上のコンテンツに基づいて、仮想アシスタントクエリ推薦を策定することができ、任意の数の接続されたデバイス上に、その推薦を提供することができる。図32は、ユーザデバイス102上のコンテンツから導き出すことができる、接続されたデバイスベースの推薦3275を示す。例えば、ユーザデバイス102上で、図30に再生可能なメディア3068としてインタフェース1360に表示された写真及び動画コンテンツなど、再生可能なコンテンツを識別することができる。次いで、ユーザデバイス102上の識別された再生可能なコンテンツを使用して、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示することができる推薦を策定することができる。いくつかの実施例では、図31を参照して上述したデバイスベースの推薦3174と同じように、接続されたデバイスベースの推薦3275を判定することができる。更に、上述のように、いくつかの実施例では、接続されたデバイスベースの推薦3275に示すような「Jakeの電話から」など、ソース情報を識別することを、推薦に含めることができる。したがって、1つのデバイス上に提供された仮想アシスタントクエリ推薦を、別のデバイスからのコンテンツ(例えば、表示されたコンテンツ、記憶されたコンテンツなど)に基づいて導き出すことができる。接続されたデバイスは、テレビセットトップボックス104及び/又はユーザデバイス102にアクセス可能な(例えば、推薦を策定するために、クラウドに記憶されたメディアコンテンツにアクセする)遠隔記憶デバイスを含むことができることを了解されたい。
[0207]
推薦の要求に応じて、種々のソースからの仮想アシスタントクエリ推薦の任意の組み合わせを提供することができることを理解されたい。例えば、種々のソースからの推薦をランダムに組み合わせることができ、あるいは、人気、ユーザの好み、選択履歴などに基づいて、種々のソースから推薦を提示することができる。更に、クエリを、種々の他のやり方で判定することができ、クエリ履歴、ユーザの好み、クエリの人気などのような種々の他の因子に基づいて提示することができる。更に、いくつかの実施例では、表示された推薦を遅延後の新しい代替推薦と置換することによって、クエリ推薦を自動的に循環させることができる。更に、ユーザは、例えば、タッチスクリーン上でタップすること、クエリを発語すること、ナビゲーションキーを用いてクエリを選択すること、ボタンを用いてクエリを選択すること、カーソルを用いてクエリを選択することなどによって、表示された推薦を任意のインタフェース上で選択することができ、次いで、関連付けられた応答(例えば、情報及び/又はメディア応答)を提供することができることを理解されたい。
[0208]
また、種々の実施例のうちのいずれかでは、利用可能なコンテンツに基づいて、仮想アシスタントクエリ推薦をフィルタリングすることができる。例えば、利用不可能なメディアコンテンツ(例えば、ケーブルサブスクリプションがない)を生じる、又は、関連付けられた情報回答を有し得る潜在的なクエリ推薦は、推薦としての資格を失い、表示せずに隠しておくことができる。一方で、ユーザがアクセスを有する直ちに再生可能なメディアコンテンツを生じる潜在的なクエリ推薦に、他の潜在的な推薦よりも重み付けすることができ、又は場合によっては、表示のためにバイアスをかけることができる。このようにすると、表示のための仮想アシスタントクエリ推薦を判定する際に、ユーザが閲覧するためのメディアコンテンツの可用性を使用することができる。
[0209]
更に、種々の実施例のうちのいずれかでは、プリロードされたクエリ回答を推薦の代わりに、又はそれに加えて(例えば、推薦インタフェース2650に)提供することができる。個人使用及び/又は現在のコンテキストに基づいて、そのようなプリロードされたクエリ回答を選択し、提供することができる。例えば、特定のプログラムを視聴しているユーザは、推薦を受信するために、ボタンをタップする、ボタンをダブルクリックするなどができる。クエリ推薦の代わりに、又はそれに加えて、再生中の曲又はサウンドトラックを識別すること(例えば、「この曲は、Performance Pieceです」)、現在演じられているエピソードの出演者を識別すること(例えば、「女優Janet QuinnがGenevieveを演じています」)、類似メディアを識別すること(例えば、「番組Qはこの番組と類似しています」)、又は本明細書では論じる他のクエリのうちのいずれかの結果を提供すること、などコンテキストベース情報を自動的に提供することができる。
[0210]
更に、ユーザがメディアコンテンツをレーティングして、ユーザの好みの仮想アシスタント(例えば、選択可能なレーティングスケール)を通知する種々のインタフェースのうちのいずれかにアフォーダンスを提供することができる。他の実施例では、ユーザは、自然言語コマンドとしてレーティング情報(例えば、「私はこれが大好きです」、「私はこれが嫌いです」、「私はこの番組が好きではありません」)など)を発語することができる。更に他の実施例では、例示し、本明細書で説明する種々のインタフェースのうちのいずれかにおいて、種々の他の機能要素及び情報要素を提供することができる。例えば、インタフェースは、検索リンク、購入リンク、メディアリンクなどのような、重要な機能及び場所へのリンクを更に含むことができる。別の実施例では、インタフェースは、現在再生中のコンテンツに基づく次に他に何を視聴すべきかの推奨を(例えば、類似するコンテンツを選択すること)更に含むことができる。更に別の実施例では、インタフェースは、パーソナライズされた好み及び/又は最近のアクティビティに基づく次に他に何を視聴すべきかの推奨(例えば、ユーザレーティング、ユーザが入力した好み、最近視聴したプログラムなどに基づいてコンテンツを選択すること)を更に含むことができる。更に他の実施例では、インタフェースは、ユーザ対話の命令(例えば、「押したまま仮想アシスタントに話しかけてください」、「推薦を取得するためには1回タップしてください」など)を更に含むことができる。いくつかの実施例では、プリロードされた回答、推薦などを提供することにより、コンテンツを多種多様なユーザが(例えば、言語又は他のコントロールバリアにかかわらず、種々の技術レベルのユーザが)容易に利用できるようにしながら、ユーザエクスペリエンスを愉快なものにすることができる。
[0211]
図33は、メディアコンテンツを制御するための仮想アシスタント対話(例えば、仮想アシスタントクエリ)を推薦するための例示的なプロセス3300を示す。ブロック3302で、ディスプレイ上にメディアコンテンツを表示することができる。例えば、図26に示すように、テレビセットトップボックス104を介してディスプレイ112上に動画480を表示することができ、あるいは、図30に示すように、ユーザデバイス102のタッチスクリーン246上に、インタフェース1360を表示することができる。ブロック3304で、ユーザからの入力を受信することができる。入力は、仮想アシスタントクエリ推薦の要求を含むことができる。入力は、ボタン押下、ボタンのダブルクリック、メニュー選択、推薦についての口頭クエリをなど含むことができる。
[0212]
ブロック3306で、メディアコンテンツ及び/又はメディアコンテンツの閲覧履歴に基づいて、仮想アシスタントクエリを判定することができる。例えば、表示されたプログラム、メニュー、アプリケーション、メディアコンテンツのリスト、通知などに基づいて、仮想アシスタントクエリを判定することができる。1つの実施例では、図26を参照して説明したような動画480及び関連メタデータに基づいて、コンテンツベースの推薦2652を判定することができる。別の実施例では、図29を参照して説明したような通知2964に基づいて、通知ベースの推薦2966を判定することができる。更に別の実施例では、図30及び図31を参照して説明したようなユーザデバイス102上の再生可能なメディア3068に基づいて、デバイスベースの推薦3174を判定することができる。更に別の実施例では、図32を参照して説明したようなユーザデバイス102上の再生可能なメディア3068に基づいて、接続されたデバイスベースの推薦3275を判定することができる。
[0213]
図33のプロセス3300を再び参照すると、ブロック3308で、ディスプレイ上に仮想アシスタントクエリを表示することができる。例えば、判定したクエリ推薦は、図26、図27、図29、図31及び図32に示し、それを参照して説明したように表示することができる。上記で論じたように、種々の他の情報に基づいて、クエリ推薦を判定し、表示することができる。更に、1つのディスプレイ上に提供された仮想アシスタントクエリ推薦を、別のディスプレイを備える別のデバイスからのコンテンツに基づいて導き出することができる。このようにして、ターゲットの仮想アシスタントクエリ推薦をユーザに提供し、それにより、恩恵の中でもとりわけ、潜在的なクエリの学習に対してユーザを支援し、望ましいコンテンツ推薦を提供することができる。
[0214]
更に、本明細書で論じる種々の実施例のうちのいずれかでは、特定のユーザのために種々の態様をパーソナライズすることができる。連絡先、好み、場所、お気に入りのメディアなどを含むユーザデータを使用して、音声コマンドを解釈し、本明細書で論じる種々のデバイスとのユーザ対話を可能にすることができる。また、ユーザの好み、連絡先、テキスト、使用履歴、プロファイルデータ、統計などに従った種々の他のやり方で、本明細書では論じた種々のプロセスを修正することができる。更に、ユーザ対話(例えば、頻繁に発されるコマンド、頻繁に選択されるアプリケーションなど)に基づいて、そのような好み及び設定を経時的に更新することができる。招待者限定コンテンツ又はユーザにとって興味の対象であり得る任意の他のコンテンツのユーザへの配信を改善するために、種々のソースから利用可能なユーザデータの収集及び使用を使用することができる。本開示は、いくつかの事例では、この収集されたデータは、特定の人を一意に識別する、あるいは、特定の人に接触する、又はその人の位置を特定するために使用され得る、個人情報データを含むことができることを企図する。そのような個人情報データとして、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
[0215]
本開示により、現在の技術におけるそのような個人情報データの使用を使用してユーザを利することができることが認識される。例えば、個人情報データを使用して、ユーザにとってより大きな興味の対象であるターゲットコンテンツを配信することができる。したがって、そのような個人情報データの使用により、送達されたコンテンツの計算制御が可能になる。更に、ユーザに利する個人情報データについての他の使用もまた本開示により企図される。
[0216]
本開示は更に、収集、分析、開示、転送、記憶又はそのような個人情報データの他の使用を担うエンティティが、確立したプライバシーポリシー及び/又はプライバシー慣行に適合することを企図する。詳細には、そのようなエンティティは、秘密及びセキュアとして個人情報データを維持するための産業上の要件又は政府要件を満たす、又はそれを上回るものとして一般的に認識されるプライバシーポリシー及びプライバシー慣行を実装し、一貫して使用しなければならない。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザの告知に基づく同意を受信した後にのみ実施するべきである。更に、そのようなエンティティは、そのような個人情報へのアクセスを保護して安全化し、その個人情報へのアクセスを有する他者が、自身のプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることとなる。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
[0217]
前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施例も意図する。即ち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するハードウェア要素及び/又はソフトウェア要素を提供することができることを意図する。例えば、広告配信サービスの場合には、この技術は、ユーザが、サービスの登録中に個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成され得る。別の実施例では、ユーザは、ターゲットコンテンツ配信サービスに位置情報を提供しないように選択することができる。更に別の実施例では、ユーザは、正確な位置情報を提供しないが、ロケーションゾーンの情報の転送を可能にするように選択することができる。
[0218]
したがって、本開示は、1つ以上の種々の開示された実施形態を実施するための個人情報データの使用を、広範に網羅するものであるが、本開示は、そのような個人情報データにアクセスすることを必要とせずにそれらの種々の実施例を実装することができることも意図する。即ち、本技術の種々の実施例は、そのような個人情報データの全て又は一部分の欠如に起因して、動作不能となるものではない。例えば、ユーザと関連付けられたデバイスが要求するコンテンツ、コンテンツ配信サービスに利用可能な他の非個人情報、又は一般公開されている情報など、非個人情報データ又は最小限の量の個人情報に基づいて好みを推測することによって、コンテンツをユーザに選択し、配信することができる。
[0219]
いくつかの実施例によれば、図34は、電子デバイス3400の機能ブロック図を示し、電子デバイス3400は、説明した種々の実施例の原理に従って、例えば、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連情報を表示するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図34で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0220]
図34に示すように、電子デバイス3400は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3402(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3400は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように構成された入力ユニット3404(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を更に含むことができる。電子デバイス3400は、表示ユニット3402及び入力ユニット3404に結合される処理ユニット3406を更に含むことができる。いくつかの実施例では、処理ユニット3406は、発語入力受信ユニット3408と、メディアコンテンツ判定ユニット3410と、第1のユーザインタフェース表示ユニット3412と、選択受信ユニット3414と、第2のユーザインタフェース表示ユニット3416とを含むことができる。
[0221]
処理ユニット3406は、(例えば、入力ユニット3404を介して)ユーザからの発語入力を受信するように構成することができる。処理ユニット3406は、(例えば、メディアコンテンツ判定ユニット3410を使用して)発語入力に基づいて、メディアコンテンツを判定するように更に構成することができる。処理ユニット3406は、(例えば、第1のユーザインタフェース表示ユニット3412を使用して、ディスプレイユニット3402上に)第1のサイズを有する第1のユーザインタフェースを表示するように更に構成することができ、第1のユーザインタフェースは、メディアコンテンツへの1つ以上の選択可能なリンクを備える。処理ユニット3406は、(例えば、選択受信ユニット3414を使用して、入力ユニット3404から)1つ以上の選択可能なリンクのうちの1つの選択を受信するように更に構成することができる。処理ユニット3406は、その選択に応じて、(例えば、第2のユーザインタフェース表示ユニット3416を使用して、ディスプレイユニット3402上に)第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースを表示するように更に構成することができ、第2のユーザインタフェースは、選択と関連付けられたメディアコンテを備える。
[0222]
いくつかの実施例では、(例えば、第1のユーザインタフェース表示ユニット3412の)第1のユーザインタフェースは、(例えば、選択受信ユニット3414の)選択に応じて、(例えば、第2のユーザインタフェース表示ユニット3416の)第2のユーザインタフェースへと拡張する。他の実施例では、第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている。1つの実施例では、第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている。別の実施例では、(例えば、入力ユニット3404からの発語入力受信ユニット3408の)発語入力はクエリを備え、(例えば、メディアコンテンツ判定ユニット3410の)メディアコンテンツはクエリの結果を備える。更に別の実施例では、第1のユーザインタフェースは、メディアコンテンツへの1つ以上の選択可能なリンク以外に、クエリの結果へのリンクを備える。他の実施例では、クエリは、天気に関するクエリを含み、第1のユーザインタフェースは、天気に関するクエリと関連付けられたメディアコンテンツへのリンクを備える。別の実施例では、クエリは場所を含み、天気に関するクエリと関連付けられたメディアコンテンツへのリンクは、その場所の天気と関連付けられたメディアコンテンツの一部分へのリンクを備える。
[0223]
いくつかの実施例では、選択に応じて、処理ユニット3406は、その選択と関連付けられたメディアコンテンツを再生するように構成することができる。1つの実施例では、メディアコンテンツは、映画を含む。別の実施例では、メディアコンテンツは、テレビ番組を含む。別の実施例では、メディアコンテンツは、スポーツイベントを含む。いくつかの実施例では、(例えば、第2のユーザインタフェース表示ユニット3416の)第2のユーザインタフェースは、選択と関連付けられたメディアコンテンツの記述を含む。他の実施例では、第1のユーザインタフェースは、メディアコンテンツを購入するためのリンクを備える。
[0224]
処理ユニット3406は、ユーザからの追加の発語入力を(例えば、入力ユニット3404を介して)受信するように更に構成することができ、追加の発語入力は、表示されたコンテンツと関連付けられたクエリを含む。処理ユニット3406は、表示されたコンテンツと関連付けられたメタデータに基づいて、表示されたコンテンツと関連付けられたクエリに対する応答を判定するように更に構成することができる。処理ユニット3406は、追加の発語入力を受信したことに応じて、(例えば、表示ユニット3402上に)第3のユーザインタフェースを表示するように更に構成されることができる、第3のユーザインタフェースは、表示されたコンテンツと関連付けられたクエリに対する判定した応答を含む。
[0225]
処理ユニット3406は、(例えば、入力ユニット3404を介して)発語入力の受信を開始する指示を受信するように更に構成することができる。処理ユニット3406は、指示を受信したことに応じて、準備完了確認を(例えば、ディスプレイユニット3402上に)表示するように更に構成することができる。処理ユニット3406は、発語入力を受信したことに応じて、リッスン確認を表示するように更に構成することができる。処理ユニット3406は、発語入力の終わりを検出し、発語入力の終わりを検出したことに応じて処理確認を表示するように更に構成することができる。いくつかの実施例では、処理ユニット3406は、発語入力の音声表記を表示するように更に構成することができる。
[0226]
いくつかの実施例では、電子デバイス3400は、テレビを含む。いくつかの実施例では、電子デバイス3400は、テレビセットトップボックスを含む。いくつかの実施例では、電子デバイス3400は、遠隔制御を含む。いくつかの実施例では、電子デバイス3400は、携帯電話を含む。
[0227]
1つの実施例では、第1のユーザインタフェースにおける(例えば、第1のユーザインタフェース表示ユニット3412の)1つ以上の選択可能なリンクは、メディアコンテンツと関連付けられた動画像を含む。いくつかの実施例では、メディアコンテンツと関連付けられた動画像は、メディアコンテンツのライブフィードを含む。別の実施例では、第1のユーザインタフェースにおける1つ以上の選択可能なリンクは、メディアコンテンツと関連付けられた静止画像を含む。
[0228]
いくつかの実施例では、処理ユニット3406は、現在表示されているコンテンツが動画像を含むか、あるいはコントロールメニューを含むかを判定し、現在表示されているコンテンツが動画像を含むという判定に応じて、第1のユーザインタフェースのための(例えば、第1のユーザインタフェース表示ユニット3412の)第1のサイズとして、小さいサイズを選択し、現在示されているコンテンツがコントロールメニューを含むという判定に応じて、第1のユーザインタフェースのための(例えば、第1のユーザインタフェース表示ユニット3412の)第1のサイズとして、小さいサイズよりも大きい、大きいサイズを選択するように更に構成することができる。他の実施例では、処理ユニット3406は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0229]
いくつかの実施例によれば、図35は、電子デバイス3500の機能ブロック図を示し、電子デバイス3500は、説明した種々の実施例の原理に従って、例えば、仮想アシスタント及び複数のユーザデバイスを使用してテレビ対話を制御するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図35で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0230]
図35に示すように、電子デバイス3500は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3502(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3500は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように更に構成された入力ユニット3504(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を含むことができる。電子デバイス3500は、表示ユニット3502及び入力ユニット3504に結合される処理ユニット3506を更に含むことができる。いくつかの実施例では、処理ユニット3506は、発語入力受信ユニット3508と、ユーザ意図判定ユニット3510と、メディアコンテンツ判定ユニット3512と、メディアコンテンツ再生ユニット3514とを含むことができる。
[0231]
処理ユニット3506は、第1のディスプレイ(例えば、いくつかの実施例では表示ユニット3502)を有する第1のデバイス(例えば、デバイス3500)で、(例えば、発語入力受信ユニット3508を使用して、入力ユニット3504から)ユーザからの発語入力を受信するように構成することができる。処理ユニット3506は、(例えば、ユーザ意図判定ユニット3510を使用して)第1のディスプレイ上に表示されたコンテンツに基づいて、発語入力のユーザ意図を判定するように更に構成することができる。処理ユニット3506は、(例えば、メディアコンテンツ判定ユニット3512を使用して)ユーザ意図に基づいて、メディアコンテンツを判定するように更に構成することができる。処理ユニット3506は、第2のディスプレイと関連付けられた第2のデバイス(例えば、いくつかの実施例ではディスプレイユニット3502)上で、(例えば、メディアコンテンツ再生ユニット3514を使用して)メディアコンテンツを再生するように更に構成することができる。
[0232]
1つの実施例では、第1のデバイスは、遠隔制御を含む。別の実施例では、第1のデバイスは、携帯電話を含む。別の実施例では、第1のデバイスは、タブレットコンピュータを含む。いくつかの実施例では、第2のデバイスは、テレビセットトップボックスを含む。別の実施例では、第2のデバイスは、テレビを含む。
[0233]
いくつかの実施例では、第1のディスプレイ上に表示されたコンテンツは、アプリケーションインタフェースを備える。1つの実施例では、(例えば、入力ユニット3504からの発語入力受信ユニット3508の)発語入力は、アプリケーションインタフェースと関連付けられたメディアに表示するという要求を含む。1つの実施例では、メディアコンテンツは、アプリケーションインタフェースと関連付けられたメディアを含む。別の実施例では、アプリケーションインタフェースは、フォトアルバムを備え、メディアは、フォトアルバム中の1つ以上の写真を含む。更に別の実施例では、アプリケーションインタフェースは、1つ以上の動画のリストを備え、メディアは、1つ以上の動画のうちの1つを含む。更に他の実施例では、アプリケーションインタフェースは、テレビプログラムリストを備え、メディアは、テレビプログラムリスト中のテレビプログラムを含む。
[0234]
いくつかの実施例では、処理ユニット3506は、第1のデバイスが認証されているかどうかを判定するように更に構成することができ、第1のデバイスが認証されているという判定に応じて、第2のデバイス上でメディアコンテンツを再生する。処理ユニット3506は、発語入力に基づいてユーザを識別し、(例えば、ユーザ意図判定ユニット3510を使用して)識別されたユーザと関連付けられたデータに基づいて、発語入力のユーザ意図を判定するように更に構成することができる。処理ユニット3506は、発語入力に基づいて、ユーザが認証されているかどうかを判定するように更に構成することができ、ユーザが認証されたユーザであるという判定に応じて、第2のデバイス上でメディアコンテンツを再生する。1つの実施例では、ユーザが認証されているかどうかを判定することは、音声認識を使用して発語入力を分析することを含む。
[0235]
他の実施例では、処理ユニット3506は、ユーザ意図が情報の要求を含むと判定したことに応じて、メディアコンテンツと関連付けられた情報を、第1のデバイスの第1のディスプレイ上に表示するように更に構成することができる。処理ユニット3506は、ユーザ意図がメディアコンテンツを再生するという要求を含むと判定したことに応じて、そのメディアコンテンツと関連付けられた情報を、第2のデバイス上で再生するように更に構成することができる。
[0236]
いくつかの実施例では、発語入力は、第2のデバイス上でコンテンツを再生するという要求を含み、第2のデバイス上でコンテンツを再生するという要求に応じて、第2のデバイス上でメディアコンテンツを再生する。処理ユニット3506は、メディアのフォーマット、ユーザの好み又はデフォルト設定に基づいて、判定したメディアコンテンツを第1のディスプレイ上で表示すべきか、あるいは第2のディスプレイ上で表示すべきかを判定するように更に構成することができる。いくつかの実施例では、判定したメディアコンテンツを第2のディスプレイ上に表示すべきであるという判定に応じて、第2のディスプレイ上にメディアコンテンツを表示する。他の実施例では、判定したメディアコンテンツを第1のディスプレイ上に表示すべきであるという判定に応じて、第1のディスプレイ上にメディアコンテンツを表示する。
[0237]
他の実施例では、処理ユニット3506は、第2のデバイス及び第3のデバイスを含む2つ以上のデバイスの各々の近接度を判定するように更に構成されることができる。いくつかの実施例では、第3のデバイスの近接度に対する第2のデバイスの近接度に基づいて、第2のディスプレイと関連付けられた第2のデバイス上に、メディアコンテンツを再生する。いくつかの実施例では、2つ以上のデバイスの各々の近接度を判定することは、Bluetooth(登録商標)LEに基づいて近接度を判定することを含む。
[0238]
いくつかの実施例では、処理ユニット3506は、第2のディスプレイと関連付けられた第2のデバイスを含む表示デバイスのリストを表示し、表示デバイスのリスト中の第2のデバイスの選択を受信するように更に構成することができる。1つの実施例では、第2のデバイスの選択を受信したことに応じて、第2のディスプレイ上にメディアコンテンツを表示する。処理ユニット3506は、第1のデバイスにヘッドホンが取り付けられているどうかを判定するように更に構成することができる。処理ユニット3506は、第1のデバイスにヘッドホンが取り付けられているという判定に応じて、第1のディスプレイ上にメディアコンテンツを表示するように更に構成することができる。処理ユニット3506は、第1のデバイスにヘッドホンが取り付けられていないという判定に応じて、第2のディスプレイ上にメディアコンテンツを表示するように更に構成することができる。他の実施例では、処理ユニット3506は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0239]
いくつかの実施例によれば、図36は、電子デバイス3600の機能ブロック図を示し、電子デバイス3600は、説明した種々の実施例の原理に従って、例えば、ディスプレイ上に表示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用してテレビ対話を制御するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図36で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0240]
図36に示すように、電子デバイス3600は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3602(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3600は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように構成された入力ユニット3604(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を更に含むことができる。電子デバイス3600は、表示ユニット3602及び入力ユニット3604に結合される処理ユニット3606を更に含むことができる。いくつかの実施例では、処理ユニット3606は、発語入力受信ユニット3608と、ユーザ意図判定ユニット3610と、クエリ結果表示ユニット3612とを含むことができる。
[0241]
処理ユニット3606は、ユーザからの発語入力を(例えば、発語入力受信ユニット3608を使用して、入力ユニット3604から)受信するように構成することができ、発語入力は、ディスプレイ(例えば、いくつかの実施例では表示ユニット3602)上に表示されたコンテンツと関連付けられたクエリを含む。処理ユニット3606は、(例えば、ユーザ意図判定ユニット3610を使用して)テレビディスプレイ上に表示されたコンテンツ及びメディアコンテンツの閲覧履歴のうちの1つ以上に基づいて、クエリのユーザ意図を判定するように更に構成することができる。処理ユニット3606は、(例えば、クエリ結果表示ユニット3612を使用して)判定したユーザ意図に基づいて、クエリの結果を表示するように更に構成することができる。
[0242]
1つの実施例では、遠隔制御において、発語入力を受信する。別の実施例では、携帯電話において、発語入力を受信する。いくつかの実施例では、テレビディスプレイ上にクエリの結果を表示する。別の実施例では、テレビディスプレイ上に表示されたコンテンツは、映画を含む。更に別の実施例では、テレビディスプレイ上に表示されたコンテンツは、テレビ番組を含む。更に別の実施例では、テレビディスプレイ上に表示されたコンテンツは、スポーツイベントを含む。
[0243]
いくつかの実施例では、クエリは、テレビディスプレイ上に表示されたコンテンツと関連付けられた人物に関する情報の要求を含み、(例えば、クエリ結果表示ユニット3612の)クエリの結果は、その人物に関する情報を含む。1つの実施例では、クエリの結果は、その人物と関連付けられたメディアコンテンツを含む。別の実施例では、メディアコンテンツは、その人物と関連付けられた映画、テレビ番組又はスポーツイベントのうちの1つ以上を含む。いくつかの実施例では、クエリは、テレビディスプレイ上に表示されたコンテンツと関連付けられたキャラクターに関する情報の要求を含み、クエリの結果は、そのキャラクターに関する情報、又はそのキャラクターを演じている俳優に関する情報を含む。1つの実施例では、クエリの結果は、そのキャラクターを演じている俳優と関連付けられたメディアコンテンツを含む。別の実施例では、メディアコンテンツは、そのキャラクターを演じている俳優と関連付けられた映画、テレビ番組又はスポーツイベントのうちの1つ以上を含む。
[0244]
いくつかの実施例では、処理ユニット3606は更に、テレビディスプレイ上に表示されたコンテンツ又はメディアコンテンツの閲覧履歴と関連付けられたメタデータに基づいて、クエリの結果を判定するように更に構成することができる。1つの実施例では、メタデータは、テレビディスプレイ上に表示されたコンテンツ又はメディアコンテンツの閲覧履歴と関連付けられた、タイトル、説明、キャラクターのリスト、俳優のリスト、選手のリスト、ジャンル、又は表示スケジュールのうちの1つ以上を含む。別の実施例では、テレビディスプレイ上に表示されたコンテンツは、メディアコンテンツのリストを含み、クエリは、リスト中の項目のうちの1つを表示するという要求を含む。更に別の実施例では、テレビディスプレイ上に表示されたコンテンツは、フォーカスを有するメディアコンテンツのリスト中の項目を更に含み、(例えば、ユーザ意図判定ユニット3610を使用して)クエリのユーザ意図を判定することは、フォーカスを有する項目を識別することを含む。いくつかの実施例では、処理ユニット3606は、(例えば、ユーザ意図判定ユニット3610を使用して)テレビディスプレイ上に最近表示されたメニュー又は検索コンテンツに基づいて、クエリのユーザ意図を判定するように更に構成することができる。1つの実施例では、テレビディスプレイ上に表示されたコンテンツは、列挙されたメディアのページを含み、最近表示されたメニュー又は検索コンテンツは、列挙されたメディアの以前のページを含む。別の実施例では、テレビディスプレイ上に表示されたコンテンツは、メディアの1つ以上のカテゴリーを含み、メディアの1つ以上のカテゴリーのうちの1つは、フォーカスを有する。1つの実施例では、処理ユニット3606は、(例えば、ユーザ意図判定ユニット3610を使用して)フォーカスを有するメディアの1つ以上のカテゴリーのうちの1つに基づいて、クエリのユーザ意図を判定するように更に構成することができる。別の実施例では、メディアのカテゴリーは、映画、テレビプログラム及び音楽を含む。他の実施例では、処理ユニット3606は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0245]
いくつかの実施例によれば、図37は、電子デバイス3700の機能ブロック図を示し、電子デバイス3700は、説明した種々の実施例の原理に従って、例えば、メディアコンテンツを制御するための仮想アシスタント対話を推薦するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図37で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0246]
図37に示すように、電子デバイス3700は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3702(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3700は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように構成された入力ユニット3704(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を更に含むことができる。電子デバイス3700は、表示ユニット3702及び入力ユニット3704に結合される処理ユニット3706を更に含むことができる。いくつかの実施例では、処理ユニット3706は、メディアコンテンツ表示ユニット3708と、入力受信ユニット3710と、クエリ判定ユニット3712と、クエリ表示ユニット3714とを含むことができる。
[0247]
処理ユニット3706は、(例えば、メディアコンテンツ表示ユニット3708を使用して)ディスプレイ(例えば、表示ユニット3702)上にメディアコンテンツを表示するように構成することができる。処理ユニット3706は、(例えば、入力受信ユニット3710を使用して、入力ユニット3704から)ユーザからの入力を受信するように更に構成することができる。処理ユニット3706は、(例えば、クエリ判定ユニット3712を使用して)メディアコンテンツ及びメディアコンテンツの閲覧履歴のうちの1つ以上とに基づいて、1つ以上の仮想アシスタントクエリを判定するように更に構成することができる。処理ユニット3706は、(例えば、クエリ表示ユニット3714を使用して)1つ以上の仮想アシスタントクエリをディスプレイ上に表示するように更に構成することができる。
[0248]
1つの実施例では、遠隔制御上で、ユーザからの入力を受信する。別の実施例では、携帯電話上で、ユーザからの入力を受信する。いくつかの実施例では、1つ以上の仮想アシスタントクエリが、動画像上に重なっている。別の実施例では、入力は、ボタンのダブルクリックを含む。1つの実施例では、メディアコンテンツは、映画を含む。別の実施例では、メディアコンテンツは、テレビ番組を含む。更に別の実施例では、メディアコンテンツは、スポーツイベントを含む。
[0249]
いくつかの実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツに現れている人物に関するクエリを含む。他の実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツに現れているキャラクターに関するクエリを含む。別の実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツに現れている人物と関連付けられたメディアコンテンツに関するクエリを含む。いくつかの実施例では、メディアコンテンツ又はメディアコンテンツの閲覧履歴は、テレビ番組のエピソードを含み、1つ以上の仮想アシスタントクエリは、テレビ番組の別のエピソードに関するクエリを含む。別の実施例では、メディアコンテンツ又はメディアコンテンツの閲覧履歴は、テレビ番組のエピソードを含み、1つ以上の仮想アシスタントクエリは、メディアコンテンツの後続のエピソードを視聴又は録画するためのリマインダを設定するという要求を含む。更に別の実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツの記述的な詳細についてのクエリを含む。1つの実施例では、記述的な詳細は、番組タイトル、キャラクターリスト、俳優リスト、エピソードの記述、チーム名簿、チームランキング又は番組概要のうちの1つ以上を含む。
[0250]
いくつかの実施例では、処理ユニット3706は、1つ以上の仮想アシスタントクエリのうちの1つの選択を受信するように更に構成することができる。処理ユニット3706は、1つ以上の仮想アシスタントクエリのうちの選択されたクエリの結果を表示するように更に構成することができる。1つの実施例では、1つ以上の仮想アシスタントクエリを判定することは、クエリ履歴、ユーザの好み、又はクエリの人気のうちの1つ以上に基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。別の実施例では、1つ以上の仮想アシスタントクエリを判定することは、ユーザが閲覧するために利用可能なメディアコンテンツに基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。更に別の実施例では、1つ以上の仮想アシスタントクエリを判定することは、受信した通知に基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。更に別の実施例では、1つ以上の仮想アシスタントクエリを判定することは、アクティブなアプリケーションに基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。他の実施例では、処理ユニット3706は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0251]
添付の図面を参照して、実施例について十分に説明してきたが、当業者には種々の変更及び修正(例えば、本明細書で論じた任意の他のシステム又はプロセスに関して説明した概念に従って、本明細書で論じた任意の他のシステム又はプロセスのうちのいずれかを修正すること)が明らかになるであろうことに留意されたい。そのような変更及び修正は、添付の特許請求の範囲によって定義されるような様々な実施例の範囲内に含まれるものとして理解されたい。
[書類名]特許請求の範囲
[請求項1]
仮想アシスタントを使用してテレビ対話を制御するための方法であって、前記方法が、
電子デバイスにおいて、
ユーザからの発語入力を受信することと、
前記発語入力に基づいて、メディアコンテンツを判定することと、
第1のサイズを有する第1のユーザインタフェースを表示することであって、前記第1のユーザインタフェースが、前記メディアコンテンツへの1つ以上の選択可能なリンクを含む、ことと、
前記1つ以上の選択可能なリンクのうちの1つの選択を受信することと、
前記選択に応じて、前記第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースを表示することであって、前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツを含む、ことと、
を含む方法。
[請求項2]
前記選択に応じて、前記第1のユーザインタフェースが、前記第2のユーザインタフェースへと拡張する、請求項1に記載の方法。
[請求項3]
前記第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項1に記載の方法。
[請求項4]
前記第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項1に記載の方法。
[請求項5]
前記発語入力がクエリを含み、前記メディアコンテンツが、前記クエリの結果を含む、請求項1に記載の方法。
[請求項6]
前記第1のユーザインタフェースが、前記メディアコンテンツへの前記1つ以上の選択可能なリンク以外に、前記クエリの結果へのリンクを含む、請求項5に記載の方法。
[請求項7]
前記選択に応じて、前記選択と関連付けられた前記メディアコンテンツを再生することを更に含む、請求項1に記載の方法。
[請求項8]
前記メディアコンテンツが、スポーツイベントを含む、請求項1に記載の方法。
[請求項9]
前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツの記述を含む、請求項1に記載の方法。
[請求項10]
前記第1のユーザインタフェースが、メディアコンテンツを購入するためのリンクを含む、請求項1に記載の方法。
[請求項11]
前記ユーザからの追加の発語入力を受信することであって、前記追加の発語入力が、表示されたコンテンツと関連付けられたクエリを含む、ことと、
前記表示されたコンテンツと関連付けられたメタデータに基づいて、前記表示されたコンテンツと関連付けられた前記クエリに対する応答を判定することと、
前記追加の発語入力を受信したことに応じて、第3のユーザインタフェースを表示することであって、前記第3のユーザインタフェースが、前記表示されたコンテンツと関連付けられた前記クエリに対する前記判定した応答を含む、ことと、
を更に含む、請求項1に記載の方法。
[請求項12]
発語入力の受信を開始する指示を受信することと、
前記指示を受信したことに応じて、準備完了確認を表示することと、
を更に含む、請求項1に記載の方法。
[請求項13]
前記発語入力を受信したことに応じて、リッスン確認を表示することを更に含む、請求項1に記載の方法。
[請求項14]
前記発語入力の音声表記を表示することを更に含む、請求項1に記載の方法。
[請求項15]
前記電子デバイスが、テレビを含む、請求項1に記載の方法。
[請求項16]
前記電子デバイスが、テレビセットトップボックスを含む、請求項1に記載の方法。
[請求項17]
前記電子デバイスが、遠隔制御を含む、請求項1に記載の方法。
[請求項18]
前記電子デバイスが、携帯電話を含む、請求項1に記載の方法。
[請求項19]
前記第1のユーザインタフェースにおける前記1つ以上の選択可能なリンクが、前記メディアコンテンツと関連付けられた動画像を含む、請求項1に記載の方法。
[請求項20]
前記メディアコンテンツと関連付けられた前記動画像が、前記メディアコンテンツのライブフィードを含む、請求項19に記載の方法。
[請求項21]
現在表示されているコンテンツが、動画像を含むか、あるいはコントロールメニューを含むかを判定することと、
現在表示されているコンテンツが動画像を含むという判定に応じて、前記第1のユーザインタフェースのための前記第1のサイズとして、小さいサイズを選択することと、
現在表示されているコンテンツがコントロールメニューを含むという判定に応じて、前記第1のユーザインタフェースのための前記第1のサイズとして、前記小さいサイズよりも大きい、大きいサイズを選択することと、
を更に含む、請求項1に記載の方法。
[請求項22]
ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定することと、
前記判定した代替メディアコンテンツを含む通知を表示することと、
を更に含む、請求項1に記載の方法。
[請求項23]
非一時的コンピュータ可読記憶媒体であって、
ユーザからの発語入力を受信し、
前記発語入力に基づいて、メディアコンテンツを判定し、
第1のサイズを有する第1のユーザインタフェースであって、前記第1のユーザインタフェースが、前記メディアコンテンツへの1つ以上の選択可能なリンクを含む、第1のユーザインタフェースを表示し、
前記1つ以上の選択可能なリンクのうちの1つの選択を受信し、
前記選択に応じて、前記第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースであって、前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツを含む、第2のユーザインタフェースを表示する
コンピュータ実行可能命令を備える非一時的コンピュータ可読記憶媒体。
[請求項24]
前記第1のユーザインタフェースが、前記選択に応じて、前記第2のユーザインタフェースへと拡張する、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項25]
前記第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項26]
前記第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項27]
前記発語入力がクエリを含み、前記メディアコンテンツが、前記クエリの結果を含む、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項28]
前記第1のユーザインタフェースが、前記メディアコンテンツへの前記1つ以上の選択可能なリンク以外に、前記クエリの結果へのリンクを含む、請求項27に記載の非一時的コンピュータ可読記憶媒体。
[請求項29]
仮想アシスタントを使用してテレビ対話を制御するためのシステムであって、前記システムが、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、
を備え、前記1つ以上のプログラムが、前記メモリ内に記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムが、
ユーザからの発語入力を受信し、
前記発語入力に基づいて、メディアコンテンツを判定し、
第1のサイズを有する第1のユーザインタフェースであって、前記第1のユーザインタフェースが、前記メディアコンテンツへの1つ以上の選択可能なリンクを含む、第1のユーザインタフェースを表示し、
前記1つ以上の選択可能なリンクのうちの1つの選択を受信し、
前記選択に応じて、前記第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースであって、前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツを含む、第2のユーザインタフェースを表示する
命令を含む、システム。
[請求項30]
前記第1のユーザインタフェースが、前記選択に応じて、前記第2のユーザインタフェースへと拡張する、請求項29に記載のシステム。
[請求項31]
前記第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項29に記載のシステム。
[請求項32]
前記第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項29に記載のシステム。
[請求項33]
前記発語入力がクエリを含み、前記メディアコンテンツが、前記クエリの結果を含む、請求項29に記載のシステム。
[請求項34]
前記第1のユーザインタフェースが、前記メディアコンテンツへの前記1つ以上の選択可能なリンク以外に、前記クエリの結果へのリンクを含む、請求項33に記載のシステム。
[書類名] 要約書
[要約]
仮想アシスタントを使用してテレビユーザ対話を制御するためのシステム及びプロセスを開示する。仮想アシスタントは、テレビ上に表示されたコンテンツを制御するために、テレビセットトップボックスと対話することができる。マイクロフォンを備えるデバイスから、仮想アシスタントのための発語入力を受信することができる。発語入力からユーザ意図を判定することができ、仮想アシスタントは、ユーザの意図に従って、テレビ上でメディアを再生させることを含むタスクを実行することができる。所望の情報を伝達しながら、テレビの、占有スペースを最小量にするように拡大又は縮小することができるインタフェースに仮想アシスタント対話を表示することできる。複数のディスプレイと関連付けられた複数のデバイスを使用して、発語入力からユーザ意図を判定するだけでなく、ユーザに情報を伝達することができる。いくつかの実施例では、ディスプレイ上に表示されたメディアコンテンツに基づいて、仮想アシスタントクエリ推薦をユーザに提供することができる。
[書類名] 図面
[図1]
[図2]
[図3]
[図4A]
[図4B]
[図4C]
[図4D]
[図4E]
[図5]
[図6A]
[図6B]
[図7A]
[図7B]
[図8A]
[図8B]
[図9]
[図10]
[図11]
[図12]
[図13]
[図14]
[図15]
[図16]
[図17]
[図18]
[図19]
[図20]
[図21]
[図22]
[図23A]
[図23B]
[図24]
[図25]
[図26]
[図27]
[図28A]
[図28B]
[図29]
[図30]
[図31]
[図32]
[図33]
[図34]
[図35]
[図36]
[図37]
[関連出願の相互参照]
[0001]
本出願は、2014年6月30日出願の「REAL−TIME DIGITAL ASSISTANT KNOWLEDGE UPDATES」と題された米国特許暫定出願第62/019,292号、及び2014年9月26日出願の「REAL−TIME DIGITAL ASSISTANT KNOWLEDGE UPDATES」と題された米国特許非暫定出願第14/498,391号の優先権を主張し、参照によりその全体が汎用のために本明細書に組み込まれる。
[0002]
本出願はまた、以下の2014年6月30日出願の同時係属暫定出願の米国特許出願第62/019,312号、「Intelligent Automated Assistant for TV User Interactions」(代理人整理番号第106843065100(P18133USP1)号)に関連する。
[技術分野]
[0003]
本出願は、概して、テレビのユーザ対話の音声制御、より具体的には仮想アシスタントのメディア知識のリアルタイム更新に関する。
[背景技術]
[0004]
インテリジェント自動アシスタント(又は仮想アシスタント)は、ユーザと電子デバイスとの間の直感的なインタフェースを提供する。これらのアシスタントは、ユーザが口頭形式及び/又はテキスト形式の自然言語を使用して、デバイス又はシステムと双方向作用することを可能にすることができる。例えば、ユーザは、自然言語形式の口頭ユーザ入力を電子デバイスに関連付けられた仮想アシスタントに提供することにより、電子デバイスのサービスにアクセスすることができる。仮想アシスタントは、ユーザの意図を推測しユーザの意図をタスクとして作動可能にするために、口頭ユーザ入力について自然言語処理を実行することができる。タスクは、次に、電子デバイスの1つ以上の機能を実行することにより、実行することができ、いくつかの実施例では、関連した出力を、ユーザに自然言語形式で返すことができる。
[0005]
移動電話(例えば、スマートフォン)、タブレットコンピュータなどが仮想アシスタント制御から恩恵を受けてきた一方で、多くの他のユーザ機器は、そのような便利な制御機構を欠いている。例えば、メディア制御機器(例えば、テレビ、テレビ用セットトップボックス、ケーブルボックス、ゲーミングデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)とのユーザ対話は、複雑で習得するのが困難なことがある。更に、そのようなデバイスを介して利用可能なメディアのソース(例えば、テレビ放送、有料テレビ放送サービス、ストリーミングビデオサービス、ケーブルオンデマンドビデオサービス、ウェブベースのビデオサービスなど)が増えるにつれて、ユーザによっては消費する所望のメディアコンテンツを見つけることは、煩雑又は手に負えないことさえあり得る。加えて、粗いタイムシフト及びキュー制御は、ユーザがテレビ番組内の特定の瞬間などの所望のコンテンツを入手するのを困難にすることがある。ライブのメディアコンテンツに関連付けられた適時情報を入手することもまた、困難であることがある。結果として、多くのメディア制御機器は、多くのユーザにとって思うようにならないことがある、質の悪いユーザエクスペリエンスを提供することがある。
[発明の概要]
[0006]
仮想アシスタントのメディア知識のリアルタイム更新のためのシステム及びプロセスが開示される。一実施例では、仮想アシスタントの知識は、再生中のメディアに関連付けられた適時情報を用いて更新することができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、発語入力に基づいて受信することができ、ユーザ要求は、メディアストリーム又は番組内のイベントに関連付けることができる。要求を受信したことに応じて、メディアストリームは、要求内で参照されたイベントに関連付けられたメディアストリーム内の時間で再生を開始するために、キューすることができる。
[0007]
別の実施例では、適時情報は、現在のイベントを伴う照会への回答を提供するために、デジタルアシスタントの知識内に組み込むことができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、ユーザからの発語入力に基づいて受信することができ、ユーザ要求は、イベントの1つに関連付けることができる。ユーザ要求への応答は、イベントに関連したデータに基づいて生成することができる。応答は、次に、ユーザに様々な方法で(例えば、発声して、テレビ上に表示して、モバイルユーザ機器上に表示して、など)配信することができる。
[図面の簡単な説明]
[0008]
[図1] メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するための例示的なシステムを示す図である。
[0009]
[図2] 様々な実施例による、例示的なユーザ機器のブロック図である。
[0010]
[図3] メディア再生の音声制御を提供するためのシステム内の例示的なメディア制御機器のブロック図である。
[0011]
[図4] 様々な実施例による、メディア再生の音声制御のための例示的なプロセスを示す図である。
[0012]
[図5] メディアストリーム内のイベントをメディアストリーム内の特定の時間に関連付ける、例示的なデータ供給を示す図である。
[0013]
[図6] メディアストリーム内のイベントに基づいてビデオ再生をキューすることの、例示的な仮想アシスタントの照会応答を示す図である。
[0014]
[図7] ユーザ照会を解釈するために使用することができる、再生位置の前及び後に現れる例示的なイベントを示す図である。
[0015]
[図8] メディアストリーム内のイベントをメディアストリーム内の特定の時間に関連付ける、例示的な受賞番組のデータ供給を示す図である。
[0016]
[図9] メディアストリーム内のイベントをメディアストリーム内の特定の時間に関連付ける、例示的なテレビ番組のデータ供給を示す図である。
[0017]
[図10] ユーザ照会に応答するために使用することができる、ビデオ内の特定の時間に関連付けられた例示的な字幕テキストを示す図である。
[0018]
[図11A] ユーザ照会を解釈するために使用することができる、例示的なビデオコンテンツを有するテレビのディスプレイを示す図である。
[0019]
[図11B] ユーザ照会を解釈するために使用することができる、例示的な画像及びテキストコンテンツを有するモバイルユーザ機器を示す図である。
[0020]
[図12] 情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するための、例示的なプロセスを示す図である。
[0021]
[図13] 様々な実施例による、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するように構成された、電子デバイスの機能ブロック図を示す図である。
[0022]
[図14] 様々な実施例による、情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するように構成された、電子デバイスの機能ブロック図を示す。
[発明を実施するための形態]
[0023]
以下の実施例の説明では、実践することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができる点を理解されたい。
[0024]
本出願は、仮想アシスタントのメディア知識のリアルタイム更新のためのシステム及びプロセスに関する。リアルタイムの仮想アシスタントの知識更新は、例えば、テレビのユーザ対話の精密な音声制御を可能にし、メディアに関連した照会への適時で正確な仮想アシスタントの応答を提供することができる。一実施例では、仮想アシスタントは、テレビのディスプレイ上に表示されたコンテンツを制御しているテレビ用セットトップボックスなどの、メディア制御機器と双方向作用するために使用することができる。マイクロフォンを有するモバイルユーザ機器又はリモコンは、仮想アシスタントに対する発語入力を受信するために使用することができる。ユーザの意図は、発語入力から判定することができ、仮想アシスタントは、接続されたテレビ上でメディアの再生をさせること、及びテレビ用セットトップボックス又は類似のデバイスの任意の他の機能を制御すること(例えば、ライブのメディアコンテンツの再生をさせること、記録されたメディアコンテンツの再生をさせること、ビデオ記録を管理すること、メディアコンテンツを検索すること、メニューをナビゲートすること、など)を含む、ユーザの意図に従ってタスクを実行することができる。
[0025]
一実施例では、仮想アシスタントの知識は、再生しているメディア(例えば、スポーツのイベント、テレビ番組、など)に関連付けられた、適時で更にリアルタイムな情報を用いて更新することができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。例えば、データ供給は、テレビ放送されたフットボールの試合中のある時間にゴールが起きたことを示すことができる。別の実施例では、データ供給は、テレビ放送された番組中のある時間に番組の司会者が独白したことを示すことができる。ユーザ要求は、発語入力に基づいて受信することができ、ユーザ要求は、メディアストリーム又は番組内のイベントに関連付けることができる。要求を受信したことに応じて、要求内で参照されたイベントに関連付けられたメディアストリーム内の時間で再生を開始するために、メディアストリームを、キューすることができる。
[0026]
別の実施例では、適時又はリアルタイム情報は、現在のイベントを伴う照会への回答を提供するために、デジタルアシスタントの知識に組み込むことができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、ユーザからの発語入力に基づいて受信することができ、ユーザ要求は、イベントの1つに関連付けることができる。ユーザ要求に対する応答は、イベントに関連したデータに基づいて生成することができる。応答は、次に、ユーザに様々な方法で(例えば、発声して、テレビ上に表示して、モバイルユーザ機器上に表示して、など)配信することができる。
[0027]
本明細書で説明する様々な実施例により、仮想アシスタントの知識を適時メディア情報を用いて更新することは、効率的で楽しめるユーザエクスペリエンスを提供することができる。メディア制御機器とのユーザ対話は、メディアコンテンツに関連付けられた自然言語の照会又はコマンドを受信する能力を有する仮想アシスタントを使用して、直感的で簡単なものとすることができる。リアルタイムの仮想アシスタントの知識更新は、例えば、テレビのユーザ対話の精密な音声制御を可能にし、メディアに関連した照会への適時で正確な仮想アシスタントの応答を提供することができる。加えて、メディアの所望の部分又はシーンに、表示されたメディアに関連した直感的な口頭コマンドを使用して、容易にアクセス可能にすることができる。しかし、本明細書で説明する様々な実施例により、更に多くの他の利点が達成され得ることが理解されるべきである。
[0028]
図1は、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するための、例示的なシステム100を示す。本明細書で説明するテレビ上のメディア再生の音声制御は、ディスプレイ技術の1つの種類上でメディアを制御することの単なる一例であり、参照として使用されており、本明細書で説明する概念は、様々なデバイス及び関連付けられたディスプレイ(例えば、モニタ、ラップトップコンピュータのディスプレイ、デスクトップコンピュータのディスプレイ、モバイルユーザ機器のディスプレイ、プロジェクタのディスプレイなど)の任意のものの上を含む、一般的に任意のメディアコンテンツの双方向作用を制御するために使用することができることが理解されるべきである。用語「テレビ」は、ゆえに、様々なデバイスの任意のものに関連付けられた任意の種類のディスプレイを指すことができる。更に、用語「仮想アシスタント」、「デジタルアシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、口頭及び/又はテキスト形式の自然言語入力を解釈してユーザの意図を推測し、推測されたユーザの意図に基づきアクションを実行することができる、任意の情報処理システムを指すことができる。例えば、推測されたユーザの意図を実行するために、システムは、以下の1つ以上を実行することができる。推測されたユーザの意図を実現するために設計されたステップ及びパラメータを有するタスクフローを識別すること、推測されたユーザの意図からの具体的な要件をタスクフローに入力すること、プログラム、方法、サービス、APIなどを呼び出すことによりタスクフローを実行すること、及び、ユーザへの出力応答をオーディオ(例えば、スピーチ)及び/又は視覚形式で生成すること。
[0029]
仮想アシスタントは、自然言語のコマンド、要求、陳述、叙述、及び/又は照会の形で、少なくとも部分的にユーザ要求を受け入れる能力を有することができる。一般的に、ユーザ要求は、仮想アシスタントによる、情報回答又はタスクの実行(例えば、特定のメディアの表示をさせること)のいずれかを求めている。ユーザ要求への満足な応答は、要求された情報回答の提供、要求されたタスクの実行、又はその2つの組み合わせを含むことができる。例えば、ユーザは、仮想アシスタントに「私は今どこにいますか?」などの質問をすることができる。ユーザの現在の位置に基づき、仮想アシスタントは、「あなたはセントラルパーク内にいます」と回答することができる。ユーザはまた、例えば、「今日午後4時に母に電話することを私に思い出させてください」と、タスクの実行を要求することができる。それに応じて、仮想アシスタントは、要求を確認し、次に、ユーザの電子スケジュール内に適当なリマインダ項目を作成することができる。要求されたタスクの実行中、仮想アシスタントは、長時間にわたって情報を複数回交換する連続的なダイアログにおいて、ユーザと時折対話することができる。情報又は種々のタスクの実行を要求するために仮想アシスタントと双方向作用する方法は他にも数多く存在する。言葉による応答を提供し、プログラムされたアクションを取ることに加えて、仮想アシスタントは、他の視覚又はオーディオ形式の応答を(例えば、テキスト、警報、音楽、ビデオ、アニメーション等として)提供することもできる。更に、本明細書で説明するように、例示的な仮想アシスタントは、メディアコンテンツの再生(例えば、テレビ上でビデオを再生すること)を制御し、情報をディスプレイ上に表示させることができる。
[0030]
仮想アシスタントの1つの例が、その開示全体が参照により本明細書に組み込まれる、2011年1月10日出願の「Intelligent Automated Assistant」に対する出願人の米国実用特許出願第12/987,982号に示されている。
[0031]
図1に示されているように、いくつかの実施例では、仮想アシスタントは、クライアント−サーバモデルに従って実施することができる。仮想アシスタントは、ユーザ機器102上で実行されるクライアント側部分、及びサーバシステム110上で実行されるサーバ側部分を含むことができる。クライアント側部分はまた、リモコン106と連携して、テレビ用セットトップボックス104上でも実行することができる。ユーザ機器102としては、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、装着型電子デバイス(例えば、デジタル眼鏡、リストバンド、腕時計、ブローチ、アームバンド等)などの、任意の電子デバイスを挙げることができる。テレビ用セットトップボックス104としては、ケーブルボックス、衛星ボックス、ビデオ再生装置、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲーミングシステム、DVDプレーヤ、Blu−ray Disc(登録商標)プレーヤ、そのようなデバイスの組み合わせなどの、任意のメディア制御機器を挙げることができる。テレビ用セットトップボックス104は、ディスプレイ112及びスピーカ111に有線又は無線接続により接続することができる。ディスプレイ112(スピーカ111付き又はなしの)は、テレビのディスプレイ、モニタ、プロジェクタなどの、任意の種類のディスプレイとすることができる。いくつかの実施例では、テレビ用セットトップボックス104は、オーディオシステム(例えば、オーディオ受信機)に接続することができ、スピーカ111は、ディスプレイ112とは別個のものとすることができる。他の実施例では、ディスプレイ112、スピーカ111、及びテレビ用セットトップボックス104は、高度な処理機能及びネットワーク接続機能を有するスマートテレビなどの、単一のデバイス内に一体に組み込むことができる。そのような実施例では、テレビ用セットトップボックス104の機能は、組み合わせたデバイス上のアプリケーションとして実行することができる。
[0032]
いくつかの実施例では、テレビ用セットトップボックス104は、複数の種類及びソースのメディアコンテンツのためのメディアコントロールセンタとして機能することができる。例えば、テレビ用セットトップボックス104は、ライブのテレビ(例えば、テレビ放送、衛星テレビ、又はケーブルテレビ)へのユーザのアクセスを促進にすることができる。そのように、テレビ用セットトップボックス104は、ケーブルチューナ、衛星チューナなどを含むことができる。いくつかの実施例では、テレビ用セットトップボックス104はまた、後でのタイムシフトした視聴のためにテレビ番組を録画することができる。他の実施例では、テレビ用セットトップボックス104は、ケーブル配信のオンデマンドのテレビ番組、ビデオ、及び音楽、並びにインターネット配信のテレビ番組、ビデオ、及び音楽など(例えば、様々な無料、有料、及び契約に基づくストリーミングサービスから)の、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、テレビ用セットトップボックス104は、モバイルユーザ機器からの写真を表示すること、連結された記憶デバイスからのビデオを再生すること、連結された音楽プレーヤからの音楽を再生することなどの、任意の他のソースからのメディアコンテンツの再生又は表示を促進にすることができる。テレビ用セットトップボックス104はまた、所望により、本明細書で説明するメディア制御機能の様々な他の組み合わせを含むことができる。
[0033]
ユーザ機器102及びテレビ用セットトップボックス104は、インターネット、イントラネット、又は任意の他の有線若しくは無線の公衆ネットワーク若しくはプライベートネットワークを含み得る、1つ以上のネットワーク108を介して、サーバシステム110と通信することができる。加えて、ユーザ機器102は、ネットワーク108を介して、又は直接、任意の他の有線若しくは無線通信機構(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、高周波、赤外線伝送など)を介して、テレビ用セットトップボックス104と通信することができる。図示されるように、リモコン106は、ネットワーク108によるのを含む、有線接続又は任意の種類の無線通信(例えば、Bluetooth、Wi−Fi、高周波、赤外線伝送など)などの、任意の種類の通信を使用して、テレビ用セットトップボックス104と通信することができる。いくつかの実施例では、ユーザは、ユーザ機器102、リモコン106、又はテレビ用セットトップボックス104内に組み込まれたインタフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を介して、テレビ用セットトップボックス104と双方向作用することができる。例えば、仮想アシスタントに対するメディアに関連した照会又はコマンドを含む発語入力は、ユーザ機器102及び/又はリモコン106で受信することができ、発語入力は、メディアに関連したタスクをテレビ用セットトップボックス104上で実行させるために使用することができる。同様に、テレビ用セットトップボックス104上のメディアを制御するための触知コマンドは、ユーザ機器102及び/又はリモコン106で(並びに図示しない他のデバイスから)受信することができる。テレビ用セットトップボックス104の様々な機能は、ゆえに、様々な方法で制御することができ、ユーザにメディアコンテンツを複数のデバイスから制御するための多数の選択肢を与える。
[0034]
ユーザ機器102、及び/又はリモコン106を用いてテレビ用セットトップボックス104上で実行される、例示的な仮想アシスタントのクライアント側部分は、ユーザ対応入力及び出力処理並びにサーバシステム110との通信などの、クライアント側の機能を提供することができる。サーバシステム110は、それぞれのユーザ機器102又はそれぞれのテレビ用セットトップボックス104上にある、任意の数のクライアントのためのサーバ側機能を提供することができる。
[0035]
サーバシステム110は、クライアント対応I/Oインタフェース122、1つ以上の処理モジュール118、データ及びモデル記憶装置120、及び外部サービスへのI/Oインタフェース116を含み得る、1つ以上の仮想アシスタントサーバ114を含むことができる。クライアント対応I/Oインタフェース122は、仮想アシスタントサーバ114のためのクライアント対応入力及び出力処理を促進することができる。1つ以上の処理モジュール118は、データ及びモデル記憶装置120を利用して、自然言語入力に基づきユーザの意図を判定することができ、推測されたユーザの意図に基づきタスクを実行することができる。いくつかの実施例では、仮想アシスタントサーバ114は、タスク完了又は情報取得のために、電話サービス、カレンダサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビ番組サービス、ストリーミングメディアサービスなどの、外部サービス124とネットワーク(単数又は複数)108を介して通信することができる。外部サービスへのI/Oインタフェース116は、このような通信を促進することができる。
[0036]
サーバシステム110は、1つ以上の独立型のデータ処理デバイス、又はコンピュータの分散型ネットワーク上に実装することができる。いくつかの実施形態では、サーバシステム110は、様々な仮想機器及び/又はサードパーティのサービスプロバイダ(例えば、サードパーティのクラウドサービスプロバイダ)のサービスを利用して、サーバシステム110の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供することができる。
[0037]
仮想アシスタントの機能は、クライアント側部分及びサーバ側部分の両方を含むとして図1に示されているが、いくつかの実施例では、アシスタントの機能(又はスピーチ認識及びメディア制御全般)は、ユーザ機器、テレビ用セットトップボックス、スマートテレビなどにインストールされたスタンドアロンアプリケーションとして実装することができる。加えて、仮想アシスタントのクライアント部分とサーバ部分との間の機能の分配は実施例によって異なり得る。例えば、いくつかの実施例では、ユーザ機器102又はテレビ用セットトップボックス104上で実行されるクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、仮想アシスタントのすべての他の機能をバックエンドサーバに任せる、シンクライアントとすることができる。
[0038]
図2は、様々な実施例による、例示的なユーザ機器102のブロック図を示す。図示されるように、ユーザ機器102は、メモリインタフェース202、1つ以上のプロセッサ204、及び周辺機器インタフェース206を含むことができる。ユーザ機器102内の様々な構成要素は、1つ以上の通信バス又は信号ラインにより一体に結合することができる。ユーザ機器102は、周辺機器インタフェース206に結合される様々なセンサ、サブシステム、及び周辺機器を更に含むことができる。センサ、サブシステム、及び周辺機器は、情報を収集し、及び/又はユーザ機器102の様々な機能を促進することができる。
[0039]
例えば、ユーザ機器102は、方向、光、及び近接感知機能を促進するために、周辺機器インタフェース206に結合された動きセンサ210、光センサ212、及び近接センサ214を含むことができる。関連機能を促進するために、測位システム(例えば、GPS受信機)、温度センサ、生体センサ、ジャイロスコープ、コンパス、加速度計、などの、1つ以上の他のセンサ216も、周辺インタフェース206に接続することができる。
[0040]
いくつかの実施例では、カメラサブシステム220及び光学センサ222は、写真の撮影及びビデオクリップの録画などの、カメラ機能を促進するために利用することができる。様々な通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含み得る、1つ以上の有線及び/又は無線通信サブシステム224を通じて、通信機能を促進することができる。オーディオサブシステム226は、スピーカ228及びマイクロフォン230に結合して、音声認識、音声複製、デジタル録音、及び電話機能などの、音声使用可能機能を促進することができる。
[0041]
いくつかの実施例では、ユーザ機器102は、周辺機器インタフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は、タッチスクリーンコントローラ242及び/又は他の入力コントローラ(単数又は複数)244を含むことができる。タッチスクリーンコントローラ242は、タッチスクリーン246に結合することができる。タッチスクリーン246及びタッチスクリーンコントローラ242は、例えば、容量性、抵抗性、赤外線、及び表面弾性波技術、近接センサアレイなどの、複数のタッチ感知技術のうちの任意のものを用いて、接触及びその移動又は中断を検出することができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御機器248に結合することができる。
[0042]
いくつかの実施例では、ユーザ機器102は、メモリ250に結合されたメモリインタフェース202を更に含むことができる。メモリ250としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)を記憶するために使用することができる。他の実施例では、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)は、サーバシステム110の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体との間に分割することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0043]
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインタフェースモジュール256、センサ処理モジュール258、電話モジュール260、及びアプリケーション262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加機器、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進することができる。グラフィカルユーザインタフェースモジュール256は、グラフィカルユーザインタフェース処理を促進することができる。センサ処理モジュール258は、センサ関連の処理及び機能を促進することができる。電話モジュール260は、電話関連のプロセス及び機能を促進することができる。アプリケーションモジュール262は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング、並びに/又はその他のプロセス及び機能などの、ユーザアプリケーションの様々な機能を促進することができる。
[0044]
本明細書で説明されるように、メモリ250はまた、例えば、仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール264内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組の好み等のその他のデータ)も記憶することができる。ユーザデータ266はまた、仮想アシスタントを支援して、又は任意の他のアプリケーションのために、スピーチ認識の実行に使用することができる。
[0045]
様々な実施例では、仮想アシスタントクライアントモジュール264は、ユーザ機器102の種々のユーザインタフェース(例えば、I/Oサブシステム240、オーディオサブシステム226など)を通じて発語入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントクライアントモジュール264はまた、オーディオ(例えば、発語出力)、視覚、及び/又は触知形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール264は、通信サブシステム224を用いて仮想アシスタントサーバと通信することができる。
[0046]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話、及び/又は現在のユーザ入力に関連付けられるコンテキストを確立するために、種々のセンサ、サブシステム及び周辺機器を利用してユーザ機器102の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、テレビ用セットトップボックス104からなどの、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力とともにコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、ユーザへの出力をどのように準備し、配信するのかを決定するために、コンテキスト情報を用いることができる。コンテキスト情報は、ユーザ機器102又はサーバシステム110により、正確なスピーチ認識を支援するために、更に使用することができる。
[0047]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、周囲環境の画像又はビデオ、別のオブジェクトとの距離、などの、センサ情報を含むことができる。コンテキスト情報は、ユーザ機器102の物理的状態に関連付けられた情報(例えば、機器の向き、機器の位置、機器の温度、電力レベル、速さ、加速度、動きパターン、セルラー信号強度など)、又はユーザ機器102のソフトウェア状態に関連付けられた情報(例えば、稼働中のプロセス、インストールされたプログラム、過去及び現在のネットワーク活動、バックグラウンドサービス、エラーログ、リソース使用など)を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、テレビ用セットトップボックス104により表示されたメディアコンテンツ、テレビ用セットトップボックス104で使用可能なメディアコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報の任意のものを、ユーザ入力に関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供する(又はユーザ機器102自体で使用する)ことができる。
[0048]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、仮想アシスタントサーバ114からの要求に応じて、ユーザ機器102上に記憶された情報(例えば、ユーザデータ266)を選択的に提供することができる(又は、その情報を、ユーザ機器102自体でスピーチ認識及び/又は仮想アシスタントの機能を実行するのに使用することができる)。仮想アシスタントクライアントモジュール264はまた、仮想アシスタントサーバ114による要求に応じて、自然言語ダイアログ又はその他のユーザインタフェースを介してユーザから追加入力も引き出すことができる。仮想アシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0049]
種々の実施例では、メモリ250は、追加の命令又はより少数の命令を含むことができる。更に、ユーザ機器102の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0050]
図3は、メディア再生の音声制御を提供するための、システム300内の例示的なテレビ用セットトップボックス104のブロック図を示す。システム300は、システム100の要素のサブセットを含むことができる。いくつかの実施例では、システム300は、それ自体だけで特定の機能を実行することができ、他の機能を実行するためにシステム100の他の要素と一体で機能することができる。例えば、システム300の要素は、サーバシステム110と双方向作用せずに、特定のメディア制御機能(例えば、ローカルに記憶されたメディアの再生、録画機能、チャンネル同調など)を処理することができ、システム300は、サーバシステム110及びシステム100の他の要素と連携して、他のメディア制御機能(例えば、リモートに記憶されたメディアの再生、メディアコンテンツのダウンロード、特定の仮想アシスタントの照会の処理など)を処理することができる。他の実施例では、システム300の要素は、ネットワークを介して外部サービス124にアクセスすることを含む、より大きなシステム100の機能を実行することができる。機能は、様々な他の方法でローカルのデバイスとリモートサーバデバイスとの間で分割することができることが、理解されるべきである。
[0051]
図3に示すように、一実施例では、テレビ用セットトップボックス104は、メモリインタフェース302、1つ以上のプロセッサ304、及び周辺機器インタフェース306を含むことができる。テレビ用セットトップボックス104内の様々な構成要素は、1つ以上の通信バス又は信号ラインにより一体に結合することができる。テレビ用セットトップボックス104は、周辺機器インタフェース306に結合される様々なサブシステム及び周辺機器を更に含むことができる。サブシステム及び周辺機器は、情報を収集し、及び/又はテレビ用セットトップボックス104の様々な機能を促進することができる。
[0052]
例えば、テレビ用セットトップボックス104は、通信サブシステム324を含むことができる。様々な通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含み得る、1つ以上の有線及び/又は無線通信サブシステム324を通じて、通信機能を促進することができる。
[0053]
いくつかの実施例では、テレビ用セットトップボックス104は、周辺機器インタフェース306に結合されたI/Oサブシステム340を更に含むことができる。I/Oサブシステム340は、オーディオ/ビデオ出力コントローラ370を含むことができる。オーディオ/ビデオ出力コントローラ370は、ディスプレイ112及びスピーカ111に結合することができる、又は別の方法でオーディオ及びビデオ出力を提供することができる(例えば、オーディオ/ビデオポート、無線送信などにより)。I/Oサブシステム340は、リモートコントローラ342を更に含むことができる。リモートコントローラ342は、リモコン106と通信可能に結合することができる(例えば、有線接続、Bluetooth、Wi−Fiなどにより)。リモコン106は、オーディオ入力(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン372、触知入力をキャプチャするためのボタン(単数又は複数)374、及びテレビ用セットトップボックス104とのリモートコントローラ342を介した通信を促進するための送受信機376を含むことができる。リモコン106はまた、キーボード、ジョイスティック、タッチパッドなどの、他の入力メカニズムを含むことができる。リモコン106は、照明、ディスプレイ、スピーカなどの、出力メカニズムを更に含むことができる。リモコン106で受け取られた入力(例えば、ユーザのスピーチ、ボタン押下など)は、テレビ用セットトップボックス104にリモートコントローラ342を介して通信することができる。I/Oサブシステム340はまた、他の入力コントローラ(単数又は複数)344を含むことができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御機器348に結合することができる。
[0054]
いくつかの実施例では、テレビ用セットトップボックス104は、メモリ350に結合されたメモリインタフェース302を更に含むことができる。メモリ350としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)を記憶するために使用することができる。他の実施例では、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)は、サーバシステム110の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体との間に分割することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0055]
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインタフェースモジュール356、デバイス内メディアモジュール358、デバイス外メディアモジュール360、及びアプリケーション362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加機器、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進することができる。グラフィカルユーザインタフェースモジュール356は、グラフィカルユーザインタフェース処理を促進することができる。デバイス内メディアモジュール358は、テレビ用セットトップボックス104上にローカルに記憶されたメディアコンテンツ、及びローカルで使用可能な他のメディアコンテンツ(例えば、ケーブルチャンネルの同調)の記憶及び再生を促進することができる。デバイス外メディアモジュール360は、リモートに記憶された(例えば、リモートサーバ上、ユーザ機器102上など)メディアコンテンツのストリーミング再生又はダウンロードを促進することができる。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ゲーミング、並びに/又はその他のプロセス及び機能などの、ユーザアプリケーションの様々な機能を促進することができる。
[0056]
本明細書で説明されるように、メモリ350はまた、例えば、仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール364内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組の好み等のその他のデータ)も記憶することができる。ユーザデータ366はまた、仮想アシスタントを支援して、又は任意の他のアプリケーションのために、スピーチ認識の実行に使用することができる。
[0057]
様々な実施例では、仮想アシスタントクライアントモジュール364は、テレビ用セットトップボックス104の種々のユーザインタフェース(例えば、I/Oサブシステム340など)を通じて発語入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントクライアントモジュール364はまた、オーディオ(例えば、発語出力)、視覚、及び/又は触知形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール364は、通信サブシステム324を用いて仮想アシスタントサーバと通信することができる。
[0058]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザ、現在のユーザ対話、及び/又は現在のユーザ入力に関連付けられるコンテキストを確立するために、種々のサブシステム及び周辺機器を利用してテレビ用セットトップボックス104の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、ユーザ機器102からなどの、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザの意図の推測を助けるために、ユーザ入力とともにコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、ユーザへの出力をどのように準備し、配信するのかを決定するために、コンテキスト情報を用いることができる。コンテキスト情報は、テレビ用セットトップボックス104又はサーバシステム110により、正確なスピーチ認識を支援するために、更に使用することができる。
[0059]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、別のオブジェクトとの距離、などの、センサ情報を含むことができる。コンテキスト情報は、テレビ用セットトップボックス104の物理的状態に関連付けられた情報(例えば、機器の位置、機器の温度、電力レベルなど)、又はテレビ用セットトップボックス104のソフトウェア状態に関連付けられた情報(例えば、稼働中のプロセス、インストールされたアプリケーション、過去及び現在のネットワーク活動、バックグラウンドサービス、エラーログ、リソース使用など)を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、ユーザ機器102上に表示されたコンテンツ、ユーザ機器102で再生可能なコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報の任意のものを、ユーザ入力に関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供する(又はテレビ用セットトップボックス104自体で使用する)ことができる。
[0060]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、仮想アシスタントサーバ114からの要求に応じて、テレビ用セットトップボックス104上に記憶された情報(例えば、ユーザデータ366)を選択的に提供することができる(又は、その情報を、テレビ用セットトップボックス104自体でスピーチ認識及び/又は仮想アシスタントの機能を実行するのに使用することができる)。仮想アシスタントクライアントモジュール364はまた、仮想アシスタントサーバ114による要求に応じて、自然言語ダイアログ又はその他のユーザインタフェースを介してユーザから追加入力も引き出すことができる。仮想アシスタントクライアントモジュール364は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0061]
種々の実施例では、メモリ350は、追加の命令又はより少数の命令を含むことができる。更に、テレビ用セットトップボックス104の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0062]
システム100及びシステム300は、図1及び図3に示す構成要素及び構成に限定されず、ユーザ機器102、テレビ用セットトップボックス104、及びリモコン106は、図2及び図3に示す構成要素及び構成に同様に限定されないことが理解されるべきである。システム100、システム300、ユーザ機器102、テレビ用セットトップボックス104、及びリモコン106は、すべて、様々な実施例により、複数の構成で、より少数の又は他の構成要素を含むことができる。
[0063]
本開示を通して、「システム」の参照は、システム100、システム300、又はシステム100若しくはシステム300のいずれかの1つ以上の要素を含み得る。例えば、本明細書で参照される典型的なシステムは、リモコン106及び/又はユーザ機器102からのユーザ入力を受信するテレビ用セットトップボックス104を含み得る。
[0064]
いくつかの実施例では、仮想アシスタントの照会は、特定の時間にキューされた特定のメディアに対する要求を含むことができる。例えば、ユーザは、試合中の特定のプレー、番組中の特定のパフォーマンス、映画の中の特定のシーンなどを見たい場合がある。そのような照会を処理するために、仮想アシスタントシステムは、照会に関連付けられたユーザの意図を判定し、照会に応答する関連するメディアを識別し、ユーザの要求に従った適切な時間での再生のためにメディアをキューすることができる(例えば、誰かがゴールを決める直前で再生を開始するために試合をキューする)。詳細なメディア情報は、様々なメディアに関連した照会を支援するために、仮想アシスタントの知識ベースに組み込むことができる。例えば、詳細なメディア情報は、特定のメディアの照会を支援するために、システム100の仮想アシスタントサーバ114のデータ及びモデル120に組み込むことができる。いくつかの実施例では、詳細なメディア情報はまた、システム100の外部サービス124からも入手することができる。
[0065]
関連するユーザ要求を処理する能力がある応答システムは、しかし、リアルタイム又は近リアルタイムのメディアデータを仮想アシスタントの知識に組み込むことを含むことができる。例えば、ライブのスポーツイベントは、ユーザが見たいことがある多様な対象箇所を含み得る。加えて、現在ユーザにより観られているビデオは、ユーザが照会で参照し得る多くの対象箇所を含み得る。同様に、テレビ番組は、ユーザが再生のためキュー又は友人と共有するために識別したいことがある、人気のあるシーン、特別なゲストの登場、幅広く話題になった瞬間などを含み得る。様々な他のメディアコンテンツは、同様に、ユーザのための関連する対象箇所を含み得る(例えば、音楽、ウェブベースのビデオクリップなど)。詳細で適時のメディアデータは、ゆえに、コンテンツ及びメディア関連情報に対する近リアルタイム要求さえをも含む、メディアに関連付けられた様々なユーザ要求を支援するために、本明細書の様々な実施例により、仮想アシスタントの知識に組み込むことができる。
[0066]
図4は、様々な実施例による、詳細及び/又は適時のメディアデータを組み込むことを含む、メディア再生の音声制御のための例示的なプロセス400を示す。ブロック402で、メディアストリーム内の時間に関連付けられたイベントを含むデータ供給を、受信することができる。データ供給は、様々な異なる形態の任意の形態で様々な異なるソースから受信することができる。例えば、データ供給としては、特定のメディア内のイベントと時間を相関付ける表、時間がイベントと相関付けられるデータベース、特定のメディア内のイベントと時間を関連付けるテキストファイル、イベント要求に応じて時間を提供する情報サーバなどを挙げることができる。データ供給は、システム100の外部サービス124などの、様々な異なるソースから得ることができる。いくつかの実施例では、データ供給は、詳細なスポーツイベント情報を提供するスポーツ連盟、詳細なビデオ及びシーン情報を提供するビデオ供給業者、複数のスポーツのデータソースから収集するスポーツデータのアグリゲータなどの、特定のメディアに関連付けられた組織により、提供され得る。他の実施例では、データ供給は、俳優の外観、字幕テキスト、シーンの変化などを分析することなどの、メディアコンテンツを分析することから入手することができる。更に他の実施例では、データ供給は、人気があり話題になった番組の瞬間、頻繁に参照された試合中のイベントなどの、ソーシャルメディアから入手することができる。本明細書で使用される場合、データ供給という用語は、ゆえに、メディア自体からマイニングされるデータを含む、様々な形態の多様なデータを指し得る。
[0067]
図5は、メディアストリーム512内のイベントをメディアストリーム内の特定の時間514に関連付ける、例示的なデータ供給510を示す。図5は、説明する目的のために提供され、データ供給510は、様々な他の形態(例えば、テキストファイル、テーブルファイル、情報サーバのデータ、データベース、メッセージ、情報供給など)を取り得ることが理解されるべきである。メディアストリーム512は、スポーツイベント、ビデオ、テレビ番組、音楽などの、任意の種類の再生可能なメディアを含むことができる。図5の実施例では、メディアストリーム512は、テレビ放送されたアイスホッケーの試合を含むことができる。特定のメディアの概要情報又は他の記述詳細は、特定の時間に関連付けられているか又は否かに関わらず、データ供給510内に含まれ得る(例えば、ヘッダ内などに含まれ得る)。図示された実施例では、記述概要情報は、メディアのタイトル(例えば、「アイスホッケーの試合」)、メディアの説明(「チームA対チームB、アイスアリーナにて」)、及びメディアのソース(例えば、「チャンネル7」で放送された)を含む、5時01分(協定世界時(UTC))の最初のブロック内に提供されている。様々な他の記述情報は、同様に提供することができ、情報は、参照するために特定の領域内に提供することができる(例えば、タイトル領域は、タイトルを含むことができ、ソース領域は、テレビのチャンネル又はインターネットアドレスを含むことができる、等)。図5に示す情報に加えて、試合をしているチームの選手の名簿、エピソード内に登場する俳優、プロデューサ、監督、アーティストなどのリストなどの、様々な他のメディア情報もまた、入手することができる。様々な概要及び記述情報は、すべて、仮想アシスタントの知識に組み込んで、関連する照会を支援するために使用することができる。
[0068]
図に示すように、データ供給510は、メディアストリーム時間514に相関付けられたメディアストリームイベント516を含むことができる。メディアストリーム時間514は、協定世界時(略称「UTC」)、ユーザに対する現地時間、仮想アシスタントサーバでの時間、メディアサーバでの時間、メディアのソース(例えば、スポーツ開催地)での時間、又は様々な他のタイムゾーンを使用することを含む、様々な異なる方法で指定することができる。他の実施例では、メディアストリーム時間514は、メディアコンテンツの開始から(例えば、映画、エピソード、スポーツイベント、オーディオトラックなどの開始から)のオフセットとして提供することができる。更に他の実施例では、メディアストリーム時間514は、試合の時間などとして提供することができる。様々な実施例のいずれでも、メディアストリーム時間514は、秒、ミリ秒、又は更により細かな段階などの、精密な時間指定を含むことができることが理解されるべきである。参照を容易にするために、本明細書のメディアストリーム時間514の例は、UTCの時間及び分の指定で提供されるが、秒は一般的に使用することができ、ミリ秒又はより細かな段階も使用することができる。
[0069]
メディアストリームイベント516は、メディアストリーム512内の多様なイベント又は対象箇所を含むことができる。スポーツのイベントでは、例えば、メディアストリームイベント516としては、プレー、ペナルティ、ゴール、プレーのセグメント分割(例えば、ピリオド、クウォータ、ハーフなど)、プレーの状況(例えば、打席に立つ選手、氷上の選手、クウォータバックとして入っている選手、フィールド上のキッカー等)などを挙げることができる。テレビ番組(例えば、連続コメディ、トークショーなど)では、メディアストリームイベント516としては、タイトルシーン、登場人物の状況、俳優の状況(例えば、画面に出る時間の指定)、番組の筋内のイベント(例えば、特定のシーン)、ゲストの状況、ゲストの演技、独白、コマーシャルの時間などを挙げることができる。受賞番組(例えば、映画賞、演劇賞など)では、メディアストリームイベント516としては、独白、賞の授与、受賞者のスピーチ、アーティストの演奏、コマーシャルの時間などを挙げることができる。ラジオ番組では、メディアストリームイベント516としては、冒頭の挨拶、ゲストの話し手、話題などを挙げることができる。ゆえに、多様なイベント又は対象箇所は、多様なメディアの種類のいずれでも識別することができ、これらのイベントは、メディア内の特定の時間に関連付けることができることが理解されるべきである。
[0070]
他の実施例では、対象箇所又はイベントは、ソーシャルメディア、人気のある意見、投票などに基づいて識別することができる。例えば、特定のメディア(例えば、ライブのスポーツイベント)に関連付けられたソーシャルメディアネットワーク上の人気のあるコメントは、予想される対象箇所及び出現のおおよその時間(例えば、テーマに関する最初のコメントの少し前)を識別するために使用することができる。別の実施例では、視聴者がメディア内に時間を記録することにより(例えば、リモコン上のボタン、口頭要求、仮想ボタンなどを使用して)対象箇所を示すことができる。更に他の実施例では、対象箇所は、メディアストリームの特定の部分からのビデオクリップの共有などの、他者とメディアを共有するユーザから識別することができる。データ供給510内のメディアストリームイベント516は、ゆえに、メディア提供業者、ユーザ、ソーシャルネットワークの談議、及び様々な他のソースから識別することができる。
[0071]
図5の実施例では、データ供給510は、アイスホッケーの試合内のイベントに関連付けられたメディアストリームイベント516を含むことができる。例えば、試合の第1ピリオドを開始するパックドロップが、5時07分(UTC)に起こっていた場合に、データ供給510は、そのイベントに対する特定のメディアストリーム時間514での関連付けられたメディアストリームイベント516を含むことができる。5時18分(UTC)に、選手Zを打ったことについてペナルティが選手Xに対してコールされた場合に、結果として2分のペナルティとなった。ペナルティの詳細(例えば、ペナルティの種類、関係した選手、ペナルティの時間など)は、その特定のメディアストリーム時間514でのペナルティに関連付けられたメディアストリームイベント516内に含むことができる。5時19分(UTC)に、チームAのパワープレーが開始された場合に、特定のメディアストリーム時間514とともにパワープレーの開始に関連付けることができるメディアストリームイベント516を、含むことができる。図に示すように、様々な他のメディアストリームイベント516を、同様に含むことができ、特定のメディアストリーム時間514に関連付けることができる。異なるイベントに対する詳細は、異なることがあり、情報の一部又はすべては、仮想アシスタントの知識に組み込むことができる。例えば、ゴールの詳細は、ゴールをした選手及びアシストした選手を含むことができる。パワープレーの終了の詳細は、パワープレー状態を失ったチーム及び全員に戻ったチームに対する識別情報を含むことができる。画面上の選手の詳細は、画面上の選手の座標位置を含むことができる。加えて、メディアストリームイベント516は、5時31分(UTC)に起こった第1ピリオドの終了などの、試合に対する時間セグメント指定を含むことができる。
[0072]
他の実施例では、追加の詳細情報を有する様々な他のメディアストリームイベント516は、データ供給510内に含むことができる、及び/又はメディアストリーム512自体から判定することができる。例えば、氷上の選手は、メディアストリーム時間514に関連付けることができ、得点の変化は、メディアストリーム時間514に関連付けることができ、プレーの中断は、メディアストリーム時間514に関連付けることができ、氷上の乱闘及び乱闘の参加者は、メディアストリーム時間514に関連付けることなどができる。加えて、種々の統計、選手の情報、参加者の情報(例えば、審判員、コーチなど)、試合のセグメント指示子などの、様々な他の詳細は、特定のイベント内に含むことができる、又は、メディアストリームに関連付けることができる。この方法で、データ供給510は、様々な時間514にメディアストリーム512内で起こる、様々なイベント516の詳細なテキスト記述を含むことができる。
[0073]
メディアストリーム512を、メディアストリームイベント516及びメディアストリーム時間514の知識を仮想アシスタントの知識ベースに組み込むために受信する必要はないことが理解されるべきである。いくつかの実施例では、メディアストリーム512なしに、データ供給510の情報は、情報を仮想アシスタントの知識に(例えば、データ及びモデル120に)組み込むために、仮想アシスタントサーバ114により受信することができる。一方、メディアストリーム512は、ユーザ機器102、テレビ用セットトップボックス104、又は別のユーザ機器に直接提供することができる。以下に説明するように、いくつかの実施例では、メディアイベント516の仮想アシスタントの知識は、ユーザ機器上(例えば、ユーザ機器102、テレビ用セットトップボックス104上など)のメディアストリーム512の再生のキューをするため、並びに他の仮想アシスタントの照会に応答するために使用することができる。他の実施例では、メディアストリーム512、メディアストリーム512の部分、及び/又はメディアストリーム512に関連付けられたメタデータは、仮想アシスタントサーバ114により受信して、仮想アシスタントの知識ベースに組み込むことができる。
[0074]
図4のプロセス400を再び参照して、ブロック404で、メディアストリーム内のイベントに関連付けられた口頭のユーザ要求を、受信することができる。上述したように、発語入力は、ユーザ機器102、リモコン106、又はシステム100内の別のユーザ機器によりなどの、様々な方法でユーザから受信することができる。仮想アシスタントに宛てられた発語入力は、メディア及び/又は特定のメディア内のイベントに関連付けられた要求を含む、様々なユーザ要求を含むことができる。例えば、ユーザ要求は、図5に示すアイスホッケーの試合のイベントに関連付けられた照会などの、本明細書で説明するメディアストリームイベント516の任意のものの参照を含むことができる。いくつかの実施例では、ユーザ要求は、メディアを特定の対象箇所にキューする要求を含むことができる。例えば、ユーザは、アイスホッケーの試合内の乱闘を見る(例えば、「選手Yと選手Qとの間の乱闘を私に見せて」)、ピリオドの開始に飛び越す(例えば、「第1ピリオドのパックドロップに飛び越して」)、ゴールを見る(例えば、「選手Mのゴールを私に見せて」)、特定のペナルティになったものを見る(例えば、「選手Xに対する打ちつけたペナルティを私に見せて」)などの要求をする場合がある。
[0075]
図4のプロセス400を再び参照して、ブロック406で、メディアストリームの再生を、ユーザ要求内のイベントに関連付けられたメディアストリーム内の時間で開始させることができる。例えば、データ供給510から仮想アシスタントの知識ベースに組み込まれた知識は、特定のコンテンツに対するユーザ要求に関連付けられたメディアストリーム内の特定の時間を判定するために使用することができる。図6は、照会に応答するメディアストリーム内のイベントに基づいてビデオ再生をキューすることの、例示的な仮想アシスタントの照会応答を示す。図示された実施例では、ユーザは、テレビ用セットトップボックス104により制御されたコンテンツを有するディスプレイ112を見ていることがある。ユーザは、上述したデータ供給510に関連付けられたアイスホッケーの試合を含むことがあるビデオ620を見ていることがある。プロセス400のブロック404を参照して説明したように、ユーザは、次に、イベントに関連付けられた特定のメディアコンテンツを見る要求をすることができる。例えば、ユーザは、ゴールを見る要求をすることができる(例えば、「あのゴールを再び私に見せて」、「選手Mのゴールを私に見せて」、「チームAのゴールを私に見せて」、「第1ピリオドのゴールを私に見せて」、「AとBのホッケーの試合の最初のゴールを私に見せて」、「あの最後のゴールを再生して」など)。
[0076]
ユーザ要求に応じて、ユーザ要求に応答するメディアストリーム内(例えば、ビデオ620内)の特定の時間を判定することができる。この実施例では、図5のデータ供給510からの仮想アシスタントの知識ベースに組み込まれた知識を使用して、システムは、図5に示すように、5時21分(UTC)の選手Qによりアシストされた選手MのチームAのゴールを識別することができる。システムは、次に、所望のコンテンツを見せるために、ビデオ620を適切な時間にタイムシフトさせることができる。この実施例では、システムは、再生インジケータ622上に示されたキュー時間624で再生を開始するために、ビデオ620をタイムシフトすることができる。図に示すように、キュー時間624は、ライブ時間626(例えば、ライブでテレビ放送された又は別の方法でライブ配信されたコンテンツのストリームに関連付けられた時間)とは異なることができる。いくつかの実施例では、キュー時間624は、対応するメディアストリームイベント516に関連付けられたメディアストリーム時間514に対応することができる。他の実施例では、キュー時間624は、メディアストリームイベント516がメディアストリーム時間514にどのように関連付けられているかにより、メディアストリーム時間514より早く又はより遅くにシフトすることができる。例えば、キュー時間624は、得点されるゴールの直前のプレーをキャプチャするために、30秒、1分、2分、又は別の量、対応するメディアストリーム時間514の前とすることができる。いくつかの実施例では、データ供給510は、特定のイベントに対して再生がどこで開始されなければならないかの精密な時間指定(例えば、ホッケーの選手が来るべきゴールのためにドライブを始めた時を指定する、ペナルティ行動が最初に見られた時を指定する、など)を含むことができる。ビデオ620は、ゆえに、ユーザの仮想アシスタントの要求に応じて、ユーザがキュー時間624で開始するために再生することができる。
[0077]
いくつかの実施例では、ビデオ620は、ディスプレイ112上に表示される別のビデオに置き換えることができる、又は別の方法でユーザ要求に応じて再生のために取得することができる。例えば、他のコンテンツを見ているユーザは、別のチャンネルのホッケーの試合内で得点された最後のゴールを見る要求を発言することができる(例えば、「チャンネル7のホッケーの試合内で得点された最後のゴールを私に見せて」、「AとBのホッケーの試合の最後のゴールを私に見せて」、「アイスアリーナの試合の最初のゴールを私に見せて」など)。上述したように、ユーザ要求が特定のメディアに対して解決することができない場合、仮想アシスタントは、必要により、より多くの情報又は確認を促すことができる(例えば、「チャンネル7で表示されているアイスアリーナでのチームA対チームBのアイスホッケーの試合のことでしたか?」)。特定のコンテンツに対して解決された要求を用いて、テレビ用セットトップボックス104は、再生のためにビデオ620を取得して、それをキュー時間624にキューすることができる。ビデオ620は、ユーザ機器102又は任意の他のデバイス上で再生することができ、仮想アシスタントは、ユーザ機器102又は別のデバイス上で、同様にビデオ620をキュー時間624にキューすることができる(例えば、特定のユーザコマンドに基づいて、ユーザがビデオ620を見ているデバイスに基づいて、ユーザ要求のソースに基づいて、など)ことが理解されるべきである。
[0078]
いくつかの実施例では、仮想アシスタントに宛てられたユーザ要求は、テレビ用セットトップボックス104によりディスプレイ112上に表示された、又はユーザ機器102のタッチスクリーン246上に表示された何かへの曖昧な参照を含むことができる。例えば、図6のディスプレイ112上に表示されたビデオ620に関連する要求は、画面上の選手628又は画面上の選手630への曖昧な参照を含むことができる。ユーザが質問又は参照している特定の選手は、発語入力のみからは不明確であることがある。別の実施例では、ユーザ要求は、別の方法では発語入力のみからでは曖昧であるであろう他の参照を含むことができる。例えば、チームの名簿を見る要求は、ユーザが特定のチームの特定の試合を見ていることを知らなければ曖昧であることがあり、次のゴールを見る要求は、ユーザが特定の試合を見ていることを知らなければ曖昧であることがある、などである。ディスプレイ112上に表示されたコンテンツ及び関連付けられたメタデータ(例えば、データ供給510から又は別の方法での)は、ゆえに、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる。例えば、画面上の俳優、画面上の選手、試合の参加者のリスト、番組の俳優のリスト、チームの名簿などは、ユーザ要求を解釈するために使用することができる。
[0079]
図示された実施例では、ディスプレイ112上に表示されたコンテンツ及び関連付けられたメタデータは、「ゴールキーパー」、「あの選手」、「背番号8」、「彼」、「M」、ニックネームへの参照、又は特定の試合及び/若しくは特定の画面上の選手に関連した任意の他の参照から、ユーザの意図を判定するために使用することができる。例えば、上述したように、データ供給510は、どの選手が特定の時間に画面上に出ているか、どの選手が特定のイベントに関係しているか、どの選手が特定の時間に氷上にいるか、などのインジケーションを含むことができる。例えば、図6に関連付けられた時間に、データ供給510から仮想アシスタントの知識ベースに組み込まれた知識は、選手M(例えば、画面上の選手628)及びゴールキーパー(例えば、画面上の選手630)がその特定の時間に画面上に、その時間付近に氷上に、その試合でプレーしている、又は、少なくとも画面上にいる若しくはその特定の時間に関係していると思われることを示すことができる。「ゴールキーパー」、「あの選手」、「背番号8」、「彼」、「M」、ニックネームなどを参照している要求は、次に、その情報に基づいて明確にすることができる。
[0080]
例えば、「ゴールキーパー」の最後のストップを見る要求(例えば、「ゴールキーパーの最後のストップを私に見せて」)は、画面上の選手630に対応する特定のゴールキーパー(補欠又は他のチームのゴールキーパーと対照的に)として解決することができ、彼の名前又は他の識別情報は、ユーザの照会に応答するコンテンツを識別するために使用することができる(例えば、現在の試合内のその特定のゴールキーパーによる直近のストップ、前の試合内のその特定のゴールキーパーによる最後のストップなど)。別の実施例では、「8番」の次のゴールを見る要求(例えば、「8番の次のゴールを私に見せて」)は、データ供給510及び関連付けられたメタデータに基づいて、背番号8又はニックネーム8を有する特定の選手(例えば、画面上の選手628)として解決することができる。照会に応答するコンテンツは、次に、「8」に対応する選手の識別情報に基づいて識別することができる(例えば、この試合内の選手Mの次のゴール、後続の試合内の選手Mの次のゴールなど)。他の実施例では、ディスプレイ112上又はユーザ機器102上に表示されたコンテンツは、ユーザ要求を他の方法で解釈するために分析することができる。例えば、顔認識、画像認識(背番号の認識をすること)などは、画面上の選手628及び630を識別して関連付けられたユーザ要求を解釈するために使用することができる。ユーザ要求への応答は、情報応答及び/又はメディアコンテンツ応答を含むことができ、応答は、任意のデバイス(例えば、ディスプレイ112、タッチスクリーン246など)上に表示することができることが理解されるべきである。
[0081]
本明細書で様々な実施例を提供してきたが、ユーザは、選手(並びに俳優、登場人物など)を様々な異なる方法で参照することができ、そのすべてが、本明細書で説明する実施例により明確にすることができることが理解されるべきである。例えば、ユーザは、選手を名前(例えば、名、姓、氏名、ニックネームなど)、番号、ポジション、チーム、デプスチャート(例えば、「2番目のクウォータバック」)、試合固有の識別子(例えば、スタータ、補欠、リリーフピッチャー、クローザなど)、経験年数(例えば、ルーキー、新人、二年目など)、チームの任命(例えば、主将、主将代理など)、試合のプレースタイル(例えば、エンフォーサー、スピーディなど)、以前のチーム、大学(例えば、「Q大学出身のクウォータバック」)、統計情報(例えば、「ハットトリックをした選手による乱闘」、「チームの最高得点者によるペナルティ」など)、略歴(例えば、「殿堂入りしたOの息子」、「ウエストバージニア出身のあのピッチャーによる次の打席」など)、身体的外観(例えば、背が高い、背が低い、肌の色、衣服など)、スポンサー(例えば、「ハードウェアストアの車による衝突」)などにより参照することができる。
[0082]
他の実施例では、仮想アシスタントに宛てられたユーザ要求は、テレビ用セットトップボックス104によりディスプレイ112上に表示された、又はユーザ機器102のタッチスクリーン246上に表示された何かの現在の再生位置に基づく、曖昧な参照を含むことができる。例えば、ユーザは、「次の」ゴール、「前の」ペナルティ、「次の」コマーシャル、「最後の」演技、「次の」俳優の登場などを参照することがある。ユーザの意図(例えば、特定の所望のコンテンツ)は、発語入力のみからは不明確であることがある。しかし、いくつかの実施例では、メディアストリーム内の現在の再生位置は、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる。例えば、現在の再生位置を示すメディアストリーム時間は、ユーザ要求を解釈するために仮想アシスタントシステムに送信して使用することができる。
[0083]
図7は、ユーザ照会を解釈するため(例えば、ユーザ要求を明確にしてユーザの意図を判定するため)に使用することができる、現在の再生位置732の前及び後に現れる例示的なメディアストリームイベント516を有するメディアストリーム512を示す。図に示すように、ライブ時間626は、現在の再生位置732より遅いことがあり、いくつかの実施例では、メディアストリーム512は、もはやライブではないコンテンツのレコーディングを含み得る。図に示すような現在の再生位置732の場合、メディアストリームイベント516への様々な参照は、「次の」及び「前の」イベントなどと解釈することができる。例えば、以前の又は直前のゴールを見るユーザ要求(例えば、「直前のゴールを私に見せて」)は、発語入力のみに基づいては曖昧であることがあるが、現在の再生位置732は、ユーザ要求を解釈して(例えば、参照「直前の」を解決して)前のゴール734を所望のメディアストリームイベント516として識別するために使用することができる。別の実施例では、次のペナルティを見るユーザ要求(例えば、「次のペナルティを私に見せて」)は、発語入力のみに基づいては曖昧であることがあるが、現在の再生位置732は、ユーザ要求を解釈して(例えば、参照「次の」を解決して)次のペナルティ738を所望のメディアストリームイベント516として識別するために使用することができる。現在の再生位置732は、前のペナルティ736及び次のゴール740に対する要求を同様の方法で解釈するために使用することができ、並びに、様々な他の位置の参照(例えば、次の2つ、直前の3つ、など)を解釈するために使用することができる。
[0084]
図8は、メディアストリーム812内のイベントをメディアストリーム内の特定の時間514に関連付ける、例示的なデータ供給810を示す。データ供給810は、上述したデータ供給510と同様な特徴を含むことができ、データ供給810を、ブロック402で同様に受信して、メディアの再生を上述したプロセス400のブロック406でさせるために使用することができる。図8の実施例では、メディアストリーム812は、テレビ放送された受賞番組を含むことができる。他の実施例では、同様なメディアストリームは、インターネットベースの受賞番組、ラジオ番組のショー、バラエティーショーなどを含むことがある。特定のメディアの概要情報又は他の記述詳細は、特定の時間に関連付けられてか否かに関わらず、データ供給810内に含まれ得る(例えば、ヘッダ内などに含まれ得る)。図示された実施例では、記述概要情報は、メディアのタイトル(例えば、「映画賞」)、メディアの説明(「コメディアンWhitney Davidsonによる司会の年間映画賞」)、及びメディアのソース(例えば、「チャンネル31」でテレビ放送された)を含む、10時59分(UTC)での最初のブロック内に提供される。様々な他の記述情報は、同様に提供することができ、情報は、参照するために特定の領域内に提供することができる(例えば、タイトル領域は、タイトルを含むことができ、ソース領域は、テレビのチャンネル又はインターネットアドレスを含むことができる、等)。図8に示す情報に加えて、参加者の名前、演技の説明、授与された賞などの、様々な他のメディア情報もまた、入手することができる。様々な概要及び記述情報はすべて、仮想アシスタントの知識に組み込んで関連する照会を支援するために使用することができる。
[0085]
図に示すように、データ供給810は、図5を参照して上述したイベント516及び時間514と同様であり得る、メディアストリーム時間514に相関付けられたメディアストリームイベント516を含むことができる。データ供給810内のメディアストリームイベント516は、メディアストリーム812内の多様なイベント又は対象箇所を含むことができる。メディアストリーム812のような受賞番組(例えば、映画賞、演劇賞など)では、例えば、メディアストリームイベント516としては、独白、賞の授与、受賞者のスピーチ、参加者の外観、演技の説明、コマーシャルの時間などを挙げることができる。
[0086]
他の実施例では、対象箇所又はイベントは、ソーシャルメディア、人気のある意見、投票などに基づいて識別することができる。例えば、特定のメディア(例えば、ライブの受賞番組)に関連付けられたソーシャルメディアネットワーク上の人気のあるコメントは、予想される対象箇所及び出現のおおよその時間(例えば、テーマに関する最初のコメントの少し前)を識別するために使用することができる。別の実施例では、視聴者がメディア内に時間を記録することにより(例えば、リモコン上のボタン、口頭要求、仮想ボタンなどを使用して)対象箇所を示すことができる。更に他の実施例では、対象箇所は、メディアストリームの特定の部分からのビデオクリップの共有などの、他者とメディアを共有するユーザから識別することができる。データ供給810内のメディアストリームイベント516は、ゆえに、メディア提供業者、ユーザ、ソーシャルネットワークの談議、及び様々な他のソースから識別することができる。
[0087]
図8の実施例では、データ供給810は、受賞番組内のイベントに関連付けられたメディアストリームイベント516を含むことができる。例えば、Whitney Davidsonという名前のコメディアンによる冒頭の独白が11時00分(UTC)に起こっていた場合、データ供給810は、そのイベントに対する特定のメディアストリーム時間514での関連付けられたメディアストリームイベント516を含むことができる。11時08分(UTC)に、ベストコスチュームに対するデザイン賞が、Jane Doe及びJohn Richardsという名前の俳優により受賞者のJennifer Laneという名前のデザイナーに授与されていた場合がある。賞の授与の詳細(例えば、賞の名前、贈呈者、受賞者など)は、その特定のメディアストリーム時間514での賞の授与に関連付けられたメディアストリームイベント516内に含むことができる。11時10分(UTC)に、ベストコスチュームデザイン賞の受賞者が、スピーチをしていた場合、メディアストリームイベント516を、その時間で関連付けられた詳細(例えば、賞の種類、受賞者、話し手など)とともに含めることができる。11時12分(UTC)に、「Unforgettable」と題された音楽の演奏が、David Holmesという名前の歌手により行われていた場合、メディアストリームイベント516を、対応する時間514で関連付けられた詳細とともに含めることができる。図に示すように、様々な他のメディアストリームイベント516を、同様に含むことができ、特定のメディアストリーム時間514に関連付けることができる。異なるイベントに対する詳細は、異なることがあり、情報の一部又はすべては、仮想アシスタントの知識に組み込むことができる。
[0088]
他の実施例では、追加の詳細情報を有する様々な他のメディアストリームイベント516は、データ供給810内に含むことができる、及び/又はメディアストリーム812自体から判定することができる。例えば、画面上に現れている俳優又は参加者は、メディアストリーム時間514に関連付けることができる。そのような情報は、提供されたデータから導出することができる、又はメディアストリーム812を分析する(例えば、顔認識などを使用して)ことにより導出することができる。加えて、種々の統計、参加者の情報(例えば、聴衆の成員、プロデューサ、監督、等)などの、様々な他の詳細は、特定のイベント内に含むことができる、又は、メディアストリームに関連付けることができる。この方法で、データ供給810は、様々な時間514にメディアストリーム812内で起こる、様々なイベント516の詳細なテキスト記述を含むことができる。上述したように、この情報は、仮想アシスタントの知識ベースに組み込んで、プロセス400のブロック406を参照して上述したようなユーザ要求に従ってビデオをキューすることなどの、ユーザ要求に応答するのに使用することができる。
[0089]
図9は、メディアストリーム912内のイベントをメディアストリーム内の特定の時間514に関連付ける、例示的なデータ供給910を示す。データ供給910は、上述したデータ供給510及びデータ供給810と同様な特徴を含むことができ、データ供給910を、ブロック402で同様に受信して、メディアの再生を上述したプロセス400のブロック406でさせるために使用することができる。図9の実施例では、メディアストリーム912は、連続コメディなどのテレビ番組を含むことができる。他の実施例では、同様なメディアストリームとしては、ゲーム番組、ニュース番組、トークショー、バラエティーショー、クイズ番組、仮想現実の番組、ドラマ、連続メロドラマなどを挙げることができる。特定のメディアの概要情報又は他の記述詳細は、特定の時間に関連付けられているか否かに関わらず、データ供給910内に含まれ得る(例えば、ヘッダ内などに含まれ得る)。図示された実施例では、記述概要情報は、メディアのタイトル(例えば、「テレビ番組」)、メディアの説明(「俳優Jane Holmes(登場人物A)及びDavid Doe(登場人物B)出演の連続コメディ」)、及びメディアのソース(例えば、ウェブのソースからストリーミングされた)を含む、14時00分(UTC)での最初のブロック内に提供される。様々な他の記述情報は、同様に提供することができ、情報は、参照するために特定の領域内に提供することができる(例えば、タイトル領域は、タイトルを含むことができ、ソース領域は、テレビのチャンネル又はインターネットアドレスを含むことができる、等)。図9に示す情報に加えて、プロデューサ、監督、司会者、参加者の名前、参加者の特性、俳優、筋の説明、ゲストなどの、様々な他のメディア情報もまた、入手することができる。様々な概要及び記述情報はすべて、仮想アシスタントの知識に組み込んで関連する照会を支援するために使用することができる。
[0090]
図に示すように、データ供給910は、図5を参照して上述したイベント516及び時間514と同様であり得る、メディアストリーム時間514に相関付けられたメディアストリームイベント516を含むことができる。データ供給910内のメディアストリームイベント516は、メディアストリーム912内の多様なイベント又は対象箇所を含むことができる。メディアストリーム912のようなテレビ番組(例えば、テレビの1回放映分、ニュース番組、トークショーなど)では、例えば、メディアストリームイベント516は、演技の説明(例えば、シーンの説明、演技者の外観など)、番組のセグメント指示子(例えば、独白、スタート、タイトルシーン、ゲストの外観、ボーナス部分など)、コマーシャルの時間などを含むことができる。
[0091]
他の実施例では、対象箇所又はイベントは、ソーシャルメディア、人気のある意見、投票などに基づいて識別することができる。例えば、特定のメディア(例えば、人気のある連続コメディの新しい回、夜のトークショーなど))に関連付けられたソーシャルメディアネットワーク上の人気のあるコメントは、予想される対象箇所及び出現のおおよその時間(例えば、テーマに関する最初のコメントの少し前)を識別するために使用することができる。別の実施例では、視聴者がメディア内に時間を記録することにより(例えば、リモコン上のボタン、口頭要求、仮想ボタンなどを使用して)対象箇所を示すことができる。更に他の実施例では、対象箇所は、メディアストリームの特定の部分からのビデオクリップの共有などの、他者とメディアを共有するユーザから識別することができる。データ供給910内のメディアストリームイベント516は、ゆえに、メディア提供業者、ユーザ、ソーシャルネットワークの談議、及び様々な他のソースから識別することができる。
[0092]
図9の実施例では、データ供給810は、連続コメディのテレビ番組内のイベントに関連付けられたメディアストリームイベント516を含むことができる。例えば、タイトルシーンが、14時01分(UTC)に起きていた場合、データ供給910は、そのイベントに対する特定のメディアストリーム時間514での関連付けられたメディアストリームイベント516を含むことができる。14時03分(UTC)に、番組の筋内で、2人の登場人物が、駐車場をめぐって争っていた場合がある。筋内のシーン又は瞬間の詳細(例えば、画面上の登場人物、画面上の俳優、何が起きているかの説明など)は、その特定のメディアストリーム時間514での賞の授与に関連付けられたメディアストリームイベント516内に含むことができる。14時06分(UTC)に、ゲストのスターが、番組内に登場して歌を歌っていた場合、メディアストリームイベント516を、対応する時間514での関連付けられた詳細とともに含むことができる。図に示すように、様々な他のメディアストリームイベント516を、同様に含むことができ、特定のメディアストリーム時間514に関連付けることができる。異なるイベントに対する詳細は、異なることがあり、情報の一部又はすべては、仮想アシスタントの知識に組み込むことができる。
[0093]
他の実施例では、追加の詳細情報を有する様々な他のメディアストリームイベント516は、データ供給910内に含むことができる、及び/又はメディアストリーム912自体から判定することができる。例えば、画面上に現れている俳優又は参加者は、メディアストリーム時間514に関連付けることができる。そのような情報は、提供されたデータから導出することができる、又はメディアストリーム912を分析する(例えば、顔認識などを使用して)ことにより導出することができる。加えて、種々の統計、参加者の情報(例えば、聴衆の成員、プロデューサ、監督、等)などの、様々な他の詳細は、特定のイベント内に含むことができる、又は、メディアストリームに関連付けることができる。この方法で、データ供給910は、様々な時間514にメディアストリーム912内で起こる、様々なイベント516の詳細なテキスト記述を含むことができる。上述したように、この情報は、仮想アシスタントの知識ベースに組み込んで、プロセス400のブロック406を参照して上述したようなユーザ要求に従ってビデオをキューすることなどの、ユーザ要求に応答するのに使用することができる。
[0094]
本明細書で説明した様々な実施例のいずれでも、追加の仮想アシスタントの知識は、特定のメディアコンテンツに関連付けられた字幕テキストから導出することができる。例えば、本明細書で説明したデータ供給の任意のものに対する情報は、字幕テキストにより補足する、又は字幕テキストから導出することができる。追加のメディアストリームイベント516は、メディア再生内の特定の時間に関連付けられた字幕テキストに基づいて(例えば、特定のフレーズが話された時を識別して、特定の登場人物が話す時を識別して、など)メディアストリーム時間514に加えることができる。加えて、字幕テキストは、本明細書で説明した様々な実施例により、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる(例えば、話された名前に基づいて)。
[0095]
図10は、仮想アシスタントの照会に応答するために使用することができる、ビデオ1050内の特定の時間に関連付けられた例示的な字幕テキスト1054を示す。図示された実施例では、字幕インタフェース1052は、ディスプレイ112上に表示されたビデオ1050の現在の再生位置1056での字幕テキスト1054を含むことができる。現在の再生位置1056、登場人物1060、1062、及び1064は、画面上に現れていることがあり、それらの一部は、字幕テキスト1054として表示されたテキストを話していることがある。仮想アシスタントの知識のための情報を導出するのに、字幕テキスト1054を、現在の再生位置1056に相関付けることができる。いくつかの実施例では、時間オフセット1058は、参照として使用することができる(例えば、字幕テキスト1054のテキストが、ビデオ1050の2分に現れることがある、又は同様に、対応するスピーチが、ビデオ1050の2分に話されることがある)。
[0096]
様々な情報を、字幕テキスト1054から導出することができ、その一部は、特定のメディアストリームイベント516として時間オフセット1058に関連付けることができる。例えば、話された名前は、特定の時間での画面上への登場人物の登場を推測するために使用することができる。話された言葉「Blanche」は、例えば、「Blanche」と名付けられた登場人物がビデオ1050内の時間オフセット1058に又はその付近に画面上に登場し得ることを推測するために使用することができる。導出された情報は、次に、登場人物の名前「Blanche」又はメタデータから識別された対応する女優に関連付けられたユーザ要求(例えば、「Blancheが入ってくる所を私に見せて」)に応答するために使用することができる。別の実施例では、話されたフレーズは、識別して、それらが話された特定の時間に関連付けることができる。話されたフレーズ「手ごわい家族」は、例えば、ビデオ1050内の時間オフセット1058に又はその付近で話されたとして識別することができる。導出された情報は、次に、話されたフレーズ「手ごわい家族」に関連付けられたユーザ要求(例えば、「Blancheが手ごわい家族と言う所を私に見せて」)に応答するために使用することができる。字幕テキストは、ゆえに、分析して特定の時間に関連付けることができ、その組み合わせは、関連するユーザ要求に応答するために仮想アシスタントの知識に組み込むことができる。
[0097]
情報は、インタフェース1052などのインタフェース内に字幕テキストが表示されているか否かに関わらず、字幕テキスト1054から導出することができることが理解されるべきである。例えば、字幕テキストは、対応するビデオを実際に再生せずに分析することができ、時間は、字幕に関連付けられたメタデータから導出することができる。更に、図10のディスプレイ112上に表示されているが、字幕は、関連付けられたビデオを実際に再生して又は再生せずに、サーバ又は別のデバイスで仮想アシスタントの知識を導出するために分析することができることが理解されるべきである。
[0098]
上述したように、ユーザから受信した発語入力は曖昧なことがある。ユーザ要求を解釈するために使用することができる、上述した情報(例えば、画面上の選手、画面上の俳優、再生位置など)に加えて、様々な他のコンテキスト情報を、ユーザ要求を解釈するために使用することができる。例えば、ユーザに関する個人情報は、ユーザ要求を解釈するために使用することができる。ユーザは、音声認識、デバイスにログインすること、パスワードを入力すること、特定のアカウントを使用すること、プロフィール(例えば、年齢及び性別)を選択することなどに基づいて識別することができる。識別されたユーザ(又は特定の世帯)に対するユーザ固有のデータは、次に、ユーザ要求を解釈するために使用することができる。そのようなユーザ固有のデータとしては、ユーザのお気に入りのチーム、ユーザのお気に入りのスポーツ、ユーザのお気に入りの選手、ユーザのお気に入りの俳優、ユーザのお気に入りのテレビ番組、ユーザの地理的位置、ユーザの人口統計、ユーザの視聴履歴、ユーザの契約データなどを挙げることができる。加えて、ユーザ固有のデータ(又は世帯固有のデータ)は、通常見る番組、通常見るスポーツ、好みのジャンルなどを反映したメディアコンテンツの視聴履歴を含むことができる。更に、いくつかの実施例では、年齢属性及び性別データは、ユーザのスピーチから推測する(例えば、音の高低、使用された言葉などに基づいて)ことができ、次に、そのプロフィールに従って結果にバイアスをかける(例えば、年齢及び性別プロフィールの予想される好みに基づいて、言葉、番組、名前、照会結果などにバイアスをかける)ために使用することができる。
[0099]
いくつかの実施例では、ユーザ要求は、ユーザ固有のデータを具体的に参照することができる。例えば、ユーザは、「私のチーム」を参照することができる(例えば、「私のチームの調子はどうですか?」)。ユーザ固有のデータは、次に、参照「私のチーム」をユーザのお気に入りのチームとして指定された特定のスポーツチームに解決するために使用することができる。他の実施例では、ユーザ固有のデータは、スピーチ認識及びユーザの意図の判定にバイアスをかけるために使用することができる(例えば、特定の俳優が登場する最近見られた映画に基づいて、特定のユーザがその俳優について質問したと思われると推測する)。例えば、ユーザが好きな、見ている、又は別の方法で関連付けられた、俳優又は選手の名前は、ユーザ固有のデータ内で識別して、これらの俳優又は選手の名前を優先して結果にバイアスをかけるために、スピーチ認識及び意図判定の間に使用することができる。これは、独特な名前、他の言葉又は名前のように聞こえる名前などを正確に認識するのに役に立つことができる。
[0100]
発語入力を正確に認識してユーザ要求を解釈するための、本明細書で説明した様々な他のコンテキストのソースに加えて、ユーザに関連付けられた複数のデバイスからの情報は、正確なスピーチ認識のため及びユーザの意図の判定のためのコンテキストとして使用することができる。例えば、テレビ(例えば、ディスプレイ112上の)を見ているユーザはまた、別のデバイス上(例えば、ユーザ機器102上)のコンテンツも消費している場合がある。両方のデバイスからのコンテンツは、次に、ユーザ要求を解釈するのに使用することができる。
[0101]
図11Aは、ビデオ1150を表示しているテレビのディスプレイ112を示す。図11Bは、表示された画像1170及び表示されたテキスト1172を表示している、タッチスクリーン246を有するユーザ機器102を示す。いずれかのデバイスからコンテンツを参照するユーザ要求を、受信することができる(例えば、リモコン106又はユーザ機器102により)。例えば、ユーザは、「Jenniferの」直前のゴールを見せる要求することがある。「Jennifer」の参照は、発語入力のみからは不明確なことがある。しかし、表示されたテキスト1172を、要求を明確にしてJenniferをユーザ機器102上に表示されたコンテンツに現れている選手として識別するために使用することができる。要求に応答するビデオコンテンツは、次に、特定の選手に基づいて識別することができ、そのコンテンツを、ユーザのために再生することができる。応答するコンテンツは、ディスプレイ112上又はユーザ機器102上のいずれかに(例えば、特定のコマンド、ユーザの好みなどに基づいて)提供することができる。
[0102]
別の実施例では、図11Aのビデオ1150に関連付けられた名前、並びに図11Bの表示された画像1170及び表示されたテキスト1172に関連付けられた名前は、予想される名前の候補に向けて結果にバイアスをかけるため、又は認識するのが困難なことがある名前を識別するために、スピーチ認識の間に使用することができる。例えば、ユーザ要求は、曖昧であり得る名前を含むことがあるが、いずれかのデバイス上に表示されたコンテンツに関連付けられた名前を、ユーザの意図を正確に識別するために使用することができる。他の実施例では、いずれかのデバイス上に表示されたコンテンツに関連付けられた俳優、贈呈者、演技者、プロデューサ、監督、参加者、ペナルティ、スポーツのチームなどのリストは、スピーチ認識の精度を向上してユーザの意図を判定するために同様に使用することができる。
[0103]
いくつかの実施例では、図11Bの表示された画像1170は、動く画像又はビデオを含むことができる。例えば、図11Bに示すコンテンツは、二次画面体験データ(例えば、別の番組に付随することを意図されたデータ及びビデオ)、二次カメラビューのデータ(例えば、特定の番組のために主として表示されるものの代替のビュー又は視点を有するビデオ)などを含むことができる。そのような情報は、上述したのと同様な方法で、スピーチ認識精度を向上してユーザの意図を判定するために使用することができる。加えて、別個のユーザ機器上に表示されているか否かに関わらず、二次画面体験データ、二次カメラビューのデータなどは、受信して、メディアストリーム内の関連する対象箇所及び関連付けられた時間を識別するために、データ供給の一部として使用することができる。例えば、二次画面体験は、試合内の見所の記述を含むことができる。これらの記述は、関連するメディアストリームイベントとして関連付けられたメディアストリーム時間とともに仮想アシスタントの知識内に含むことができ、ユーザ要求に応答するために使用することができる。同様に、二次カメラビューのデータは、代替のカメラのコンテンツが使用可能であり得る特定のメディアストリーム時間を識別する、関連するメディアストリームイベント(例えば、特定のユーザ要求に応答するのに使用することができる)として仮想アシスタントの知識内に含むことができる。
[0104]
上述したように、特定のユーザ要求に応じて、メディアは、特定のキュー時間で開始して再生することができる。いくつかの実施例では、1つ以上のメディアストリームの複数のセグメントは、いくつかのユーザ要求に応じて連続的に再生することができる。例えば、ユーザは、試合の見所、試合のすべてのゴール、試合内のすべての乱闘、番組内の特定の俳優のすべての登場、番組内の特定の登場人物に対するすべてのシーン、複数のトークショーのそれぞれからの冒頭の独白、複数のゲーム番組のそれぞれからのボーナス部分、番組の最高の瞬間、又は1つ以上の番組からの様々な他のメディアセグメントを見る要求をすることができる。上述した同じ方法で、所望のイベントに関連付けられた特定の時間は、1つ以上の番組内で識別することができ、再生は、他の識別されたセグメントが連続的に後続する最初のセグメントで開始させることができる。いくつかの実施例では、見所、最高の瞬間などは、ブックマークの人気、ソーシャルメディアの談議、再生回数などに基づいて判定することができる。各セグメントの終了は、コマーシャルの時間、関連付けられたメディアストリーム内の別のメディアイベント、既定の再生時間、メディアイベントの詳細内の特定の終了位置の入力等によるなどの、様々な方法で識別することができる。この方法で、ユーザは、例えば、ユーザが見たい特定のコンテンツに対する見所部分を要求することができ、システムは、所望の見所を自動的に識別してそれらを連続的に再生する(又は任意の他の順序などでの選択可能な再生のためにそれらを提供する)ことができる。
[0105]
いくつかの実施例では、ユーザは、友人、家族などとメディアストリームの特定のセグメントを共有したい場合がある。一実施例では、ユーザは、メディアストリーム内の特定の再生位置に対応するメディアストリーム内のブックマーク位置を示すことができる。このカスタマイズされたブックマーク位置は、次に、サーバに送信して、ソーシャルネットワーク、メッセージ、他のテレビ用セットトップボックス104、他のユーザ機器102などにより、友人と共有することができる。ユーザは、物理ボタン、仮想ボタン、発語入力、又はリモコン106及び/若しくはユーザ機器102を用いた任意の他の入力を使用して、ブックマークを示すことができる。例えば、ユーザは、特定のメディアセグメントをブックマークして、それをユーザのアドレス帳内の連絡先に送信する要求(例えば、これをブックマークしてCoreyに送信して)を仮想アシスタントシステムに宛てることができる。システムは、次に、特定のメディアセグメント(例えば、UTC参照、オフセットなどとともにメディア識別子)を識別して、それを所望の連絡先に送信することができる。いくつかの実施例では、ユーザは、所望のセグメントの開始位置及び終了位置の両方を識別することができる。他の実施例では、ユーザは、特定のメディアストリームイベントを参照して共有することができる(例えば、このゴールをJordanと共有する、この演奏をSusanに送信する、など)。更に他の実施例では、ブックマーク及びメディアストリームイベントは、ソーシャルネットワークなどを通して共有することができる。
[0106]
上述したように、メディアに関連した仮想アシスタントの照会に応じて、システムは、ビデオを再生のためにキューする及び/又は情報回答で応答することができる(例えば、テキスト応答をディスプレイ112に表示すること、又はユーザ機器102が応答を発声することなどにより)。いくつかの実施例では、本明細書で説明したようなビデオを再生のためにキューするために使用される、様々なデータ供給及び他の情報は、同様な方法でユーザ要求への情報応答を決定するために使用することができる。図12は、情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するための、例示的なプロセス1200を示す。ブロック1202で、メディアストリーム内の時間に関連付けられたイベントを含むデータ供給を、受信することができる。データ供給は、図5を参照して説明したデータ供給510、図8を参照して説明したデータ供給810、及び図9を参照して説明したデータ供給910などの、本明細書で説明したデータ供給の任意のものを、対応するメディアストリームイベント516の任意のものとともに含むことができる。
[0107]
図12のプロセス1200を再び参照して、ブロック1204で、データ供給内のイベントに関連付けられた口頭のユーザ要求を、受信することができる。ユーザは、現在再生しているメディア、画面上の選手、画面上の俳優など、任意のメディアストリームイベントに関する情報を要求することができる。例えば、ユーザは、得点した選手の識別(例えば、「あのゴールを入れたのは誰か?」)、ペナルティの判定の識別(例えば、「あのペナルティは何に対するものだったか?」)、画面上の演技者の識別(例えば、「あれは誰か?」)、歌のタイトルの識別(例えば、「彼女が歌っているのは何か?」)、画面上の番組の登場人物の識別(例えば、「これらの登場人物の名前は何か?」)、番組内の俳優の識別(例えば、「これに出ているのは誰か?」)、筋の説明(例えば、「この回はどんな話か?」)、連続番組の説明(例えば、「この連続番組はどんなものか?」)、又はメディアコンテンツに関連付けられた様々な他の照会の任意のものを要求することができる。
[0108]
ブロック1206で、ユーザ要求への応答は、イベントに関連するデータ(例えば、本明細書で説明したデータ供給の任意のものからのデータ)に基づいて生成することができる。本明細書で説明したメディアストリームイベント516の任意のものは、例えば、様々な照会(例えば、ブロック1204を参照して上述した様々な照会の例などの)への情報応答に関して検索することができる。いくつかの実施例では、応答は、現在再生しているメディア(例えば、再生している番組、一時停止している番組、画面上に表示されている番組など)に基づいて生成することができる。例えば、現在再生しているメディアを参照するユーザ要求は、発語入力のみに基づいては曖昧であることがある。現在再生しているメディアは、現在のコンテンツに関する参照を解決することにより、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる。例えば、ユーザは、「この」番組内の俳優をリストアップする(例えば、「これに出ているのは誰か?」)ことを要求することができ、これは、参照された番組が発語入力からすでに明らかではないため、不明確であることがある。しかし、現在再生している番組は、「この」の参照を解決してユーザの意図を識別するために使用することができる。図9のテレビ番組の例が再生されている場合、例えば、時間14時00分(UTC)にリストアップされた概要情報は、俳優Jane Holmes及びDavid Doeを識別することにより、ユーザの照会に応答するために使用することができる。
[0109]
他の実施例では、応答は、現在再生しているメディアの現在の再生位置及び/又はユーザにより以前に消費されたメディアコンテンツに基づいて生成することができる。例えば、ユーザは、ゴールを入れるのが表示された直後の選手の識別を要求することができ、要求内に「あの」ゴールを参照することができる(例えば、「誰があのゴールを入れたのか?」)。現在再生しているメディアの現在の再生位置は、他のゴールがメディアストリーム内に後で現れるか否かに関わらず、「あの」ゴールをユーザに表示された直近のゴールに解決することにより、ユーザの意図を判定して応答を生成するために使用することができる。図7の実施例では、現在の再生位置732は、「あの」ゴールを前のゴール734に解決するために使用することができ、対応するメディアストリームイベントのコンテンツは、照会に回答するために使用することができる。具体的には、選手Mは、ユーザが見た直近のゴールを入れたとして識別することができる。図7を参照して上述したように、現在の再生はまた、様々な他の曖昧な参照(例えば、次の、前の、など)からユーザの意図を判定するために使用することができ、識別されたメディアストリームイベント情報は、次に、照会への応答を構築するために使用することができる。
[0110]
加えて、いくつかの実施例では、ユーザは、ユーザの視聴体験をシフトしてライブ又は更新情報の習得を遅延したいことがある。例えば、ユーザは、スポーツのイベントを、それがすでに開始された後で又は更にそれがすでに終了した後で、見るのを開始したい場合がある。にもかかわらず、ユーザは、試合全体をそれがライブであるかのように体験したいことがある。そのような場合、使用可能な仮想アシスタントの知識は、現在の再生位置と同時に存在する使用可能な参照情報に選別して、現在の再生位置の後の時点からの情報の参照を回避することができる。例えば、図7の実施例を再び参照して、ユーザが現在の再生位置732で見ていると仮定して、システムは、応答に次のゴール740を含むことを回避することができる。ユーザは、例えば、現在の再生位置732での得点を要求することができる(例えば、「この時点までの得点は何点か?」)。これに応じて、システムは、現在の再生位置732の後のイベント(例えば、次のゴール740)を除外しながら、前に見たイベント(例えば、前のゴール734)に基づいて得点を提供することができる。
[0111]
いくつかの実施例では、ユーザ要求は、応答情報が現在の再生位置で同時に存在するものでなければならないこと(例えば、「この時点まで」、「現在まで」、「試合のこの時点で」、「これまで」などと言うことにより)、又は応答情報が使用可能な最新の更新情報でなければならないこと(例えば、「ライブの」、「更新の」、「現在の」などと言うことにより)を指定することができる。他の実施例では、設定、ユーザの好みなどが、応答が最新の更新情報を含むか、又は代わりに再生位置で同時に存在する情報のみを含むかを判定することができる。加えて、いくつかの実施例では、特定の試合に関連付けられ得る(例えば、用語、名前などに基づいて)、警報、通知、メッセージ、ソーシャルメディア供給入力などは、所望によりユーザから抑制することができ、ユーザがその様々なメッセージに対応する関連付けられたコンテンツ内の再生位置に到達した後のみ配信することができる。例えば、ライブのスポーツのイベントに関してコメントしている友人からのメッセージ(例えば、ユーザ機器102又は任意の他のデバイス上に配信される)は、そのメッセージが送信された時間に対応するそのスポーツのイベントの遅延した視聴の時点にユーザが到達するまで意図的に遅延することができ、その時点でメッセージをユーザに配信することができる。この方法で、スポーツのイベントを見る(又は任意の他のメディアを消費する)体験全体を、所望によりタイムシフトすることができる(例えば、結果を損なうことを回避するために)。
[0112]
他の実施例では、応答は、テレビ用セットトップボックス104によりディスプレイ112上に表示されるコンテンツ、ユーザ機器102のタッチスクリーン246上に表示されるコンテンツ、及び/又は表示されたコンテンツの任意のものに関連付けられたメタデータに基づいて生成することができる。例えば、応答は、画面上の俳優、画面上の選手、試合の参加者のリスト、番組の俳優のリスト、チームの名簿などに基づいて生成することができる。図6、図11A、及び図11Bを参照して上述したように、様々な情報は、表示されたコンテンツ及び関連付けられたメタデータから導出することができ、その情報は、ユーザ要求を明確にしてユーザの意図を判定し、ユーザ要求への応答を生成するために使用することができる。例えば、画面上の選手を識別するユーザ要求(例えば、「あれは誰か?」)への応答は、現在の再生位置付近のメディアストリームイベント、顔認識、字幕テキストなどに基づいて生成することができる。図6の実施例では、例えば、キュー時間624付近(例えば、チームAのゴール付近)のメディアストリームイベントは、画面上の選手628を選手Mとして識別するために使用することができる。別の実施例では、画像処理が、画面上の選手628の背番号を認識して、彼を名簿から選手Mとして識別するために使用することができる。
[0113]
図12のプロセス1200を再び参照して、ブロック1208で、ブロック1206で判定された応答を、配信させることができる。いくつかの実施例では、応答を配信することは、テレビ用セットトップボックス104によりディスプレイ112上で、ユーザ機器102上で、若しくは別のデバイス上で、応答を表示させる又は再生させることを含むことができる。例えば、テキスト応答及び/又はメディア応答は、デバイス上の仮想アシスタントインタフェース内に表示する又は再生することができる。別の実施例では、応答を配信することは、応答情報をテレビ用セットトップボックス104、ユーザ機器102、又は別のデバイスに(例えば、サーバから)送信することを含むことができる。更に他の実施例では、ユーザは、画像又はビデオ内の情報を識別することを要求する(例えば、「どちらがJenniferか?」)ことができ、応答は、例えば、関連付けられたメディアストリームイベント内の識別された座標に基づいて、インジケータ(例えば、矢印、点、輪郭など)を画像又はビデオの上に重ね合わせて表示することを含むことができる。プロセス1200は、ゆえに、仮想アシスタントの知識ベースに組み込まれた適時のデータを用いることにより、様々なユーザ照会に様々な方法で応答するために使用することができる。
[0114]
加えて、本明細書で説明した様々な実施例のいずれでも、様々な態様は、特定のユーザのために個人専用にすることができる。連絡先、好み、位置、お気に入りのメディアなどを含むユーザデータは、音声コマンドを解釈して本明細書で説明した様々なデバイスとのユーザ対話を促進するために使用することができる。本明細書で説明した様々なプロセスはまた、ユーザの好み、連絡先、テキスト、使用履歴、プロフィールデータ、人口統計などに従って、様々な他の方法で変更することができる。加えて、そのような好み及び設定は、ユーザ対話(例えば、頻繁に発言されたコマンド、頻繁に選択されたアプリケーションなど)に基づいて、経時的に更新することができる。様々なソースから使用可能なユーザデータの収集及び利用は、ユーザが興味があり得る招待者だけのコンテンツ又は任意の他のコンテンツのユーザへの配信を改善するために使用することができる。本開示は、いくつかの場合では、この収集されたデータが、特定の個人を一意に識別する又は連絡するため若しくは位置を特定するために使用することができる、個人情報データを含むことができることを意図している。そのような個人情報データとしては、人口統計データ、位置に基づくデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
[0115]
本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データは、ユーザがより興味がある的を絞ったコンテンツを配信するために使用することができる。したがって、そのような個人情報データの使用は、配信されるコンテンツの計算された制御を可能にする。更に、ユーザを利する個人情報データに関するその他の使用もまた、本開示により意図されている。
[0116]
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又はその他の使用に応答するエンティティは、確固たるプライバシーのポリシー及び/又はプライバシー慣行に従うであろうことを更に意図している。具体的には、そのようなエンティティは、個人情報データを秘密で安全に維持するために、産業若しくは政府の要求を満たす又は上回るとして一般的に認識される、プライバシーのポリシー及び慣行を実施及び一貫して使用しなければならない。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザに告知して同意を得た後にのみ実施するべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーのポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるであろう。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
[0117]
前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施例も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、広告配信サービスの場合では、この技術は、ユーザが、サービスの登録中に、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成され得る。別の実施例では、ユーザは、的を絞ったコンテンツの配信サービスに対して位置情報を提供しないように選択することができる。更に別の実施例では、ユーザは、精密な位置情報を提供しないが、位置区域情報の伝送を許可するように選択することができる。
[0118]
それゆえ、本開示は、1つ以上の様々な開示された実施例を実施するための個人情報データの使用を、広範に網羅するものであるが、本開示は、それらの様々な実施例がまた、そのような個人情報データにアクセスすることを必要とせずに実施することも可能である点も、また想到する。すなわち、本技術の様々な実施例は、そのような個人情報データのすべて又は一部分の欠如により、実施不可能となるものではない。例えば、コンテンツは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、コンテンツ配信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて好みを推測することにより、選択してユーザに配信することができる。
[0119]
いくつかの実施例により、図13は、例えば、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するための、説明される様々な実施例の原理に従って構成された、電子デバイス1300の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実装することができる。図13で説明する機能ブロックが、説明される様々な実施例の原理を実施するために、組み合わされ、又はサブブロックに分離され得ることが当業者に理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0120]
図13に示すように、電子デバイス1300は、メディア、インタフェース、及びその他のコンテンツを表示するように構成されたディスプレイユニット1302(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス1300は、発語入力、触知入力、ジェスチャ入力、メディア情報、データ供給、メディアなどの、情報を受信するように構成された入力ユニット1304(例えば、マイクロフォン、受信機、タッチスクリーン、ボタン、サーバなど)を更に含むことができる。電子デバイス1300は、ディスプレイユニット1302及び入力ユニット1304に結合された、処理ユニット1306を更に含むことができる。いくつかの実施例では、処理ユニット1306は、データ供給受信ユニット1308、ユーザ要求受信ユニット1310、及びメディア再生ユニット1312を含むことができる。
[0121]
処理ユニット1306は、データ供給を受信する(例えば、データ供給受信ユニット1308を使用して入力ユニット1304から)ように構成することができ、データ供給は、メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む。処理ユニット1306は、発語入力に基づいてユーザ要求を受信する(例えば、ユーザ要求受信ユニット1310を使用して入力ユニット1304から)ように更に構成することができ、ユーザ要求は、イベントに関連付けられる。処理ユニット1306は、ユーザ要求を受信したことに応じて、メディアストリームの再生をイベントに関連付けられたメディアストリーム内の時間で開始(例えば、ディスプレイユニット1302上に)させる(例えば、メディア再生ユニット1312を使用して)ように更に構成することができる。
[0122]
いくつかの実施例では、処理ユニット1306は、現在再生しているメディアに基づいてユーザ要求を解釈するように更に構成することができる。他の実施例では、処理ユニット1306は、現在再生しているメディアの現在の再生位置に基づいてユーザ要求を解釈するように更に構成することができる。更に他の実施例では、処理ユニット1306は、画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、番組内の登場人物のリスト、又はチームの名簿の1つ以上に基づいてユーザ要求を解釈するように更に構成することができる。いくつかの実施例では、メディアストリームは、スポーツのイベントを含み、イベントに関連するデータは、選手の特性(例えば、名前、ニックネーム、番号、ポジション、チーム、デプスチャート、経験、スタイル、略歴など)、得点、ペナルティ、統計、又は試合のセグメント指示子(例えば、クウォータ、ピリオド、ハーフ、ラップ、警告旗、ピットストップ、ダウン、プレーなど)の1つ以上を含む。他の実施例では、メディアストリームは、受賞番組を含み、イベントに関連するデータは、参加者の特性(例えば、名前、ニックネーム、登場人物の名前、略歴など)、演技の説明、又は授賞の指示子の1つ以上を含む。更に他の実施例では、メディアストリームは、テレビ番組を含み、イベントに関連するデータは、演技の説明又は番組セグメント指示子の1つ以上を含む。
[0123]
一実施例では、ユーザ要求(例えば、ユーザ要求受信ユニット1310の)は、メディアストリーム内の見所に対する要求を含む。いくつかの実施例では、処理ユニット1306は、要求を受信したことに応じて、メディアストリームの複数のセグメントの連続的再生をさせるように更に構成することができる。他の実施例では、メディアストリームの再生をさせることは、この電子デバイス以外の再生デバイス上でメディア再生をさせることを含む。いくつかの実施例では、電子デバイスは、サーバ、セットトップボックス、リモコン、スマートフォン、又はタブレットコンピュータを含む。他の実施例では、再生デバイスは、セットトップボックス、スマートフォン、タブレットコンピュータ、又はテレビを含む。処理ユニット1306は、電子デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。処理ユニット1306は、再生デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。
[0124]
いくつかの実施例では、イベントに関連するデータは、字幕テキストを含む。処理ユニット1306は、字幕テキストに基づいてイベントに関連付けられたメディアストリーム内の時間を判定するように更に構成することができる。一実施例では、イベントに関連するデータは、二次画面体験データ、二次カメラビューデータ、又はソーシャルネットワーク供給データの1つ以上を含む。処理ユニット1306は、ユーザからブックマークインジケーションを受信するように更に構成することができ、ブックマークは、メディアストリーム内の特定の再生位置に対応する。処理ユニット1306は、ブックマークを共有するユーザ要求を受信するように更に構成することができ、ブックマークを共有するユーザ要求を受信したことに応じて、特定の再生位置に関連付けられたキュー情報をサーバに送信させることができる。処理ユニット1306は、ユーザのお気に入りのチーム、ユーザのお気に入りのスポーツ、ユーザのお気に入りの選手、ユーザのお気に入りの俳優、ユーザのお気に入りのテレビ番組、ユーザの地理的位置、ユーザの人口統計、ユーザの視聴履歴、又はユーザの契約データの1つ以上に基づいて、ユーザ要求を解釈するように更に構成することができる。
[0125]
いくつかの実施例により、図14は、例えば、情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するための、説明される様々な実施例の原理に従って構成された、電子デバイス1300の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実装することができる。図14で説明する機能ブロックが、説明される様々な実施例の原理を実施するために、組み合わされ、又はサブブロックに分離され得ることが当業者に理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0126]
図14に示すように、電子デバイス1400は、メディア、インタフェース、及びその他のコンテンツを表示するように構成されたディスプレイユニット1402(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス1400は、発語入力、触知入力、ジェスチャ入力、メディア情報、データ供給、メディアなどの、情報を受信するように構成された入力ユニット1404(例えば、マイクロフォン、受信機、タッチスクリーン、ボタン、サーバなど)を更に含むことができる。電子デバイス1400は、ディスプレイユニット1402及び入力ユニット1404に結合された、処理ユニット1406を更に含むことができる。いくつかの実施例では、処理ユニット1306は、データ供給受信ユニット1408、ユーザ要求受信ユニット1410、応答生成ユニット1412、及び応答配信ユニット1414を含むことができる。
[0127]
処理ユニット1406は、データ供給を受信する(例えば、データ供給受信ユニット1408を使用して入力ユニット1404から)ように構成することができ、データ供給は、メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む。処理ユニット1406は、ユーザからの発語入力に基づいてユーザ要求を受信する(例えば、ユーザ要求受信ユニット1410を使用して入力ユニット1404から)ように更に構成することができ、ユーザ要求は、イベントに関連付けられる。処理ユニット1406は、イベントに関連するデータに基づいて、ユーザ要求への応答を生成する(例えば、応答生成ユニット1412を使用して)ように更に構成することができる。処理ユニット1408は、応答を配信させる(例えば、応答配信ユニット1414を使用して)ように更に構成することができる。
[0128]
いくつかの実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、現在再生しているメディアに基づいて応答を生成することを更に含む。他の実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、現在再生しているメディアの現在の再生位置に基づいて応答を生成することを更に含む。更に他の実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、ユーザにより以前に消費されたメディアコンテンツに基づいて応答を生成することを更に含む。いくつかの実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、又はチームの名簿の1つ以上に基づいて応答を生成することを更に含む。
[0129]
いくつかの実施例では、処理ユニット1406は、現在再生しているメディアの現在の再生位置と同時に存在する情報に対する要求を含むユーザ要求に応じて、現在の再生位置の後の時間に関連付けられたデータを除外した、現在の再生位置と同時に存在するデータに基づいて応答を生成し、ライブの情報に対する要求を含むユーザ要求に応じて、ライブのデータに基づいて応答を生成する、ように更に構成することができる。いくつかの実施例では、応答を配信させる(例えば、応答配信ユニット1414を使用して)ことは、電子デバイス以外の再生デバイス上に応答を表示又は再生させることを含む。他の実施例では、応答を配信させる(例えば、応答配信ユニット1414を使用して)ことは、電子デバイス以外の再生デバイスに応答を配信させることを含む。いくつかの実施例では、電子デバイスは、サーバ、セットトップボックス、リモコン、スマートフォン、又はタブレットコンピュータを含む。他の実施例では、再生デバイスは、セットトップボックス、スマートフォン、タブレットコンピュータ、又はテレビを含む。いくつかの実施例では、処理ユニット1406は、電子デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。他の実施例では、処理ユニット1406は、再生デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。
[0130]
実施例は、付随する図面を参照して充分に説明してきたが、様々な変更及び修正が当業者には明白になるであろうこと(例えば、本明細書で説明した任意の他のシステム又はプロセスに関連して説明した概念に従って、本明細書で説明したシステム又はプロセスのいずれかを修正すること)に留意すべきである。そのような変更及び修正は、添付の特許請求の範囲によって定義されるような様々な実施例の範囲内に含まれるものとして理解されたい。
[書類名]特許請求の範囲
[請求項1]
メディア再生の音声制御のための方法であって、
電子デバイスにおいて、
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信することと、
発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信することと、
前記ユーザ要求を受信したことに応じて、前記メディアストリームの再生に前記イベントに関連付けられた前記メディアストリーム内の前記時間で開始させることと、
を含む方法。
[請求項2]
現在再生しているメディアに基づいて前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項3]
現在再生しているメディアの現在の再生位置に基づいて前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項4]
画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、番組内の登場人物のリスト、又はチームの名簿の1つ以上に基づいて、前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項5]
前記メディアストリームが、スポーツのイベントを含み、前記イベントに関連する前記データが、選手の特性、得点、ペナルティ、統計、又は試合のセグメント指示子の1つ以上を含む、請求項1に記載の方法。
[請求項6]
前記メディアストリームが、受賞番組を含み、前記イベントに関連する前記データが、参加者の特性、演技の説明、又は賞の授与の指示子の1つ以上を含む、請求項1に記載の方法。
[請求項7]
前記メディアストリームが、テレビ番組を含み、前記イベントに関連する前記データが、演技の説明又は番組セグメント指示子の1つ以上を含む、請求項1に記載の方法。
[請求項8]
前記ユーザ要求が、前記メディアストリーム内の見所に対する要求を含む、請求項1に記載の方法。
[請求項9]
前記ユーザ要求を受信したことに応じて、前記メディアストリームの複数のセグメントの連続的再生をさせることを更に含む、請求項1に記載の方法。
[請求項10]
前記メディアストリームの再生をさせることが、前記電子デバイス以外の再生デバイス上でメディア再生をさせることを含む、請求項1に記載の方法。
[請求項11]
前記電子デバイスにより表示される情報に基づいて前記ユーザ要求を解釈することを更に含む、請求項10に記載の方法。
[請求項12]
前記再生デバイスにより表示される情報に基づいて前記ユーザ要求を解釈することを更に含む、請求項10に記載の方法。
[請求項13]
前記イベントに関連する前記データが、字幕テキストを含む、請求項1に記載の方法。
[請求項14]
前記字幕テキストに基づいて前記イベントに関連付けられた前記メディアストリーム内の前記時間を判定することを更に含む、請求項13に記載の方法。
[請求項15]
前記イベントに関連する前記データが、二次画面体験データ、二次カメラビューデータ、又はソーシャルネットワーク供給データの1つ以上を含む、請求項1に記載の方法。
[請求項16]
前記ユーザからブックマークインジケーションを受信することを更に含み、前記ブックマークは、前記メディアストリーム内の特定の再生位置に対応する、請求項1に記載の方法。
[請求項17]
前記ブックマークを共有するユーザ要求を受信することと、
前記ブックマークを共有する前記ユーザ要求を受信したことに応じて、前記特定の再生位置に関連付けられたキュー情報をサーバに送信させることと、
を更に含む、請求項16に記載の方法。
[請求項18]
ユーザのお気に入りのチーム、ユーザのお気に入りのスポーツ、ユーザのお気に入りの選手、ユーザのお気に入りの俳優、ユーザのお気に入りのテレビ番組、ユーザの地理的位置、ユーザの人口統計、ユーザの視聴履歴、又はユーザの契約データの1つ以上に基づいて、前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項19]
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信し、
発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信し、
前記ユーザ要求を受信したことに応じて、前記メディアストリームの再生を前記イベントに関連付けられた前記メディアストリーム内の前記時間で開始させる、
ためのコンピュータ実行可能命令を含む、非一時的コンピュータ可読記憶媒体。
[請求項20]
メディア再生の音声制御のためのシステムであって、
ひとつ以上のプロセッサと、
メモリと、
ひとつ以上のプログラムと、を備え、
前記ひとつ以上のプログラムは前記メモリに保持され、かつ、前記ひとつ以上のプロセッサにより実行されるよう構成され、前記ひとつ以上のプログラムは、
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信し、
発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信し、
前記ユーザ要求を受信したことに応じて、前記メディアストリームの再生を前記イベントに関連付けられた前記メディアストリーム内の前記時間で開始させる、
ための命令を含むシステム。
[請求項21]
情報をデジタルアシスタントの知識に組み込むための方法であって、
電子デバイスにおいて、
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信することと、
ユーザからの発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信することと、
前記イベントに関連した前記データに基づいて、前記ユーザ要求への応答を生成することと、
前記応答を配信させることと、
を含む、方法。
[請求項22]
前記応答を生成することが、現在再生しているメディアに基づいて前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項23]
前記応答を生成することが、現在再生しているメディアの現在の再生位置に基づいて前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項24]
前記応答を生成することが、前記ユーザにより以前に消費されたメディアコンテンツに基づいて前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項25]
前記応答を生成することが、画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、又はチームの名簿の1つ以上に基づいて、前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項26]
現在再生しているメディアの現在の再生位置と同時に存在する情報に対する要求を含む前記ユーザ要求に応じて、前記現在の再生位置の後の時間に関連付けられたデータを除外した、前記現在の再生位置と同時に存在するデータに基づいて、前記応答を生成することと、
ライブの情報に対する要求を含む前記ユーザ要求に応じて、ライブのデータに基づいて前記応答を生成することと、
を更に含む、請求項21に記載の方法。
[請求項27]
前記応答を配信させることが、前記電子デバイス以外の再生デバイス上で前記応答を表示又は再生させることを含む、請求項21に記載の方法。
[請求項28]
前記応答を配信させることが、前記電子デバイス以外の再生デバイスに前記応答を配信させることを含む、請求項21に記載の方法。
[書類名] 要約書
[要約]
仮想アシスタントのメディア知識のリアルタイム更新のためのシステム及びプロセスが開示される。仮想アシスタントの知識は、再生しているメディア(例えば、スポーツのイベント、テレビ番組、など)に関連付けられた、適時情報を用いて更新することができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、発語入力に基づいて受信することができ、ユーザ要求は、メディアストリーム又は番組内のイベントに関連付けることができる。要求を受信したことに応じて、要求内で参照されたイベントに関連付けられたメディアストリーム内の時間で再生を開始するために、メディアストリームを、キューすることができる。別の実施例では、ユーザ要求への応答は、イベントに関連するデータに基づいて生成することができる。応答は、次に、ユーザに配信することができる(例えば、発声して、表示して、など)。
[書類名] 図面
[図1]
[図2]
[図3]
[図4]
[図5]
[図6]
[図7]
[図8]
[図9]
[図10]
[図11A]
[図11B]
[図12]
[図13]
[図14]
Claims (44)
- メディアシステムのデジタルアシスタントを動作させるための方法であって、前記方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニットおよびスピーカを介してメディアコンテンツを再生することと、
前記メディアコンテンツを再生している間に、ユーザ入力を検出することと、
前記ユーザ入力を検出したことに応じて、音声データをサンプリングすることであって、前記音声データはユーザ発言を含む、ことと、
前記ユーザ発言に関連付けられたユーザの感情の判定を取得することと、
前記ユーザ発言に対応するユーザ意図の決定を取得することであって、前記ユーザ意図が前記判定されたユーザの感情に基づいて決定される、ことと、
前記ユーザ意図が、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を取得することと、
前記ユーザ意図が、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、前記アプリケーションの前記状態又は前記設定を、前記ユーザ意図を満足するように調整することと、
を含み、
前記ユーザ発言が、ユーザが、前記メディアコンテンツに関連付けられた音声の一部分が聞こえなかったことを指示する自然言語表現であり、
前記方法はさらに、
ユーザの第1の感情に対応する判定された前記ユーザの感情にしたがって、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記ユーザが聞こえなかった前記音声の前記部分に対応する前記メディアコンテンツの一部分を再生し直せとの第1要求を含むと決定することを含み、
前記アプリケーションの前記状態又は前記設定を調整することが、
前記メディアコンテンツを前記メディアコンテンツの以前の部分まで所定の量だけ巻き戻すことと、
前記表示ユニットおよび前記スピーカを介した前記メディアコンテンツの再生を前記以前の部分から再スタートすることと、
を含み、
前記方法はさらに、
ユーザの第2の感情に対応する判定された前記ユーザの感情にしたがって、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記メディアコンテンツに関連付けられた前記音声の音量を上げよとの第2要求を含むと決定することを含み、
前記アプリケーションの前記状態又は前記設定を調整することが、
前記メディアコンテンツに関連付けられた前記音声の前記音量を上げることを含む、方法。 - 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、特定のメディアアイテムを再生せよとの要求を含み、前記アプリケーションの前記状態又は前記設定を、前記ユーザ意図を満足するように調整することが、前記特定のメディアアイテムを再生することを含む、請求項1に記載の方法。
- 前記方法は、メディアアイテムを有するユーザインターフェースを前記表示ユニットに表示することをさらに含み、前記ユーザ発言が、再生されるべき前記特定のメディアアイテムを明示的に限定せず、前記方法は、
前記ユーザインターフェースのフォーカスが前記メディアアイテム上にあるかどうかを判定することと、
前記ユーザインターフェースのフォーカスが前記メディアアイテム上にあるとの判定に従って、前記メディアアイテムを、再生されるべき前記特定のメディアアイテムとして特定することと、
を更に含む、請求項2に記載の方法。 - 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記電子デバイス上の前記アプリケーションを起動せよとの要求を含む、請求項1に記載の方法。
- 前記状態又は前記設定が、前記電子デバイス上で再生されている前記メディアコンテンツに関連する、請求項1に記載の方法。
- 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記電子デバイス上で再生中の前記メディアコンテンツを早送り又は巻き戻しせよとの要求を含む、請求項5に記載の方法。
- 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記メディアコンテンツの特定の部分を再生するために前記メディアコンテンツ内で前方又は後方へ飛び越せとの要求を含む、請求項5に記載の方法。
- 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記電子デバイス上における前記メディアコンテンツの前記再生を一時停止せよとの要求を含む、請求項5に記載の方法。
- 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記メディアコンテンツの字幕をオンにするか、又はオフにせよとの要求を含む、請求項5に記載の方法。
- 前記方法は、第1のメディアアイテム及び第2のメディアアイテムを有するユーザインターフェースを前記表示ユニットに表示することをさらに含み、
前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記ユーザインターフェースのフォーカスを前記第1のメディアアイテムから前記第2のメディアアイテムへ切り換えよとの要求を含み、
前記アプリケーションの前記状態又は前記設定を、前記ユーザ意図を満足するように調整することが、前記ユーザインターフェースのフォーカスを前記第1のメディアアイテムから前記第2のメディアアイテムへ切り換えることを含む、
請求項1に記載の方法。 - 前記アプリケーションの前記状態又は前記設定を調整することが、
前記メディアコンテンツの再生を前記以前の部分から再スタートする前にクローズドキャプションをオンにすることを更に含む、請求項10に記載の方法。 - 前記アプリケーションの前記状態又は前記設定を調整することが、前記メディアコンテンツの再生を前記以前の部分から再スタートする前に、前記メディアコンテンツに関連付けられた前記音声の前記音量を上げることを更に含む、
請求項10または11に記載の方法。 - 前記メディアコンテンツに関連付けられた前記音声内の発語がテキストに変換され、
前記アプリケーションの前記状態又は前記設定を調整することが、前記メディアコンテンツの再生を前記以前の部分から再スタートする間に前記テキストの一部分を表示することを更に含む、
請求項11または12に記載の方法。 - 前記ユーザ意図が、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、前記ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を取得することと、
前記ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、
前記ユーザ意図を少なくとも部分的に満足する結果を取得することと、
前記表示ユニット上に、前記結果をテキスト形式で表示することと、
を更に含む、請求項1から13のいずれか一項に記載の方法。 - 前記複数の所定の要求種別が、特定のロケーションにおける現在の時間の要求を含む、請求項14に記載の方法。
- 前記複数の所定の要求種別が、ジョークを提示せよとの要求を含む、請求項14に記載の方法。
- 前記複数の所定の要求種別が、前記電子デバイス上で再生されているメディアコンテンツに関する情報の要求を含む、請求項14に記載の方法。
- テキスト形式の前記結果が、前記表示されたコンテンツ上に重ね合わせられる、請求項14から17のいずれか一項に記載の方法。
- 前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含み、前記メディアコンテンツは、テキスト形式の前記結果が表示されている間に再生し続ける、請求項14から18のいずれか一項に記載の方法。
- 前記ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、
前記ユーザ意図を少なくとも部分的に満足する第2の結果を取得することと、
前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含むかどうかを判定することと、
前記表示されたコンテンツがメディアコンテンツを含むとの判定に従って、
前記メディアコンテンツが一時停止されることができるかどうかを判定することと、
前記メディアコンテンツが一時停止されることができないとの判定に従って、前記表示ユニット上に、前記第2の結果の一部分を有する第2のユーザインターフェースを表示することであって、前記表示ユニット上における前記第2のユーザインターフェースによって占有される表示区域は、前記表示ユニット上における前記メディアコンテンツによって占有される表示区域よりも小さい、ことと、
を更に含む、請求項14から19のいずれか一項に記載の方法。 - 前記ユーザ意図が特定のロケーションの天気予報の要求を含む、請求項20に記載の方法。
- 前記ユーザ意図が、スポーツチーム又は運動選手に関連付けられた情報の要求を含む、請求項20に記載の方法。
- 前記ユーザ意図がメディア検索クエリでなく、前記第2の結果が、前記ユーザ意図を少なくとも部分的に満足するメディアコンテンツを有する1つ以上のメディアアイテムを含む、請求項20から22のいずれか一項に記載の方法。
- 前記第2の結果が、前記ユーザ意図を少なくとも部分的に満足する非メディアデータを更に含む、請求項23に記載の方法。
- 前記ユーザ意図がメディア検索クエリであり、前記第2の結果が、前記メディア検索クエリに対応する複数のメディアアイテムを含む、請求項20に記載の方法。
- 前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、前記表示ユニット上に、前記第2の結果の一部分を有する第3のユーザインターフェースを表示することであって、前記第3のユーザインターフェースは前記表示ユニットの前記表示区域の過半を占有する、ことを更に含む、請求項20から25のいずれか一項に記載の方法。
- メインメニューユーザインターフェースを前記表示ユニットに表示することをさらに含む、請求項26に記載の方法。
- 前記表示されたコンテンツが、前記ユーザ入力を検出する前に受信された以前のユーザ要求に関連する以前の結果を有する前記第3のユーザインターフェースを含み、
前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、前記第3のユーザインターフェース内における前記以前の結果の表示が前記第2の結果の前記表示と置換される、
請求項26に記載の方法。 - 前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含むとの前記判定に従って、
前記表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する前記第2のユーザインターフェースを含むかどうかを判定することであって、前記表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する前記第2のユーザインターフェースを含むとの判定に従って、前記以前の結果は前記第2の結果と置換される、ことを更に含む、請求項20から28のいずれか一項に記載の方法。 - 前記メディアコンテンツが一時停止されることができるとの判定に従って、
前記電子デバイス上における前記メディアコンテンツの前記再生を一時停止することと、
前記表示ユニット上に、前記第2の結果の一部分を有する第4のユーザインターフェースを表示することであって、前記第4のユーザインターフェースは前記表示ユニットの前記表示区域の過半を占有する、ことと、
を更に含む、請求項20から29のいずれか一項に記載の方法。 - 前記音声データを、自然言語処理を実行するためにサーバへ伝送することと、
前記サーバに、前記音声データがメディアアプリケーションに関連付けられていることを指示することであって、前記指示することは、前記自然言語処理をメディア関連のユーザ意図へ偏向させる、ことと、
を更に含む、請求項1から30のいずれか一項に記載の方法。 - 前記音声データを、発語テキスト化処理を実行するためにサーバへ送信することを更に含む、請求項1から31のいずれか一項に記載の方法。
- 前記サーバに、前記音声データがメディアアプリケーションに関連付けられていることを指示することであって、前記指示することは、前記発語テキスト化処理をメディア関連のテキスト結果へ偏向させる、ことを更に含む、請求項32に記載の方法。
- 前記ユーザ発言のテキスト表現を取得することであって、前記テキスト表現は、前記音声データをサンプリングする前に受信された以前のユーザ発言に基づく、ことを更に含む、請求項32または33に記載の方法。
- 前記テキスト表現が、前記音声データをサンプリングする前に前記以前のユーザ発言が受信された時間に基づく、請求項34に記載の方法。
- 前記ユーザ意図が、前記電子デバイスに関連付けられた複数の中核能力のうちの1つに対応しないとの判定を取得することと、
第2の電子デバイスに、前記ユーザ意図を満足することを助成するためのタスクを実行させることと、
を更に含む、請求項1から35のいずれか一項に記載の方法。 - 前記ユーザ意図の決定を取得することが、
前記ユーザ発言が曖昧な用語を含むかどうかの判定を取得することと、
前記ユーザ発言が曖昧な用語を含むとの判定を取得したことに応じて、
前記曖昧な用語に基づいて2つ以上のユーザ意図の候補を取得することと、
前記表示ユニット上に前記2つ以上のユーザ意図の候補を表示することと、
を更に含む、請求項1から36のいずれか一項に記載の方法。 - 前記2つ以上のユーザ意図の候補を表示している間に、前記2つ以上のユーザ意図の候補のうちの1つのユーザ選択を受信することを更に含み、前記ユーザ意図が、前記ユーザ選択に基づいて決定される、請求項37に記載の方法。
- 前記ユーザ選択を受信することが、
第2のユーザ入力を検出することと、
前記第2のユーザ入力を検出したことに応じて、第2の音声データをサンプリングすることであって、前記第2の音声データは、前記ユーザ選択を表現する第2のユーザ発言を含む、ことと、
を更に含む、請求項38に記載の方法。 - 前記2つ以上の解釈が、前記2つ以上のユーザ意図の候補に関連付けられた発語を出力することなく表示される、請求項37から39のいずれか一項に記載の方法。
- 前記メディアコンテンツは、映画、ビデオ、テレビ番組、ビデオゲームのうちの少なくともひとつを含む請求項1から40のいずれか一項に記載の方法。
- ひとつ以上のプロセッサと、
前記ひとつ以上のプロセッサにより実行されるよう構成されたひとつ以上のプログラムを保持するメモリと、を備え、
前記ひとつ以上のプログラムは請求項1から41のいずれか一項に記載の方法を行うための命令を含む電子デバイス。 - 請求項1から41のいずれか一項に記載の方法を行うための命令を備えるコンピュータプログラム。
- ひとつ以上のプロセッサと、
メモリと、
請求項1から41の方法のうちのいずれかを行う手段と、を備える電子デバイス。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562215676P | 2015-09-08 | 2015-09-08 | |
US62/215,676 | 2015-09-08 | ||
US14/963,094 US10331312B2 (en) | 2015-09-08 | 2015-12-08 | Intelligent automated assistant in a media environment |
US14/963,094 | 2015-12-08 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569709A Division JP2018502345A (ja) | 2015-09-08 | 2016-08-16 | メディア環境内におけるインテリジェント自動アシスタント |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017215971A JP2017215971A (ja) | 2017-12-07 |
JP6635982B2 true JP6635982B2 (ja) | 2020-01-29 |
Family
ID=58189472
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569709A Pending JP2018502345A (ja) | 2015-09-08 | 2016-08-16 | メディア環境内におけるインテリジェント自動アシスタント |
JP2017116994A Active JP6635982B2 (ja) | 2015-09-08 | 2017-06-14 | メディア環境内におけるインテリジェント自動アシスタント |
JP2018120017A Active JP6779257B2 (ja) | 2015-09-08 | 2018-06-25 | メディア環境内におけるインテリジェント自動アシスタント |
JP2020172654A Pending JP2021012728A (ja) | 2015-09-08 | 2020-10-13 | メディア環境内におけるインテリジェント自動アシスタント |
JP2023066584A Pending JP2023099020A (ja) | 2015-09-08 | 2023-04-14 | メディア環境内におけるインテリジェント自動アシスタント |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569709A Pending JP2018502345A (ja) | 2015-09-08 | 2016-08-16 | メディア環境内におけるインテリジェント自動アシスタント |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120017A Active JP6779257B2 (ja) | 2015-09-08 | 2018-06-25 | メディア環境内におけるインテリジェント自動アシスタント |
JP2020172654A Pending JP2021012728A (ja) | 2015-09-08 | 2020-10-13 | メディア環境内におけるインテリジェント自動アシスタント |
JP2023066584A Pending JP2023099020A (ja) | 2015-09-08 | 2023-04-14 | メディア環境内におけるインテリジェント自動アシスタント |
Country Status (8)
Country | Link |
---|---|
US (5) | US10331312B2 (ja) |
EP (2) | EP3167618A1 (ja) |
JP (5) | JP2018502345A (ja) |
KR (7) | KR20170100067A (ja) |
CN (4) | CN113687746A (ja) |
AU (6) | AU2016247040B2 (ja) |
DK (4) | DK178888B1 (ja) |
WO (1) | WO2017044257A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12033633B1 (en) * | 2019-03-26 | 2024-07-09 | Amazon Technologies, Inc. | Ambient device state content display |
Families Citing this family (295)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10630751B2 (en) * | 2016-12-30 | 2020-04-21 | Google Llc | Sequence dependent data message consolidation in a voice activated computer network environment |
US10956485B2 (en) | 2011-08-31 | 2021-03-23 | Google Llc | Retargeting in a search environment |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3937002A1 (en) | 2013-06-09 | 2022-01-12 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
US9703757B2 (en) | 2013-09-30 | 2017-07-11 | Google Inc. | Automatically determining a size for a content item for a web page |
US10431209B2 (en) | 2016-12-30 | 2019-10-01 | Google Llc | Feedback controller for data transmissions |
US10614153B2 (en) | 2013-09-30 | 2020-04-07 | Google Llc | Resource size-based content item selection |
US20180210911A1 (en) * | 2017-01-23 | 2018-07-26 | Oliver Wendel Gamble | Method and System for Interactive Notation, Text Data Storage and Management on a Mobile Device. |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10339917B2 (en) | 2015-09-03 | 2019-07-02 | Google Llc | Enhanced speech endpointing |
US20170069309A1 (en) * | 2015-09-03 | 2017-03-09 | Google Inc. | Enhanced speech endpointing |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
EP3410309A1 (en) * | 2016-01-25 | 2018-12-05 | Sony Corporation | Communication system and communication control method |
US11176930B1 (en) | 2016-03-28 | 2021-11-16 | Amazon Technologies, Inc. | Storing audio commands for time-delayed execution |
US10332516B2 (en) | 2016-05-10 | 2019-06-25 | Google Llc | Media transfer among media output devices |
US20170329397A1 (en) * | 2016-05-12 | 2017-11-16 | Rovi Guides, Inc. | Systems and methods for navigating a media guidance application using gaze control |
KR102177786B1 (ko) | 2016-05-13 | 2020-11-12 | 구글 엘엘씨 | 미디어 출력 디바이스들 사이의 미디어 전달 |
US10783178B2 (en) | 2016-05-17 | 2020-09-22 | Google Llc | Generating a personal database entry for a user based on natural language user interface input of the user and generating output based on the entry in response to further natural language user interface input of the user |
US10832665B2 (en) * | 2016-05-27 | 2020-11-10 | Centurylink Intellectual Property Llc | Internet of things (IoT) human interface apparatus, system, and method |
US10915234B2 (en) * | 2016-06-01 | 2021-02-09 | Motorola Mobility Llc | Responsive, visual presentation of informational briefs on user requested topics |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
US10257314B2 (en) * | 2016-06-22 | 2019-04-09 | Microsoft Technology Licensing, Llc | End-to-end user experiences with a digital assistant |
US10271093B1 (en) | 2016-06-27 | 2019-04-23 | Amazon Technologies, Inc. | Systems and methods for routing content to an associated output device |
US10931999B1 (en) * | 2016-06-27 | 2021-02-23 | Amazon Technologies, Inc. | Systems and methods for routing content to an associated output device |
US11093834B2 (en) * | 2016-07-06 | 2021-08-17 | Palo Alto Research Center Incorporated | Computer-implemented system and method for predicting activity outcome based on user attention |
US20180012230A1 (en) * | 2016-07-11 | 2018-01-11 | International Business Machines Corporation | Emotion detection over social media |
US20180039478A1 (en) * | 2016-08-02 | 2018-02-08 | Google Inc. | Voice interaction services |
US9922649B1 (en) * | 2016-08-24 | 2018-03-20 | Jpmorgan Chase Bank, N.A. | System and method for customer interaction management |
US10481861B2 (en) | 2016-08-30 | 2019-11-19 | Google Llc | Using user input to adapt search results provided for presentation to the user |
USD861030S1 (en) * | 2016-08-30 | 2019-09-24 | Canon Kabushiki Kaisha | Display screen with animated graphical user interface |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
USD860244S1 (en) * | 2016-09-08 | 2019-09-17 | Canon Kabushiki Kaisha | Display screen with animated graphical user interface |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
AU2017101431B4 (en) * | 2016-10-26 | 2018-05-17 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10313531B2 (en) * | 2016-12-13 | 2019-06-04 | Bullhead Innovations Ltd. | Voice controlled room system |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10229680B1 (en) * | 2016-12-29 | 2019-03-12 | Amazon Technologies, Inc. | Contextual entity resolution |
US11204787B2 (en) * | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
EP3358462A1 (en) * | 2017-02-06 | 2018-08-08 | Tata Consultancy Services Limited | Context based adaptive virtual reality (vr) assistant in vr environments |
US10389884B2 (en) * | 2017-02-10 | 2019-08-20 | David Clark Company Incorporated | Browser based digital intercom system |
US10467509B2 (en) | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Computationally-efficient human-identifying smart assistant computer |
US11100384B2 (en) | 2017-02-14 | 2021-08-24 | Microsoft Technology Licensing, Llc | Intelligent device user interactions |
US11010601B2 (en) | 2017-02-14 | 2021-05-18 | Microsoft Technology Licensing, Llc | Intelligent assistant device communicating non-verbal cues |
US10609453B2 (en) | 2017-02-21 | 2020-03-31 | The Directv Group, Inc. | Customized recommendations of multimedia content streams |
USD814486S1 (en) * | 2017-03-02 | 2018-04-03 | Hulu, LLC | Display screen or portion thereof with animated graphical user interface |
USD814485S1 (en) * | 2017-03-02 | 2018-04-03 | Hulu, LLC | Display screen or portion thereof with animated graphical user interface |
KR102304701B1 (ko) * | 2017-03-28 | 2021-09-24 | 삼성전자주식회사 | 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치 |
JP2018167339A (ja) * | 2017-03-29 | 2018-11-01 | 富士通株式会社 | 発話制御プログラム、情報処理装置及び発話制御方法 |
JP7026449B2 (ja) | 2017-04-21 | 2022-02-28 | ソニーグループ株式会社 | 情報処理装置、受信装置、及び情報処理方法 |
US11150922B2 (en) | 2017-04-25 | 2021-10-19 | Google Llc | Initializing a conversation with an automated agent via selectable graphical element |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
CN114882877B (zh) * | 2017-05-12 | 2024-01-30 | 苹果公司 | 低延迟智能自动化助理 |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK201770432A1 (en) * | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10009666B1 (en) | 2017-05-16 | 2018-06-26 | Google Llc | Cross-device handoffs |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
KR101968725B1 (ko) * | 2017-05-19 | 2019-04-12 | 네이버 주식회사 | 음성요청에 대응하는 정보 제공을 위한 미디어 선택 |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10607606B2 (en) * | 2017-06-19 | 2020-03-31 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for execution of digital assistant |
EP3642703A4 (en) * | 2017-06-21 | 2020-11-25 | Microsoft Technology Licensing, LLC | RECOMMENDATION OF MULTIMEDIA CONTENT VIA CONVERSATIONAL ROBOTS |
US11601715B2 (en) * | 2017-07-06 | 2023-03-07 | DISH Technologies L.L.C. | System and method for dynamically adjusting content playback based on viewer emotions |
US10847148B2 (en) | 2017-07-14 | 2020-11-24 | International Business Machines Corporation | Dynamic personalized multi-turn interaction of cognitive models |
RU2663706C1 (ru) * | 2017-07-20 | 2018-08-08 | Общество С Ограниченной Ответственностью "Центр Разработки И Внедрения Инновационных Технологий" | Самонастраивающаяся интерактивная система, способ и считываемый компьютером носитель данных оценки доверия контенту |
WO2019024100A1 (zh) * | 2017-08-04 | 2019-02-07 | 深圳市智晟达科技有限公司 | 一种数字电视频道锁定方法及系统 |
US10762161B2 (en) * | 2017-08-08 | 2020-09-01 | Accenture Global Solutions Limited | Intelligent humanoid interactive content recommender |
CN107396160B (zh) * | 2017-08-24 | 2018-03-30 | 傅皓衍 | 多功能机顶盒控制平台 |
CN107507615A (zh) * | 2017-08-29 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | 界面智能交互控制方法、装置、系统及存储介质 |
KR20190024190A (ko) * | 2017-08-31 | 2019-03-08 | (주)휴맥스 | 음성 인식 영상 피드백 제공 시스템 및 방법 |
KR102371752B1 (ko) * | 2017-08-31 | 2022-03-07 | 삼성전자주식회사 | 가전 기기 및 그의 제어방법 |
US11777875B2 (en) * | 2017-09-15 | 2023-10-03 | Microsoft Technology Licensing, Llc | Capturing and leveraging signals reflecting BOT-to-BOT delegation |
JP7299299B2 (ja) * | 2017-09-18 | 2023-06-27 | アリス エンタープライジズ エルエルシー | リモートコントロール入力デバイスおよびセットトップボックスを介したテレビ上のマルチメディアバレットスクリーン |
WO2019059598A1 (en) | 2017-09-20 | 2019-03-28 | Samsung Electronics Co., Ltd. | METHOD AND APPARATUS FOR MANAGING SERVICE REQUEST IN BLOCK CHAIN NETWORK |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10048973B1 (en) * | 2017-09-22 | 2018-08-14 | Harman International Industries, Incorporated | Sequential activity intelligent personal assistant |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US11574287B2 (en) | 2017-10-10 | 2023-02-07 | Text IQ, Inc. | Automatic document classification |
US10546584B2 (en) * | 2017-10-29 | 2020-01-28 | International Business Machines Corporation | Creating modular conversations using implicit routing |
US10171877B1 (en) * | 2017-10-30 | 2019-01-01 | Dish Network L.L.C. | System and method for dynamically selecting supplemental content based on viewer emotions |
US11113608B2 (en) | 2017-10-30 | 2021-09-07 | Accenture Global Solutions Limited | Hybrid bot framework for enterprises |
US11360736B1 (en) * | 2017-11-03 | 2022-06-14 | Amazon Technologies, Inc. | System command processing |
CN107895578B (zh) * | 2017-11-15 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 语音交互方法和装置 |
CN107945815B (zh) * | 2017-11-27 | 2021-09-07 | 歌尔科技有限公司 | 语音信号降噪方法及设备 |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US11356474B2 (en) * | 2017-12-08 | 2022-06-07 | Google Llc | Restrict transmission of manipulated content in a networked environment |
US11182122B2 (en) * | 2017-12-08 | 2021-11-23 | Amazon Technologies, Inc. | Voice control of computing devices |
US10558426B2 (en) * | 2017-12-08 | 2020-02-11 | Google Llc | Graphical user interface rendering management by voice-driven computing infrastructure |
US10540971B2 (en) * | 2017-12-15 | 2020-01-21 | Blue Jeans Network, Inc. | System and methods for in-meeting group assistance using a virtual assistant |
CN108039173B (zh) * | 2017-12-20 | 2021-02-26 | 深圳安泰创新科技股份有限公司 | 语音信息输入方法、移动终端、系统以及可读存储介质 |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
CN110431513B (zh) * | 2018-01-25 | 2020-11-27 | 腾讯科技(深圳)有限公司 | 媒体内容发送方法、装置及存储介质 |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US11886823B2 (en) * | 2018-02-01 | 2024-01-30 | International Business Machines Corporation | Dynamically constructing and configuring a conversational agent learning model |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US11676062B2 (en) * | 2018-03-06 | 2023-06-13 | Samsung Electronics Co., Ltd. | Dynamically evolving hybrid personalized artificial intelligence system |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
CN108320749A (zh) * | 2018-03-14 | 2018-07-24 | 百度在线网络技术(北京)有限公司 | 远场语音控制设备和远场语音控制系统 |
JP6988606B2 (ja) * | 2018-03-16 | 2022-01-05 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
JP6988607B2 (ja) * | 2018-03-16 | 2022-01-05 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
JP6988608B2 (ja) * | 2018-03-16 | 2022-01-05 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11405698B2 (en) | 2018-03-26 | 2022-08-02 | Saturn Licensing Llc | Information processing apparatus, information processing method, and program for presenting reproduced video including service object and adding additional image indicating the service object |
US11438650B2 (en) | 2018-03-29 | 2022-09-06 | Saturn Licensing Llc | Information processing apparatus, information processing method, transmission apparatus, and transmission method |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
CN108600911B (zh) | 2018-03-30 | 2021-05-18 | 联想(北京)有限公司 | 一种输出方法及电子设备 |
US10621983B2 (en) * | 2018-04-20 | 2020-04-14 | Spotify Ab | Systems and methods for enhancing responsiveness to utterances having detectable emotion |
US11145294B2 (en) * | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10997963B1 (en) * | 2018-05-17 | 2021-05-04 | Amazon Technologies, Inc. | Voice based interaction based on context-based directives |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
CN110741652A (zh) * | 2018-05-21 | 2020-01-31 | 青岛海信电器股份有限公司 | 具有智能用户界面的显示设备 |
KR20190133100A (ko) * | 2018-05-22 | 2019-12-02 | 삼성전자주식회사 | 어플리케이션을 이용하여 음성 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법 |
US11704533B2 (en) * | 2018-05-23 | 2023-07-18 | Ford Global Technologies, Llc | Always listening and active voice assistant and vehicle operation |
US10198877B1 (en) | 2018-05-23 | 2019-02-05 | Google Llc | Providing a communications channel between instances of automated assistants |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11609739B2 (en) * | 2018-06-01 | 2023-03-21 | Apple Inc. | Providing audio information with a digital assistant |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
KR20190142192A (ko) * | 2018-06-15 | 2019-12-26 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
EP3766233B1 (en) | 2018-06-25 | 2023-11-08 | Samsung Electronics Co., Ltd. | Methods and systems for enabling a digital assistant to generate an ambient aware response |
KR102582332B1 (ko) * | 2018-06-27 | 2023-09-25 | 삼성전자주식회사 | 전자 장치, 이의 모바일 장치 제어 방법 및 컴퓨터 판독가능 기록 매체 |
US11132681B2 (en) | 2018-07-06 | 2021-09-28 | At&T Intellectual Property I, L.P. | Services for entity trust conveyances |
CN108920128B (zh) * | 2018-07-12 | 2021-10-08 | 思必驰科技股份有限公司 | 演示文稿的操作方法及系统 |
CN109325097B (zh) * | 2018-07-13 | 2022-05-27 | 海信集团有限公司 | 一种语音引导方法及装置、电子设备、存储介质 |
US11532007B2 (en) | 2018-08-16 | 2022-12-20 | Frank S. Maggio | Systems and methods for implementing user-responsive reactive advertising via voice interactive input/output devices |
US10971144B2 (en) * | 2018-09-06 | 2021-04-06 | Amazon Technologies, Inc. | Communicating context to a device using an imperceptible audio identifier |
CN109348353B (zh) * | 2018-09-07 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 智能音箱的服务处理方法、装置和智能音箱 |
US10802872B2 (en) * | 2018-09-12 | 2020-10-13 | At&T Intellectual Property I, L.P. | Task delegation and cooperation for automated assistants |
WO2020061054A1 (en) * | 2018-09-17 | 2020-03-26 | Vet24seven Inc. | Veterinary professional animal tracking and support system |
CN110942518B (zh) * | 2018-09-24 | 2024-03-29 | 苹果公司 | 上下文计算机生成现实(cgr)数字助理 |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
DE102018216621B3 (de) * | 2018-09-27 | 2020-03-05 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Bereitstellen eines interaktiven Feedbacks für Fahrzeuginsassen, eine Steuereinheit, eine Sprachausgabeeinrichtung und ein Fahrzeug |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11481186B2 (en) | 2018-10-25 | 2022-10-25 | At&T Intellectual Property I, L.P. | Automated assistant context and protocol |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US12057114B2 (en) * | 2018-11-02 | 2024-08-06 | Spotify Ab | Media content steering |
US10958698B2 (en) * | 2018-11-16 | 2021-03-23 | Spotify Ab | Responding to ambiguous play requests |
US20200320449A1 (en) * | 2019-04-04 | 2020-10-08 | Rylti, LLC | Methods and Systems for Certification, Analysis, and Valuation of Music Catalogs |
US10839167B2 (en) * | 2018-12-04 | 2020-11-17 | Verizon Patent And Licensing Inc. | Systems and methods for dynamically expanding natural language processing agent capacity |
US10861446B2 (en) * | 2018-12-10 | 2020-12-08 | Amazon Technologies, Inc. | Generating input alternatives |
CN109600625B (zh) * | 2018-12-20 | 2021-06-01 | 深圳创维-Rgb电子有限公司 | 一种节目搜索方法、装置、设备及介质 |
US11100693B2 (en) * | 2018-12-26 | 2021-08-24 | Wipro Limited | Method and system for controlling an object avatar |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
WO2020142681A1 (en) * | 2019-01-04 | 2020-07-09 | Apple Inc. | Content playback on multiple devices |
CN118351843A (zh) * | 2019-03-01 | 2024-07-16 | 谷歌有限责任公司 | 动态地适配助理响应 |
CN109947993B (zh) * | 2019-03-14 | 2022-10-21 | 阿波罗智联(北京)科技有限公司 | 基于语音识别的情节跳转方法、装置及计算机设备 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11003419B2 (en) | 2019-03-19 | 2021-05-11 | Spotify Ab | Refinement of voice query interpretation |
US11544475B2 (en) | 2019-03-22 | 2023-01-03 | Predictika Inc. | System and method for providing a model-based intelligent conversational agent |
CN111724775B (zh) * | 2019-03-22 | 2023-07-28 | 华为技术有限公司 | 一种语音交互方法及电子设备 |
US11960847B2 (en) * | 2019-04-04 | 2024-04-16 | Verint Americas Inc. | Systems and methods for generating responses for an intelligent virtual |
US10930284B2 (en) | 2019-04-11 | 2021-02-23 | Advanced New Technologies Co., Ltd. | Information processing system, method, device and equipment |
US20220199104A1 (en) * | 2019-04-18 | 2022-06-23 | Nippon Telegraph And Telephone Corporation | Speech imaging apparatus, speech imaging method and program |
CN111862988B (zh) | 2019-04-26 | 2023-03-03 | 广东美的白色家电技术创新中心有限公司 | 语音识别设备及其唤醒响应方法、计算机存储介质 |
US20210337274A1 (en) * | 2019-05-02 | 2021-10-28 | Lg Electronics Inc. | Artificial intelligence apparatus and method for providing visual information |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
CN113795821B (zh) * | 2019-05-06 | 2024-07-16 | 谷歌有限责任公司 | 用于响应于来自用户的请求而使用来自其它源的应用数据生成应用输入内容的自动化助理 |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
CN110442391A (zh) * | 2019-06-28 | 2019-11-12 | 华为技术有限公司 | 一种调用服务的方法及装置 |
US11894129B1 (en) | 2019-07-03 | 2024-02-06 | State Farm Mutual Automobile Insurance Company | Senior living care coordination platforms |
WO2021021529A1 (en) * | 2019-07-31 | 2021-02-04 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
US11410656B2 (en) | 2019-07-31 | 2022-08-09 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
US11494434B2 (en) | 2019-07-31 | 2022-11-08 | Rovi Guides, Inc. | Systems and methods for managing voice queries using pronunciation information |
US11438452B1 (en) | 2019-08-09 | 2022-09-06 | Apple Inc. | Propagating context information in a privacy preserving manner |
CN110619873A (zh) | 2019-08-16 | 2019-12-27 | 北京小米移动软件有限公司 | 音频处理方法、装置及存储介质 |
US11367527B1 (en) | 2019-08-19 | 2022-06-21 | State Farm Mutual Automobile Insurance Company | Senior living engagement and care support platforms |
CN110516083B (zh) * | 2019-08-30 | 2022-07-12 | 京东方科技集团股份有限公司 | 相册管理方法、存储介质及电子设备 |
WO2021045243A1 (ko) * | 2019-09-03 | 2021-03-11 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어 방법 |
US11061638B2 (en) | 2019-09-17 | 2021-07-13 | The Toronto-Dominion Bank | Dynamically determining an interface for presenting information to a user |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
EP4350535A3 (en) * | 2019-09-27 | 2024-04-24 | Snap Inc. | Content item module arrangements |
US11861674B1 (en) | 2019-10-18 | 2024-01-02 | Meta Platforms Technologies, Llc | Method, one or more computer-readable non-transitory storage media, and a system for generating comprehensive information for products of interest by assistant systems |
US11567788B1 (en) | 2019-10-18 | 2023-01-31 | Meta Platforms, Inc. | Generating proactive reminders for assistant systems |
US11410649B2 (en) * | 2019-10-31 | 2022-08-09 | International Business Machines Corporation | Voice commands to facilitate in-game communication |
US11748415B2 (en) * | 2019-11-18 | 2023-09-05 | Lenovo (Singapore) Pte. Ltd. | Digital assistant output attribute modification |
US11412271B2 (en) | 2019-11-25 | 2022-08-09 | International Business Machines Corporation | AI response to viewers of live stream video |
US11604830B2 (en) | 2020-01-07 | 2023-03-14 | Rovi Guides, Inc. | Systems and methods for performing a search based on selection of on-screen entities and real-world entities |
US11367444B2 (en) * | 2020-01-07 | 2022-06-21 | Rovi Guides, Inc. | Systems and methods for using conjunctions in a voice input to cause a search application to wait for additional inputs |
US11290834B2 (en) | 2020-03-04 | 2022-03-29 | Apple Inc. | Determining head pose based on room reverberation |
CN111341315B (zh) * | 2020-03-06 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 语音控制方法、装置、计算机设备和存储介质 |
CN113365124B (zh) * | 2020-03-06 | 2023-01-20 | 海信视像科技股份有限公司 | 一种显示设备及显示方法 |
JP7430091B2 (ja) * | 2020-03-25 | 2024-02-09 | 株式会社日立製作所 | データ処理支援システム、データ処理支援方法及びデータ処理支援プログラム |
JP7484299B2 (ja) * | 2020-03-26 | 2024-05-16 | セイコーエプソン株式会社 | 画像表示システム、および画像表示システムの制御方法 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11810578B2 (en) | 2020-05-11 | 2023-11-07 | Apple Inc. | Device arbitration for digital assistant-based intercom systems |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
CN113759430B (zh) * | 2020-05-29 | 2023-05-26 | 同方威视技术股份有限公司 | 一种非车载式货物/车辆检查系统及其通信方法 |
CN111797212A (zh) * | 2020-06-10 | 2020-10-20 | 宁波真了么知识产权服务有限公司 | 一种法律服务系统 |
US11451598B1 (en) * | 2020-07-06 | 2022-09-20 | Meta Platforms, Inc. | Systems and methods for digital media storage |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11847724B2 (en) * | 2020-07-21 | 2023-12-19 | Verint Americas Inc. | Near real-time visualizations for intelligent virtual assistant responses |
CN112004157B (zh) * | 2020-08-11 | 2022-06-21 | 海信电子科技(武汉)有限公司 | 一种多轮语音交互方法及显示设备 |
US11783827B2 (en) * | 2020-11-06 | 2023-10-10 | Apple Inc. | Determining suggested subsequent user actions during digital assistant interaction |
US11984124B2 (en) | 2020-11-13 | 2024-05-14 | Apple Inc. | Speculative task flow execution |
KR102408303B1 (ko) * | 2020-11-17 | 2022-06-10 | 주식회사 카카오 | 컨텐츠 정보 제공 방법 및 컨텐츠 정보를 제공하는 사용자 단말 |
US20220232353A1 (en) * | 2021-01-19 | 2022-07-21 | Gluroo Imaginations, Inc. | Messaging-based logging and alerting system |
US11688516B2 (en) | 2021-01-19 | 2023-06-27 | State Farm Mutual Automobile Insurance Company | Alert systems for senior living engagement and care support platforms |
KR102581000B1 (ko) * | 2021-01-29 | 2023-09-21 | 네이버 주식회사 | 어시스턴트 서비스 제공 방법 및 시스템 |
US11762871B2 (en) | 2021-01-29 | 2023-09-19 | Walmart Apollo, Llc | Methods and apparatus for refining a search |
CN112883212A (zh) * | 2021-02-25 | 2021-06-01 | 北京有竹居网络技术有限公司 | 多媒体内容展示的控制方法、装置、电子设备和介质 |
US20220301549A1 (en) * | 2021-03-17 | 2022-09-22 | Samsung Electronics Co., Ltd. | Electronic device and method for providing voice recognition service |
US12086383B2 (en) * | 2021-05-15 | 2024-09-10 | Apple Inc. | Contextual action predictions |
US20230059979A1 (en) * | 2021-08-20 | 2023-02-23 | Accenture Global Solutions Limited | Artificial Intelligence Based Smart Device for Contact Centers Solutions |
US11475058B1 (en) * | 2021-10-19 | 2022-10-18 | Rovi Guides, Inc. | Systems and methods for generating a dynamic timeline of related media content based on tagged content |
US12101522B2 (en) | 2021-10-19 | 2024-09-24 | Rovi Guides, Inc. | Systems and methods for generating a dynamic timeline of related media content based on tagged content |
EP4449409A1 (en) * | 2021-12-16 | 2024-10-23 | InterDigital CE Patent Holdings, SAS | Method and apparatus for fixing a voice query |
KR102700206B1 (ko) * | 2022-01-19 | 2024-08-30 | 엘지전자 주식회사 | 디스플레이 장치 |
US11995457B2 (en) | 2022-06-03 | 2024-05-28 | Apple Inc. | Digital assistant integration with system interface |
US20230402033A1 (en) * | 2022-06-08 | 2023-12-14 | Comcast Cable Communications, Llc | Device Language Configuration Based on Audio Data |
CN114822005B (zh) * | 2022-06-28 | 2022-09-20 | 深圳市矽昊智能科技有限公司 | 基于人工智能的遥控意图预测方法、装置、设备及介质 |
CN118535750A (zh) * | 2024-07-24 | 2024-08-23 | 浙江鸟潮供应链管理有限公司 | 一种多媒体数据的处理方法、存储介质和电子设备 |
Family Cites Families (2828)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8073695B1 (en) | 1992-12-09 | 2011-12-06 | Adrea, LLC | Electronic book with voice emulation features |
US6122482A (en) | 1995-02-22 | 2000-09-19 | Global Communications, Inc. | Satellite broadcast receiving and distribution system |
US5901287A (en) | 1996-04-01 | 1999-05-04 | The Sabre Group Inc. | Information aggregation and synthesization system |
JPH09325796A (ja) | 1996-06-06 | 1997-12-16 | Oki Electric Ind Co Ltd | 文書朗読装置 |
US6622148B1 (en) * | 1996-10-23 | 2003-09-16 | Viacom International Inc. | Interactive video title selection system and method |
IL119948A (en) | 1996-12-31 | 2004-09-27 | News Datacom Ltd | Voice activated communication system and program guide |
US6078886A (en) | 1997-04-14 | 2000-06-20 | At&T Corporation | System and method for providing remote automatic speech recognition services via a packet network |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
IL140805A0 (en) | 1998-10-02 | 2002-02-10 | Ibm | Structure skeletons for efficient voice navigation through generic hierarchical objects |
US6163794A (en) | 1998-10-23 | 2000-12-19 | General Magic | Network system extensible by users |
US6504990B1 (en) * | 1998-11-12 | 2003-01-07 | Max Abecassis | Randomly and continuously playing fragments of a video segment |
US7447637B1 (en) | 1998-12-23 | 2008-11-04 | Eastern Investments, Llc | System and method of processing speech within a graphic user interface |
US8938688B2 (en) | 1998-12-04 | 2015-01-20 | Nuance Communications, Inc. | Contextual prediction of user words and user actions |
US7881936B2 (en) | 1998-12-04 | 2011-02-01 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US6842877B2 (en) | 1998-12-18 | 2005-01-11 | Tangis Corporation | Contextual responses based on automated learning techniques |
WO2000074240A1 (en) | 1999-05-27 | 2000-12-07 | America Online | Keyboard system with automatic correction |
JP2003505778A (ja) | 1999-05-28 | 2003-02-12 | セーダ インコーポレイテッド | 音声制御ユーザインタフェース用の認識文法作成の特定用途を有する句ベースの対話モデル化 |
US20140098247A1 (en) | 1999-06-04 | 2014-04-10 | Ip Holdings, Inc. | Home Automation And Smart Home Control Using Mobile Devices And Wireless Enabled Electrical Switches |
US8065155B1 (en) | 1999-06-10 | 2011-11-22 | Gazdzinski Robert F | Adaptive advertising apparatus and methods |
AUPQ138199A0 (en) | 1999-07-02 | 1999-07-29 | Telstra R & D Management Pty Ltd | A search system |
US7925610B2 (en) | 1999-09-22 | 2011-04-12 | Google Inc. | Determining a meaning of a knowledge item using document-based information |
US8392188B1 (en) | 1999-11-05 | 2013-03-05 | At&T Intellectual Property Ii, L.P. | Method and system for building a phonotactic model for domain independent speech recognition |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US9076448B2 (en) | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US7130807B1 (en) | 1999-11-22 | 2006-10-31 | Accenture Llp | Technology sharing during demand and supply planning in a network-based supply chain environment |
US8271336B2 (en) | 1999-11-22 | 2012-09-18 | Accenture Global Services Gmbh | Increased visibility during order management in a network-based supply chain environment |
US8032409B1 (en) | 1999-11-22 | 2011-10-04 | Accenture Global Services Limited | Enhanced visibility during installation management in a network-based supply chain environment |
US7337389B1 (en) | 1999-12-07 | 2008-02-26 | Microsoft Corporation | System and method for annotating an electronic document independently of its content |
US6976215B1 (en) * | 1999-12-20 | 2005-12-13 | Vulcan Patents Llc | Pushbutton user interface with functionality preview |
US8271287B1 (en) | 2000-01-14 | 2012-09-18 | Alcatel Lucent | Voice command remote control system |
US6757362B1 (en) | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
US8024415B2 (en) | 2001-03-16 | 2011-09-20 | Microsoft Corporation | Priorities generation and management |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7917366B1 (en) | 2000-03-24 | 2011-03-29 | Exaudios Technologies | System and method for determining a personal SHG profile by voice analysis |
US6765557B1 (en) * | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
US6915262B2 (en) | 2000-11-30 | 2005-07-05 | Telesector Resources Group, Inc. | Methods and apparatus for performing speech recognition and using speech recognition results |
JP3919210B2 (ja) * | 2001-02-15 | 2007-05-23 | アルパイン株式会社 | 音声入力案内方法及び装置 |
US7277853B1 (en) | 2001-03-02 | 2007-10-02 | Mindspeed Technologies, Inc. | System and method for a endpoint detection of speech for improved speech recognition in noisy environments |
WO2002073452A1 (en) | 2001-03-14 | 2002-09-19 | At & T Corp. | Method for automated sentence planning |
US7209880B1 (en) | 2001-03-20 | 2007-04-24 | At&T Corp. | Systems and methods for dynamic re-configurable speech recognition |
CA2446085C (en) | 2001-04-30 | 2010-04-27 | Octave Communications, Inc. | Audio conference platform with dynamic speech detection threshold |
US6975304B1 (en) | 2001-06-11 | 2005-12-13 | Handspring, Inc. | Interface for processing of an alternate symbol in a computer device |
US8831949B1 (en) | 2001-06-28 | 2014-09-09 | At&T Intellectual Property I, L.P. | Voice recognition for performing authentication and completing transactions in a systems interface to legacy systems |
US20050134578A1 (en) | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US7987151B2 (en) | 2001-08-10 | 2011-07-26 | General Dynamics Advanced Info Systems, Inc. | Apparatus and method for problem solving using intelligent agents |
US11004114B2 (en) | 2001-08-21 | 2021-05-11 | Bookit Oy | Components, system, platform and methodologies for mediating and provisioning services and product delivery and orchestrating, mediating and authenticating transactions and interactions |
US7920682B2 (en) | 2001-08-21 | 2011-04-05 | Byrne William J | Dynamic interactive voice interface |
US7403938B2 (en) | 2001-09-24 | 2008-07-22 | Iac Search & Media, Inc. | Natural language query processing |
US6985865B1 (en) | 2001-09-26 | 2006-01-10 | Sprint Spectrum L.P. | Method and system for enhanced response to voice commands in a voice command platform |
US7324947B2 (en) * | 2001-10-03 | 2008-01-29 | Promptu Systems Corporation | Global speech user interface |
ITFI20010199A1 (it) | 2001-10-22 | 2003-04-22 | Riccardo Vieri | Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico |
US7913185B1 (en) | 2001-10-25 | 2011-03-22 | Adobe Systems Incorporated | Graphical insertion of JavaScript pop-up menus |
US20030101054A1 (en) | 2001-11-27 | 2003-05-29 | Ncc, Llc | Integrated system and method for electronic speech recognition and transcription |
US7260538B2 (en) | 2002-01-08 | 2007-08-21 | Promptu Systems Corporation | Method and apparatus for voice control of a television control device |
US9374451B2 (en) | 2002-02-04 | 2016-06-21 | Nokia Technologies Oy | System and method for multimodal short-cuts to digital services |
US8374879B2 (en) | 2002-02-04 | 2013-02-12 | Microsoft Corporation | Systems and methods for managing interactions from multiple speech-enabled applications |
US7221287B2 (en) | 2002-03-05 | 2007-05-22 | Triangle Software Llc | Three-dimensional traffic report |
US7707221B1 (en) | 2002-04-03 | 2010-04-27 | Yahoo! Inc. | Associating and linking compact disc metadata |
US7869998B1 (en) | 2002-04-23 | 2011-01-11 | At&T Intellectual Property Ii, L.P. | Voice-enabled dialog system |
US8135115B1 (en) | 2006-11-22 | 2012-03-13 | Securus Technologies, Inc. | System and method for multi-channel recording |
US7221937B2 (en) | 2002-05-06 | 2007-05-22 | Research In Motion Limited | Event reminder method |
US8611919B2 (en) | 2002-05-23 | 2013-12-17 | Wounder Gmbh., Llc | System, method, and computer program product for providing location based services and mobile e-commerce |
JP4109902B2 (ja) * | 2002-05-27 | 2008-07-02 | キヤノン株式会社 | 表示装置 |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7001979B2 (en) * | 2002-06-14 | 2006-02-21 | H.B. Fuller Licensing & Financing Inc. | Polyamide and composition and article including same |
US8219608B2 (en) | 2002-06-20 | 2012-07-10 | Koninklijke Philips Electronics N.V. | Scalable architecture for web services |
US7079713B2 (en) | 2002-06-28 | 2006-07-18 | Microsoft Corporation | Method and system for displaying and linking ink objects with recognized text and objects |
AU2003280474A1 (en) | 2002-06-28 | 2004-01-19 | Conceptual Speech, Llc | Multi-phoneme streamer and knowledge representation speech recognition system and method |
US7665024B1 (en) * | 2002-07-22 | 2010-02-16 | Verizon Services Corp. | Methods and apparatus for controlling a user interface based on the emotional state of a user |
US6876727B2 (en) | 2002-07-24 | 2005-04-05 | Sbc Properties, Lp | Voice over IP method for developing interactive voice response system |
US7027842B2 (en) | 2002-09-24 | 2006-04-11 | Bellsouth Intellectual Property Corporation | Apparatus and method for providing hands-free operation of a device |
US9342829B2 (en) | 2002-10-01 | 2016-05-17 | Andrew H B Zhou | Systems and methods for mobile application, wearable application, transactional messaging, calling, digital multimedia capture and payment transactions |
US8972266B2 (en) | 2002-11-12 | 2015-03-03 | David Bezar | User intent analysis extent of speaker intent analysis system |
US7822611B2 (en) | 2002-11-12 | 2010-10-26 | Bezar David B | Speaker intent analysis system |
US8005919B2 (en) | 2002-11-18 | 2011-08-23 | Aol Inc. | Host-based intelligent results related to a character stream |
US8661112B2 (en) | 2002-12-20 | 2014-02-25 | Nuance Communications, Inc. | Customized interactive voice response menus |
GB0230125D0 (en) * | 2002-12-24 | 2003-01-29 | Lg Philips Displays Netherland | Oxide cathode |
US8064753B2 (en) | 2003-03-05 | 2011-11-22 | Freeman Alan D | Multi-feature media article and method for manufacture of same |
US8244712B2 (en) | 2003-03-18 | 2012-08-14 | Apple Inc. | Localized viewing of file system names |
US7623892B2 (en) | 2003-04-02 | 2009-11-24 | Palm, Inc. | System and method for enabling a person to switch use of computing devices |
US7941009B2 (en) | 2003-04-08 | 2011-05-10 | The Penn State Research Foundation | Real-time computerized annotation of pictures |
US8224757B2 (en) | 2003-04-15 | 2012-07-17 | Sap Ag | Curriculum management system |
US7669134B1 (en) | 2003-05-02 | 2010-02-23 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US7407384B2 (en) | 2003-05-29 | 2008-08-05 | Robert Bosch Gmbh | System, method and device for language education through a voice portal server |
US7496230B2 (en) | 2003-06-05 | 2009-02-24 | International Business Machines Corporation | System and method for automatic natural language translation of embedded text regions in images during information transfer |
US8311835B2 (en) | 2003-08-29 | 2012-11-13 | Microsoft Corporation | Assisted multi-modal dialogue |
US7539619B1 (en) | 2003-09-05 | 2009-05-26 | Spoken Translation Ind. | Speech-enabled language translation system and method enabling interactive user supervision of translation and speech recognition accuracy |
US7917364B2 (en) | 2003-09-23 | 2011-03-29 | Hewlett-Packard Development Company, L.P. | System and method using multiple automated speech recognition engines |
US7386440B2 (en) | 2003-10-01 | 2008-06-10 | International Business Machines Corporation | Method, system, and apparatus for natural language mixed-initiative dialogue processing |
US7548651B2 (en) | 2003-10-03 | 2009-06-16 | Asahi Kasei Kabushiki Kaisha | Data process unit and data process unit control program |
US20090018918A1 (en) | 2004-11-04 | 2009-01-15 | Manyworlds Inc. | Influence-based Social Network Advertising |
JP3734815B2 (ja) | 2003-12-10 | 2006-01-11 | 任天堂株式会社 | 携帯ゲーム装置及びゲームプログラム |
US7427024B1 (en) | 2003-12-17 | 2008-09-23 | Gazdzinski Mark J | Chattel management apparatus and methods |
JPWO2005064592A1 (ja) | 2003-12-26 | 2007-12-20 | 株式会社ケンウッド | 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム |
US8160883B2 (en) | 2004-01-10 | 2012-04-17 | Microsoft Corporation | Focus tracking in dialogs |
US8281339B1 (en) | 2004-01-12 | 2012-10-02 | United Video Properties, Inc. | Customizable flip and browse overlays in an interactive television system |
US7433876B2 (en) | 2004-02-23 | 2008-10-07 | Radar Networks, Inc. | Semantic web portal and platform |
US8654936B1 (en) | 2004-02-24 | 2014-02-18 | At&T Intellectual Property I, L.P. | Home control, monitoring and communication system using remote voice commands |
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
JP2005293352A (ja) | 2004-04-01 | 2005-10-20 | Seiko Epson Corp | 制御装置、制御方法及び制御プログラム |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US20060041926A1 (en) * | 2004-04-30 | 2006-02-23 | Vulcan Inc. | Voice control of multimedia content |
US20060075429A1 (en) | 2004-04-30 | 2006-04-06 | Vulcan Inc. | Voice control of television-related information |
US8130929B2 (en) | 2004-05-25 | 2012-03-06 | Galileo Processing, Inc. | Methods for obtaining complex data in an interactive voice response system |
US7873149B2 (en) | 2004-06-01 | 2011-01-18 | Verizon Business Global Llc | Systems and methods for gathering information |
US8095364B2 (en) | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US8224649B2 (en) | 2004-06-02 | 2012-07-17 | International Business Machines Corporation | Method and apparatus for remote command, control and diagnostics of systems using conversational or audio interface |
US8321786B2 (en) | 2004-06-17 | 2012-11-27 | Apple Inc. | Routine and interface for correcting electronic text |
US8099395B2 (en) | 2004-06-24 | 2012-01-17 | Oracle America, Inc. | System level identity object |
US20060004192A1 (en) * | 2004-07-02 | 2006-01-05 | Fuji Photo Film Co., Ltd. | Method of preparing a cellulose acylate, cellulose acylate film, polarizing plate, and liquid crystal display device |
US8589156B2 (en) | 2004-07-12 | 2013-11-19 | Hewlett-Packard Development Company, L.P. | Allocation of speech recognition tasks and combination of results thereof |
US8036893B2 (en) | 2004-07-22 | 2011-10-11 | Nuance Communications, Inc. | Method and system for identifying and correcting accent-induced speech recognition difficulties |
US7936861B2 (en) | 2004-07-23 | 2011-05-03 | At&T Intellectual Property I, L.P. | Announcement system and method of use |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7728821B2 (en) | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7869999B2 (en) | 2004-08-11 | 2011-01-11 | Nuance Communications, Inc. | Systems and methods for selecting from multiple phonectic transcriptions for text-to-speech synthesis |
US8407239B2 (en) | 2004-08-13 | 2013-03-26 | Google Inc. | Multi-stage query processing system and method for use with tokenspace repository |
US8117542B2 (en) | 2004-08-16 | 2012-02-14 | Microsoft Corporation | User interface for displaying selectable software functionality controls that are contextually relevant to a selected object |
US7895531B2 (en) | 2004-08-16 | 2011-02-22 | Microsoft Corporation | Floating command object |
US7912699B1 (en) | 2004-08-23 | 2011-03-22 | At&T Intellectual Property Ii, L.P. | System and method of lattice-based search for spoken utterance retrieval |
US20060048055A1 (en) | 2004-08-25 | 2006-03-02 | Jun Wu | Fault-tolerant romanized input method for non-roman characters |
US20060059424A1 (en) | 2004-09-15 | 2006-03-16 | Petri Jonah W | Real-time data localization |
US7936863B2 (en) | 2004-09-30 | 2011-05-03 | Avaya Inc. | Method and apparatus for providing communication tasks in a workflow |
US8107401B2 (en) | 2004-09-30 | 2012-01-31 | Avaya Inc. | Method and apparatus for providing a virtual assistant to a communication participant |
US8744852B1 (en) | 2004-10-01 | 2014-06-03 | Apple Inc. | Spoken interfaces |
US7885844B1 (en) | 2004-11-16 | 2011-02-08 | Amazon Technologies, Inc. | Automatically generating task recommendations for human task performers |
US8498865B1 (en) | 2004-11-30 | 2013-07-30 | Vocera Communications, Inc. | Speech recognition system and method using group call statistics |
GB0426347D0 (en) | 2004-12-01 | 2005-01-05 | Ibm | Methods, apparatus and computer programs for automatic speech recognition |
US20060122834A1 (en) | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
KR100654445B1 (ko) * | 2004-12-17 | 2006-12-06 | 삼성전자주식회사 | 멀티미디어 컨텐츠에 대한 썸네일 리스트를 제공하는 장치및 그 방법 |
US7987244B1 (en) | 2004-12-30 | 2011-07-26 | At&T Intellectual Property Ii, L.P. | Network repository for voice fonts |
US8478589B2 (en) | 2005-01-05 | 2013-07-02 | At&T Intellectual Property Ii, L.P. | Library of existing spoken dialog data for use in generating new natural language spoken dialog systems |
US8069422B2 (en) | 2005-01-10 | 2011-11-29 | Samsung Electronics, Co., Ltd. | Contextual task recommendation system and method for determining user's context and suggesting tasks |
US7913184B1 (en) * | 2005-01-20 | 2011-03-22 | Verizon Laboratories Inc. | Intelligent auto-tabbing systems and methods |
US7873654B2 (en) | 2005-01-24 | 2011-01-18 | The Intellection Group, Inc. | Multimodal natural language query system for processing and analyzing voice and proximity-based queries |
US8150872B2 (en) | 2005-01-24 | 2012-04-03 | The Intellection Group, Inc. | Multimodal natural language query system for processing and analyzing voice and proximity-based queries |
US8228299B1 (en) | 2005-01-27 | 2012-07-24 | Singleton Technology, Llc | Transaction automation and archival system using electronic contract and disclosure units |
EP1849099B1 (en) | 2005-02-03 | 2014-05-07 | Apple Inc. | Recommender system for identifying a new set of media items responsive to an input set of media items and knowledge base metrics |
US8200495B2 (en) | 2005-02-04 | 2012-06-12 | Vocollect, Inc. | Methods and systems for considering information about an expected response when performing speech recognition |
US7895039B2 (en) | 2005-02-04 | 2011-02-22 | Vocollect, Inc. | Methods and systems for optimizing model adaptation for a speech recognition system |
US8577683B2 (en) | 2008-08-15 | 2013-11-05 | Thomas Majchrowski & Associates, Inc. | Multipurpose media players |
CN101124579A (zh) | 2005-02-24 | 2008-02-13 | 富士施乐株式会社 | 单词翻译装置、翻译方法以及翻译程序 |
US7933399B2 (en) | 2005-03-22 | 2011-04-26 | At&T Intellectual Property I, L.P. | System and method for utilizing virtual agents in an interactive voice response application |
US7925525B2 (en) | 2005-03-25 | 2011-04-12 | Microsoft Corporation | Smart reminders |
US8346757B1 (en) | 2005-03-28 | 2013-01-01 | Google Inc. | Determining query terms of little significance |
US9471566B1 (en) | 2005-04-14 | 2016-10-18 | Oracle America, Inc. | Method and apparatus for converting phonetic language input to written language output |
US8260617B2 (en) | 2005-04-18 | 2012-09-04 | Nuance Communications, Inc. | Automating input when testing voice-enabled applications |
US7996589B2 (en) | 2005-04-22 | 2011-08-09 | Microsoft Corporation | Auto-suggest lists and handwritten input |
US7684990B2 (en) | 2005-04-29 | 2010-03-23 | Nuance Communications, Inc. | Method and apparatus for multiple value confirmation and correction in spoken dialog systems |
US8046374B1 (en) | 2005-05-06 | 2011-10-25 | Symantec Corporation | Automatic training of a database intrusion detection system |
US7886233B2 (en) | 2005-05-23 | 2011-02-08 | Nokia Corporation | Electronic text input involving word completion functionality for predicting word candidates for partial word inputs |
US8041570B2 (en) | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
US8477323B2 (en) | 2005-06-22 | 2013-07-02 | Xerox Corporation | System and method for conveying rendering intents |
US8024195B2 (en) | 2005-06-27 | 2011-09-20 | Sensory, Inc. | Systems and methods of performing speech recognition using historical information |
US8396715B2 (en) | 2005-06-28 | 2013-03-12 | Microsoft Corporation | Confidence threshold tuning |
GB0513225D0 (en) | 2005-06-29 | 2005-08-03 | Ibm | Method and system for building and contracting a linguistic dictionary |
US7873523B2 (en) | 2005-06-30 | 2011-01-18 | Microsoft Corporation | Computer implemented method of analyzing recognition results between a user and an interactive application utilizing inferred values instead of transcribed speech |
US7885390B2 (en) | 2005-07-01 | 2011-02-08 | Soleo Communications, Inc. | System and method for multi-modal personal communication services |
US7881283B2 (en) | 2005-07-13 | 2011-02-01 | Research In Motion Limited | Customizability of event notification on telephony-enabled devices |
US9094636B1 (en) | 2005-07-14 | 2015-07-28 | Zaxcom, Inc. | Systems and methods for remotely controlling local audio devices in a virtual wireless multitrack recording system |
US7912720B1 (en) | 2005-07-20 | 2011-03-22 | At&T Intellectual Property Ii, L.P. | System and method for building emotional machines |
US7640160B2 (en) * | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US8694322B2 (en) | 2005-08-05 | 2014-04-08 | Microsoft Corporation | Selective confirmation for execution of a voice activated user interface |
US7844037B2 (en) | 2005-08-08 | 2010-11-30 | Palm, Inc. | Method and device for enabling message responses to incoming phone calls |
CA2618623C (en) | 2005-08-09 | 2015-01-06 | Mobilevoicecontrol, Inc. | Control center for a voice controlled wireless communication device system |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
JP2009505204A (ja) | 2005-08-11 | 2009-02-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | インタラクティブシステムとインタフェースシステムを駆動する方法 |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
WO2007027989A2 (en) | 2005-08-31 | 2007-03-08 | Voicebox Technologies, Inc. | Dynamic speech sharpening |
US8265939B2 (en) | 2005-08-31 | 2012-09-11 | Nuance Communications, Inc. | Hierarchical methods and apparatus for extracting user intent from spoken utterances |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US8635073B2 (en) | 2005-09-14 | 2014-01-21 | At&T Intellectual Property I, L.P. | Wireless multimodal voice browser for wireline-based IPTV services |
US8819659B2 (en) | 2005-09-14 | 2014-08-26 | Millennial Media, Inc. | Mobile search service instant activation |
US8688671B2 (en) | 2005-09-14 | 2014-04-01 | Millennial Media | Managing sponsored content based on geographic region |
US7505784B2 (en) | 2005-09-26 | 2009-03-17 | Barbera Melvin A | Safety features for portable electronic device |
US8270933B2 (en) | 2005-09-26 | 2012-09-18 | Zoomsafer, Inc. | Safety features for portable electronic device |
US7992085B2 (en) | 2005-09-26 | 2011-08-02 | Microsoft Corporation | Lightweight reference user interface |
US9009046B1 (en) | 2005-09-27 | 2015-04-14 | At&T Intellectual Property Ii, L.P. | System and method for disambiguating multiple intents in a natural language dialog system |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
JP4908094B2 (ja) | 2005-09-30 | 2012-04-04 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
US7930168B2 (en) | 2005-10-04 | 2011-04-19 | Robert Bosch Gmbh | Natural language processing of disfluent sentences |
US8401163B1 (en) | 2005-10-18 | 2013-03-19 | Callwave Communications, Llc | Methods and systems for call processing and for providing call progress status over a network |
US20070094024A1 (en) | 2005-10-22 | 2007-04-26 | International Business Machines Corporation | System and method for improving text input in a shorthand-on-keyboard interface |
US7395959B2 (en) | 2005-10-27 | 2008-07-08 | International Business Machines Corporation | Hands free contact database information entry at a communication device |
KR100755678B1 (ko) | 2005-10-28 | 2007-09-05 | 삼성전자주식회사 | 개체명 검출 장치 및 방법 |
US9026915B1 (en) | 2005-10-31 | 2015-05-05 | At&T Intellectual Property Ii, L.P. | System and method for creating a presentation using natural language |
US7936339B2 (en) | 2005-11-01 | 2011-05-03 | Leapfrog Enterprises, Inc. | Method and system for invoking computer functionality by interaction with dynamically generated interface regions of a writing surface |
US8042048B2 (en) | 2005-11-17 | 2011-10-18 | Att Knowledge Ventures, L.P. | System and method for home automation |
US8055707B2 (en) | 2005-11-30 | 2011-11-08 | Alcatel Lucent | Calendar interface for digital communications |
US9330668B2 (en) | 2005-12-20 | 2016-05-03 | International Business Machines Corporation | Sharing voice application processing via markup |
US8234494B1 (en) | 2005-12-21 | 2012-07-31 | At&T Intellectual Property Ii, L.P. | Speaker-verification digital signatures |
US7996228B2 (en) | 2005-12-22 | 2011-08-09 | Microsoft Corporation | Voice initiated network operations |
US7685144B1 (en) | 2005-12-29 | 2010-03-23 | Google Inc. | Dynamically autocompleting a data entry |
US7890330B2 (en) | 2005-12-30 | 2011-02-15 | Alpine Electronics Inc. | Voice recording tool for creating database used in text to speech synthesis system |
KR101265263B1 (ko) | 2006-01-02 | 2013-05-16 | 삼성전자주식회사 | 발음 기호를 이용한 문자열 매칭 방법 및 시스템과 그방법을 기록한 컴퓨터 판독 가능한 기록매체 |
US8006180B2 (en) | 2006-01-10 | 2011-08-23 | Mircrosoft Corporation | Spell checking in network browser based applications |
US9275129B2 (en) | 2006-01-23 | 2016-03-01 | Symantec Corporation | Methods and systems to efficiently find similar and near-duplicate emails and files |
US9600568B2 (en) | 2006-01-23 | 2017-03-21 | Veritas Technologies Llc | Methods and systems for automatic evaluation of electronic discovery review and productions |
US7929805B2 (en) | 2006-01-31 | 2011-04-19 | The Penn State Research Foundation | Image-based CAPTCHA generation system |
US8352183B2 (en) | 2006-02-04 | 2013-01-08 | Microsoft Corporation | Maps for social networking and geo blogs |
US9101279B2 (en) | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
US7983910B2 (en) | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
US9250703B2 (en) | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
US8532678B2 (en) | 2006-03-08 | 2013-09-10 | Tomtom International B.V. | Portable GPS navigation device |
JP4734155B2 (ja) | 2006-03-24 | 2011-07-27 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
US7930183B2 (en) | 2006-03-29 | 2011-04-19 | Microsoft Corporation | Automatic identification of dialog timing problems for an interactive speech dialog application using speech log data indicative of cases of barge-in and timing problems |
US8018431B1 (en) | 2006-03-29 | 2011-09-13 | Amazon Technologies, Inc. | Page turner for handheld electronic book reader device |
US8244545B2 (en) | 2006-03-30 | 2012-08-14 | Microsoft Corporation | Dialog repair based on discrepancies between user model predictions and speech recognition results |
US7283072B1 (en) | 2006-03-30 | 2007-10-16 | International Business Machines Corporation | Methods of creating a dictionary for data compression |
US7996769B2 (en) | 2006-04-05 | 2011-08-09 | Research In Motion Limited | Handheld electronic device and method for performing spell checking during text entry and for providing a spell-check learning feature |
US8046363B2 (en) | 2006-04-13 | 2011-10-25 | Lg Electronics Inc. | System and method for clustering documents |
KR100744380B1 (ko) | 2006-04-17 | 2007-07-30 | 삼성전자주식회사 | 외부 디스플레이 장치로 영상을 출력할 수 있는 기능을구비한 이동 단말기에서의 디스플레이 제어 장치 및 방법 |
US8077153B2 (en) | 2006-04-19 | 2011-12-13 | Microsoft Corporation | Precise selection techniques for multi-touch screens |
US8103947B2 (en) | 2006-04-20 | 2012-01-24 | Timecove Corporation | Collaborative system and method for generating biographical accounts |
US8214213B1 (en) | 2006-04-27 | 2012-07-03 | At&T Intellectual Property Ii, L.P. | Speech recognition based on pronunciation modeling |
US9020804B2 (en) | 2006-05-10 | 2015-04-28 | Xerox Corporation | Method for aligning sentences at the word level enforcing selective contiguity constraints |
US7523108B2 (en) | 2006-06-07 | 2009-04-21 | Platformation, Inc. | Methods and apparatus for searching with awareness of geography and languages |
US20070288898A1 (en) | 2006-06-09 | 2007-12-13 | Sony Ericsson Mobile Communications Ab | Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic |
US8332218B2 (en) | 2006-06-13 | 2012-12-11 | Nuance Communications, Inc. | Context-based grammars for automated speech recognition |
US9219767B2 (en) | 2006-06-22 | 2015-12-22 | Linkedin Corporation | Recording and indicating preferences |
JP5218052B2 (ja) | 2006-06-26 | 2013-06-26 | 日本電気株式会社 | 言語モデル生成システム、言語モデル生成方法および言語モデル生成用プログラム |
US8279171B2 (en) | 2006-07-06 | 2012-10-02 | Panasonic Corporation | Voice input device |
US8050500B1 (en) | 2006-07-06 | 2011-11-01 | Senapps, LLC | Recognition method and system |
US20080022208A1 (en) | 2006-07-18 | 2008-01-24 | Creative Technology Ltd | System and method for personalizing the user interface of audio rendering devices |
US7646296B2 (en) | 2006-08-11 | 2010-01-12 | Honda Motor Co., Ltd. | Method and system for receiving and sending navigational data via a wireless messaging service on a navigation system |
US8134481B2 (en) | 2006-08-11 | 2012-03-13 | Honda Motor Co., Ltd. | Method and system for receiving and sending navigational data via a wireless messaging service on a navigation system |
US9071701B2 (en) | 2006-08-31 | 2015-06-30 | Qualcomm Incorporated | Using wireless characteristic to trigger generation of position fix |
US8170790B2 (en) | 2006-09-05 | 2012-05-01 | Garmin Switzerland Gmbh | Apparatus for switching navigation device mode |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7996792B2 (en) | 2006-09-06 | 2011-08-09 | Apple Inc. | Voicemail manager for portable multifunction device |
US8589869B2 (en) | 2006-09-07 | 2013-11-19 | Wolfram Alpha Llc | Methods and systems for determining a formula |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
TWI322610B (en) | 2006-09-08 | 2010-03-21 | Htc Corp | Handheld electronic device |
US7649454B2 (en) | 2006-09-28 | 2010-01-19 | Ektimisi Semiotics Holdings, Llc | System and method for providing a task reminder based on historical travel information |
US7528713B2 (en) | 2006-09-28 | 2009-05-05 | Ektimisi Semiotics Holdings, Llc | Apparatus and method for providing a task reminder based on travel history |
US8214208B2 (en) | 2006-09-28 | 2012-07-03 | Reqall, Inc. | Method and system for sharing portable voice profiles |
US8014308B2 (en) | 2006-09-28 | 2011-09-06 | Microsoft Corporation | Hardware architecture for cloud services |
US7930197B2 (en) | 2006-09-28 | 2011-04-19 | Microsoft Corporation | Personal data mining |
US7945470B1 (en) | 2006-09-29 | 2011-05-17 | Amazon Technologies, Inc. | Facilitating performance of submitted tasks by mobile task performers |
JP2008092269A (ja) | 2006-10-02 | 2008-04-17 | Matsushita Electric Ind Co Ltd | ハンズフリー通話装置 |
US8434133B2 (en) | 2006-10-06 | 2013-04-30 | Fmr Llc | Single-party, secure multi-channel authentication |
JP2008096541A (ja) | 2006-10-06 | 2008-04-24 | Canon Inc | 音声処理装置およびその制御方法 |
US7937075B2 (en) | 2006-10-06 | 2011-05-03 | At&T Intellectual Property I, L.P. | Mode changing of a mobile communications device and vehicle settings when the mobile communications device is in proximity to a vehicle |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US8972268B2 (en) | 2008-04-15 | 2015-03-03 | Facebook, Inc. | Enhanced speech-to-speech translation system and methods for adding a new word |
US8255216B2 (en) | 2006-10-30 | 2012-08-28 | Nuance Communications, Inc. | Speech recognition of character sequences |
WO2008061903A1 (en) | 2006-11-22 | 2008-05-29 | Agfa Healthcate Inc. | Method and system for client / server distributed image processing |
US8055502B2 (en) | 2006-11-28 | 2011-11-08 | General Motors Llc | Voice dialing using a rejection reference |
GB0623915D0 (en) | 2006-11-30 | 2007-01-10 | Ibm | Phonetic decoding and concatentive speech synthesis |
US9830912B2 (en) | 2006-11-30 | 2017-11-28 | Ashwin P Rao | Speak and touch auto correction interface |
US8731610B2 (en) | 2006-12-13 | 2014-05-20 | Samsung Electronics Co., Ltd. | Method for adaptive user interface in mobile devices |
US8010367B2 (en) | 2006-12-22 | 2011-08-30 | Nuance Communications, Inc. | Spoken free-form passwords for light-weight speaker verification using standard speech recognition engines |
US7865817B2 (en) | 2006-12-29 | 2011-01-04 | Amazon Technologies, Inc. | Invariant referencing in digital works |
US8019271B1 (en) | 2006-12-29 | 2011-09-13 | Nextel Communications, Inc. | Methods and systems for presenting information on mobile devices |
US7889184B2 (en) | 2007-01-05 | 2011-02-15 | Apple Inc. | Method, system and graphical user interface for displaying hyperlink information |
US7889185B2 (en) | 2007-01-05 | 2011-02-15 | Apple Inc. | Method, system, and graphical user interface for activating hyperlinks |
US8060824B2 (en) | 2007-01-05 | 2011-11-15 | Starz Entertainment Llc | User interface for a multimedia service |
WO2008086216A2 (en) | 2007-01-05 | 2008-07-17 | Johnson Controls Technology Company | System and method for customized audio prompting |
US8391844B2 (en) | 2007-01-07 | 2013-03-05 | Apple Inc. | Voicemail systems and methods |
AU2008204404B2 (en) | 2007-01-09 | 2013-05-30 | Spinvox Limited | Detection of unanswered call in order to give calling party the option to alternatively dictate a text message for delivery to the called party |
US8056070B2 (en) | 2007-01-10 | 2011-11-08 | Goller Michael D | System and method for modifying and updating a speech recognition program |
US7912724B1 (en) | 2007-01-18 | 2011-03-22 | Adobe Systems Incorporated | Audio comparison using phoneme matching |
US9524355B2 (en) | 2007-01-22 | 2016-12-20 | Mozy, Inc. | Methods for delivering task-related digital content based on task-oriented user activity |
JP2008185805A (ja) | 2007-01-30 | 2008-08-14 | Internatl Business Mach Corp <Ibm> | 高品質の合成音声を生成する技術 |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US20110047605A1 (en) | 2007-02-06 | 2011-02-24 | Vidoop, Llc | System And Method For Authenticating A User To A Computer System |
US8078978B2 (en) | 2007-10-19 | 2011-12-13 | Google Inc. | Method and system for predicting text |
US7912828B2 (en) | 2007-02-23 | 2011-03-22 | Apple Inc. | Pattern searching methods and apparatuses |
WO2008106655A1 (en) | 2007-03-01 | 2008-09-04 | Apapx, Inc. | System and method for dynamic learning |
TWI321313B (en) | 2007-03-03 | 2010-03-01 | Ind Tech Res Inst | Apparatus and method to reduce recognization errors through context relations among dialogue turns |
US8949266B2 (en) | 2007-03-07 | 2015-02-03 | Vlingo Corporation | Multiple web-based content category searching in mobile search application |
US8838457B2 (en) | 2007-03-07 | 2014-09-16 | Vlingo Corporation | Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility |
US8886540B2 (en) | 2007-03-07 | 2014-11-11 | Vlingo Corporation | Using speech recognition results based on an unstructured language model in a mobile communication facility application |
US20110054894A1 (en) | 2007-03-07 | 2011-03-03 | Phillips Michael S | Speech recognition through the collection of contact information in mobile dictation application |
US8635243B2 (en) | 2007-03-07 | 2014-01-21 | Research In Motion Limited | Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application |
US20110060587A1 (en) | 2007-03-07 | 2011-03-10 | Phillips Michael S | Command and control utilizing ancillary information in a mobile voice-to-speech application |
US8880405B2 (en) | 2007-03-07 | 2014-11-04 | Vlingo Corporation | Application text entry in a mobile environment using a speech processing facility |
US8219406B2 (en) | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
CN101636784B (zh) | 2007-03-20 | 2011-12-28 | 富士通株式会社 | 语音识别系统及语音识别方法 |
CA2682000A1 (en) | 2007-03-28 | 2008-10-02 | Breakthrough Performancetech, Llc | Systems and methods for computerized interactive training |
US8370145B2 (en) | 2007-03-29 | 2013-02-05 | Panasonic Corporation | Device for extracting keywords in a conversation |
US8775931B2 (en) | 2007-03-30 | 2014-07-08 | Blackberry Limited | Spell check function that applies a preference to a spell check algorithm based upon extensive user selection of spell check results generated by the algorithm, and associated handheld electronic device |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
CN101286094A (zh) | 2007-04-10 | 2008-10-15 | 谷歌股份有限公司 | 多模式输入法编辑器 |
EP2140341B1 (en) | 2007-04-26 | 2012-04-25 | Ford Global Technologies, LLC | Emotive advisory system and method |
US8695074B2 (en) | 2007-04-26 | 2014-04-08 | Microsoft Corporation | Pre-authenticated calling for voice applications |
US7983915B2 (en) | 2007-04-30 | 2011-07-19 | Sonic Foundry, Inc. | Audio content search engine |
US8005664B2 (en) | 2007-04-30 | 2011-08-23 | Tachyon Technologies Pvt. Ltd. | System, method to generate transliteration and method for generating decision tree to obtain transliteration |
US7912289B2 (en) | 2007-05-01 | 2011-03-22 | Microsoft Corporation | Image text replacement |
US7899666B2 (en) | 2007-05-04 | 2011-03-01 | Expert System S.P.A. | Method and system for automatically extracting relations between concepts included in text |
US8032383B1 (en) | 2007-05-04 | 2011-10-04 | Foneweb, Inc. | Speech controlled services and devices using internet |
US8886521B2 (en) | 2007-05-17 | 2014-11-11 | Redstart Systems, Inc. | System and method of dictation for a speech recognition command system |
WO2008146456A1 (ja) | 2007-05-28 | 2008-12-04 | Panasonic Corporation | 情報探索支援方法および情報探索支援装置 |
US8055708B2 (en) | 2007-06-01 | 2011-11-08 | Microsoft Corporation | Multimedia spaces |
US8204238B2 (en) | 2007-06-08 | 2012-06-19 | Sensory, Inc | Systems and methods of sonic communication |
WO2008151466A1 (en) | 2007-06-14 | 2008-12-18 | Google Inc. | Dictionary word and phrase determination |
US7987176B2 (en) | 2007-06-25 | 2011-07-26 | Sap Ag | Mixed initiative semantic search |
US8577417B2 (en) * | 2007-06-26 | 2013-11-05 | Sony Corporation | Methods, devices, and computer program products for limiting search scope based on navigation of a menu screen |
US8090621B1 (en) | 2007-06-27 | 2012-01-03 | Amazon Technologies, Inc. | Method and system for associating feedback with recommendation rules |
US8050919B2 (en) | 2007-06-29 | 2011-11-01 | Microsoft Corporation | Speaker recognition via voice sample based on multiple nearest neighbor classifiers |
US8630841B2 (en) | 2007-06-29 | 2014-01-14 | Microsoft Corporation | Regular expression word verification |
KR100930802B1 (ko) | 2007-06-29 | 2009-12-09 | 엔에이치엔(주) | 이미지를 이용한 브라우저 제어 방법 및 시스템 |
AU2008201643B1 (en) | 2007-07-24 | 2008-08-28 | Rambrandt Messaging Technologies, LP | Messaging service in a wireless communications network |
ITFI20070177A1 (it) | 2007-07-26 | 2009-01-27 | Riccardo Vieri | Sistema per la creazione e impostazione di una campagna pubblicitaria derivante dall'inserimento di messaggi pubblicitari all'interno di uno scambio di messaggi e metodo per il suo funzionamento. |
US7983919B2 (en) | 2007-08-09 | 2011-07-19 | At&T Intellectual Property Ii, L.P. | System and method for performing speech synthesis with a cache of phoneme sequences |
US7983478B2 (en) | 2007-08-10 | 2011-07-19 | Microsoft Corporation | Hidden markov model based handwriting/calligraphy generation |
JP2009048245A (ja) | 2007-08-14 | 2009-03-05 | Konami Digital Entertainment:Kk | 入力受付装置、領域制御方法、および、プログラム |
US8260619B1 (en) | 2008-08-22 | 2012-09-04 | Convergys Cmg Utah, Inc. | Method and system for creating natural language understanding grammars |
US8190359B2 (en) | 2007-08-31 | 2012-05-29 | Proxpro, Inc. | Situation-aware personal information management for a mobile device |
US8661340B2 (en) | 2007-09-13 | 2014-02-25 | Apple Inc. | Input methods for device having multi-language environment |
US8042053B2 (en) | 2007-09-24 | 2011-10-18 | Microsoft Corporation | Method for making digital documents browseable |
US8595642B1 (en) | 2007-10-04 | 2013-11-26 | Great Northern Research, LLC | Multiple shell multi faceted graphical user interface |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8036901B2 (en) | 2007-10-05 | 2011-10-11 | Sensory, Incorporated | Systems and methods of performing speech recognition using sensory inputs of human position |
US9532164B2 (en) | 2007-10-12 | 2016-12-27 | Empire Ip Llc | Mashing mapping content displayed on mobile devices |
CN101414226A (zh) * | 2007-10-15 | 2009-04-22 | 南京国触科技有限公司 | 触划式语音输入方法及触划式即时语音输入装置 |
US8594996B2 (en) | 2007-10-17 | 2013-11-26 | Evri Inc. | NLP-based entity recognition and disambiguation |
US8126863B2 (en) | 2007-10-25 | 2012-02-28 | Apple Inc. | Search control combining classification and text-based searching techniques |
US8364694B2 (en) | 2007-10-26 | 2013-01-29 | Apple Inc. | Search assistant for digital media assets |
US7840447B2 (en) | 2007-10-30 | 2010-11-23 | Leonard Kleinrock | Pricing and auctioning of bundled items among multiple sellers and buyers |
US9063979B2 (en) | 2007-11-01 | 2015-06-23 | Ebay, Inc. | Analyzing event streams of user sessions |
US8010614B1 (en) | 2007-11-01 | 2011-08-30 | Bitdefender IPR Management Ltd. | Systems and methods for generating signatures for electronic communication classification |
US7983997B2 (en) | 2007-11-02 | 2011-07-19 | Florida Institute For Human And Machine Cognition, Inc. | Interactive complex task teaching system that allows for natural language input, recognizes a user's intent, and automatically performs tasks in document object model (DOM) nodes |
US8055296B1 (en) | 2007-11-06 | 2011-11-08 | Sprint Communications Company L.P. | Head-up display communication system and method |
US8065152B2 (en) | 2007-11-08 | 2011-11-22 | Demand Media, Inc. | Platform for enabling voice commands to resolve phoneme based domain name registrations |
DE102008051757A1 (de) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US8112280B2 (en) | 2007-11-19 | 2012-02-07 | Sensory, Inc. | Systems and methods of performing speech recognition with barge-in for use in a bluetooth system |
US8620662B2 (en) | 2007-11-20 | 2013-12-31 | Apple Inc. | Context-aware unit selection |
US20110246471A1 (en) | 2010-04-06 | 2011-10-06 | Selim Shlomo Rakib | Retrieving video annotation metadata using a p2p network |
US20150046537A1 (en) | 2007-11-21 | 2015-02-12 | Vdoqwest, Inc., A Delaware Corporation | Retrieving video annotation metadata using a p2p network and copyright free indexes |
US8190596B2 (en) | 2007-11-28 | 2012-05-29 | International Business Machines Corporation | Method for assembly of personalized enterprise information integrators over conjunctive queries |
US8543622B2 (en) | 2007-12-07 | 2013-09-24 | Patrick Giblin | Method and system for meta-tagging media content and distribution |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
KR101300839B1 (ko) | 2007-12-18 | 2013-09-10 | 삼성전자주식회사 | 음성 검색어 확장 방법 및 시스템 |
US8595004B2 (en) | 2007-12-18 | 2013-11-26 | Nec Corporation | Pronunciation variation rule extraction apparatus, pronunciation variation rule extraction method, and pronunciation variation rule extraction program |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US8019604B2 (en) | 2007-12-21 | 2011-09-13 | Motorola Mobility, Inc. | Method and apparatus for uniterm discovery and voice-to-voice search on mobile device |
US8583416B2 (en) | 2007-12-27 | 2013-11-12 | Fluential, Llc | Robust information extraction from utterances |
US8219407B1 (en) | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US7870133B2 (en) | 2008-01-14 | 2011-01-11 | Infosys Technologies Ltd. | Method for semantic based storage and retrieval of information |
US10176827B2 (en) | 2008-01-15 | 2019-01-08 | Verint Americas Inc. | Active lab |
ITPO20080002A1 (it) | 2008-01-22 | 2009-07-23 | Riccardo Vieri | Sistema e metodo per la generazione di pubblicita' contestuale durante l'invio di sms, relativo dispositivo e interfaccia. |
US20120284015A1 (en) | 2008-01-28 | 2012-11-08 | William Drewes | Method for Increasing the Accuracy of Subject-Specific Statistical Machine Translation (SMT) |
US8099289B2 (en) | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
US20090210391A1 (en) | 2008-02-14 | 2009-08-20 | Hall Stephen G | Method and system for automated search for, and retrieval and distribution of, information |
US8595119B2 (en) | 2008-02-15 | 2013-11-26 | New York Mercantile Exchange, Inc. | Symbolic language for trade matching |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8706474B2 (en) | 2008-02-23 | 2014-04-22 | Fair Isaac Corporation | Translation of entity names based on source document publication date, and frequency and co-occurrence of the entity names |
US8015144B2 (en) | 2008-02-26 | 2011-09-06 | Microsoft Corporation | Learning transportation modes from raw GPS data |
US8068604B2 (en) | 2008-12-19 | 2011-11-29 | Computer Product Introductions Corporation | Method and system for event notifications |
US9049255B2 (en) | 2008-02-29 | 2015-06-02 | Blackberry Limited | Visual event notification on a handheld communications device |
US8205157B2 (en) | 2008-03-04 | 2012-06-19 | Apple Inc. | Methods and graphical user interfaces for conducting searches on a portable multifunction device |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
US8255224B2 (en) | 2008-03-07 | 2012-08-28 | Google Inc. | Voice recognition grammar selection based on context |
US8380512B2 (en) * | 2008-03-10 | 2013-02-19 | Yahoo! Inc. | Navigation using a search engine and phonetic voice recognition |
US20090234655A1 (en) | 2008-03-13 | 2009-09-17 | Jason Kwon | Mobile electronic device with active speech recognition |
US20090235176A1 (en) | 2008-03-14 | 2009-09-17 | Madhavi Jayanthi | Social interaction system for facilitating display of current location of friends and location of businesses of interest |
US7958136B1 (en) | 2008-03-18 | 2011-06-07 | Google Inc. | Systems and methods for identifying similar documents |
EP2274895A1 (en) | 2008-03-27 | 2011-01-19 | Markport Limited | Processing of messaging service attributes in communication systems |
US7472061B1 (en) | 2008-03-31 | 2008-12-30 | International Business Machines Corporation | Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US8140368B2 (en) | 2008-04-07 | 2012-03-20 | International Business Machines Corporation | Method and system for routing a task to an employee based on physical and emotional state |
CN101981614B (zh) | 2008-04-08 | 2012-06-27 | 株式会社Ntt都科摩 | 媒体处理服务器设备及其媒体处理方法 |
US8311188B2 (en) | 2008-04-08 | 2012-11-13 | Cisco Technology, Inc. | User interface with voice message summary |
KR20090107365A (ko) | 2008-04-08 | 2009-10-13 | 엘지전자 주식회사 | 이동 단말기 및 그 메뉴 제어방법 |
US8285737B1 (en) | 2008-04-10 | 2012-10-09 | Google Inc. | Selecting content for publication |
US7889101B2 (en) | 2008-04-14 | 2011-02-15 | Alpine Electronics, Inc | Method and apparatus for generating location based reminder message for navigation system |
JP4656177B2 (ja) | 2008-04-14 | 2011-03-23 | トヨタ自動車株式会社 | ナビゲーション装置、操作部表示方法 |
US8433778B1 (en) | 2008-04-22 | 2013-04-30 | Marvell International Ltd | Device configuration |
US8972432B2 (en) | 2008-04-23 | 2015-03-03 | Google Inc. | Machine translation using information retrieval |
US8121837B2 (en) | 2008-04-24 | 2012-02-21 | Nuance Communications, Inc. | Adjusting a speech engine for a mobile computing device based on background noise |
US8194827B2 (en) | 2008-04-29 | 2012-06-05 | International Business Machines Corporation | Secure voice transaction method and system |
US8254829B1 (en) | 2008-05-09 | 2012-08-28 | Sprint Communications Company L.P. | Network media service with track delivery adapted to a user cadence |
US8219115B1 (en) | 2008-05-12 | 2012-07-10 | Google Inc. | Location based reminders |
US9965035B2 (en) | 2008-05-13 | 2018-05-08 | Apple Inc. | Device, method, and graphical user interface for synchronizing two or more displays |
US20130275899A1 (en) | 2010-01-18 | 2013-10-17 | Apple Inc. | Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts |
US8516562B2 (en) | 2008-05-13 | 2013-08-20 | Veritrix, Inc. | Multi-channel multi-factor authentication |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10203861B2 (en) | 2008-05-21 | 2019-02-12 | Please Don't Go, LLC. | Messaging window overlay for a browser |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US20130100268A1 (en) | 2008-05-27 | 2013-04-25 | University Health Network | Emergency detection and response system and method |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8082498B2 (en) | 2008-05-27 | 2011-12-20 | Appfolio, Inc. | Systems and methods for automatic spell checking of dynamically generated web pages |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
US9626363B2 (en) * | 2008-06-08 | 2017-04-18 | Apple Inc. | System and method for placeshifting media playback |
EP2133772B1 (en) | 2008-06-11 | 2011-03-09 | ExB Asset Management GmbH | Device and method incorporating an improved text input mechanism |
US8412707B1 (en) | 2008-06-13 | 2013-04-02 | Ustringer LLC | Method and apparatus for distributing content |
US8140330B2 (en) | 2008-06-13 | 2012-03-20 | Robert Bosch Gmbh | System and method for detecting repeated patterns in dialog systems |
US8195460B2 (en) | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
DE102008028885A1 (de) | 2008-06-18 | 2009-12-31 | Epcos Ag | Verfahren zur Abstimmung einer Resonanzfrequenz eines piezoelektrischen Bauelementes |
US9510044B1 (en) | 2008-06-18 | 2016-11-29 | Gracenote, Inc. | TV content segmentation, categorization and identification and time-aligned applications |
GB2462800A (en) | 2008-06-20 | 2010-02-24 | New Voice Media Ltd | Monitoring a conversation between an agent and a customer and performing real time analytics on the audio signal for determining future handling of the call |
US8300801B2 (en) | 2008-06-26 | 2012-10-30 | Centurylink Intellectual Property Llc | System and method for telephone based noise cancellation |
US20110106736A1 (en) | 2008-06-26 | 2011-05-05 | Intuitive User Interfaces Ltd. | System and method for intuitive user interaction |
US8423288B2 (en) | 2009-11-30 | 2013-04-16 | Apple Inc. | Dynamic alerts for calendar events |
US8364481B2 (en) | 2008-07-02 | 2013-01-29 | Google Inc. | Speech recognition with parallel recognition tasks |
US20110112837A1 (en) | 2008-07-03 | 2011-05-12 | Mobiter Dicta Oy | Method and device for converting speech |
US20100005085A1 (en) | 2008-07-03 | 2010-01-07 | Oracle International Corporation | Creating relationship maps from enterprise application system data |
KR20100006495A (ko) * | 2008-07-09 | 2010-01-19 | 최종덕 | 음성인식을 이용한 웹페이지 정보 제공 방법 및 장치 |
US9716774B2 (en) * | 2008-07-10 | 2017-07-25 | Apple Inc. | System and method for syncing a user interface on a server device to a user interface on a client device |
US8166019B1 (en) | 2008-07-21 | 2012-04-24 | Sprint Communications Company L.P. | Providing suggested actions in response to textual communications |
JP5791861B2 (ja) | 2008-07-25 | 2015-10-07 | シャープ株式会社 | 情報処理装置および情報処理方法 |
US8818816B2 (en) | 2008-07-30 | 2014-08-26 | Mitsubishi Electric Corporation | Voice recognition device |
US8001125B1 (en) | 2008-07-30 | 2011-08-16 | Intuit Inc. | Method and apparatus for defining relationships between tags |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8386485B2 (en) | 2008-07-31 | 2013-02-26 | George Mason Intellectual Properties, Inc. | Case-based framework for collaborative semantic search |
CN102119412B (zh) | 2008-08-11 | 2013-01-02 | 旭化成株式会社 | 例外语辞典制作装置、例外语辞典制作方法、和声音识别装置和声音识别方法 |
US8221125B2 (en) | 2008-08-14 | 2012-07-17 | World View Time Inc. | Electronic presentation of world time zones |
US8326630B2 (en) | 2008-08-18 | 2012-12-04 | Microsoft Corporation | Context based online advertising |
US8805110B2 (en) | 2008-08-19 | 2014-08-12 | Digimarc Corporation | Methods and systems for content processing |
US20110161072A1 (en) | 2008-08-20 | 2011-06-30 | Nec Corporation | Language model creation apparatus, language model creation method, speech recognition apparatus, speech recognition method, and recording medium |
US20110144901A1 (en) | 2008-08-29 | 2011-06-16 | Zhanyong Wang | Method for Playing Voice Guidance and Navigation Device Using the Same |
US8768702B2 (en) | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8090616B2 (en) | 2008-09-08 | 2012-01-03 | Proctor Jr James Arthur | Visual identification information used as confirmation in a wireless communication |
US20100063926A1 (en) | 2008-09-09 | 2010-03-11 | Damon Charles Hougland | Payment application framework |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8259082B2 (en) | 2008-09-12 | 2012-09-04 | At&T Intellectual Property I, L.P. | Multimodal portable communication interface for accessing video content |
US8929877B2 (en) | 2008-09-12 | 2015-01-06 | Digimarc Corporation | Methods and systems for content processing |
JP5213605B2 (ja) | 2008-09-17 | 2013-06-19 | シャープ株式会社 | 通信装置、情報提示装置、通信方法、プログラム、および記録媒体 |
US8775154B2 (en) | 2008-09-18 | 2014-07-08 | Xerox Corporation | Query translation through dictionary adaptation |
US8355919B2 (en) | 2008-09-29 | 2013-01-15 | Apple Inc. | Systems and methods for text normalization for text to speech synthesis |
US8352268B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis |
GB2476011B (en) | 2008-09-29 | 2013-05-15 | Fisher Rosemount Systems Inc | Efficient design and configuration of elements in a process control system |
US8352272B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for text to speech synthesis |
US8396714B2 (en) | 2008-09-29 | 2013-03-12 | Apple Inc. | Systems and methods for concatenation of words in text to speech synthesis |
US8904345B2 (en) | 2008-09-30 | 2014-12-02 | Ebay Inc. | System and method for orchestration of customization for a user experience |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US8539342B1 (en) | 2008-10-16 | 2013-09-17 | Adobe Systems Incorporated | Read-order inference via content sorting |
US8724829B2 (en) | 2008-10-24 | 2014-05-13 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for coherence detection |
US8644488B2 (en) | 2008-10-27 | 2014-02-04 | Nuance Communications, Inc. | System and method for automatically generating adaptive interaction logs from customer interaction text |
US8170966B1 (en) | 2008-11-04 | 2012-05-01 | Bitdefender IPR Management Ltd. | Dynamic streaming message clustering for rapid spam-wave detection |
WO2010053437A1 (en) | 2008-11-04 | 2010-05-14 | Saplo Ab | Method and system for analyzing text |
US8122094B1 (en) | 2008-11-05 | 2012-02-21 | Kotab Dominic M | Methods for performing an action relating to the scheduling of an event by performing one or more actions based on a response to a message |
US8122353B2 (en) | 2008-11-07 | 2012-02-21 | Yahoo! Inc. | Composing a message in an online textbox using a non-latin script |
US20100205628A1 (en) | 2009-02-12 | 2010-08-12 | Davis Bruce L | Media processing methods and arrangements |
EP3258468B1 (en) | 2008-11-10 | 2019-08-21 | Google LLC | Multisensory speech detection |
US9202171B2 (en) | 2008-11-11 | 2015-12-01 | Digideal Corporation | Virtual game assistant based on artificial intelligence |
US8832319B2 (en) | 2008-11-18 | 2014-09-09 | Amazon Technologies, Inc. | Synchronization of digital content |
US8108214B2 (en) | 2008-11-19 | 2012-01-31 | Robert Bosch Gmbh | System and method for recognizing proper names in dialog systems |
US8296124B1 (en) | 2008-11-21 | 2012-10-23 | Google Inc. | Method and apparatus for detecting incorrectly translated text in a document |
US8140328B2 (en) | 2008-12-01 | 2012-03-20 | At&T Intellectual Property I, L.P. | User intention based on N-best list of recognition hypotheses for utterances in a dialog |
US8489599B2 (en) | 2008-12-02 | 2013-07-16 | Palo Alto Research Center Incorporated | Context and activity-driven content delivery and interaction |
US8054180B1 (en) | 2008-12-08 | 2011-11-08 | Amazon Technologies, Inc. | Location aware reminders |
US9041660B2 (en) * | 2008-12-09 | 2015-05-26 | Microsoft Technology Licensing, Llc | Soft keyboard control |
EP2196989B1 (en) | 2008-12-10 | 2012-06-27 | Nuance Communications, Inc. | Grammar and template-based speech recognition of spoken utterances |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8121842B2 (en) | 2008-12-12 | 2012-02-21 | Microsoft Corporation | Audio output of a document from mobile device |
US8618958B2 (en) | 2008-12-16 | 2013-12-31 | Mitsubishi Electric Corporation | Navigation device |
US8918321B2 (en) | 2012-04-13 | 2014-12-23 | At&T Intellectual Property I, L.P. | System and method for enhancing speech recognition accuracy |
US8332205B2 (en) | 2009-01-09 | 2012-12-11 | Microsoft Corporation | Mining transliterations for out-of-vocabulary query terms |
US10088976B2 (en) | 2009-01-15 | 2018-10-02 | Em Acquisition Corp., Inc. | Systems and methods for multiple voice document narration |
US8670583B2 (en) | 2009-01-22 | 2014-03-11 | Panasonic Corporation | Hearing aid system |
US8213911B2 (en) | 2009-01-28 | 2012-07-03 | Virtual Hold Technology Llc | Mobile communication device for establishing automated call back |
US8200489B1 (en) | 2009-01-29 | 2012-06-12 | The United States Of America As Represented By The Secretary Of The Navy | Multi-resolution hidden markov model using class specific features |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
US9070282B2 (en) | 2009-01-30 | 2015-06-30 | Altorr Corp. | Smartphone control of electrical devices |
US9183881B2 (en) | 2009-02-02 | 2015-11-10 | Porto Technology, Llc | System and method for semantic trick play |
US20110307491A1 (en) | 2009-02-04 | 2011-12-15 | Fisk Charles M | Digital photo organizing and tagging method |
US8254972B2 (en) | 2009-02-13 | 2012-08-28 | Sony Mobile Communications Ab | Device and method for handling messages |
US8428758B2 (en) | 2009-02-16 | 2013-04-23 | Apple Inc. | Dynamic audio ducking |
EP2399385B1 (en) | 2009-02-18 | 2019-11-06 | Google LLC | Automatically capturing information, such as capturing information using a document-aware device |
WO2010096376A2 (en) * | 2009-02-18 | 2010-08-26 | Shell Oil Company | Skid beam assembly for loading and transporting large structures |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
MX2011008925A (es) | 2009-02-25 | 2012-04-02 | Miri Systems Llc | Sistema y metodo de pago. |
KR101041039B1 (ko) | 2009-02-27 | 2011-06-14 | 고려대학교 산학협력단 | 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치 |
US9171284B2 (en) | 2009-03-02 | 2015-10-27 | Microsoft Technology Licensing, Llc | Techniques to restore communications sessions for applications having conversation and meeting environments |
CN102341843B (zh) | 2009-03-03 | 2014-01-29 | 三菱电机株式会社 | 语音识别装置 |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US8165321B2 (en) | 2009-03-10 | 2012-04-24 | Apple Inc. | Intelligent clip mixing |
WO2010105246A2 (en) | 2009-03-12 | 2010-09-16 | Exbiblio B.V. | Accessing resources based on capturing information from a rendered document |
US8589374B2 (en) | 2009-03-16 | 2013-11-19 | Apple Inc. | Multifunction device with integrated search and application selection |
WO2010105428A1 (en) | 2009-03-19 | 2010-09-23 | Google Inc. | Input method editor |
US8924156B2 (en) | 2009-03-26 | 2014-12-30 | Nokia Corporation | Method, apparatus, computer program and user interface |
KR101078864B1 (ko) | 2009-03-26 | 2011-11-02 | 한국과학기술원 | 질의/문서 주제 범주 변화 분석 시스템 및 그 방법과 이를 이용한 질의 확장 기반 정보 검색 시스템 및 그 방법 |
US9189472B2 (en) | 2009-03-30 | 2015-11-17 | Touchtype Limited | System and method for inputting text into small screen devices |
US9424246B2 (en) | 2009-03-30 | 2016-08-23 | Touchtype Ltd. | System and method for inputting text into electronic devices |
GB0905457D0 (en) | 2009-03-30 | 2009-05-13 | Touchtype Ltd | System and method for inputting text into electronic devices |
US10191654B2 (en) | 2009-03-30 | 2019-01-29 | Touchtype Limited | System and method for inputting text into electronic devices |
GB0917753D0 (en) | 2009-10-09 | 2009-11-25 | Touchtype Ltd | System and method for inputting text into electronic devices |
GB201016385D0 (en) | 2010-09-29 | 2010-11-10 | Touchtype Ltd | System and method for inputting text into electronic devices |
US8798255B2 (en) | 2009-03-31 | 2014-08-05 | Nice Systems Ltd | Methods and apparatus for deep interaction analysis |
US8166032B2 (en) | 2009-04-09 | 2012-04-24 | MarketChorus, Inc. | System and method for sentiment-based text classification and relevancy ranking |
US8275736B2 (en) | 2009-04-17 | 2012-09-25 | International Business Machines Corporation | Increasing knowledge sharing success rates using real time match making |
US20110065456A1 (en) | 2009-04-20 | 2011-03-17 | Brennan Joseph P | Cellular device deactivation system |
US8660970B1 (en) | 2009-04-23 | 2014-02-25 | The Boeing Company | Passive learning and autonomously interactive system for leveraging user knowledge in networked environments |
KR101032792B1 (ko) | 2009-04-30 | 2011-05-06 | 주식회사 코오롱 | 에어백용 폴리에스테르 원단 및 그의 제조 방법 |
CN102405463B (zh) | 2009-04-30 | 2015-07-29 | 三星电子株式会社 | 利用多模态信息的用户意图推理装置及方法 |
US8660924B2 (en) | 2009-04-30 | 2014-02-25 | Navera, Inc. | Configurable interactive assistant |
NZ596948A (en) | 2009-05-08 | 2014-05-30 | Obdedge Llc | Systems, methods, and devices for policy-based control and monitoring of use of mobile devices by vehicle operators |
WO2010131256A1 (en) | 2009-05-13 | 2010-11-18 | Rajesh Mehra | A keyboard for linguistic scripts |
US8583511B2 (en) | 2009-05-19 | 2013-11-12 | Bradley Marshall Hendrickson | Systems and methods for storing customer purchasing and preference data and enabling a customer to pre-register orders and events |
US8498857B2 (en) | 2009-05-19 | 2013-07-30 | Tata Consultancy Services Limited | System and method for rapid prototyping of existing speech recognition solutions in different languages |
US20150294377A1 (en) | 2009-05-30 | 2015-10-15 | Edmond K. Chow | Trust network effect |
US20120310652A1 (en) | 2009-06-01 | 2012-12-06 | O'sullivan Daniel | Adaptive Human Computer Interface (AAHCI) |
US8095119B2 (en) | 2009-06-02 | 2012-01-10 | Microsoft Corporation | In-call contact information display |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US8560313B2 (en) | 2010-05-13 | 2013-10-15 | General Motors Llc | Transient noise rejection for speech recognition |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120327009A1 (en) | 2009-06-07 | 2012-12-27 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
CN101923853B (zh) | 2009-06-12 | 2013-01-23 | 华为技术有限公司 | 说话人识别方法、设备和系统 |
US8484027B1 (en) | 2009-06-12 | 2013-07-09 | Skyreader Media Inc. | Method for live remote narration of a digital book |
US20130219333A1 (en) | 2009-06-12 | 2013-08-22 | Adobe Systems Incorporated | Extensible Framework for Facilitating Interaction with Devices |
US8290777B1 (en) | 2009-06-12 | 2012-10-16 | Amazon Technologies, Inc. | Synchronizing the playing and displaying of digital content |
US11012732B2 (en) | 2009-06-25 | 2021-05-18 | DISH Technologies L.L.C. | Voice enabled media presentation systems and methods |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8700399B2 (en) | 2009-07-06 | 2014-04-15 | Sensory, Inc. | Systems and methods for hands-free voice control and voice search |
US20110002487A1 (en) | 2009-07-06 | 2011-01-06 | Apple Inc. | Audio Channel Assignment for Audio Output in a Movable Device |
US8943423B2 (en) | 2009-07-07 | 2015-01-27 | International Business Machines Corporation | User interface indicators for changed user interface elements |
KR101083540B1 (ko) | 2009-07-08 | 2011-11-14 | 엔에이치엔(주) | 통계적인 방법을 이용한 한자에 대한 자국어 발음열 변환 시스템 및 방법 |
US8344847B2 (en) | 2009-07-09 | 2013-01-01 | Medtronic Minimed, Inc. | Coordination of control commands in a medical device system having at least one therapy delivery device and at least one wireless controller device |
KR101061443B1 (ko) | 2009-07-13 | 2011-09-02 | 엘지전자 주식회사 | 전자 기기, 이동 단말기 및 이를 이용한 기능 수행 방법 |
US8588378B2 (en) | 2009-07-15 | 2013-11-19 | Google Inc. | Highlighting of voice message transcripts |
US8892439B2 (en) | 2009-07-15 | 2014-11-18 | Microsoft Corporation | Combination and federation of local and remote speech recognition |
US9998552B1 (en) | 2010-04-30 | 2018-06-12 | Open Invention Network Llc | Dynamic creation, data population, and communication establishment across various mediums |
US20110016150A1 (en) | 2009-07-20 | 2011-01-20 | Engstroem Jimmy | System and method for tagging multiple digital images |
US20110016421A1 (en) | 2009-07-20 | 2011-01-20 | Microsoft Corporation | Task oriented user interface platform |
US8213962B2 (en) | 2009-07-21 | 2012-07-03 | Verizon Patent And Licensing Inc. | Vehicle computer link to mobile phone |
US7953679B2 (en) | 2009-07-22 | 2011-05-31 | Xerox Corporation | Scalable indexing for layout based document retrieval and ranking |
US8378798B2 (en) | 2009-07-24 | 2013-02-19 | Research In Motion Limited | Method and apparatus for a touch-sensitive display |
US8239129B2 (en) | 2009-07-27 | 2012-08-07 | Robert Bosch Gmbh | Method and system for improving speech recognition accuracy by use of geographic information |
US9489577B2 (en) | 2009-07-27 | 2016-11-08 | Cxense Asa | Visual similarity for video content |
US9117448B2 (en) | 2009-07-27 | 2015-08-25 | Cisco Technology, Inc. | Method and system for speech recognition using social networks |
US20110029616A1 (en) | 2009-07-29 | 2011-02-03 | Guanming Wang | Unified auto-reply to an email coming from unified messaging service |
US8229488B2 (en) | 2009-07-30 | 2012-07-24 | Sony Ericsson Mobile Communications Ab | Methods, apparatuses and computer programs for media content distribution |
US8875219B2 (en) | 2009-07-30 | 2014-10-28 | Blackberry Limited | Apparatus and method for controlled sharing of personal information |
US9015818B2 (en) | 2009-07-31 | 2015-04-21 | Adobe Systems Incorporated | Software application operational transfer |
KR101608770B1 (ko) | 2009-08-03 | 2016-04-04 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
JP2011033874A (ja) | 2009-08-03 | 2011-02-17 | Alpine Electronics Inc | 多言語音声認識装置及び多言語音声認識辞書作成方法 |
US8340312B2 (en) | 2009-08-04 | 2012-12-25 | Apple Inc. | Differential mode noise cancellation with active real-time control for microphone-speaker combinations used in two way audio communications |
US8532574B2 (en) | 2009-08-05 | 2013-09-10 | Honda Motor Co., Ltd. | Destination information sharing for the automobile environment |
US8160877B1 (en) | 2009-08-06 | 2012-04-17 | Narus, Inc. | Hierarchical real-time speaker recognition for biometric VoIP verification and targeting |
US20110047072A1 (en) | 2009-08-07 | 2011-02-24 | Visa U.S.A. Inc. | Systems and Methods for Propensity Analysis and Validation |
US8233919B2 (en) | 2009-08-09 | 2012-07-31 | Hntb Holdings Ltd. | Intelligently providing user-specific transportation-related information |
JP5201599B2 (ja) | 2009-08-11 | 2013-06-05 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置、および、プログラム |
US20110040707A1 (en) | 2009-08-12 | 2011-02-17 | Ford Global Technologies, Llc | Intelligent music selection in vehicles |
US8768313B2 (en) | 2009-08-17 | 2014-07-01 | Digimarc Corporation | Methods and systems for image or audio recognition processing |
US8626133B2 (en) | 2009-08-19 | 2014-01-07 | Cisco Technology, Inc. | Matching a location of a contact with a task location |
US8654952B2 (en) | 2009-08-20 | 2014-02-18 | T-Mobile Usa, Inc. | Shareable applications on telecommunications devices |
KR101496649B1 (ko) | 2009-08-21 | 2015-03-02 | 삼성전자주식회사 | 복합 네트워크 망을 통한 외부 디바이스의 기능 공유 방법 및 그 장치 |
US9277021B2 (en) | 2009-08-21 | 2016-03-01 | Avaya Inc. | Sending a user associated telecommunication address |
EP2629211A1 (en) | 2009-08-21 | 2013-08-21 | Mikko Kalervo Väänänen | Method and means for data searching and language translation |
JP2011045005A (ja) | 2009-08-24 | 2011-03-03 | Fujitsu Toshiba Mobile Communications Ltd | 携帯電話機 |
WO2011025462A1 (en) | 2009-08-25 | 2011-03-03 | Nanyang Technological University | A method and system for reconstructing speech from an input signal comprising whispers |
US20110054647A1 (en) | 2009-08-26 | 2011-03-03 | Nokia Corporation | Network service for an audio interface unit |
JP2011048671A (ja) | 2009-08-27 | 2011-03-10 | Kyocera Corp | 入力装置および入力装置の制御方法 |
US8583638B2 (en) | 2009-08-27 | 2013-11-12 | Apple Inc. | Adaptive mapping of search results |
CN101996631B (zh) | 2009-08-28 | 2014-12-03 | 国际商业机器公司 | 用于对齐文本的方法和装置 |
US20110238407A1 (en) | 2009-08-31 | 2011-09-29 | O3 Technologies, Llc | Systems and methods for speech-to-speech translation |
US8624851B2 (en) | 2009-09-02 | 2014-01-07 | Amazon Technologies, Inc. | Touch-screen user interface |
WO2011028844A2 (en) * | 2009-09-02 | 2011-03-10 | Sri International | Method and apparatus for tailoring the output of an intelligent automated assistant to a user |
US8451238B2 (en) | 2009-09-02 | 2013-05-28 | Amazon Technologies, Inc. | Touch-screen user interface |
TW201110108A (en) | 2009-09-04 | 2011-03-16 | Chunghwa Telecom Co Ltd | Voice noise elimination method for microphone array |
WO2011026247A1 (en) | 2009-09-04 | 2011-03-10 | Svox Ag | Speech enhancement techniques on the power spectrum |
US8675084B2 (en) | 2009-09-04 | 2014-03-18 | Apple Inc. | Systems and methods for remote camera control |
US20120265535A1 (en) | 2009-09-07 | 2012-10-18 | Donald Ray Bryant-Rich | Personal voice operated reminder system |
US8560300B2 (en) | 2009-09-09 | 2013-10-15 | International Business Machines Corporation | Error correction using fact repositories |
US8321527B2 (en) | 2009-09-10 | 2012-11-27 | Tribal Brands | System and method for tracking user location and associated activity and responsively providing mobile device updates |
US8788267B2 (en) | 2009-09-10 | 2014-07-22 | Mitsubishi Electric Research Laboratories, Inc. | Multi-purpose contextual control |
US20110060812A1 (en) | 2009-09-10 | 2011-03-10 | Level 3 Communications, Llc | Cache server with extensible programming framework |
WO2011032060A1 (en) | 2009-09-11 | 2011-03-17 | Telenav, Inc. | Location based system with contextual contact manager mechanism and method of operation thereof |
US20110066468A1 (en) | 2009-09-11 | 2011-03-17 | Internationl Business Machines Corporation | Dynamic event planning through location awareness |
US9264758B2 (en) | 2009-09-14 | 2016-02-16 | Tivo Inc. | Method and an apparatus for detecting media content recordings |
KR101660348B1 (ko) | 2009-09-16 | 2016-09-27 | 아브 이니티오 테크놀로지 엘엘시 | 데이터세트 요소의 매핑 |
US10587833B2 (en) | 2009-09-16 | 2020-03-10 | Disney Enterprises, Inc. | System and method for automated network search and companion display of result relating to audio-video metadata |
US8972878B2 (en) | 2009-09-21 | 2015-03-03 | Avaya Inc. | Screen icon manipulation by context and frequency of Use |
US9015148B2 (en) | 2009-09-21 | 2015-04-21 | Microsoft Corporation | Suggesting related search queries during web browsing |
US8473558B2 (en) | 2009-09-22 | 2013-06-25 | Thwapr, Inc. | Progressive registration for mobile media sharing |
WO2011037587A1 (en) | 2009-09-28 | 2011-03-31 | Nuance Communications, Inc. | Downsampling schemes in a hierarchical neural network structure for phoneme recognition |
US8768308B2 (en) | 2009-09-29 | 2014-07-01 | Deutsche Telekom Ag | Apparatus and method for creating and managing personal schedules via context-sensing and actuation |
US9111538B2 (en) | 2009-09-30 | 2015-08-18 | T-Mobile Usa, Inc. | Genius button secondary commands |
US8995625B2 (en) | 2009-09-30 | 2015-03-31 | T-Mobile Usa, Inc. | Unified interface and routing module for handling audio input |
TW201113741A (en) | 2009-10-01 | 2011-04-16 | Htc Corp | Lock-state switching method, electronic apparatus and computer program product |
KR20110036385A (ko) | 2009-10-01 | 2011-04-07 | 삼성전자주식회사 | 사용자 의도 분석 장치 및 방법 |
US9338274B2 (en) | 2009-10-02 | 2016-05-10 | Blackberry Limited | Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state |
US20110083079A1 (en) | 2009-10-02 | 2011-04-07 | International Business Machines Corporation | Apparatus, system, and method for improved type-ahead functionality in a type-ahead field based on activity of a user within a user interface |
EP2487597A4 (en) | 2009-10-05 | 2013-05-08 | Nec Corp | COMMUNICATION TERMINAL HAVING ELECTRONIC MAIL TRANSMISSION FUNCTIONALITY, ELECTRONIC MAIL TRANSMISSION METHOD, AND COMPUTER READABLE RECORDING MEDIUM |
JP5473520B2 (ja) | 2009-10-06 | 2014-04-16 | キヤノン株式会社 | 入力装置及びその制御方法 |
US20110087685A1 (en) | 2009-10-09 | 2011-04-14 | Microsoft Corporation | Location-based service middleware |
KR101058525B1 (ko) * | 2009-10-09 | 2011-08-23 | 삼성전자주식회사 | 텍스트 입력방법 및 이를 적용한 디스플레이 장치 |
US8335689B2 (en) | 2009-10-14 | 2012-12-18 | Cogi, Inc. | Method and system for efficient management of speech transcribers |
US8611876B2 (en) | 2009-10-15 | 2013-12-17 | Larry Miller | Configurable phone with interactive voice response engine |
US8510103B2 (en) | 2009-10-15 | 2013-08-13 | Paul Angott | System and method for voice recognition |
EP2488963A1 (en) | 2009-10-15 | 2012-08-22 | Rogers Communications Inc. | System and method for phrase identification |
US8255217B2 (en) | 2009-10-16 | 2012-08-28 | At&T Intellectual Property I, Lp | Systems and methods for creating and using geo-centric language models |
US8451112B2 (en) | 2009-10-19 | 2013-05-28 | Qualcomm Incorporated | Methods and apparatus for estimating departure time based on known calendar events |
US8332748B1 (en) | 2009-10-22 | 2012-12-11 | Google Inc. | Multi-directional auto-complete menu |
US8554537B2 (en) | 2009-10-23 | 2013-10-08 | Samsung Electronics Co., Ltd | Method and device for transliteration |
US8326624B2 (en) | 2009-10-26 | 2012-12-04 | International Business Machines Corporation | Detecting and communicating biometrics of recorded voice during transcription process |
US20110099507A1 (en) | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
CA2779289A1 (en) | 2009-10-28 | 2011-05-19 | Google Inc. | Computer-to-computer communication |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US20110106536A1 (en) | 2009-10-29 | 2011-05-05 | Rovi Technologies Corporation | Systems and methods for simulating dialog between a user and media equipment device |
US8386574B2 (en) | 2009-10-29 | 2013-02-26 | Xerox Corporation | Multi-modality classification for one-class classification in social networks |
US9247421B2 (en) | 2009-10-30 | 2016-01-26 | Samsung Electronics Co., Ltd | Mobile device, content delivery apparatus, content providing apparatus and control method thereof |
US8315617B2 (en) | 2009-10-31 | 2012-11-20 | Btpatent Llc | Controlling mobile device functions |
US8832205B2 (en) | 2009-11-02 | 2014-09-09 | Lextine Software, Llc | System and method for extracting calendar events from free-form email |
US8279052B2 (en) | 2009-11-04 | 2012-10-02 | Immersion Corporation | Systems and methods for haptic confirmation of commands |
US20120137367A1 (en) | 2009-11-06 | 2012-05-31 | Cataphora, Inc. | Continuous anomaly detection based on behavior modeling and heterogeneous information analysis |
JP5622744B2 (ja) | 2009-11-06 | 2014-11-12 | 株式会社東芝 | 音声認識装置 |
CN102056026B (zh) | 2009-11-06 | 2013-04-03 | 中国移动通信集团设计院有限公司 | 音视频同步检测方法及其系统、语音检测方法及其系统 |
WO2011059997A1 (en) | 2009-11-10 | 2011-05-19 | Voicebox Technologies, Inc. | System and method for providing a natural language content dedication service |
US8527859B2 (en) | 2009-11-10 | 2013-09-03 | Dulcetta, Inc. | Dynamic audio playback of soundtracks for electronic visual works |
US8321209B2 (en) | 2009-11-10 | 2012-11-27 | Research In Motion Limited | System and method for low overhead frequency domain voice authentication |
US20110111724A1 (en) | 2009-11-10 | 2011-05-12 | David Baptiste | Method and apparatus for combating distracted driving |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US8358747B2 (en) | 2009-11-10 | 2013-01-22 | International Business Machines Corporation | Real time automatic caller speech profiling |
US8732180B2 (en) | 2009-11-12 | 2014-05-20 | Apple Inc. | Recommending media items |
CN102860039B (zh) | 2009-11-12 | 2016-10-19 | 罗伯特·亨利·弗莱特 | 免提电话和/或麦克风阵列以及使用它们的方法和系统 |
US8682649B2 (en) | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
KR20110052863A (ko) | 2009-11-13 | 2011-05-19 | 삼성전자주식회사 | 모바일 기기 및 그 제어 신호 생성 방법 |
KR20110052997A (ko) | 2009-11-13 | 2011-05-19 | 삼성전자주식회사 | 디스플레이 장치와 클라이언트 단말 및 이의 제어 방법 |
US8989086B2 (en) | 2009-11-13 | 2015-03-24 | Samsung Electronics Co., Ltd. | Methods and apparatus to support interference management in multi-tier wireless communication systems |
US20130166303A1 (en) | 2009-11-13 | 2013-06-27 | Adobe Systems Incorporated | Accessing media data using metadata repository |
US8712759B2 (en) | 2009-11-13 | 2014-04-29 | Clausal Computing Oy | Specializing disambiguation of a natural language expression |
TWI391915B (zh) | 2009-11-17 | 2013-04-01 | Inst Information Industry | 語音變異模型建立裝置、方法及應用該裝置之語音辨識系統和方法 |
KR101595029B1 (ko) | 2009-11-18 | 2016-02-17 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US8358752B2 (en) | 2009-11-19 | 2013-01-22 | At&T Mobility Ii Llc | User profile based speech to text conversion for visual voice mail |
CN102074234B (zh) | 2009-11-19 | 2012-07-25 | 财团法人资讯工业策进会 | 语音变异模型建立装置、方法及语音辨识系统和方法 |
US8630971B2 (en) | 2009-11-20 | 2014-01-14 | Indian Institute Of Science | System and method of using Multi Pattern Viterbi Algorithm for joint decoding of multiple patterns |
US8358749B2 (en) | 2009-11-21 | 2013-01-22 | At&T Intellectual Property I, L.P. | System and method to search a media content database based on voice input data |
KR101960835B1 (ko) | 2009-11-24 | 2019-03-21 | 삼성전자주식회사 | 대화 로봇을 이용한 일정 관리 시스템 및 그 방법 |
US8346688B2 (en) | 2009-11-25 | 2013-01-01 | International Business Machines Corporation | Predicting states of subjects |
US20110153330A1 (en) | 2009-11-27 | 2011-06-23 | i-SCROLL | System and method for rendering text synchronized audio |
US8731901B2 (en) | 2009-12-02 | 2014-05-20 | Content Savvy, Inc. | Context aware back-transliteration and translation of names and common phrases using web resources |
EP2507729A4 (en) | 2009-12-04 | 2017-03-29 | TiVo Solutions Inc. | Multifunction multimedia device |
US8396888B2 (en) | 2009-12-04 | 2013-03-12 | Google Inc. | Location-based searching using a search area that corresponds to a geographical location of a computing device |
US20110137664A1 (en) | 2009-12-09 | 2011-06-09 | International Business Machines Corporation | Providing Schedule Related Information to External Entities |
US8812990B2 (en) | 2009-12-11 | 2014-08-19 | Nokia Corporation | Method and apparatus for presenting a first person world view of content |
US8543917B2 (en) | 2009-12-11 | 2013-09-24 | Nokia Corporation | Method and apparatus for presenting a first-person world view of content |
KR101622111B1 (ko) | 2009-12-11 | 2016-05-18 | 삼성전자 주식회사 | 대화 시스템 및 그의 대화 방법 |
US8224300B2 (en) | 2009-12-11 | 2012-07-17 | Alpine Electronics, Inc. | Method and apparatus to enhance navigation user experience for a smart phone device |
US8737975B2 (en) | 2009-12-11 | 2014-05-27 | At&T Mobility Ii Llc | Audio-based text messaging |
US20110144857A1 (en) | 2009-12-14 | 2011-06-16 | Theodore Charles Wingrove | Anticipatory and adaptive automobile hmi |
US9766089B2 (en) | 2009-12-14 | 2017-09-19 | Nokia Technologies Oy | Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image |
US8892443B2 (en) | 2009-12-15 | 2014-11-18 | At&T Intellectual Property I, L.P. | System and method for combining geographic metadata in automatic speech recognition language and acoustic models |
KR101211796B1 (ko) | 2009-12-16 | 2012-12-13 | 포항공과대학교 산학협력단 | 외국어 학습 장치 및 그 제공 방법 |
US8922485B1 (en) | 2009-12-18 | 2014-12-30 | Google Inc. | Behavioral recognition on mobile devices |
US8341037B2 (en) | 2009-12-18 | 2012-12-25 | Apple Inc. | Mixed source media playback |
US9100809B2 (en) | 2009-12-21 | 2015-08-04 | Julia Olincy Olincy | Automatic response option mobile system for responding to incoming texts or calls or both |
US20110154193A1 (en) | 2009-12-21 | 2011-06-23 | Nokia Corporation | Method and Apparatus for Text Input |
US8385982B2 (en) | 2009-12-21 | 2013-02-26 | At&T Intellectual Property I, L.P. | Controlling use of a communications device in accordance with motion of the device |
US9222798B2 (en) | 2009-12-22 | 2015-12-29 | Modena Enterprises, Llc | Systems and methods for identifying an activity of a user based on a chronological order of detected movements of a computing device |
US8805711B2 (en) | 2009-12-22 | 2014-08-12 | International Business Machines Corporation | Two-layer data architecture for reservation management systems |
EP2339576B1 (en) | 2009-12-23 | 2019-08-07 | Google LLC | Multi-modal input on an electronic device |
KR20110072847A (ko) | 2009-12-23 | 2011-06-29 | 삼성전자주식회사 | 열려진 사용자 의도 처리를 위한 대화관리 시스템 및 방법 |
JP5531612B2 (ja) * | 2009-12-25 | 2014-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム |
US20110161309A1 (en) | 2009-12-29 | 2011-06-30 | Lx1 Technology Limited | Method Of Sorting The Result Set Of A Search Engine |
US8988356B2 (en) | 2009-12-31 | 2015-03-24 | Google Inc. | Touch sensor and touchscreen user input combination |
US8479107B2 (en) | 2009-12-31 | 2013-07-02 | Nokia Corporation | Method and apparatus for fluid graphical user interface |
US20110166862A1 (en) | 2010-01-04 | 2011-07-07 | Eyal Eshed | System and method for variable automated response to remote verbal input at a mobile device |
US8494852B2 (en) | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
WO2011082521A1 (en) | 2010-01-06 | 2011-07-14 | Zoran Corporation | Method and apparatus for voice controlled operation of a media player |
US20110167350A1 (en) | 2010-01-06 | 2011-07-07 | Apple Inc. | Assist Features For Content Display Device |
US8600743B2 (en) | 2010-01-06 | 2013-12-03 | Apple Inc. | Noise profile determination for voice-related feature |
WO2011085387A2 (en) | 2010-01-11 | 2011-07-14 | Everspeech, Inc. | Integrated data processing and transcription service |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US20110179372A1 (en) | 2010-01-15 | 2011-07-21 | Bradford Allen Moore | Automatic Keyboard Layout Determination |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US20110179002A1 (en) | 2010-01-19 | 2011-07-21 | Dell Products L.P. | System and Method for a Vector-Space Search Engine |
US8417575B2 (en) | 2010-01-19 | 2013-04-09 | Apple Inc. | On-device offline purchases using credits |
US8626511B2 (en) | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US8301121B2 (en) | 2010-01-22 | 2012-10-30 | Sony Ericsson Mobile Communications Ab | Regulating alerts generated by communication terminals responsive to sensed movement |
US20110184736A1 (en) | 2010-01-26 | 2011-07-28 | Benjamin Slotznick | Automated method of recognizing inputted information items and selecting information items |
US8346590B2 (en) | 2010-01-27 | 2013-01-01 | Google Inc. | Automatically schedule and re-schedule meetings through search interface |
US8406745B1 (en) | 2010-01-28 | 2013-03-26 | Sprint Communications Company L.P. | Synchronization of voice mail greeting and email auto-reply by a wireless communication device |
JP5633042B2 (ja) | 2010-01-28 | 2014-12-03 | 本田技研工業株式会社 | 音声認識装置、音声認識方法、及び音声認識ロボット |
WO2011093025A1 (ja) | 2010-01-29 | 2011-08-04 | 日本電気株式会社 | 入力支援システム、方法、およびプログラム |
JP2013519162A (ja) | 2010-02-01 | 2013-05-23 | ジャンプタップ,インコーポレイテッド | 統合化された広告システム |
US9015036B2 (en) | 2010-02-01 | 2015-04-21 | Ginger Software, Inc. | Automatic context sensitive language correction using an internet corpus particularly for small keyboard devices |
CA2794542A1 (en) | 2010-02-02 | 2011-08-11 | 4D Retail Technology Corporation | Systems and methods for human intelligence personal assistance |
US8687777B1 (en) | 2010-02-03 | 2014-04-01 | Tal Lavian | Systems and methods for visual presentation and selection of IVR menu |
US8600967B2 (en) | 2010-02-03 | 2013-12-03 | Apple Inc. | Automatic organization of browsing histories |
US8645287B2 (en) | 2010-02-04 | 2014-02-04 | Microsoft Corporation | Image tagging based upon cross domain context |
US8886541B2 (en) | 2010-02-04 | 2014-11-11 | Sony Corporation | Remote controller with position actuatated voice transmission |
US8751218B2 (en) | 2010-02-09 | 2014-06-10 | Siemens Aktiengesellschaft | Indexing content at semantic level |
US8179370B1 (en) | 2010-02-09 | 2012-05-15 | Google Inc. | Proximity based keystroke resolution |
US9413869B2 (en) | 2010-02-10 | 2016-08-09 | Qualcomm Incorporated | Mobile device having plurality of input modes |
US8898219B2 (en) | 2010-02-12 | 2014-11-25 | Avaya Inc. | Context sensitive, cloud-based telephony |
US8782556B2 (en) | 2010-02-12 | 2014-07-15 | Microsoft Corporation | User-centric soft keyboard predictive technologies |
US8402018B2 (en) | 2010-02-12 | 2013-03-19 | Korea Advanced Institute Of Science And Technology | Semantic search system using semantic ranking scheme |
US8812056B2 (en) | 2010-02-12 | 2014-08-19 | Christopher D. Higginbotham | Voice-based command driven computer implemented method |
WO2011101845A1 (en) | 2010-02-16 | 2011-08-25 | Screenovate Technologies Ltd. | Modified operating systems allowing mobile devices to accommodate io devices more convenient than their own inherent io devices and methods for generating such systems |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
WO2011105996A1 (en) | 2010-02-23 | 2011-09-01 | Hewlett-Packard Development Company, L.P. | Skipping through electronic content on an electronic device |
US9665344B2 (en) | 2010-02-24 | 2017-05-30 | GM Global Technology Operations LLC | Multi-modal input system for a voice-based menu and content navigation service |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9710556B2 (en) | 2010-03-01 | 2017-07-18 | Vcvc Iii Llc | Content recommendation based on collections of entities |
US20120066303A1 (en) | 2010-03-03 | 2012-03-15 | Waldeck Technology, Llc | Synchronized group location updates |
US20110218855A1 (en) | 2010-03-03 | 2011-09-08 | Platformation, Inc. | Offering Promotions Based on Query Analysis |
US8502837B2 (en) | 2010-03-04 | 2013-08-06 | Research In Motion Limited | System and method for activating components on an electronic device using orientation data |
US8903847B2 (en) | 2010-03-05 | 2014-12-02 | International Business Machines Corporation | Digital media voice tags in social networks |
US8948515B2 (en) | 2010-03-08 | 2015-02-03 | Sightera Technologies Ltd. | Method and system for classifying one or more images |
JP5642809B2 (ja) | 2010-03-12 | 2014-12-17 | ニュアンス コミュニケーションズ, インコーポレイテッド | 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム |
US8521513B2 (en) | 2010-03-12 | 2013-08-27 | Microsoft Corporation | Localization for interactive voice response systems |
US20110228913A1 (en) | 2010-03-16 | 2011-09-22 | Telcordia Technologies, Inc. | Automatic extraction of information from ongoing voice communication system and methods |
US8374864B2 (en) | 2010-03-17 | 2013-02-12 | Cisco Technology, Inc. | Correlation of transcribed text with corresponding audio |
US20110231218A1 (en) | 2010-03-18 | 2011-09-22 | Tovar Tom C | Systems and Methods for Providing Reminders for a Task List |
EP2559030B1 (en) | 2010-03-19 | 2017-06-21 | Digimarc Corporation | Intuitive computing methods and systems |
US20110231189A1 (en) | 2010-03-19 | 2011-09-22 | Nuance Communications, Inc. | Methods and apparatus for extracting alternate media titles to facilitate speech recognition |
US9323756B2 (en) | 2010-03-22 | 2016-04-26 | Lenovo (Singapore) Pte. Ltd. | Audio book and e-book synchronization |
US8554280B2 (en) | 2010-03-23 | 2013-10-08 | Ebay Inc. | Free-form entries during payment processes |
US20110239111A1 (en) | 2010-03-24 | 2011-09-29 | Avaya Inc. | Spell checker interface |
US20110238676A1 (en) | 2010-03-25 | 2011-09-29 | Palm, Inc. | System and method for data capture, storage, and retrieval |
US9628831B2 (en) | 2010-03-25 | 2017-04-18 | Whatsapp, Inc. | Multimedia transcoding method and system for mobile devices |
WO2011119168A1 (en) | 2010-03-26 | 2011-09-29 | Nuance Communications, Inc. | Context based voice activity detection sensitivity |
US20110238412A1 (en) | 2010-03-26 | 2011-09-29 | Antoine Ezzat | Method for Constructing Pronunciation Dictionaries |
US9378202B2 (en) | 2010-03-26 | 2016-06-28 | Virtuoz Sa | Semantic clustering |
US8428759B2 (en) | 2010-03-26 | 2013-04-23 | Google Inc. | Predictive pre-recording of audio for voice input |
WO2011123122A1 (en) | 2010-03-31 | 2011-10-06 | Hewlett-Packard Development Company, L.P. | Contextual user interface |
US8930176B2 (en) | 2010-04-01 | 2015-01-06 | Microsoft Corporation | Interactive multilingual word-alignment techniques |
US8296380B1 (en) | 2010-04-01 | 2012-10-23 | Kel & Partners LLC | Social media based messaging systems and methods |
US20110242007A1 (en) | 2010-04-01 | 2011-10-06 | Gray Theodore W | E-Book with User-Manipulatable Graphical Objects |
CA2795812A1 (en) | 2010-04-07 | 2011-10-13 | Max Value Solutions INTL, LLC | Method and system for name pronunciation guide services |
US9929982B2 (en) | 2010-04-08 | 2018-03-27 | Microsoft Technology Licensing, Llc | Designating automated agents as friends in a social network service |
US8810684B2 (en) | 2010-04-09 | 2014-08-19 | Apple Inc. | Tagging images in a mobile communications device using a contacts list |
KR101369810B1 (ko) | 2010-04-09 | 2014-03-05 | 이초강 | 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체. |
EP2558923A4 (en) | 2010-04-12 | 2014-11-19 | Google Inc | EXTENSION FRAMEWORK FOR AN ENTRY METHOD EDITOR |
CN102214187B (zh) | 2010-04-12 | 2017-03-01 | 阿里巴巴集团控股有限公司 | 复合事件处理方法及装置 |
JP5315289B2 (ja) | 2010-04-12 | 2013-10-16 | トヨタ自動車株式会社 | オペレーティングシステム及びオペレーティング方法 |
US8140567B2 (en) | 2010-04-13 | 2012-03-20 | Microsoft Corporation | Measuring entity extraction complexity |
US8265928B2 (en) | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
US8756233B2 (en) | 2010-04-16 | 2014-06-17 | Video Semantics | Semantic segmentation and tagging engine |
US8595014B2 (en) | 2010-04-19 | 2013-11-26 | Qualcomm Incorporated | Providing audible navigation system direction updates during predetermined time windows so as to minimize impact on conversations |
US20110260829A1 (en) | 2010-04-21 | 2011-10-27 | Research In Motion Limited | Method of providing security on a portable electronic device having a touch-sensitive display |
WO2011131785A1 (en) | 2010-04-21 | 2011-10-27 | Université Catholique de Louvain | Normalisation of noisy typewritten texts |
WO2011133543A1 (en) | 2010-04-21 | 2011-10-27 | Proteus Biomedical, Inc. | Diagnostic system and method |
US20110264495A1 (en) | 2010-04-22 | 2011-10-27 | Apple Inc. | Aggregation of tagged media item information |
WO2011133195A1 (en) | 2010-04-22 | 2011-10-27 | Zipit Wireless, Inc. | System and method for administration and operation of one or more mobile electronic communications devices |
US20110264999A1 (en) | 2010-04-23 | 2011-10-27 | Research In Motion Limited | Electronic device including touch-sensitive input device and method of controlling same |
US20110264530A1 (en) | 2010-04-23 | 2011-10-27 | Bryan Santangelo | Apparatus and methods for dynamic secondary content and data insertion and delivery |
US8874432B2 (en) | 2010-04-28 | 2014-10-28 | Nec Laboratories America, Inc. | Systems and methods for semi-supervised relationship extraction |
US8452037B2 (en) | 2010-05-05 | 2013-05-28 | Apple Inc. | Speaker clip |
US8380504B1 (en) | 2010-05-06 | 2013-02-19 | Sprint Communications Company L.P. | Generation of voice profiles |
US8756571B2 (en) | 2010-05-07 | 2014-06-17 | Hewlett-Packard Development Company, L.P. | Natural language text instructions |
US8938436B2 (en) | 2010-05-10 | 2015-01-20 | Verizon Patent And Licensing Inc. | System for and method of providing reusable software service information based on natural language queries |
JP5595112B2 (ja) | 2010-05-11 | 2014-09-24 | 本田技研工業株式会社 | ロボット |
JP2011238022A (ja) | 2010-05-11 | 2011-11-24 | Panasonic Corp | 端末、コンテンツの利用の把握方法およびコンテンツの利用システム |
US20110283189A1 (en) | 2010-05-12 | 2011-11-17 | Rovi Technologies Corporation | Systems and methods for adjusting media guide interaction modes |
US20110279368A1 (en) | 2010-05-12 | 2011-11-17 | Microsoft Corporation | Inferring user intent to engage a motion capture system |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US8982738B2 (en) | 2010-05-13 | 2015-03-17 | Futurewei Technologies, Inc. | System, apparatus for content delivery for internet traffic and methods thereof |
US9015139B2 (en) | 2010-05-14 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for performing a search based on a media content snapshot image |
US8392186B2 (en) | 2010-05-18 | 2013-03-05 | K-Nfb Reading Technology, Inc. | Audio synchronization for document narration with user-selected playback |
US8694313B2 (en) | 2010-05-19 | 2014-04-08 | Google Inc. | Disambiguation of contact information using historical data |
WO2011146276A2 (en) | 2010-05-19 | 2011-11-24 | Google Inc. | Television related searching |
US8522283B2 (en) | 2010-05-20 | 2013-08-27 | Google Inc. | Television remote control data transfer |
US9552355B2 (en) | 2010-05-20 | 2017-01-24 | Xerox Corporation | Dynamic bi-phrases for statistical machine translation |
US9552125B2 (en) | 2010-05-21 | 2017-01-24 | Google Inc. | Input method editor |
US20110288917A1 (en) | 2010-05-21 | 2011-11-24 | James Wanek | Systems and methods for providing mobile targeted advertisements |
US9236047B2 (en) | 2010-05-21 | 2016-01-12 | Microsoft Technology Licensing, Llc | Voice stream augmented note taking |
US8606579B2 (en) | 2010-05-24 | 2013-12-10 | Microsoft Corporation | Voice print identification for identifying speakers |
JP2011250027A (ja) | 2010-05-25 | 2011-12-08 | Panasonic Electric Works Co Ltd | リモートコントロール機器及び情報通信システム |
US9569549B1 (en) | 2010-05-25 | 2017-02-14 | Amazon Technologies, Inc. | Location based recommendation and tagging of media content items |
US8468012B2 (en) | 2010-05-26 | 2013-06-18 | Google Inc. | Acoustic model adaptation using geographic information |
WO2011150730A1 (zh) | 2010-05-31 | 2011-12-08 | 百度在线网络技术(北京)有限公司 | 一种用于英文与另一种文字混合输入的方法和设备 |
EP2393056A1 (en) | 2010-06-02 | 2011-12-07 | Layar B.V. | Acquiring, ranking and displaying points of interest for use in an augmented reality service provisioning system and graphical user interface for displaying such ranked points of interests |
US8639516B2 (en) | 2010-06-04 | 2014-01-28 | Apple Inc. | User-specific noise suppression for voice quality improvements |
US8707195B2 (en) | 2010-06-07 | 2014-04-22 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface |
US10204625B2 (en) | 2010-06-07 | 2019-02-12 | Affectiva, Inc. | Audio analysis learning using video data |
EP2397972B1 (en) | 2010-06-08 | 2015-01-07 | Vodafone Holding GmbH | Smart card with microphone |
US8954425B2 (en) | 2010-06-08 | 2015-02-10 | Microsoft Corporation | Snippet extraction and ranking |
US8458115B2 (en) | 2010-06-08 | 2013-06-04 | Microsoft Corporation | Mining topic-related aspects from user generated content |
US20110306426A1 (en) | 2010-06-10 | 2011-12-15 | Microsoft Corporation | Activity Participation Based On User Intent |
US9529918B2 (en) | 2010-06-11 | 2016-12-27 | Doat Media Ltd. | System and methods thereof for downloading applications via a communication network |
US20110307810A1 (en) | 2010-06-11 | 2011-12-15 | Isreal Hilerio | List integration |
US8234111B2 (en) | 2010-06-14 | 2012-07-31 | Google Inc. | Speech and noise models for speech recognition |
US20120136572A1 (en) | 2010-06-17 | 2012-05-31 | Norton Kenneth S | Distance and Location-Aware Reminders in a Calendar System |
US20110314003A1 (en) | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Template concatenation for capturing multiple concepts in a voice query |
WO2011160140A1 (en) | 2010-06-18 | 2011-12-22 | Susan Bennett | System and method of semantic based searching |
US9443071B2 (en) | 2010-06-18 | 2016-09-13 | At&T Intellectual Property I, L.P. | Proximity based device security |
US8375320B2 (en) | 2010-06-22 | 2013-02-12 | Microsoft Corporation | Context-based task generation |
US9009592B2 (en) | 2010-06-22 | 2015-04-14 | Microsoft Technology Licensing, Llc | Population of lists and tasks from captured voice and audio content |
US20110313803A1 (en) | 2010-06-22 | 2011-12-22 | Microsoft Corporation | Social Task Lists |
EP2400373A1 (en) | 2010-06-22 | 2011-12-28 | Vodafone Holding GmbH | Inputting symbols into an electronic device having a touch-screen |
US8655901B1 (en) | 2010-06-23 | 2014-02-18 | Google Inc. | Translation-based query pattern mining |
US8581844B2 (en) | 2010-06-23 | 2013-11-12 | Google Inc. | Switching between a first operational mode and a second operational mode using a natural motion gesture |
WO2011163538A1 (en) | 2010-06-24 | 2011-12-29 | Honda Motor Co., Ltd. | Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system |
US8812299B1 (en) | 2010-06-24 | 2014-08-19 | Nuance Communications, Inc. | Class-based language model and use |
US11068657B2 (en) | 2010-06-28 | 2021-07-20 | Skyscanner Limited | Natural language question answering system and method based on deep semantics |
KR20120000663A (ko) | 2010-06-28 | 2012-01-04 | 주식회사 팬택 | 3d 객체 처리 장치 |
JP5323770B2 (ja) | 2010-06-30 | 2013-10-23 | 日本放送協会 | ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機 |
US8411874B2 (en) | 2010-06-30 | 2013-04-02 | Google Inc. | Removing noise from audio |
US8250071B1 (en) | 2010-06-30 | 2012-08-21 | Amazon Technologies, Inc. | Disambiguation of term meaning |
US20120005602A1 (en) | 2010-07-02 | 2012-01-05 | Nokia Corporation | Methods and apparatuses for facilitating task switching |
EP2402867B1 (en) | 2010-07-02 | 2018-08-22 | Accenture Global Services Limited | A computer-implemented method, a computer program product and a computer system for image processing |
US8885978B2 (en) | 2010-07-05 | 2014-11-11 | Apple Inc. | Operating a device to capture high dynamic range images |
US20120010886A1 (en) | 2010-07-06 | 2012-01-12 | Javad Razavilar | Language Identification |
US8848882B2 (en) | 2010-07-07 | 2014-09-30 | Verizon Patent And Licensing Inc. | System for and method of measuring caller interactions during a call session |
JP5548542B2 (ja) | 2010-07-13 | 2014-07-16 | 富士通テン株式会社 | 携帯端末装置および駐車位置案内プログラム |
US8249556B2 (en) | 2010-07-13 | 2012-08-21 | Google Inc. | Securing a mobile computing device |
US9104670B2 (en) | 2010-07-21 | 2015-08-11 | Apple Inc. | Customized search or acquisition of digital media assets |
US8260247B2 (en) | 2010-07-21 | 2012-09-04 | Research In Motion Limited | Portable electronic device and method of operation |
US9786159B2 (en) | 2010-07-23 | 2017-10-10 | Tivo Solutions Inc. | Multi-function remote control device |
WO2012010218A1 (en) | 2010-07-23 | 2012-01-26 | Phonak Ag | Hearing system and method for operating a hearing system |
US8528072B2 (en) | 2010-07-23 | 2013-09-03 | Apple Inc. | Method, apparatus and system for access mode control of a device |
US9633656B2 (en) | 2010-07-27 | 2017-04-25 | Sony Corporation | Device registration process from second display |
CN102340590A (zh) | 2010-07-27 | 2012-02-01 | 上海闻泰电子科技有限公司 | 一种用于手机的感光加解锁装置及其实现方法 |
US8463592B2 (en) | 2010-07-27 | 2013-06-11 | International Business Machines Corporation | Mode supporting multiple language input for entering text |
US8861925B1 (en) | 2010-07-28 | 2014-10-14 | Intuit Inc. | Methods and systems for audio-visual synchronization |
CN102346557B (zh) | 2010-07-28 | 2016-08-03 | 深圳市世纪光速信息技术有限公司 | 一种输入法和输入法系统 |
JP5606205B2 (ja) | 2010-07-28 | 2014-10-15 | 京セラ株式会社 | 携帯端末装置 |
US8521526B1 (en) | 2010-07-28 | 2013-08-27 | Google Inc. | Disambiguation of a spoken query term |
US8694537B2 (en) | 2010-07-29 | 2014-04-08 | Soundhound, Inc. | Systems and methods for enabling natural language processing |
KR101699720B1 (ko) | 2010-08-03 | 2017-01-26 | 삼성전자주식회사 | 음성명령 인식 장치 및 음성명령 인식 방법 |
JP2012037619A (ja) | 2010-08-04 | 2012-02-23 | Nec Corp | 話者適応化装置、話者適応化方法および話者適応化用プログラム |
BRPI1004128A2 (pt) | 2010-08-04 | 2012-04-10 | Magneti Marelli Sist S Automotivos Ind E Com Ltda | definição dos parámetros chave de nìvel superior para sensor lógico de biodiesel |
US9349368B1 (en) | 2010-08-05 | 2016-05-24 | Google Inc. | Generating an audio notification based on detection of a triggering event |
US8775156B2 (en) | 2010-08-05 | 2014-07-08 | Google Inc. | Translating languages in response to device motion |
US8359020B2 (en) | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
US8731939B1 (en) | 2010-08-06 | 2014-05-20 | Google Inc. | Routing queries based on carrier phrase registration |
US8402533B2 (en) | 2010-08-06 | 2013-03-19 | Google Inc. | Input to locked computing device |
US8473289B2 (en) | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
WO2012019637A1 (en) | 2010-08-09 | 2012-02-16 | Jadhav, Shubhangi Mahadeo | Visual music playlist creation and visual music track exploration |
US8802957B2 (en) | 2010-08-16 | 2014-08-12 | Boardwalk Technology Group, Llc | Mobile replacement-dialogue recording system |
CN101951553B (zh) | 2010-08-17 | 2012-10-10 | 深圳市车音网科技有限公司 | 基于语音命令的导航方法及系统 |
EP2609488A4 (en) | 2010-08-27 | 2015-03-11 | Intel Corp | APPARATUS AND METHOD FOR PRESSURE ACTIVATION |
US8719006B2 (en) | 2010-08-27 | 2014-05-06 | Apple Inc. | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis |
US8478519B2 (en) | 2010-08-30 | 2013-07-02 | Google Inc. | Providing results to parameterless search queries |
US8676583B2 (en) | 2010-08-30 | 2014-03-18 | Honda Motor Co., Ltd. | Belief tracking and action selection in spoken dialog systems |
US8225137B2 (en) | 2010-09-04 | 2012-07-17 | Cisco Technology, Inc. | System and method for providing media server redundancy in a network environment |
KR20120024247A (ko) * | 2010-09-06 | 2012-03-14 | 삼성전자주식회사 | 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치 |
US9800721B2 (en) | 2010-09-07 | 2017-10-24 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US8341142B2 (en) | 2010-09-08 | 2012-12-25 | Nuance Communications, Inc. | Methods and apparatus for searching the Internet |
KR20130108563A (ko) | 2010-09-08 | 2013-10-04 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 인터넷 검색 관련 방법 및 장치 |
US20120059655A1 (en) | 2010-09-08 | 2012-03-08 | Nuance Communications, Inc. | Methods and apparatus for providing input to a speech-enabled application program |
WO2012033492A1 (en) | 2010-09-09 | 2012-03-15 | Sony Ericsson Mobile Communications Ab | Annotating e-books/e-magazines with application results |
KR102000618B1 (ko) | 2010-09-13 | 2019-10-21 | 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 | 부가기능의 관리 |
CN102402985A (zh) | 2010-09-14 | 2012-04-04 | 盛乐信息技术(上海)有限公司 | 提高声纹识别安全性的声纹认证系统及其实现方法 |
US9538229B2 (en) * | 2010-09-15 | 2017-01-03 | Verizon Patent And Licensing Inc. | Media experience for touch screen devices |
US8560229B1 (en) | 2010-09-15 | 2013-10-15 | Google Inc. | Sensor based activity detection |
WO2012034273A1 (en) | 2010-09-15 | 2012-03-22 | Empire Technology Development Llc | Task assignment in cloud computing environment |
JP5480760B2 (ja) | 2010-09-15 | 2014-04-23 | 株式会社Nttドコモ | 端末装置、音声認識方法および音声認識プログラム |
US20120068937A1 (en) | 2010-09-16 | 2012-03-22 | Sony Ericsson Mobile Communications Ab | Quick input language/virtual keyboard/ language dictionary change on a touch screen device |
US20120078635A1 (en) | 2010-09-24 | 2012-03-29 | Apple Inc. | Voice control system |
US8836638B2 (en) | 2010-09-25 | 2014-09-16 | Hewlett-Packard Development Company, L.P. | Silent speech based command to a computing device |
US20120114108A1 (en) | 2010-09-27 | 2012-05-10 | Voxer Ip Llc | Messaging communication application |
KR20120031722A (ko) | 2010-09-27 | 2012-04-04 | 삼성전자주식회사 | 동적 응답 생성 장치 및 방법 |
US8594997B2 (en) | 2010-09-27 | 2013-11-26 | Sap Ag | Context-aware conversational user interface |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
CN101937194B (zh) | 2010-09-27 | 2012-12-19 | 鸿富锦精密工业(深圳)有限公司 | 具有学习功能的智能控制系统和方法 |
CN101958958A (zh) | 2010-09-29 | 2011-01-26 | 中兴通讯股份有限公司 | 一种回复信息的方法和终端 |
US10037319B2 (en) | 2010-09-29 | 2018-07-31 | Touchtype Limited | User input prediction |
CN102436456B (zh) | 2010-09-29 | 2016-03-30 | 国际商业机器公司 | 用于对命名实体进行分类的方法和装置 |
WO2012040872A1 (en) | 2010-09-29 | 2012-04-05 | Yahoo! Inc. | Training search query intent classifier using wiki article titles and search click log |
US8965545B2 (en) | 2010-09-30 | 2015-02-24 | Google Inc. | Progressive encoding of audio |
US8812321B2 (en) | 2010-09-30 | 2014-08-19 | At&T Intellectual Property I, L.P. | System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning |
US8515736B1 (en) | 2010-09-30 | 2013-08-20 | Nuance Communications, Inc. | Training call routing applications by reusing semantically-labeled data collected for prior applications |
US20120084248A1 (en) | 2010-09-30 | 2012-04-05 | Microsoft Corporation | Providing suggestions based on user intent |
US8644519B2 (en) | 2010-09-30 | 2014-02-04 | Apple Inc. | Electronic devices with improved audio |
US20120084634A1 (en) | 2010-10-05 | 2012-04-05 | Sony Corporation | Method and apparatus for annotating text |
EP2625628A2 (en) | 2010-10-05 | 2013-08-14 | International Business Machines Corporation | Probabilistic data mining model comparison engine |
US8606293B2 (en) | 2010-10-05 | 2013-12-10 | Qualcomm Incorporated | Mobile device location estimation using environmental information |
US9679256B2 (en) | 2010-10-06 | 2017-06-13 | The Chancellor, Masters And Scholars Of The University Of Cambridge | Automated assessment of examination scripts |
US9043386B2 (en) | 2010-10-06 | 2015-05-26 | Hbr Labs Inc. | System and method for synchronizing collaborative form filling |
US9465798B2 (en) | 2010-10-08 | 2016-10-11 | Iq Technology Inc. | Single word and multi-word term integrating system and a method thereof |
US10900799B2 (en) | 2010-10-12 | 2021-01-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for determining a destination location from a communication |
US20120271640A1 (en) | 2010-10-15 | 2012-10-25 | Basir Otman A | Implicit Association and Polymorphism Driven Human Machine Interaction |
JP5572059B2 (ja) | 2010-10-21 | 2014-08-13 | 京セラ株式会社 | 表示装置 |
JP5017441B2 (ja) | 2010-10-28 | 2012-09-05 | 株式会社東芝 | 携帯型電子機器 |
US8335774B2 (en) | 2010-10-28 | 2012-12-18 | Google Inc. | Replacing a master media file |
US20120108221A1 (en) | 2010-10-28 | 2012-05-03 | Microsoft Corporation | Augmenting communication sessions with applications |
US9311308B2 (en) | 2010-10-29 | 2016-04-12 | Hewlett-Packard Development Company, L.P. | Content recommendation for groups |
SG189182A1 (en) | 2010-10-29 | 2013-05-31 | Anhui Ustc Iflytek Co Ltd | Method and system for endpoint automatic detection of audio record |
US9058105B2 (en) | 2010-10-31 | 2015-06-16 | International Business Machines Corporation | Automated adjustment of input configuration |
US9348417B2 (en) | 2010-11-01 | 2016-05-24 | Microsoft Technology Licensing, Llc | Multimodal input system |
US20120110456A1 (en) * | 2010-11-01 | 2012-05-03 | Microsoft Corporation | Integrated voice command modal user interface |
US9743149B2 (en) | 2010-11-02 | 2017-08-22 | Sony Corporation | Search query column for internet-connected TV's |
US8660531B2 (en) | 2010-11-03 | 2014-02-25 | Blackberry Limited | Access to locked functions |
US8831947B2 (en) | 2010-11-07 | 2014-09-09 | Nice Systems Ltd. | Method and apparatus for large vocabulary continuous speech recognition using a hybrid phoneme-word lattice |
US20120116770A1 (en) | 2010-11-08 | 2012-05-10 | Ming-Fu Chen | Speech data retrieving and presenting device |
US8881057B2 (en) | 2010-11-09 | 2014-11-04 | Blackberry Limited | Methods and apparatus to display mobile device contexts |
WO2012063260A2 (en) | 2010-11-09 | 2012-05-18 | Mango Technologies Pvt Ltd. | Virtual secretary on a smart device |
US8352576B2 (en) | 2010-11-15 | 2013-01-08 | Google Inc. | Media file access |
US20120124172A1 (en) | 2010-11-15 | 2012-05-17 | Google Inc. | Providing Different Versions of a Media File |
MY187902A (en) | 2010-11-16 | 2021-10-27 | Shardul Suresh Shroff | System and method for providing virtual arbitration |
US20120124126A1 (en) | 2010-11-17 | 2012-05-17 | Microsoft Corporation | Contextual and task focused computing |
US10144440B2 (en) | 2010-11-17 | 2018-12-04 | General Electric Company | Methods and systems for data communications |
US8713024B2 (en) | 2010-11-22 | 2014-04-29 | Microsoft Corporation | Efficient forward ranking in a search engine |
US9484018B2 (en) | 2010-11-23 | 2016-11-01 | At&T Intellectual Property I, L.P. | System and method for building and evaluating automatic speech recognition via an application programmer interface |
US8938216B2 (en) | 2010-11-24 | 2015-01-20 | Cisco Technology, Inc. | Geographical location information/signal quality-context based recording and playback of multimedia data from a conference session |
US8489625B2 (en) | 2010-11-29 | 2013-07-16 | Microsoft Corporation | Mobile query suggestions with time-location awareness |
US20120135714A1 (en) | 2010-11-29 | 2012-05-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Information system for motor vehicle |
US9105008B2 (en) | 2010-11-29 | 2015-08-11 | Yahoo! Inc. | Detecting controversial events |
US8862458B2 (en) | 2010-11-30 | 2014-10-14 | Sap Ag | Natural language interface |
GB2486002A (en) | 2010-11-30 | 2012-06-06 | Youview Tv Ltd | Media Content Provision |
WO2012074338A2 (ko) | 2010-12-02 | 2012-06-07 | 에스케이텔레콤 주식회사 | 자연어 및 수학식 처리 방법과 그를 위한 장치 |
JP5652913B2 (ja) | 2010-12-03 | 2015-01-14 | アイシン・エィ・ダブリュ株式会社 | 車載端末装置 |
US9135241B2 (en) | 2010-12-08 | 2015-09-15 | At&T Intellectual Property I, L.P. | System and method for learning latent representations for natural language tasks |
US8312096B2 (en) | 2010-12-08 | 2012-11-13 | Google Inc. | Priority inbox notifications and synchronization for mobile messaging application |
US9092425B2 (en) | 2010-12-08 | 2015-07-28 | At&T Intellectual Property I, L.P. | System and method for feature-rich continuous space language models |
KR101330328B1 (ko) | 2010-12-14 | 2013-11-15 | 한국전자통신연구원 | 음성 인식 방법 및 이를 위한 시스템 |
US8732240B1 (en) | 2010-12-18 | 2014-05-20 | Google Inc. | Scoring stream items with models based on user interests |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
WO2012084003A1 (en) | 2010-12-20 | 2012-06-28 | Tomtom Belgium N.V. | Method for generating map data |
US8666726B2 (en) | 2010-12-21 | 2014-03-04 | Nuance Communications, Inc. | Sample clustering to reduce manual transcriptions in speech recognition system |
US20120158422A1 (en) | 2010-12-21 | 2012-06-21 | General Electric Company | Methods and systems for scheduling appointments in healthcare systems |
US20120158293A1 (en) | 2010-12-21 | 2012-06-21 | General Electric Company | Methods and systems for dynamically providing users with appointment reminders |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US8532377B2 (en) | 2010-12-22 | 2013-09-10 | Xerox Corporation | Image ranking based on abstract concepts |
US20130035086A1 (en) | 2010-12-22 | 2013-02-07 | Logitech Europe S.A. | Remote control system for providing content suggestions |
US10620794B2 (en) | 2010-12-23 | 2020-04-14 | Apple Inc. | Device, method, and graphical user interface for switching between two user interfaces |
US8731902B2 (en) | 2010-12-23 | 2014-05-20 | Sap Ag | Systems and methods for accessing applications based on user intent modeling |
US20120166959A1 (en) | 2010-12-23 | 2012-06-28 | Microsoft Corporation | Surfacing content including content accessed from jump list tasks and items |
US8838449B2 (en) | 2010-12-23 | 2014-09-16 | Microsoft Corporation | Word-dependent language model |
JP2012142744A (ja) | 2010-12-28 | 2012-07-26 | Sanyo Electric Co Ltd | 通信装置 |
KR20120075845A (ko) * | 2010-12-29 | 2012-07-09 | 삼성전자주식회사 | 터치스크린 단말기에서 메모 방법 및 장치 |
TWI413105B (zh) | 2010-12-30 | 2013-10-21 | Ind Tech Res Inst | 多語言之文字轉語音合成系統與方法 |
EP2659366A1 (en) | 2010-12-30 | 2013-11-06 | Ambientz | Information processing using a population of data acquisition devices |
KR101828273B1 (ko) | 2011-01-04 | 2018-02-14 | 삼성전자주식회사 | 결합기반의 음성명령 인식 장치 및 그 방법 |
US8626681B1 (en) | 2011-01-04 | 2014-01-07 | Google Inc. | Training a probabilistic spelling checker from structured data |
CN103370705B (zh) | 2011-01-05 | 2018-01-02 | 谷歌公司 | 用于便利文本输入的方法和系统 |
EP2661869B1 (fr) | 2011-01-05 | 2018-12-26 | Connecthings | Système pour actionner un terminal portable |
US8589950B2 (en) | 2011-01-05 | 2013-11-19 | Blackberry Limited | Processing user input events in a web browser |
US8781456B2 (en) | 2011-01-07 | 2014-07-15 | Blackberry Limited | System and method for controlling mobile communication devices |
US9183843B2 (en) | 2011-01-07 | 2015-11-10 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
JP5712618B2 (ja) | 2011-01-07 | 2015-05-07 | サクサ株式会社 | 電話システム |
US8898065B2 (en) | 2011-01-07 | 2014-11-25 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
US20120176255A1 (en) | 2011-01-10 | 2012-07-12 | Deutsche Telekom Ag | Mobile device-based automatic parking location recorder and reminder using on-board diagnostics |
TWI546700B (zh) | 2011-01-13 | 2016-08-21 | 宏達國際電子股份有限公司 | 手持電子裝置及其控制方法與電腦程式產品 |
US20130283283A1 (en) | 2011-01-13 | 2013-10-24 | Htc Corporation | Portable electronic device and control method therefor |
US8689116B2 (en) | 2011-01-14 | 2014-04-01 | Apple Inc. | Email user interface |
US8863256B1 (en) | 2011-01-14 | 2014-10-14 | Cisco Technology, Inc. | System and method for enabling secure transactions using flexible identity management in a vehicular environment |
KR101242073B1 (ko) | 2011-01-20 | 2013-03-11 | 주식회사 웨이브애프터 | 사용자단말의 터치스크린의 사용자 인터페이스 방법 및 그 기록매체 |
US20120192096A1 (en) | 2011-01-25 | 2012-07-26 | Research In Motion Limited | Active command line driven user interface |
US9031970B1 (en) | 2011-01-26 | 2015-05-12 | Google Inc. | Query autocompletions |
JP2014064048A (ja) * | 2011-01-27 | 2014-04-10 | Panasonic Corp | ネットワーク制御システム、ネットワーク制御機器、ネットワーク被制御機器及び機器制御方法 |
FI126119B (fi) | 2011-01-31 | 2016-06-30 | Waertsilae Finland Oy | Massavaimennin |
US8666895B2 (en) | 2011-01-31 | 2014-03-04 | Bank Of America Corporation | Single action mobile transaction device |
US8943054B2 (en) | 2011-01-31 | 2015-01-27 | Social Resolve, Llc | Social media content management system and method |
JP5772023B2 (ja) * | 2011-02-04 | 2015-09-02 | ソニー株式会社 | 情報処理システム及び情報処理方法 |
WO2012106198A1 (en) | 2011-02-04 | 2012-08-09 | Google Inc. | Posting to social networks by voice |
US9452735B2 (en) | 2011-02-10 | 2016-09-27 | Ford Global Technologies, Llc | System and method for controlling a restricted mode in a vehicle |
US8862612B2 (en) | 2011-02-11 | 2014-10-14 | Sony Corporation | Direct search launch on a second display |
US20120209654A1 (en) | 2011-02-11 | 2012-08-16 | Avaya Inc. | Mobile activity assistant analysis |
US9628842B2 (en) | 2011-02-11 | 2017-04-18 | Sony Corporation | Method and apparatus for identifying content using IPTV devices |
TW201241640A (en) | 2011-02-14 | 2012-10-16 | Microsoft Corp | Dormant background applications on mobile devices |
US10631246B2 (en) | 2011-02-14 | 2020-04-21 | Microsoft Technology Licensing, Llc | Task switching on mobile devices |
AU2011359604B2 (en) | 2011-02-16 | 2014-05-22 | Kortek Industries Pty Ltd | Wireless power, light and automation control |
US10429869B2 (en) | 2011-02-16 | 2019-10-01 | Kortek Industries Pty Ltd | Wireless power, light and automation control |
US20130318478A1 (en) | 2011-02-17 | 2013-11-28 | Nec Casio Mobile Communications Ltd. | Electronic device, display method and non-transitory storage medium |
US9916420B2 (en) | 2011-02-18 | 2018-03-13 | Nuance Communications, Inc. | Physician and clinical documentation specialist workflow integration |
US8694335B2 (en) | 2011-02-18 | 2014-04-08 | Nuance Communications, Inc. | Methods and apparatus for applying user corrections to medical fact extraction |
US9686732B2 (en) | 2011-02-22 | 2017-06-20 | Theatrolabs, Inc. | Observation platform for using structured communications with distributed traffic flow |
KR101178310B1 (ko) | 2011-02-24 | 2012-08-29 | 포항공과대학교 산학협력단 | 대화 관리 방법 및 이를 실행하는 시스템 |
US10145960B2 (en) | 2011-02-24 | 2018-12-04 | Ford Global Technologies, Llc | System and method for cell phone restriction |
CN102651217A (zh) | 2011-02-25 | 2012-08-29 | 株式会社东芝 | 用于合成语音的方法、设备以及用于语音合成的声学模型训练方法 |
US20120221552A1 (en) | 2011-02-28 | 2012-08-30 | Nokia Corporation | Method and apparatus for providing an active search user interface element |
US8688453B1 (en) | 2011-02-28 | 2014-04-01 | Nuance Communications, Inc. | Intent mining via analysis of utterances |
US9632677B2 (en) | 2011-03-02 | 2017-04-25 | The Boeing Company | System and method for navigating a 3-D environment using a multi-input interface |
US8972275B2 (en) | 2011-03-03 | 2015-03-03 | Brightedge Technologies, Inc. | Optimization of social media engagement |
EP2498250B1 (en) | 2011-03-07 | 2021-05-05 | Accenture Global Services Limited | Client and server system for natural language-based control of a digital network of devices |
CN102122506B (zh) | 2011-03-08 | 2013-07-31 | 天脉聚源(北京)传媒科技有限公司 | 一种语音识别的方法 |
US9081760B2 (en) | 2011-03-08 | 2015-07-14 | At&T Intellectual Property I, L.P. | System and method for building diverse language models |
US20120233266A1 (en) | 2011-03-11 | 2012-09-13 | Microsoft Corporation | Peer-to-peer group with renegotiation of group owner |
CN202092650U (zh) | 2011-03-14 | 2011-12-28 | 深圳市车乐数码科技有限公司 | 一种带按键的语音导航的车载多媒体 |
US8849931B2 (en) | 2011-03-15 | 2014-09-30 | Idt Messaging, Llc | Linking context-based information to text messages |
US8606090B2 (en) | 2011-03-17 | 2013-12-10 | Sony Corporation | Sport program chaptering |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US20120246133A1 (en) | 2011-03-23 | 2012-09-27 | Microsoft Corporation | Online spelling correction/phrase completion system |
US20140012205A1 (en) * | 2011-03-23 | 2014-01-09 | Sanofi-Aventis Deutschland Gmbh | Drug Delivery Device with Pivoting Protective Cap |
US20120246064A1 (en) | 2011-03-23 | 2012-09-27 | Ebay, Inc. | Customer refunds using payment service providers |
US8862255B2 (en) | 2011-03-23 | 2014-10-14 | Audible, Inc. | Managing playback of synchronized content |
US8868111B1 (en) | 2011-03-23 | 2014-10-21 | Dp Technologies, Inc. | Method and apparatus to enable the use of a personal communication device with an integrated vehicle interface |
US9202465B2 (en) | 2011-03-25 | 2015-12-01 | General Motors Llc | Speech recognition dependent on text message content |
US8766793B2 (en) | 2011-03-25 | 2014-07-01 | Microsoft Corporation | Contextually-appropriate task reminders |
US9171546B1 (en) | 2011-03-29 | 2015-10-27 | Google Inc. | Performing functions based on commands in context of telephonic communication |
CN202035047U (zh) | 2011-03-29 | 2011-11-09 | 张磊 | 一种提取地址信息进行导航的移动终端 |
JP2012211932A (ja) | 2011-03-30 | 2012-11-01 | Toshiba Corp | 音声認識装置及び音声認識方法 |
US9154555B2 (en) | 2011-03-30 | 2015-10-06 | Paypal, Inc. | Device specific remote disabling of applications |
WO2012135210A2 (en) | 2011-03-31 | 2012-10-04 | Microsoft Corporation | Location-based conversational understanding |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9280535B2 (en) | 2011-03-31 | 2016-03-08 | Infosys Limited | Natural language querying with cascaded conditional random fields |
US10630795B2 (en) | 2011-03-31 | 2020-04-21 | Oath Inc. | Systems and methods for transferring application state between devices based on gestural input |
EP2884812B1 (en) | 2011-04-01 | 2016-12-28 | Interdigital Patent Holdings, Inc. | Apparatus and method for sharing a common PDP context |
US9337999B2 (en) | 2011-04-01 | 2016-05-10 | Intel Corporation | Application usage continuum across platforms |
US9098488B2 (en) | 2011-04-03 | 2015-08-04 | Microsoft Technology Licensing, Llc | Translation of multilingual embedded phrases |
US20120252367A1 (en) | 2011-04-04 | 2012-10-04 | Meditalk Devices, Llc | Auditory Speech Module For Medical Devices |
EP2695057A4 (en) | 2011-04-04 | 2015-07-01 | Hewlett Packard Development Co | CREATION OF A CORRELATION RULE DEFINING A RELATIONSHIP BETWEEN TYPES OF EVENTS |
US8914275B2 (en) | 2011-04-06 | 2014-12-16 | Microsoft Corporation | Text prediction |
US20120316955A1 (en) | 2011-04-06 | 2012-12-13 | Yahoo! Inc. | System and Method for Mobile Application Search |
CN102137193A (zh) | 2011-04-13 | 2011-07-27 | 深圳凯虹移动通信有限公司 | 一种移动通讯终端及其通讯控制方法 |
US9292877B2 (en) | 2011-04-13 | 2016-03-22 | Longsand Limited | Methods and systems for generating concept-based hash tags |
US9366749B2 (en) | 2011-04-15 | 2016-06-14 | Qualcomm Incorporated | Device position estimates from motion and ambient light classifiers |
US8983995B2 (en) | 2011-04-15 | 2015-03-17 | Microsoft Corporation | Interactive semantic query suggestion for content search |
US9648107B1 (en) | 2011-04-22 | 2017-05-09 | Angel A. Penilla | Methods and cloud systems for using connected object state data for informing and alerting connected vehicle drivers of state changes |
US9493130B2 (en) | 2011-04-22 | 2016-11-15 | Angel A. Penilla | Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input |
WO2012148904A1 (en) | 2011-04-25 | 2012-11-01 | Veveo, Inc. | System and method for an intelligent personal timeline assistant |
US9065660B2 (en) | 2011-04-26 | 2015-06-23 | Alcatel Lucent | Usage monitoring after rollover |
US9444692B2 (en) | 2011-04-26 | 2016-09-13 | Openet Telecom Ltd. | Systems, devices and methods of crowd-sourcing across multiple domains |
US9110556B2 (en) | 2011-04-28 | 2015-08-18 | Nokia Technologies Oy | Method and apparatus for increasing the functionality of an electronic device in a locked state |
EP2521051A3 (en) | 2011-05-03 | 2012-11-21 | HTC Corporation | Handheld electronic device and method for recording multimedia clip |
KR101257479B1 (ko) * | 2011-05-04 | 2013-04-24 | 허순영 | 텔레비젼 리모컨 기능을 가진 스마트폰 및 스마트 폰에서 실행 가능한 프로그램으로 구현되는 텔레비젼의 원격 제어 방법 |
WO2012149627A1 (en) | 2011-05-04 | 2012-11-08 | Research In Motion Limited | Methods for adjusting a presentation of graphical data displayed on a graphical user interface |
US8150385B1 (en) | 2011-05-09 | 2012-04-03 | Loment, Inc. | Automated reply messages among end user communication devices |
US8171137B1 (en) | 2011-05-09 | 2012-05-01 | Google Inc. | Transferring application state across devices |
KR101760422B1 (ko) | 2011-05-11 | 2017-07-31 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR101233561B1 (ko) | 2011-05-12 | 2013-02-14 | 엔에이치엔(주) | 단어 수준의 후보 생성에 기초한 음성 인식 시스템 및 방법 |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
EP2707872A2 (en) | 2011-05-12 | 2014-03-19 | Johnson Controls Technology Company | Adaptive voice recognition systems and methods |
US9626441B2 (en) | 2011-05-13 | 2017-04-18 | Inolex Group, Inc. | Calendar-based search engine |
US20120290291A1 (en) | 2011-05-13 | 2012-11-15 | Gabriel Lee Gilbert Shelley | Input processing for character matching and predicted word matching |
US9075875B1 (en) | 2011-05-13 | 2015-07-07 | Google Inc. | System and method for recommending television programs based on user search queries |
US8793624B2 (en) | 2011-05-18 | 2014-07-29 | Google Inc. | Control of a device using gestures |
US8972240B2 (en) | 2011-05-19 | 2015-03-03 | Microsoft Corporation | User-modifiable word lattice display for editing documents and search queries |
US8914290B2 (en) | 2011-05-20 | 2014-12-16 | Vocollect, Inc. | Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment |
US20140157319A1 (en) | 2011-05-20 | 2014-06-05 | Japan Broadcasting Corporation | Program switching control device and program |
US20120304124A1 (en) | 2011-05-23 | 2012-11-29 | Microsoft Corporation | Context aware input engine |
US10522133B2 (en) | 2011-05-23 | 2019-12-31 | Nuance Communications, Inc. | Methods and apparatus for correcting recognition errors |
WO2012161359A1 (ko) | 2011-05-24 | 2012-11-29 | 엘지전자 주식회사 | 사용자 인터페이스 방법 및 장치 |
US8731936B2 (en) | 2011-05-26 | 2014-05-20 | Microsoft Corporation | Energy-efficient unobtrusive identification of a speaker |
US9164983B2 (en) | 2011-05-27 | 2015-10-20 | Robert Bosch Gmbh | Broad-coverage normalization system for social media language |
US9268857B2 (en) | 2011-06-03 | 2016-02-23 | Facebook, Inc. | Suggesting search results to users before receiving any search query from the users |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
TWI488174B (zh) | 2011-06-03 | 2015-06-11 | Apple Inc | 自動地建立文字資料與音訊資料間之映射 |
US10672399B2 (en) | 2011-06-03 | 2020-06-02 | Apple Inc. | Switching between text data and audio data based on a mapping |
US8751971B2 (en) | 2011-06-05 | 2014-06-10 | Apple Inc. | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface |
US20120317498A1 (en) | 2011-06-07 | 2012-12-13 | Research In Motion Limited | Electronic communication device and method for displaying icons |
US8781841B1 (en) | 2011-06-07 | 2014-07-15 | Cisco Technology, Inc. | Name recognition of virtual meeting participants |
US20120316774A1 (en) | 2011-06-09 | 2012-12-13 | Microsoft Corporation | Automatic navigation to a prior known location |
US8732319B2 (en) | 2011-06-10 | 2014-05-20 | Qualcomm Incorporated | Context awareness proximity-based establishment of wireless communication connection |
WO2012170817A1 (en) | 2011-06-10 | 2012-12-13 | Google Inc. | Augmenting statistical machine translation with linguistic knowledge |
US20120316875A1 (en) | 2011-06-10 | 2012-12-13 | Red Shift Company, Llc | Hosted speech handling |
US9082408B2 (en) | 2011-06-13 | 2015-07-14 | Mmodal Ip Llc | Speech recognition using loosely coupled components |
US20120323967A1 (en) | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Spelling Using a Fuzzy Pattern Search |
US20130158977A1 (en) | 2011-06-14 | 2013-06-20 | Andrew Senior | System and Method for Evaluating Speech Exposure |
US20120321112A1 (en) | 2011-06-16 | 2012-12-20 | Apple Inc. | Selecting a digital stream based on an audio sample |
US20120324391A1 (en) | 2011-06-16 | 2012-12-20 | Microsoft Corporation | Predictive word completion |
US9201862B2 (en) | 2011-06-16 | 2015-12-01 | Asociacion Instituto Tecnologico De Informatica | Method for symbolic correction in human-machine interfaces |
CN102237088B (zh) | 2011-06-17 | 2013-10-23 | 盛乐信息技术(上海)有限公司 | 语音识别多信息文本获取装置及方法 |
US20120329529A1 (en) | 2011-06-21 | 2012-12-27 | GreatCall, Inc. | Gesture activate help process and system |
WO2012174738A1 (en) | 2011-06-24 | 2012-12-27 | Google Inc. | Evaluating query translations for cross-language query suggestion |
US10984387B2 (en) | 2011-06-28 | 2021-04-20 | Microsoft Technology Licensing, Llc | Automatic task extraction and calendar entry |
US20130007240A1 (en) | 2011-06-30 | 2013-01-03 | At&T Intellectual Property I, L.P. | Systems and methods to provide availability notifications for denied content requests |
ES2539259T3 (es) | 2011-06-30 | 2015-06-29 | Huawei Technologies Co., Ltd. | Método, aparato y sistema para la transmisión de datos multimedia sobre la base de un servidor de nivel superior (OTT) |
US20130006633A1 (en) | 2011-07-01 | 2013-01-03 | Qualcomm Incorporated | Learning speech models for mobile device users |
CN103650034A (zh) | 2011-07-05 | 2014-03-19 | 三菱电机株式会社 | 语音识别装置及导航装置 |
DE102011078642A1 (de) | 2011-07-05 | 2013-01-10 | Robert Bosch Gmbh | Verfahren zum Prüfen eines m aus n Codes |
US9582598B2 (en) | 2011-07-05 | 2017-02-28 | Visa International Service Association | Hybrid applications utilizing distributed models and views apparatuses, methods and systems |
US9367824B2 (en) | 2011-07-05 | 2016-06-14 | Sap Se | Provisioning and performing action items |
US8209183B1 (en) | 2011-07-07 | 2012-06-26 | Google Inc. | Systems and methods for correction of text from different input types, sources, and contexts |
US20130010575A1 (en) | 2011-07-07 | 2013-01-10 | International Business Machines Corporation | Systems and methods of managing electronic calendar applications |
US8682670B2 (en) | 2011-07-07 | 2014-03-25 | International Business Machines Corporation | Statistical enhancement of speech output from a statistical text-to-speech synthesis system |
US8665212B2 (en) | 2011-07-08 | 2014-03-04 | Blackberry Limited | Systems and methods for locking an electronic device |
US20130018659A1 (en) | 2011-07-12 | 2013-01-17 | Google Inc. | Systems and Methods for Speech Command Processing |
US8812474B2 (en) | 2011-07-14 | 2014-08-19 | Nuance Communications, Inc. | Methods and apparatus for identifying and providing information sought by a user |
US20130024277A1 (en) | 2011-07-18 | 2013-01-24 | Teletech Holdings, Inc. | Platform to provide advertisements to users of registered products |
DE102012212514A1 (de) | 2011-07-18 | 2013-02-21 | Logitech Europe S.A. | Fernbedienungs-Benutzerschnittstelle für Handgerät |
CA2747153A1 (en) | 2011-07-19 | 2013-01-19 | Suleman Kaheer | Natural language processing dialog system for obtaining goods, services or information |
US20130024576A1 (en) | 2011-07-22 | 2013-01-24 | Microsoft Corporation | Proximity-Based Detection |
US8781810B2 (en) | 2011-07-25 | 2014-07-15 | Xerox Corporation | System and method for productive generation of compound words in statistical machine translation |
US20130031476A1 (en) | 2011-07-25 | 2013-01-31 | Coin Emmett | Voice activated virtual assistant |
US9009041B2 (en) | 2011-07-26 | 2015-04-14 | Nuance Communications, Inc. | Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data |
US8260117B1 (en) | 2011-07-26 | 2012-09-04 | Ooyala, Inc. | Automatically recommending content |
US8732028B2 (en) | 2011-07-26 | 2014-05-20 | Expose Retail Strategies Inc. | Scheduling of order processing for remotely ordered goods |
EP2737476A4 (en) | 2011-07-28 | 2014-12-10 | Blackberry Ltd | METHOD AND DEVICES FOR COMMUNICATION RELIEF |
US9240010B2 (en) | 2011-07-28 | 2016-01-19 | Iii Holdings 1, Llc | Systems and methods for generating and using a digital pass |
US9983785B2 (en) * | 2011-07-28 | 2018-05-29 | Hewlett-Packard Development Company, L.P. | Input mode of a device |
EP2551784A1 (en) | 2011-07-28 | 2013-01-30 | Roche Diagnostics GmbH | Method of controlling the display of a dataset |
US9292112B2 (en) | 2011-07-28 | 2016-03-22 | Hewlett-Packard Development Company, L.P. | Multimodal interface |
US20130031216A1 (en) | 2011-07-29 | 2013-01-31 | Myxer, Inc. | Systems and methods for generation of customized media playlists |
US20130030913A1 (en) | 2011-07-29 | 2013-01-31 | Guangyu Zhu | Deriving Ads Ranking of Local Advertisers based on Distance and Aggregate User Activities |
US20130030789A1 (en) | 2011-07-29 | 2013-01-31 | Reginald Dalce | Universal Language Translator |
CN102905499B (zh) | 2011-07-29 | 2015-12-09 | 纬创资通股份有限公司 | 竖卡模块及电子装置 |
US20130035117A1 (en) | 2011-08-04 | 2013-02-07 | GM Global Technology Operations LLC | System and method for restricting driver mobile device feature usage while vehicle is in motion |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
EP2986014A1 (en) | 2011-08-05 | 2016-02-17 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
WO2013022222A2 (en) | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same |
WO2013022218A2 (en) | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for providing user interface thereof |
US8595015B2 (en) | 2011-08-08 | 2013-11-26 | Verizon New Jersey Inc. | Audio communication assessment |
CN102929710B (zh) | 2011-08-09 | 2017-10-27 | 中兴通讯股份有限公司 | 一种调用应用模块的方法及移动终端 |
US8706472B2 (en) | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
WO2013022135A1 (en) | 2011-08-11 | 2013-02-14 | Lg Electronics Inc. | Electronic device and method of controlling the same |
US8589160B2 (en) | 2011-08-19 | 2013-11-19 | Dolbey & Company, Inc. | Systems and methods for providing an electronic dictation interface |
KR101893151B1 (ko) | 2011-08-21 | 2018-08-30 | 엘지전자 주식회사 | 영상 표시 장치, 단말 장치 및 그 동작 방법 |
US20130055099A1 (en) | 2011-08-22 | 2013-02-28 | Rose Yao | Unified Messaging System with Integration of Call Log Data |
JP5736276B2 (ja) | 2011-08-23 | 2015-06-17 | 京セラ株式会社 | 携帯電子機器、制御方法、および、制御プログラム |
US8943071B2 (en) | 2011-08-23 | 2015-01-27 | At&T Intellectual Property I, L.P. | Automatic sort and propagation associated with electronic documents |
US9195768B2 (en) | 2011-08-26 | 2015-11-24 | Amazon Technologies, Inc. | Remote browsing session management |
US20130055147A1 (en) | 2011-08-29 | 2013-02-28 | Salesforce.Com, Inc. | Configuration, generation, and presentation of custom graphical user interface components for a virtual cloud-based application |
CN102955652A (zh) | 2011-08-29 | 2013-03-06 | 王道平 | 一种拼音输入方法 |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130054706A1 (en) | 2011-08-29 | 2013-02-28 | Mary Graham | Modulation of Visual Notification Parameters Based on Message Activity and Notification Value |
US20130054631A1 (en) | 2011-08-30 | 2013-02-28 | Microsoft Corporation | Adding social network data to search suggestions |
US8819012B2 (en) | 2011-08-30 | 2014-08-26 | International Business Machines Corporation | Accessing anchors in voice site content |
US8554729B2 (en) | 2011-08-31 | 2013-10-08 | Google Inc. | System and method for synchronization of actions in the background of an application |
US8914288B2 (en) | 2011-09-01 | 2014-12-16 | At&T Intellectual Property I, L.P. | System and method for advanced turn-taking for interactive spoken dialog systems |
US20130061139A1 (en) | 2011-09-01 | 2013-03-07 | Google Inc. | Server-based spell checking on a user device |
US8660847B2 (en) | 2011-09-02 | 2014-02-25 | Microsoft Corporation | Integrated local and cloud based speech recognition |
KR101590386B1 (ko) * | 2011-09-07 | 2016-02-01 | 네이버 주식회사 | 검색 서비스 제공 장치 및 방법 |
US9596084B2 (en) | 2011-09-09 | 2017-03-14 | Facebook, Inc. | Initializing camera subsystem for face detection based on sensor inputs |
CN104025079A (zh) | 2011-09-09 | 2014-09-03 | 谷歌公司 | 用于翻译网页的用户接口 |
US8788979B2 (en) | 2011-09-10 | 2014-07-22 | Microsoft Corporation | Secondary actions on a notification |
US20130066832A1 (en) | 2011-09-12 | 2013-03-14 | Microsoft Corporation | Application state synchronization |
US10075533B2 (en) | 2011-09-15 | 2018-09-11 | Paypal, Inc. | Method and apparatus for transferring the state of content using short codes |
US20130073346A1 (en) | 2011-09-16 | 2013-03-21 | David Chun | Identifying companies most closely related to a given company |
US20130073293A1 (en) | 2011-09-20 | 2013-03-21 | Lg Electronics Inc. | Electronic device and method for controlling the same |
US20130073286A1 (en) | 2011-09-20 | 2013-03-21 | Apple Inc. | Consolidating Speech Recognition Results |
CN103947219A (zh) | 2011-09-21 | 2014-07-23 | 瑞典爱立信有限公司 | 用于传送或用于接收和播放媒体流的方法、设备和计算机程序 |
US8699963B2 (en) | 2011-09-22 | 2014-04-15 | Blackberry Limited | Mobile communication device with receiver speaker |
US8798995B1 (en) | 2011-09-23 | 2014-08-05 | Amazon Technologies, Inc. | Key word determinations from voice data |
US9129606B2 (en) | 2011-09-23 | 2015-09-08 | Microsoft Technology Licensing, Llc | User query history expansion for improving language model adaptation |
US20130080251A1 (en) | 2011-09-26 | 2013-03-28 | Accenture Global Services Limited | Product registration and tracking system |
KR20130032966A (ko) | 2011-09-26 | 2013-04-03 | 엘지전자 주식회사 | 사용자 인터페이스 방법 및 장치 |
US8812301B2 (en) | 2011-09-26 | 2014-08-19 | Xerox Corporation | Linguistically-adapted structural query annotation |
US8996381B2 (en) | 2011-09-27 | 2015-03-31 | Sensory, Incorporated | Background speech recognition assistant |
US8768707B2 (en) | 2011-09-27 | 2014-07-01 | Sensory Incorporated | Background speech recognition assistant using speaker verification |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US20130086609A1 (en) | 2011-09-29 | 2013-04-04 | Viacom International Inc. | Integration of an Interactive Virtual Toy Box Advertising Unit and Digital Media Content |
US8452602B1 (en) | 2011-09-30 | 2013-05-28 | Google Inc. | Structuring verbal commands to allow concatenation in a voice interface in a mobile device |
US8452597B2 (en) | 2011-09-30 | 2013-05-28 | Google Inc. | Systems and methods for continual speech recognition and detection in mobile computing devices |
AU2015203483A1 (en) | 2011-09-30 | 2015-07-16 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US8468022B2 (en) | 2011-09-30 | 2013-06-18 | Google Inc. | Voice control for asynchronous notifications |
EP3392876A1 (en) | 2011-09-30 | 2018-10-24 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
CN103035251A (zh) | 2011-09-30 | 2013-04-10 | 西门子公司 | 一种建立语音转换模型的方法、语音转换的方法及系统 |
WO2013048880A1 (en) | 2011-09-30 | 2013-04-04 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8340975B1 (en) | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
US8386926B1 (en) | 2011-10-06 | 2013-02-26 | Google Inc. | Network-based custom dictionary, auto-correction and text entry preferences |
US9521175B2 (en) | 2011-10-07 | 2016-12-13 | Henk B. Rogers | Media tagging |
US9640175B2 (en) | 2011-10-07 | 2017-05-02 | Microsoft Technology Licensing, Llc | Pronunciation learning from user correction |
CN103858083A (zh) * | 2011-10-13 | 2014-06-11 | Lg电子株式会社 | 输入界面控制设备及其方法 |
US8738363B2 (en) | 2011-10-13 | 2014-05-27 | Xerox Corporation | System and method for suggestion mining |
US9021565B2 (en) | 2011-10-13 | 2015-04-28 | At&T Intellectual Property I, L.P. | Authentication techniques utilizing a computing device |
US20130097566A1 (en) | 2011-10-17 | 2013-04-18 | Carl Fredrik Alexander BERGLUND | System and method for displaying items on electronic devices |
US9253282B2 (en) | 2011-10-18 | 2016-02-02 | Qualcomm Incorporated | Method and apparatus for generating, using, or updating an enriched user profile |
US9686088B2 (en) | 2011-10-19 | 2017-06-20 | Facebook, Inc. | Notification profile configuration based on device orientation |
KR101873741B1 (ko) | 2011-10-26 | 2018-07-03 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어 방법 |
US8738376B1 (en) | 2011-10-28 | 2014-05-27 | Nuance Communications, Inc. | Sparse maximum a posteriori (MAP) adaptation |
US9223948B2 (en) | 2011-11-01 | 2015-12-29 | Blackberry Limited | Combined passcode and activity launch modifier |
US20130111330A1 (en) | 2011-11-01 | 2013-05-02 | Research In Motion Limited | Accelerated compositing of fixed position elements on an electronic device |
US8996350B1 (en) | 2011-11-02 | 2015-03-31 | Dub Software Group, Inc. | System and method for automatic document management |
EP3157205B1 (en) | 2011-11-02 | 2019-03-27 | BlackBerry Limited | System and method for enabling voice and video communications using a messaging application |
US20130110943A1 (en) | 2011-11-02 | 2013-05-02 | Apple Inc. | Notification and reminder generation, distribution, and storage system |
US9471666B2 (en) | 2011-11-02 | 2016-10-18 | Salesforce.Com, Inc. | System and method for supporting natural language queries and requests against a user's personal data cloud |
CN103093334A (zh) | 2011-11-04 | 2013-05-08 | 周超然 | 活动通知文本识别并自动转换为日历项的方法 |
JP5681611B2 (ja) | 2011-11-09 | 2015-03-11 | 株式会社日立製作所 | ナビゲーションシステム、ナビゲーション装置、方法及びサーバ |
US9711137B2 (en) | 2011-11-10 | 2017-07-18 | At&T Intellectual Property I, Lp | Network-based background expert |
US8863202B2 (en) | 2011-11-11 | 2014-10-14 | Sony Corporation | System and method for voice driven cross service search using second display |
US8996651B2 (en) | 2011-11-12 | 2015-03-31 | Yang Pan | System and method for delivering media assets in a cloud environment |
WO2013075071A1 (en) | 2011-11-18 | 2013-05-23 | Ayman Hammad | Mobile wallet store and service injection platform apparatuses, methods and systems |
US8972263B2 (en) | 2011-11-18 | 2015-03-03 | Soundhound, Inc. | System and method for performing dual mode speech recognition |
KR101467519B1 (ko) | 2011-11-21 | 2014-12-02 | 주식회사 케이티 | 음성 정보를 이용한 컨텐츠 검색 서버 및 방법 |
CN102510426A (zh) | 2011-11-29 | 2012-06-20 | 安徽科大讯飞信息科技股份有限公司 | 个人助理应用访问方法及系统 |
WO2013082507A1 (en) | 2011-11-30 | 2013-06-06 | Decarta | Systems and methods for performing geo-search and retrieval of electronic point-of-interest records using a big index |
CN103135916A (zh) | 2011-11-30 | 2013-06-05 | 英特尔公司 | 手持无线设备中的智能图形界面 |
KR101830656B1 (ko) | 2011-12-02 | 2018-02-21 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9214157B2 (en) | 2011-12-06 | 2015-12-15 | At&T Intellectual Property I, L.P. | System and method for machine-mediated human-human conversation |
US9323746B2 (en) | 2011-12-06 | 2016-04-26 | At&T Intellectual Property I, L.P. | System and method for collaborative language translation |
KR101193668B1 (ko) | 2011-12-06 | 2012-12-14 | 위준성 | 스마트 기기를 이용한 상황 인식 기반 외국어 습득 및 학습 서비스 제공 방법 |
US9082402B2 (en) | 2011-12-08 | 2015-07-14 | Sri International | Generic virtual personal assistant platform |
US9646313B2 (en) | 2011-12-13 | 2017-05-09 | Microsoft Technology Licensing, Llc | Gesture-based tagging to view related content |
US20130159847A1 (en) | 2011-12-14 | 2013-06-20 | International Business Machines Corporation | Dynamic Personal Dictionaries for Enhanced Collaboration |
KR102101043B1 (ko) | 2011-12-14 | 2020-04-16 | 리얼네트웍스 인코포레이티드 | 맞춤가능한 미디어 자동―응답 시스템들 및 방법들 |
US8868529B2 (en) | 2011-12-16 | 2014-10-21 | Sap Se | N-dimensional locking |
US9408011B2 (en) | 2011-12-19 | 2016-08-02 | Qualcomm Incorporated | Automated user/sensor location recognition to customize audio performance in a distributed multi-sensor environment |
US20150039295A1 (en) | 2011-12-20 | 2015-02-05 | Alona Soschen | Natural language processor |
CN202453859U (zh) | 2011-12-20 | 2012-09-26 | 安徽科大讯飞信息科技股份有限公司 | 一种用于家电的语音交互装置 |
US8622836B2 (en) | 2011-12-22 | 2014-01-07 | Igt | Use of wireless signal strength to determine connection |
JP2013131087A (ja) * | 2011-12-22 | 2013-07-04 | Sharp Corp | 表示装置 |
JP5715042B2 (ja) | 2011-12-27 | 2015-05-07 | 京セラ株式会社 | 装置、方法、及びプログラム |
JP2013134430A (ja) | 2011-12-27 | 2013-07-08 | Toyota Motor Corp | コマンド処理装置、方法、及びプログラム |
US8996729B2 (en) | 2012-04-12 | 2015-03-31 | Nokia Corporation | Method and apparatus for synchronizing tasks performed by multiple devices |
US8818810B2 (en) | 2011-12-29 | 2014-08-26 | Robert Bosch Gmbh | Speaker verification in a health monitoring system |
US20130173610A1 (en) | 2011-12-29 | 2013-07-04 | Microsoft Corporation | Extracting Search-Focused Key N-Grams and/or Phrases for Relevance Rankings in Searches |
US9218122B2 (en) | 2011-12-29 | 2015-12-22 | Rovi Guides, Inc. | Systems and methods for transferring settings across devices based on user gestures |
US9094534B2 (en) | 2011-12-29 | 2015-07-28 | Apple Inc. | Device, method, and graphical user interface for configuring and implementing restricted interactions with a user interface |
US9836177B2 (en) | 2011-12-30 | 2017-12-05 | Next IT Innovation Labs, LLC | Providing variable responses in a virtual-assistant environment |
US9189252B2 (en) | 2011-12-30 | 2015-11-17 | Microsoft Technology Licensing, Llc | Context-based device action prediction |
US10739938B2 (en) | 2012-01-05 | 2020-08-11 | International Business Machines Corporation | Customizing a tag cloud |
JP5790509B2 (ja) | 2012-01-05 | 2015-10-07 | 富士通株式会社 | 画像再生装置、画像再生プログラム、及び画像再生方法 |
JP5547216B2 (ja) * | 2012-01-06 | 2014-07-09 | 株式会社東芝 | 電子機器及び表示制御方法 |
JP5887937B2 (ja) | 2012-01-06 | 2016-03-16 | 株式会社リコー | 出力制御システム、出力制御方法、出力制御装置、および出力制御プログラム |
US8994560B2 (en) | 2012-01-06 | 2015-03-31 | International Business Machines Corporation | Managing parking space availability |
KR101590332B1 (ko) | 2012-01-09 | 2016-02-18 | 삼성전자주식회사 | 영상장치 및 그 제어방법 |
US9547832B2 (en) | 2012-01-10 | 2017-01-17 | Oracle International Corporation | Identifying individual intentions and determining responses to individual intentions |
US8825020B2 (en) | 2012-01-12 | 2014-09-02 | Sensory, Incorporated | Information access and device control using mobile phones and audio in the home environment |
CN103209369A (zh) | 2012-01-16 | 2013-07-17 | 晨星软件研发(深圳)有限公司 | 电子装置的声控系统以及相关控制方法 |
US9418674B2 (en) | 2012-01-17 | 2016-08-16 | GM Global Technology Operations LLC | Method and system for using vehicle sound information to enhance audio prompting |
US8812302B2 (en) | 2012-01-17 | 2014-08-19 | Google Inc. | Techniques for inserting diacritical marks to text input via a user device |
JP2013148419A (ja) | 2012-01-18 | 2013-08-01 | Clarion Co Ltd | 誘導システム、携帯端末装置および車載装置 |
US9134810B2 (en) | 2012-01-19 | 2015-09-15 | Blackberry Limited | Next letter prediction for virtual keyboard |
US9099098B2 (en) | 2012-01-20 | 2015-08-04 | Qualcomm Incorporated | Voice activity detection in presence of background noise |
US20130204813A1 (en) | 2012-01-20 | 2013-08-08 | Fluential, Llc | Self-learning, context aware virtual assistants, systems and methods |
US8571528B1 (en) | 2012-01-25 | 2013-10-29 | Intuit Inc. | Method and system to automatically create a contact with contact details captured during voice calls |
US20130197914A1 (en) | 2012-01-26 | 2013-08-01 | Microtechnologies Llc D/B/A Microtech | Voice activated audio control system and associated method of use |
US9423266B2 (en) | 2012-01-26 | 2016-08-23 | Telecommunication Systems, Inc. | Navigational lane guidance |
JP5682578B2 (ja) | 2012-01-27 | 2015-03-11 | 日本電気株式会社 | 音声認識結果修正支援システム、音声認識結果修正支援方法および音声認識結果修正支援プログラム |
US8745760B2 (en) | 2012-01-30 | 2014-06-03 | Cisco Technology, Inc. | Malware classification for unknown executable files |
US20140310365A1 (en) | 2012-01-31 | 2014-10-16 | Global Relay Communications Inc. | System and Method for Tracking Messages in a Messaging Service |
US8626748B2 (en) | 2012-02-03 | 2014-01-07 | International Business Machines Corporation | Combined word tree text visualization system |
KR101900319B1 (ko) | 2012-02-07 | 2018-09-19 | 삼성전자 주식회사 | 서비스 연동 수행 방법과 이를 위한 시스템 |
US9253135B2 (en) | 2012-02-07 | 2016-02-02 | Google Inc. | Notification management |
CN102629246B (zh) | 2012-02-10 | 2017-06-27 | 百纳(武汉)信息技术有限公司 | 识别浏览器语音命令的服务器及浏览器语音命令识别方法 |
US8995960B2 (en) | 2012-02-10 | 2015-03-31 | Dedo Interactive, Inc. | Mobile device authentication |
US8533266B2 (en) | 2012-02-14 | 2013-09-10 | Google Inc. | User presence detection and event discovery |
US10209954B2 (en) | 2012-02-14 | 2019-02-19 | Microsoft Technology Licensing, Llc | Equal access to speech and touch input |
CN103247290A (zh) | 2012-02-14 | 2013-08-14 | 富泰华工业(深圳)有限公司 | 通信装置及其控制方法 |
CN103259907A (zh) | 2012-02-15 | 2013-08-21 | 深圳富泰宏精密工业有限公司 | 情景模式切换系统及方法 |
JP2013167806A (ja) | 2012-02-16 | 2013-08-29 | Toshiba Corp | 情報通知支援装置、情報通知支援方法、および、プログラム |
US8682932B2 (en) | 2012-02-16 | 2014-03-25 | Oracle International Corporation | Mechanisms for searching enterprise data graphs |
US8793136B2 (en) | 2012-02-17 | 2014-07-29 | Lg Electronics Inc. | Method and apparatus for smart voice recognition |
US8832092B2 (en) | 2012-02-17 | 2014-09-09 | Bottlenose, Inc. | Natural language processing optimized for micro content |
WO2013121374A2 (en) * | 2012-02-17 | 2013-08-22 | Koninklijke Philips N.V. | Acute lung injury (ali)/acute respiratory distress syndrome (ards) assessment and monitoring |
US8453058B1 (en) | 2012-02-20 | 2013-05-28 | Google Inc. | Crowd-sourced audio shortcuts |
US9064497B2 (en) | 2012-02-22 | 2015-06-23 | Htc Corporation | Method and apparatus for audio intelligibility enhancement and computing apparatus |
JP2013174987A (ja) * | 2012-02-24 | 2013-09-05 | Hitachi Consumer Electronics Co Ltd | ネットワーク端末システム、及び端末装置 |
US9042867B2 (en) | 2012-02-24 | 2015-05-26 | Agnitio S.L. | System and method for speaker recognition on mobile devices |
KR101889836B1 (ko) | 2012-02-24 | 2018-08-20 | 삼성전자주식회사 | 음성인식을 통한 단말기의 잠금 상태 해제 및 조작 방법 및 장치 |
WO2013123572A1 (en) | 2012-02-24 | 2013-08-29 | Research In Motion Limited | Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters |
JP6053097B2 (ja) | 2012-02-28 | 2016-12-27 | シャープ株式会社 | 機器操作システム、機器操作装置、サーバ、機器操作方法およびプログラム |
US10984337B2 (en) | 2012-02-29 | 2021-04-20 | Microsoft Technology Licensing, Llc | Context-based search query formation |
US8543398B1 (en) | 2012-02-29 | 2013-09-24 | Google Inc. | Training an automatic speech recognition system using compressed word frequencies |
US9026441B2 (en) | 2012-02-29 | 2015-05-05 | Nant Holdings Ip, Llc | Spoken control for user construction of complex behaviors |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US20130235987A1 (en) | 2012-03-06 | 2013-09-12 | Jose Arroniz-Escobar | Automatic machine to machine distribution of subscriber contact information |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9240970B2 (en) | 2012-03-07 | 2016-01-19 | Accenture Global Services Limited | Communication collaboration |
US8775177B1 (en) | 2012-03-08 | 2014-07-08 | Google Inc. | Speech recognition process |
US20130238326A1 (en) | 2012-03-08 | 2013-09-12 | Lg Electronics Inc. | Apparatus and method for multiple device voice control |
US9639174B2 (en) | 2012-03-09 | 2017-05-02 | Paypal, Inc. | Mobile device display content based on shaking the device |
US20150006157A1 (en) | 2012-03-14 | 2015-01-01 | Nec Corporation | Term synonym acquisition method and term synonym acquisition apparatus |
WO2013138633A1 (en) | 2012-03-15 | 2013-09-19 | Regents Of The University Of Minnesota | Automated verbal fluency assessment |
US9223497B2 (en) | 2012-03-16 | 2015-12-29 | Blackberry Limited | In-context word prediction and word correction |
KR101980173B1 (ko) | 2012-03-16 | 2019-05-20 | 삼성전자주식회사 | 서드 파티 테스크 공급자들의 서비스 제공을 대행하는 협력적 퍼스널 어시스턴트 시스템 및 그에 따른 방법 |
EP2639792A1 (en) | 2012-03-16 | 2013-09-18 | France Télécom | Voice control of applications by associating user input with action-context idendifier pairs |
US8898064B1 (en) | 2012-03-19 | 2014-11-25 | Rawles Llc | Identifying candidate passwords from captured audio |
JP5870790B2 (ja) | 2012-03-19 | 2016-03-01 | 富士通株式会社 | 文章校正装置、及び文章校正方法 |
WO2013138999A1 (en) | 2012-03-20 | 2013-09-26 | Nokia Corporation | Method and apparatus for providing group context sensing and inference |
CN102663016B (zh) | 2012-03-21 | 2015-12-16 | 上海触乐信息科技有限公司 | 电子设备上输入候选框进行输入信息扩展的系统及其方法 |
JP2013200423A (ja) | 2012-03-23 | 2013-10-03 | Toshiba Corp | 音声対話支援装置、方法、およびプログラム |
US9609395B2 (en) | 2012-03-26 | 2017-03-28 | Max Abecassis | Second screen subtitles function |
US20130343720A1 (en) | 2012-03-26 | 2013-12-26 | Customplay Llc | Providing Plot Explanation Within A Video |
JP5965175B2 (ja) | 2012-03-27 | 2016-08-03 | ヤフー株式会社 | 応答生成装置、応答生成方法および応答生成プログラム |
US8681950B2 (en) | 2012-03-28 | 2014-03-25 | Interactive Intelligence, Inc. | System and method for fingerprinting datasets |
US10237696B2 (en) | 2012-03-29 | 2019-03-19 | Intel Corporation | Location-based assistance for personal planning |
US9230257B2 (en) | 2012-03-30 | 2016-01-05 | Sap Se | Systems and methods for customer relationship management |
US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
CN103366741B (zh) | 2012-03-31 | 2019-05-17 | 上海果壳电子有限公司 | 语音输入纠错方法及系统 |
ITRM20120142A1 (it) | 2012-04-05 | 2013-10-06 | X2Tv S R L | Procedimento e sistema per la raccolta in tempo reale di un feedback da parte del pubblico di una trasmissione televisiva o radiofonica |
US8346563B1 (en) | 2012-04-10 | 2013-01-01 | Artificial Solutions Ltd. | System and methods for delivering advanced natural language interaction applications |
US8892419B2 (en) | 2012-04-10 | 2014-11-18 | Artificial Solutions Iberia SL | System and methods for semiautomatic generation and tuning of natural language interaction applications |
US8996356B1 (en) | 2012-04-10 | 2015-03-31 | Google Inc. | Techniques for predictive input method editors |
US20130275117A1 (en) | 2012-04-11 | 2013-10-17 | Morgan H. Winer | Generalized Phonetic Transliteration Engine |
US10964320B2 (en) | 2012-04-13 | 2021-03-30 | View, Inc. | Controlling optically-switchable devices |
US9685160B2 (en) | 2012-04-16 | 2017-06-20 | Htc Corporation | Method for offering suggestion during conversation, electronic device using the same, and non-transitory storage medium |
US9223537B2 (en) | 2012-04-18 | 2015-12-29 | Next It Corporation | Conversation user interface |
US20130282709A1 (en) | 2012-04-18 | 2013-10-24 | Yahoo! Inc. | Method and system for query suggestion |
US20130279724A1 (en) | 2012-04-19 | 2013-10-24 | Sony Computer Entertainment Inc. | Auto detection of headphone orientation |
EP2839391A4 (en) | 2012-04-20 | 2016-01-27 | Maluuba Inc | CONVERSATION AGENT |
US20130283199A1 (en) | 2012-04-24 | 2013-10-24 | Microsoft Corporation | Access to an Application Directly from a Lock Screen |
US9117449B2 (en) | 2012-04-26 | 2015-08-25 | Nuance Communications, Inc. | Embedded system for construction of small footprint speech recognition with user-definable constraints |
CN102682771B (zh) | 2012-04-27 | 2013-11-20 | 厦门思德电子科技有限公司 | 一种适用于云平台的多语音控制方法 |
US9626150B2 (en) | 2012-04-27 | 2017-04-18 | Hewlett-Packard Development Company, L.P. | Audio input from user |
TWI511537B (zh) | 2012-04-27 | 2015-12-01 | Wistron Corp | 智慧型電視系統、智慧型電視、行動裝置及其輸入操作方法 |
US9785883B2 (en) | 2012-04-27 | 2017-10-10 | Excalibur Ip, Llc | Avatars for use with personalized generalized content recommendations |
US20130289991A1 (en) | 2012-04-30 | 2013-10-31 | International Business Machines Corporation | Application of Voice Tags in a Social Media Context |
US20130285916A1 (en) | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard providing word predictions at locations in association with candidate letters |
KR101946364B1 (ko) | 2012-05-01 | 2019-02-11 | 엘지전자 주식회사 | 적어도 하나의 마이크 센서를 갖는 모바일 디바이스 및 그 제어방법 |
US10088853B2 (en) | 2012-05-02 | 2018-10-02 | Honeywell International Inc. | Devices and methods for interacting with an HVAC controller |
CN103384290A (zh) | 2012-05-03 | 2013-11-06 | 中兴通讯股份有限公司 | 具备定位导航功能的移动终端及其快捷定位导航的方法 |
US9058332B1 (en) | 2012-05-04 | 2015-06-16 | Google Inc. | Blended ranking of dissimilar populations using an N-furcated normalization technique |
CN102694909A (zh) | 2012-05-07 | 2012-09-26 | 深圳桑菲消费通信有限公司 | 一种手机的智能锁屏系统和方法 |
KR101977072B1 (ko) | 2012-05-07 | 2019-05-10 | 엘지전자 주식회사 | 음성 파일과 관련된 텍스트의 표시 방법 및 이를 구현한 전자기기 |
US9423870B2 (en) | 2012-05-08 | 2016-08-23 | Google Inc. | Input determination method |
US8732560B2 (en) | 2012-05-08 | 2014-05-20 | Infineon Technologies Ag | Method and device for correction of ternary stored binary data |
US9406299B2 (en) | 2012-05-08 | 2016-08-02 | Nuance Communications, Inc. | Differential acoustic model representation and linear transform-based adaptation for efficient user profile update techniques in automatic speech recognition |
CN105260049B (zh) | 2012-05-09 | 2018-10-23 | 苹果公司 | 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面 |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
US8725808B2 (en) | 2012-05-10 | 2014-05-13 | Intel Mobile Communications GmbH | Method for transferring data between a first device and a second device |
WO2013169043A1 (ko) | 2012-05-10 | 2013-11-14 | 엘지전자 주식회사 | Nfc를 이용한 콘텐트 다운로드 방법 및 장치 |
US9746916B2 (en) | 2012-05-11 | 2017-08-29 | Qualcomm Incorporated | Audio user interaction recognition and application interface |
JP5996262B2 (ja) | 2012-05-11 | 2016-09-21 | シャープ株式会社 | 文字入力装置、電子機器、制御方法、制御プログラムおよび記録媒体 |
US9736604B2 (en) | 2012-05-11 | 2017-08-15 | Qualcomm Incorporated | Audio user interaction recognition and context refinement |
JP2013238935A (ja) * | 2012-05-11 | 2013-11-28 | Sharp Corp | 入力装置、入力装置の制御方法、制御プログラム、および記録媒体 |
US9002768B2 (en) | 2012-05-12 | 2015-04-07 | Mikhail Fedorov | Human-computer interface system |
US8897822B2 (en) | 2012-05-13 | 2014-11-25 | Wavemarket, Inc. | Auto responder |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US20130308922A1 (en) | 2012-05-15 | 2013-11-21 | Microsoft Corporation | Enhanced video discovery and productivity through accessibility |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US8775442B2 (en) | 2012-05-15 | 2014-07-08 | Apple Inc. | Semantic search using a single-source semantic model |
US20130307855A1 (en) | 2012-05-16 | 2013-11-21 | Mathew J. Lamb | Holographic story telling |
US20120296638A1 (en) | 2012-05-18 | 2012-11-22 | Ashish Patwa | Method and system for quickly recognizing and responding to user intents and questions from natural language input using intelligent hierarchical processing and personalized adaptive semantic interface |
TWI466101B (zh) | 2012-05-18 | 2014-12-21 | Asustek Comp Inc | 語音識別方法及系統 |
CN103426428B (zh) | 2012-05-18 | 2016-05-25 | 华硕电脑股份有限公司 | 语音识别方法及系统 |
US9247306B2 (en) | 2012-05-21 | 2016-01-26 | Intellectual Ventures Fund 83 Llc | Forming a multimedia product using video chat |
US9406084B2 (en) | 2012-05-23 | 2016-08-02 | Specialty's Café & Bakery, Inc. | Methods for submitting a food order remotely |
US8484573B1 (en) | 2012-05-23 | 2013-07-09 | Google Inc. | Predictive virtual keyboard |
US8850037B2 (en) | 2012-05-24 | 2014-09-30 | Fmr Llc | Communication session transfer between devices |
US9374448B2 (en) | 2012-05-27 | 2016-06-21 | Qualcomm Incorporated | Systems and methods for managing concurrent audio messages |
US9173074B2 (en) | 2012-05-27 | 2015-10-27 | Qualcomm Incorporated | Personal hub presence and response |
US20130325436A1 (en) | 2012-05-29 | 2013-12-05 | Wright State University | Large Scale Distributed Syntactic, Semantic and Lexical Language Models |
KR20130133629A (ko) | 2012-05-29 | 2013-12-09 | 삼성전자주식회사 | 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법 |
US9582146B2 (en) | 2012-05-29 | 2017-02-28 | Nokia Technologies Oy | Causing display of search results |
TWI492221B (zh) | 2012-05-30 | 2015-07-11 | 友達光電股份有限公司 | 遙控裝置、遙控系統及遙控裝置之控制方法 |
US9307293B2 (en) | 2012-05-30 | 2016-04-05 | Palo Alto Research Center Incorporated | Collaborative video application for remote servicing |
US8768693B2 (en) | 2012-05-31 | 2014-07-01 | Yahoo! Inc. | Automatic tag extraction from audio annotated photos |
US8843371B2 (en) | 2012-05-31 | 2014-09-23 | Elwha Llc | Speech recognition adaptation systems based on adaptation data |
CN102750087A (zh) | 2012-05-31 | 2012-10-24 | 华为终端有限公司 | 控制语音识别功能的方法、装置和终端设备 |
US20130325447A1 (en) | 2012-05-31 | 2013-12-05 | Elwha LLC, a limited liability corporation of the State of Delaware | Speech recognition adaptation systems based on adaptation data |
CN103455234A (zh) | 2012-06-01 | 2013-12-18 | 腾讯科技(深圳)有限公司 | 显示应用程序界面的方法及装置 |
US9123338B1 (en) | 2012-06-01 | 2015-09-01 | Google Inc. | Background audio identification for speech disambiguation |
US20130321267A1 (en) | 2012-06-04 | 2013-12-05 | Apple Inc. | Dynamically changing a character associated with a key of a keyboard |
US8725823B2 (en) | 2012-06-05 | 2014-05-13 | Forget You Not, LLC | Location-based communications |
US9997069B2 (en) | 2012-06-05 | 2018-06-12 | Apple Inc. | Context-aware voice guidance |
US9311750B2 (en) | 2012-06-05 | 2016-04-12 | Apple Inc. | Rotation operations in a mapping application |
US9135751B2 (en) * | 2012-06-05 | 2015-09-15 | Apple Inc. | Displaying location preview |
US20130325343A1 (en) | 2012-06-05 | 2013-12-05 | Apple Inc. | Mapping application with novel search field |
US10156455B2 (en) | 2012-06-05 | 2018-12-18 | Apple Inc. | Context-aware voice guidance |
US8515750B1 (en) | 2012-06-05 | 2013-08-20 | Google Inc. | Realtime acoustic adaptation using stability measures |
US9043150B2 (en) | 2012-06-05 | 2015-05-26 | Apple Inc. | Routing applications for navigation |
US9071564B2 (en) | 2012-06-07 | 2015-06-30 | Apple Inc. | Data synchronization using mail and push notification services |
US9261961B2 (en) | 2012-06-07 | 2016-02-16 | Nook Digital, Llc | Accessibility aids for users of electronic devices |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9002380B2 (en) | 2012-06-08 | 2015-04-07 | Apple Inc. | Proximity-based notifications in a mobile device |
WO2013185109A2 (en) | 2012-06-08 | 2013-12-12 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US20130332159A1 (en) | 2012-06-08 | 2013-12-12 | Apple Inc. | Using fan throttling to enhance dictation accuracy |
WO2013185107A1 (en) | 2012-06-08 | 2013-12-12 | Spotify Ab | Systems and methods for recognizing ambiguity in metadata |
US9674331B2 (en) | 2012-06-08 | 2017-06-06 | Apple Inc. | Transmitting data from an automated assistant to an accessory |
US20130332168A1 (en) | 2012-06-08 | 2013-12-12 | Samsung Electronics Co., Ltd. | Voice activated search and control for applications |
US9916514B2 (en) | 2012-06-11 | 2018-03-13 | Amazon Technologies, Inc. | Text recognition driven functionality |
EP2675147B1 (en) | 2012-06-11 | 2022-03-23 | Samsung Electronics Co., Ltd. | Service providing system in a vehicle including display device and mobile device, and method for providing service using the same |
US9183845B1 (en) | 2012-06-12 | 2015-11-10 | Amazon Technologies, Inc. | Adjusting audio signals based on a specific frequency range associated with environmental noise characteristics |
JP5921348B2 (ja) | 2012-06-13 | 2016-05-24 | 三菱電機株式会社 | 映像表示端末 |
CN104603773A (zh) | 2012-06-14 | 2015-05-06 | 诺基亚公司 | 基于用户之间的社交扩散使兴趣标签与媒体项关联的方法和设备 |
EP2862349A4 (en) | 2012-06-14 | 2015-11-11 | Flextronics Ap Llc | METHOD AND SYSTEM FOR ADAPTING TELEVISION CONTENTS |
US20130339454A1 (en) | 2012-06-15 | 2013-12-19 | Michael Walker | Systems and methods for communicating between multiple access devices |
JP5819261B2 (ja) | 2012-06-19 | 2015-11-18 | 株式会社Nttドコモ | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
US9185501B2 (en) | 2012-06-20 | 2015-11-10 | Broadcom Corporation | Container-located information transfer module |
US9734839B1 (en) | 2012-06-20 | 2017-08-15 | Amazon Technologies, Inc. | Routing natural language commands to the appropriate applications |
US20130347029A1 (en) | 2012-06-21 | 2013-12-26 | United Video Properties, Inc. | Systems and methods for navigating to content without an advertisement |
US20140012574A1 (en) | 2012-06-21 | 2014-01-09 | Maluuba Inc. | Interactive timeline for presenting and organizing tasks |
US20130347018A1 (en) | 2012-06-21 | 2013-12-26 | Amazon Technologies, Inc. | Providing supplemental content with active media |
US20130346347A1 (en) | 2012-06-22 | 2013-12-26 | Google Inc. | Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context |
US8606577B1 (en) | 2012-06-25 | 2013-12-10 | Google Inc. | Visual confirmation of voice recognized text input |
US9813882B1 (en) | 2012-06-25 | 2017-11-07 | Amazon Technologies, Inc. | Mobile notifications based upon notification content |
US20130346068A1 (en) | 2012-06-25 | 2013-12-26 | Apple Inc. | Voice-Based Image Tagging and Searching |
CN104412323B (zh) | 2012-06-25 | 2017-12-12 | 三菱电机株式会社 | 车载信息装置 |
US20130342672A1 (en) | 2012-06-25 | 2013-12-26 | Amazon Technologies, Inc. | Using gaze determination with device input |
US8819841B2 (en) | 2012-06-26 | 2014-08-26 | Google Inc. | Automated accounts for media playback |
US20150201064A1 (en) | 2012-06-26 | 2015-07-16 | Blackberry Limited | Methods and apparatus to detect and add impact events to a calendar program |
US20140006153A1 (en) | 2012-06-27 | 2014-01-02 | Infosys Limited | System for making personalized offers for business facilitation of an entity and methods thereof |
CN102801853B (zh) | 2012-06-27 | 2017-02-15 | 宇龙计算机通信科技(深圳)有限公司 | 移动终端和自动触发任务执行方法 |
US20140002338A1 (en) | 2012-06-28 | 2014-01-02 | Intel Corporation | Techniques for pose estimation and false positive filtering for gesture recognition |
US9141504B2 (en) | 2012-06-28 | 2015-09-22 | Apple Inc. | Presenting status data received from multiple devices |
JP6050625B2 (ja) | 2012-06-28 | 2016-12-21 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに情報通信システム |
KR101961139B1 (ko) | 2012-06-28 | 2019-03-25 | 엘지전자 주식회사 | 이동 단말기 및 그것의 음성 인식 방법 |
US9426229B2 (en) | 2012-06-29 | 2016-08-23 | Nokia Technologies Oy | Apparatus and method for selection of a device for content sharing operations |
US9996628B2 (en) | 2012-06-29 | 2018-06-12 | Verisign, Inc. | Providing audio-activated resource access for user devices based on speaker voiceprint |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9195383B2 (en) | 2012-06-29 | 2015-11-24 | Spotify Ab | Systems and methods for multi-path control signals for media presentation devices |
US10620797B2 (en) | 2012-06-29 | 2020-04-14 | Spotify Ab | Systems and methods for multi-context media control and playback |
JP5852930B2 (ja) | 2012-06-29 | 2016-02-03 | Kddi株式会社 | 入力文字推定装置およびプログラム |
US20140006012A1 (en) | 2012-07-02 | 2014-01-02 | Microsoft Corporation | Learning-Based Processing of Natural Language Questions |
CN103533143A (zh) | 2012-07-03 | 2014-01-22 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
KR101972955B1 (ko) | 2012-07-03 | 2019-04-26 | 삼성전자 주식회사 | 음성을 이용한 사용자 디바이스들 간 서비스 연결 방법 및 장치 |
US9536528B2 (en) | 2012-07-03 | 2017-01-03 | Google Inc. | Determining hotword suitability |
KR20140004515A (ko) | 2012-07-03 | 2014-01-13 | 삼성전자주식회사 | 디스플레이 장치, 대화형 시스템 및 응답 정보 제공 방법 |
US9064493B2 (en) | 2012-07-09 | 2015-06-23 | Nuance Communications, Inc. | Detecting potential significant errors in speech recognition results |
CN103543902A (zh) | 2012-07-09 | 2014-01-29 | 上海博路信息技术有限公司 | 一种短信地址的地图显示方法 |
US20140019460A1 (en) | 2012-07-12 | 2014-01-16 | Yahoo! Inc. | Targeted search suggestions |
CN103544140A (zh) | 2012-07-12 | 2014-01-29 | 国际商业机器公司 | 一种数据处理方法、展示方法和相应的装置 |
US9053708B2 (en) | 2012-07-18 | 2015-06-09 | International Business Machines Corporation | System, method and program product for providing automatic speech recognition (ASR) in a shared resource environment |
US9658746B2 (en) | 2012-07-20 | 2017-05-23 | Nook Digital, Llc | Accessible reading mode techniques for electronic devices |
IN2015KN00242A (ja) | 2012-07-20 | 2015-06-12 | Intertrust Tech Corp | |
US9442687B2 (en) | 2012-07-23 | 2016-09-13 | Korea Advanced Institute Of Science And Technology | Method and apparatus for moving web object based on intent |
US20140028477A1 (en) | 2012-07-24 | 2014-01-30 | Apple Inc. | Vehicle location system |
US9953584B2 (en) | 2012-07-24 | 2018-04-24 | Nook Digital, Llc | Lighting techniques for display devices |
US20140032358A1 (en) | 2012-07-25 | 2014-01-30 | Aro, Inc. | Sharing Recommendation Agents |
US8589911B1 (en) | 2012-07-26 | 2013-11-19 | Google Inc. | Intent fulfillment |
US8949334B2 (en) | 2012-07-26 | 2015-02-03 | Microsoft Corporation | Push-based recommendations |
JP2014026629A (ja) | 2012-07-26 | 2014-02-06 | Panasonic Corp | 入力装置及び入力支援方法 |
US8442821B1 (en) | 2012-07-27 | 2013-05-14 | Google Inc. | Multi-frame prediction for hybrid neural network/hidden Markov models |
JP6102923B2 (ja) | 2012-07-27 | 2017-03-29 | ソニー株式会社 | 情報処理システムおよび記憶媒体 |
US8922034B2 (en) | 2012-07-27 | 2014-12-30 | Illinois Tool Works Inc. | Power converter for engine generator |
US8990343B2 (en) | 2012-07-30 | 2015-03-24 | Google Inc. | Transferring a state of an application from a first computing device to a second computing device |
US9465833B2 (en) | 2012-07-31 | 2016-10-11 | Veveo, Inc. | Disambiguating user intent in conversational interaction system for large corpus information retrieval |
US20140039893A1 (en) | 2012-07-31 | 2014-02-06 | Sri International | Personalized Voice-Driven User Interfaces for Remote Multi-User Services |
US8831957B2 (en) | 2012-08-01 | 2014-09-09 | Google Inc. | Speech recognition models based on location indicia |
US20140035823A1 (en) | 2012-08-01 | 2014-02-06 | Apple Inc. | Dynamic Context-Based Language Determination |
US10108725B2 (en) | 2012-08-02 | 2018-10-23 | Rule 14 | Real-time and adaptive data mining |
US9160844B2 (en) | 2012-08-06 | 2015-10-13 | Angel.Com Incorporated | Conversation assistant |
US9390174B2 (en) | 2012-08-08 | 2016-07-12 | Google Inc. | Search result ranking and presentation |
TWI442081B (zh) | 2012-08-10 | 2014-06-21 | Acer Inc | 多裝置間轉移工作的方法及手持通訊裝置 |
KR20150046100A (ko) | 2012-08-10 | 2015-04-29 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 전자 디바이스에 대한 가상 에이전트 통신 |
US20140052791A1 (en) | 2012-08-14 | 2014-02-20 | International Business Machines Corporation | Task Based Filtering of Unwanted Electronic Communications |
US10163058B2 (en) | 2012-08-14 | 2018-12-25 | Sri International | Method, system and device for inferring a mobile user's current context and proactively providing assistance |
EP2885918A4 (en) | 2012-08-15 | 2016-06-15 | Ie Business Plains Llc | ONLINE COLLABORATIVE SUITE |
US20140053101A1 (en) | 2012-08-15 | 2014-02-20 | Ge Aviation Systems Llc | Methods for displaying on a graphical user interface |
KR101922464B1 (ko) | 2012-08-16 | 2018-11-27 | 삼성전자주식회사 | 메시지 송수신 방법 및 그 전자장치 |
US9292487B1 (en) | 2012-08-16 | 2016-03-22 | Amazon Technologies, Inc. | Discriminative language model pruning |
US9497515B2 (en) | 2012-08-16 | 2016-11-15 | Nuance Communications, Inc. | User interface for entertainment systems |
EP2803004A1 (en) | 2012-08-16 | 2014-11-19 | Nuance Communications, Inc. | User interface for entertainment systems |
US9031848B2 (en) | 2012-08-16 | 2015-05-12 | Nuance Communications, Inc. | User interface for searching a bundled service content data source |
CN102820033B (zh) | 2012-08-17 | 2013-12-04 | 南京大学 | 一种声纹识别方法 |
US20160357790A1 (en) | 2012-08-20 | 2016-12-08 | InsideSales.com, Inc. | Resolving and merging duplicate records using machine learning |
US20140279739A1 (en) | 2013-03-15 | 2014-09-18 | InsideSales.com, Inc. | Resolving and merging duplicate records using machine learning |
WO2014029099A1 (en) | 2012-08-24 | 2014-02-27 | Microsoft Corporation | I-vector based clustering training data in speech recognition |
US9229924B2 (en) | 2012-08-24 | 2016-01-05 | Microsoft Technology Licensing, Llc | Word detection and domain dictionary recommendation |
JP5936698B2 (ja) | 2012-08-27 | 2016-06-22 | 株式会社日立製作所 | 単語意味関係抽出装置 |
US9390370B2 (en) | 2012-08-28 | 2016-07-12 | International Business Machines Corporation | Training deep neural network acoustic models using distributed hessian-free optimization |
US9049295B1 (en) | 2012-08-28 | 2015-06-02 | West Corporation | Intelligent interactive voice response system for processing customer communications |
CN104584601B (zh) | 2012-08-28 | 2018-10-09 | 诺基亚技术有限公司 | 发现方法和用于发现的装置和系统 |
US9026425B2 (en) | 2012-08-28 | 2015-05-05 | Xerox Corporation | Lexical and phrasal feature domain adaptation in statistical machine translation |
JP6393021B2 (ja) | 2012-08-28 | 2018-09-19 | 京セラ株式会社 | 電子機器、制御方法、及び制御プログラム |
CN102866828B (zh) | 2012-08-29 | 2015-11-25 | 腾讯科技(深圳)有限公司 | 一种终端控制方法和设备 |
KR102081925B1 (ko) | 2012-08-29 | 2020-02-26 | 엘지전자 주식회사 | 디스플레이 디바이스 및 스피치 검색 방법 |
US9424840B1 (en) | 2012-08-31 | 2016-08-23 | Amazon Technologies, Inc. | Speech recognition platforms |
US9218333B2 (en) | 2012-08-31 | 2015-12-22 | Microsoft Technology Licensing, Llc | Context sensitive auto-correction |
US20140074589A1 (en) | 2012-09-02 | 2014-03-13 | Aaron David NIELSEN | System and method for the selection and delivery of a customized consumer offer or engagement dialog by a live customer service representative in communication with a consumer |
KR101398218B1 (ko) | 2012-09-03 | 2014-05-22 | 경희대학교 산학협력단 | 감정 음성 인식장치 및 방법 |
CN103493500A (zh) | 2012-09-04 | 2014-01-01 | 华为终端有限公司 | 媒体播放方法、控制点和终端 |
US8826415B2 (en) | 2012-09-04 | 2014-09-02 | Apple Inc. | Automated device access |
US9325809B1 (en) | 2012-09-07 | 2016-04-26 | Mindmeld, Inc. | Audio recall during voice conversations |
US9536049B2 (en) | 2012-09-07 | 2017-01-03 | Next It Corporation | Conversational virtual healthcare assistant |
JP5999839B2 (ja) * | 2012-09-10 | 2016-09-28 | ルネサスエレクトロニクス株式会社 | 音声案内システム及び電子機器 |
US8600746B1 (en) | 2012-09-10 | 2013-12-03 | Google Inc. | Speech recognition parameter adjustment |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US20150088523A1 (en) | 2012-09-10 | 2015-03-26 | Google Inc. | Systems and Methods for Designing Voice Applications |
US20140074466A1 (en) | 2012-09-10 | 2014-03-13 | Google Inc. | Answering questions using environmental context |
EP2706458A1 (en) | 2012-09-10 | 2014-03-12 | Canon Kabushiki Kaisha | Method and device for controlling communication between applications in a web runtime environment |
US20140074470A1 (en) | 2012-09-11 | 2014-03-13 | Google Inc. | Phonetic pronunciation |
US20140074472A1 (en) | 2012-09-12 | 2014-03-13 | Chih-Hung Lin | Voice control system with portable voice control device |
WO2014040263A1 (en) | 2012-09-14 | 2014-03-20 | Microsoft Corporation | Semantic ranking using a forward index |
US20140078065A1 (en) | 2012-09-15 | 2014-03-20 | Ahmet Akkok | Predictive Keyboard With Suppressed Keys |
US10656808B2 (en) | 2012-09-18 | 2020-05-19 | Adobe Inc. | Natural language and user interface controls |
US9519641B2 (en) | 2012-09-18 | 2016-12-13 | Abbyy Development Llc | Photography recognition translation |
JP6057637B2 (ja) | 2012-09-18 | 2017-01-11 | 株式会社アイ・オー・データ機器 | 携帯型情報端末装置、機能切替方法、および機能切替プログラム |
US9081482B1 (en) | 2012-09-18 | 2015-07-14 | Google Inc. | Text input suggestion ranking |
CN108710406B (zh) | 2012-09-18 | 2021-10-08 | 谷歌有限责任公司 | 姿势适应选择 |
US8823507B1 (en) | 2012-09-19 | 2014-09-02 | Amazon Technologies, Inc. | Variable notification alerts |
US9105268B2 (en) | 2012-09-19 | 2015-08-11 | 24/7 Customer, Inc. | Method and apparatus for predicting intent in IVR using natural language queries |
US9547647B2 (en) * | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8769651B2 (en) | 2012-09-19 | 2014-07-01 | Secureauth Corporation | Mobile multifactor single-sign-on authentication |
KR101919792B1 (ko) | 2012-09-20 | 2018-11-19 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어 방법 |
US10042603B2 (en) | 2012-09-20 | 2018-08-07 | Samsung Electronics Co., Ltd. | Context aware service provision method and apparatus of user device |
US9076450B1 (en) | 2012-09-21 | 2015-07-07 | Amazon Technologies, Inc. | Directed audio for speech recognition |
US20140211944A1 (en) | 2012-09-24 | 2014-07-31 | Daniel Joseph Lutz | System and method of protecting, storing and decrypting keys over a computerized network |
US8983383B1 (en) | 2012-09-25 | 2015-03-17 | Rawles Llc | Providing hands-free service to multiple devices |
US9092415B2 (en) | 2012-09-25 | 2015-07-28 | Rovi Guides, Inc. | Systems and methods for automatic program recommendations based on user interactions |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
US8983836B2 (en) | 2012-09-26 | 2015-03-17 | International Business Machines Corporation | Captioning using socially derived acoustic profiles |
JP6068901B2 (ja) | 2012-09-26 | 2017-01-25 | 京セラ株式会社 | 情報端末、音声操作プログラムおよび音声操作方法 |
CN104469255A (zh) | 2013-09-16 | 2015-03-25 | 杜比实验室特许公司 | 改进的音频或视频会议 |
US8498864B1 (en) | 2012-09-27 | 2013-07-30 | Google Inc. | Methods and systems for predicting a text |
US20140087711A1 (en) | 2012-09-27 | 2014-03-27 | Aegis Mobility, Inc. | Mobile device context incorporating near field communications |
JP2014072586A (ja) | 2012-09-27 | 2014-04-21 | Sharp Corp | 表示装置、表示方法、テレビジョン受像機、プログラム、および、記録媒体 |
KR20140042994A (ko) | 2012-09-28 | 2014-04-08 | 한국전자통신연구원 | 가상 에이전트와의 대화 내용에서 자동으로 추출되는 개인 프로파일링 정보를 이용한 자동학습 기반의 인공지능 대화 시스템 |
US10824310B2 (en) | 2012-12-20 | 2020-11-03 | Sri International | Augmented reality virtual personal assistant for external representation |
US9052964B2 (en) | 2012-09-28 | 2015-06-09 | International Business Machines Corporation | Device operability enhancement with alternative device utilization |
US10096316B2 (en) | 2013-11-27 | 2018-10-09 | Sri International | Sharing intents to provide virtual assistance in a multi-person dialog |
US8806613B2 (en) | 2012-09-28 | 2014-08-12 | Intel Corporation | Intelligent task assignment and authorization systems and methods |
US10276157B2 (en) | 2012-10-01 | 2019-04-30 | Nuance Communications, Inc. | Systems and methods for providing a voice agent user interface |
US20140095171A1 (en) | 2012-10-01 | 2014-04-03 | Nuance Communications, Inc. | Systems and methods for providing a voice agent user interface |
US20140095172A1 (en) | 2012-10-01 | 2014-04-03 | Nuance Communications, Inc. | Systems and methods for providing a voice agent user interface |
US8645128B1 (en) | 2012-10-02 | 2014-02-04 | Google Inc. | Determining pitch dynamics of an audio signal |
US9367236B2 (en) | 2012-10-05 | 2016-06-14 | Google Inc. | System and method for processing touch actions |
US9230560B2 (en) | 2012-10-08 | 2016-01-05 | Nant Holdings Ip, Llc | Smart home automation systems and methods |
KR102009423B1 (ko) | 2012-10-08 | 2019-08-09 | 삼성전자주식회사 | 음성 인식을 이용한 미리 설정된 동작 모드의 수행 방법 및 장치 |
CN102915731B (zh) | 2012-10-10 | 2019-02-05 | 百度在线网络技术(北京)有限公司 | 一种个性化的语音识别的方法及装置 |
US8606568B1 (en) | 2012-10-10 | 2013-12-10 | Google Inc. | Evaluating pronouns in context |
US8543397B1 (en) | 2012-10-11 | 2013-09-24 | Google Inc. | Mobile device voice activation |
US10275513B1 (en) | 2012-10-12 | 2019-04-30 | Google Llc | Providing application functionality |
JP6066471B2 (ja) | 2012-10-12 | 2017-01-25 | 本田技研工業株式会社 | 対話システム及び対話システム向け発話の判別方法 |
US8843845B2 (en) | 2012-10-16 | 2014-09-23 | Google Inc. | Multi-gesture text input prediction |
KR101451942B1 (ko) * | 2012-10-16 | 2014-10-22 | 크루셜텍 (주) | 카테고리를 변경하는 화면 제어 방법 및 이를 구현하는 셋톱박스 |
US8713433B1 (en) | 2012-10-16 | 2014-04-29 | Google Inc. | Feature-based autocorrection |
CN103727948B (zh) | 2012-10-16 | 2016-08-17 | 北京掌行通信息技术有限公司 | 乘车导航的实时诱导方法 |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
CN102882752A (zh) | 2012-10-19 | 2013-01-16 | 天津光宏科技有限公司 | 基于物联网及安卓系统的智能家居系统及控制方法 |
US20150241962A1 (en) | 2012-10-22 | 2015-08-27 | Vid Scale, Inc. | User presence detection in mobile devices |
US9319445B2 (en) | 2012-10-22 | 2016-04-19 | Spotify Ab | Systems and methods for pre-fetching media content |
US9305439B2 (en) | 2012-10-25 | 2016-04-05 | Google Inc. | Configurable indicator on computing device |
US8527276B1 (en) | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
US9158560B2 (en) | 2012-10-26 | 2015-10-13 | Verizon Patent And Licensing Inc. | Dynamic application arranger |
US9459176B2 (en) | 2012-10-26 | 2016-10-04 | Azima Holdings, Inc. | Voice controlled vibration data analyzer systems and methods |
US8655307B1 (en) | 2012-10-26 | 2014-02-18 | Lookout, Inc. | System and method for developing, updating, and using user device behavioral context models to modify user, device, and application state, settings and behavior for enhanced user security |
US20140122086A1 (en) | 2012-10-26 | 2014-05-01 | Microsoft Corporation | Augmenting speech recognition with depth imaging |
WO2014064324A1 (en) | 2012-10-26 | 2014-05-01 | Nokia Corporation | Multi-device speech recognition |
KR20140054643A (ko) | 2012-10-29 | 2014-05-09 | 삼성전자주식회사 | 음성인식장치 및 음성인식방법 |
KR101967917B1 (ko) | 2012-10-30 | 2019-08-13 | 삼성전자주식회사 | 음성을 인식하는 전자 장치 및 방법 |
KR102117841B1 (ko) | 2012-10-30 | 2020-06-02 | 삼성전자주식회사 | 전자장치 및 그 제어방법 |
WO2014070872A2 (en) | 2012-10-30 | 2014-05-08 | Robert Bosch Gmbh | System and method for multimodal interaction with reduced distraction in operating vehicles |
US10304465B2 (en) | 2012-10-30 | 2019-05-28 | Google Technology Holdings LLC | Voice control user interface for low power mode |
WO2014071043A1 (en) | 2012-10-31 | 2014-05-08 | DoWhatILikeBest, LLC | Favorite and serendipitous event correlation and notification |
US9734151B2 (en) * | 2012-10-31 | 2017-08-15 | Tivo Solutions Inc. | Method and system for voice based media search |
US8606576B1 (en) | 2012-11-02 | 2013-12-10 | Google Inc. | Communication log with extracted keywords from speech-to-text processing |
US9093069B2 (en) | 2012-11-05 | 2015-07-28 | Nuance Communications, Inc. | Privacy-sensitive speech model creation via aggregation of multiple user models |
US9734249B2 (en) | 2012-11-07 | 2017-08-15 | Intertrust Technologies Corporation | Personalized data management systems and methods |
JP6018881B2 (ja) | 2012-11-07 | 2016-11-02 | 株式会社日立製作所 | ナビゲーション装置、及びナビゲーション方法 |
KR101510860B1 (ko) | 2012-11-08 | 2015-04-10 | 아주대학교산학협력단 | 사용자 의도 파악 어플리케이션 서비스 방법 및 서버와 이를 이용한 사용자 의도 파악 어플리케이션 서비스 시스템 |
WO2014073825A1 (en) * | 2012-11-09 | 2014-05-15 | Lg Electronics Inc. | Portable device and control method thereof |
US20140136987A1 (en) | 2012-11-09 | 2014-05-15 | Apple Inc. | Generation of a user interface based on contacts |
KR20140060995A (ko) | 2012-11-13 | 2014-05-21 | 삼성전자주식회사 | 상황별 거절 메시지 제공 방법 및 이를 지원하는 단말기 |
US9275642B2 (en) | 2012-11-13 | 2016-03-01 | Unified Computer Intelligence Corporation | Voice-operated internet-ready ubiquitous computing device and method thereof |
US9247387B2 (en) | 2012-11-13 | 2016-01-26 | International Business Machines Corporation | Proximity based reminders |
US9235321B2 (en) | 2012-11-14 | 2016-01-12 | Facebook, Inc. | Animation sequence associated with content item |
KR20140061803A (ko) | 2012-11-14 | 2014-05-22 | 삼성전자주식회사 | 프로젝션 장치 |
KR101709187B1 (ko) | 2012-11-14 | 2017-02-23 | 한국전자통신연구원 | 계층적 대화 태스크 라이브러리를 이용한 이중 대화관리 기반 음성대화시스템 |
US9798799B2 (en) | 2012-11-15 | 2017-10-24 | Sri International | Vehicle personal assistant that interprets spoken natural language input based upon vehicle context |
US9085303B2 (en) | 2012-11-15 | 2015-07-21 | Sri International | Vehicle personal assistant |
US9032219B2 (en) | 2012-11-16 | 2015-05-12 | Nuance Communications, Inc. | Securing speech recognition data |
KR102028702B1 (ko) | 2012-11-16 | 2019-10-04 | 삼성전자주식회사 | 현재의 상태에 따른 응답 메시지를 송신하는 전자 장치 및 방법 |
US9378456B2 (en) | 2012-11-19 | 2016-06-28 | Microsoft Technology Licensing, Llc | Task completion |
KR101995428B1 (ko) | 2012-11-20 | 2019-07-02 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP2014102669A (ja) | 2012-11-20 | 2014-06-05 | Toshiba Corp | 情報処理装置、情報処理方法およびプログラム |
US9251713B1 (en) | 2012-11-20 | 2016-02-02 | Anthony J. Giovanniello | System and process for assessing a user and for assisting a user in rehabilitation |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
KR20140064246A (ko) | 2012-11-20 | 2014-05-28 | 한국전자통신연구원 | 착용형 디스플레이 장치 |
US8965754B2 (en) | 2012-11-20 | 2015-02-24 | International Business Machines Corporation | Text prediction using environment hints |
US9756049B2 (en) | 2012-11-22 | 2017-09-05 | 8303142 Canada Inc. | System and method for managing several mobile devices simultaneously |
US10026400B2 (en) | 2013-06-27 | 2018-07-17 | Google Llc | Generating dialog recommendations for chat information systems based on user interaction and environmental data |
US20140146200A1 (en) | 2012-11-28 | 2014-05-29 | Research In Motion Limited | Entries to an electronic calendar |
WO2014084413A1 (ko) | 2012-11-28 | 2014-06-05 | 엘지전자 주식회사 | 가전 기기 구동 장치 및 방법 |
WO2014142702A1 (en) | 2013-03-15 | 2014-09-18 | Obschestvo S Ogranichennoy Otvetstvennostiyu "Speaktoit" | Selective speech recognition for chat and digital personal assistant systems |
US20140149118A1 (en) | 2012-11-28 | 2014-05-29 | Lg Electronics Inc. | Apparatus and method for driving electric device using speech recognition |
RU2530268C2 (ru) | 2012-11-28 | 2014-10-10 | Общество с ограниченной ответственностью "Спиктуит" | Способ обучения информационной диалоговой системы пользователем |
KR102104025B1 (ko) | 2012-11-29 | 2020-04-23 | 에드센스, 엘.엘.씨. | 여러 애플리케이션들을 디스플레이하기 위한 시스템 및 방법 |
JP2014109889A (ja) | 2012-11-30 | 2014-06-12 | Toshiba Corp | コンテンツ検索装置、コンテンツ検索方法及び制御プログラム |
US9589149B2 (en) | 2012-11-30 | 2017-03-07 | Microsoft Technology Licensing, Llc | Combining personalization and privacy locally on devices |
US9159319B1 (en) | 2012-12-03 | 2015-10-13 | Amazon Technologies, Inc. | Keyword spotting with competitor models |
US9549323B2 (en) | 2012-12-03 | 2017-01-17 | Samsung Electronics Co., Ltd. | Method and mobile terminal for controlling screen lock |
US9819786B2 (en) | 2012-12-05 | 2017-11-14 | Facebook, Inc. | Systems and methods for a symbol-adaptable keyboard |
US9026429B2 (en) | 2012-12-05 | 2015-05-05 | Facebook, Inc. | Systems and methods for character string auto-suggestion based on degree of difficulty |
US20140164476A1 (en) | 2012-12-06 | 2014-06-12 | At&T Intellectual Property I, Lp | Apparatus and method for providing a virtual assistant |
US9244905B2 (en) | 2012-12-06 | 2016-01-26 | Microsoft Technology Licensing, Llc | Communication context based predictive-text suggestion |
US8930181B2 (en) | 2012-12-06 | 2015-01-06 | Prashant Parikh | Automatic dynamic contextual data entry completion |
US8615221B1 (en) | 2012-12-06 | 2013-12-24 | Google Inc. | System and method for selection of notification techniques in an electronic device |
US20140163951A1 (en) | 2012-12-07 | 2014-06-12 | Xerox Corporation | Hybrid adaptation of named entity recognition |
US9471559B2 (en) | 2012-12-10 | 2016-10-18 | International Business Machines Corporation | Deep analysis of natural language questions for question answering system |
KR102091003B1 (ko) | 2012-12-10 | 2020-03-19 | 삼성전자 주식회사 | 음성인식 기술을 이용한 상황 인식 서비스 제공 방법 및 장치 |
US9704486B2 (en) | 2012-12-11 | 2017-07-11 | Amazon Technologies, Inc. | Speech recognition power management |
US20140164953A1 (en) | 2012-12-11 | 2014-06-12 | Nuance Communications, Inc. | Systems and methods for invoking virtual agent |
US20140164532A1 (en) | 2012-12-11 | 2014-06-12 | Nuance Communications, Inc. | Systems and methods for virtual agent participation in multiparty conversation |
US9679300B2 (en) | 2012-12-11 | 2017-06-13 | Nuance Communications, Inc. | Systems and methods for virtual agent recommendation for multiple persons |
US9659298B2 (en) | 2012-12-11 | 2017-05-23 | Nuance Communications, Inc. | Systems and methods for informing virtual agent recommendation |
WO2014093339A1 (en) | 2012-12-11 | 2014-06-19 | Nuance Communications, Inc. | System and methods for virtual agent recommendation for multiple persons |
US9276802B2 (en) | 2012-12-11 | 2016-03-01 | Nuance Communications, Inc. | Systems and methods for sharing information between virtual agents |
US9697827B1 (en) | 2012-12-11 | 2017-07-04 | Amazon Technologies, Inc. | Error reduction in speech processing |
US9148394B2 (en) | 2012-12-11 | 2015-09-29 | Nuance Communications, Inc. | Systems and methods for user interface presentation of virtual agent |
US9117450B2 (en) | 2012-12-12 | 2015-08-25 | Nuance Communications, Inc. | Combining re-speaking, partial agent transcription and ASR for improved accuracy / human guided ASR |
US9190057B2 (en) | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
US9185742B2 (en) | 2012-12-13 | 2015-11-10 | Google Technology Holdings LLC | System and methods for a cloud based wireless personal area network service enabling context activity handoffs between devices |
US9558275B2 (en) | 2012-12-13 | 2017-01-31 | Microsoft Technology Licensing, Llc | Action broker |
KR102014778B1 (ko) | 2012-12-14 | 2019-08-27 | 엘지전자 주식회사 | 텍스트 메시징 서비스를 제공하는 디지털 디바이스 및 그 제어 방법 |
KR102090269B1 (ko) | 2012-12-14 | 2020-03-17 | 삼성전자주식회사 | 정보 검색 방법, 그와 같은 기능을 갖는 디바이스 및 기록 매체 |
US9141660B2 (en) | 2012-12-17 | 2015-09-22 | International Business Machines Corporation | Intelligent evidence classification and notification in a deep question answering system |
US9213754B1 (en) | 2012-12-17 | 2015-12-15 | Google Inc. | Personalizing content items |
WO2014098477A1 (ko) | 2012-12-18 | 2014-06-26 | 삼성전자 주식회사 | 홈 네트워크 시스템에서 홈 디바이스를 원격으로 제어하는 방법 및 장치 |
US9070366B1 (en) | 2012-12-19 | 2015-06-30 | Amazon Technologies, Inc. | Architecture for multi-domain utterance processing |
US9098467B1 (en) | 2012-12-19 | 2015-08-04 | Rawles Llc | Accepting voice commands based on user identity |
US8645138B1 (en) | 2012-12-20 | 2014-02-04 | Google Inc. | Two-pass decoding for speech recognition of search and action requests |
US8977555B2 (en) | 2012-12-20 | 2015-03-10 | Amazon Technologies, Inc. | Identification of utterance subjects |
US20140179295A1 (en) | 2012-12-20 | 2014-06-26 | Enno Luebbers | Deriving environmental context and actions from ad-hoc state broadcast |
WO2014096506A1 (en) | 2012-12-21 | 2014-06-26 | Nokia Corporation | Method, apparatus, and computer program product for personalizing speech recognition |
KR20140082157A (ko) | 2012-12-24 | 2014-07-02 | 한국전자통신연구원 | 다중 음향 모델을 이용하여 음성을 인식하기 위한 장치 및 그 방법 |
JP2014126600A (ja) | 2012-12-25 | 2014-07-07 | Panasonic Corp | 音声認識装置、音声認識方法、およびテレビ |
JP2014124332A (ja) | 2012-12-26 | 2014-07-07 | Daiichi Shokai Co Ltd | 遊技機 |
KR101905174B1 (ko) | 2012-12-29 | 2018-10-08 | 애플 인크. | 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
JP6097843B2 (ja) | 2012-12-29 | 2017-03-15 | アップル インコーポレイテッド | コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース |
CN105144057B (zh) | 2012-12-29 | 2019-05-17 | 苹果公司 | 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面 |
JP6093877B2 (ja) | 2012-12-29 | 2017-03-08 | アップル インコーポレイテッド | 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース |
CN103021403A (zh) | 2012-12-31 | 2013-04-03 | 威盛电子股份有限公司 | 基于语音识别的选择方法及其移动终端装置及信息系统 |
CN103077165A (zh) | 2012-12-31 | 2013-05-01 | 威盛电子股份有限公司 | 自然语言对话方法及其系统 |
US8571851B1 (en) | 2012-12-31 | 2013-10-29 | Google Inc. | Semantic interpretation using user gaze order |
CN103049567A (zh) | 2012-12-31 | 2013-04-17 | 威盛电子股份有限公司 | 检索方法、检索系统以及自然语言理解系统 |
CN103020047A (zh) | 2012-12-31 | 2013-04-03 | 威盛电子股份有限公司 | 修正语音应答的方法及自然语言对话系统 |
KR20140088449A (ko) | 2013-01-02 | 2014-07-10 | 엘지전자 주식회사 | 중앙 제어 장치 및 그것의 제어 방법 |
US9497137B2 (en) | 2013-01-04 | 2016-11-15 | Sookbox, LLC | Digital content connectivity and control via a plurality of controllers that are treated discriminatively |
KR101892734B1 (ko) | 2013-01-04 | 2018-08-28 | 한국전자통신연구원 | 음성 인식 시스템에서의 오류 수정 방법 및 그 장치 |
KR102030114B1 (ko) * | 2013-01-07 | 2019-10-08 | 삼성전자주식회사 | 서버 및 그의 제어 방법 |
KR20140093303A (ko) | 2013-01-07 | 2014-07-28 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
KR20140089862A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
JPWO2014109104A1 (ja) | 2013-01-08 | 2017-01-19 | クラリオン株式会社 | 音声認識装置、音声認識プログラム及び音声認識方法 |
US20140195233A1 (en) | 2013-01-08 | 2014-07-10 | Spansion Llc | Distributed Speech Recognition System |
DE112013006384T5 (de) | 2013-01-09 | 2015-09-24 | Mitsubishi Electric Corporation | Spracherkennungsvorrichtung und Anzeigeverfahren |
US20140198047A1 (en) | 2013-01-14 | 2014-07-17 | Nuance Communications, Inc. | Reducing error rates for touch based keyboards |
US9292489B1 (en) | 2013-01-16 | 2016-03-22 | Google Inc. | Sub-lexical language models with word level pronunciation lexicons |
US8731912B1 (en) | 2013-01-16 | 2014-05-20 | Google Inc. | Delaying audio notifications |
US8942674B2 (en) | 2013-01-18 | 2015-01-27 | Blackberry Limited | Responding to incoming calls |
JP2014140121A (ja) | 2013-01-21 | 2014-07-31 | Sharp Corp | 会議支援システム |
US20140203939A1 (en) | 2013-01-21 | 2014-07-24 | Rtc Inc. | Control and monitoring of light-emitting-diode (led) bulbs |
US9047274B2 (en) | 2013-01-21 | 2015-06-02 | Xerox Corporation | Machine translation-driven authoring system and method |
US9148499B2 (en) | 2013-01-22 | 2015-09-29 | Blackberry Limited | Method and system for automatically identifying voice tags through user operation |
EP2760015A1 (en) | 2013-01-23 | 2014-07-30 | BlackBerry Limited | Event-triggered hands-free multitasking for media playback |
US9530409B2 (en) | 2013-01-23 | 2016-12-27 | Blackberry Limited | Event-triggered hands-free multitasking for media playback |
CN103971680B (zh) | 2013-01-24 | 2018-06-05 | 华为终端(东莞)有限公司 | 一种语音识别的方法、装置 |
US9165566B2 (en) | 2013-01-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Indefinite speech inputs |
JP2014142566A (ja) * | 2013-01-25 | 2014-08-07 | Alpine Electronics Inc | 音声認識システムおよび音声認識方法 |
DE102013001219B4 (de) | 2013-01-25 | 2019-08-29 | Inodyn Newmedia Gmbh | Verfahren und System zur Sprachaktivierung eines Software-Agenten aus einem Standby-Modus |
JP6251958B2 (ja) | 2013-01-28 | 2017-12-27 | 富士通株式会社 | 発話解析装置、音声対話制御装置、方法、及びプログラム |
US9971495B2 (en) | 2013-01-28 | 2018-05-15 | Nook Digital, Llc | Context based gesture delineation for user interaction in eyes-free mode |
JP6115152B2 (ja) | 2013-01-29 | 2017-04-19 | コニカミノルタ株式会社 | 情報処理システム、情報処理装置、情報処理端末及びプログラム |
KR20140098947A (ko) | 2013-01-31 | 2014-08-11 | 삼성전자주식회사 | 광고 제공 시스템, 사용자 단말 및 광고 제공 방법 |
JP2014150323A (ja) | 2013-01-31 | 2014-08-21 | Sharp Corp | 文字入力装置 |
WO2014119889A1 (en) | 2013-01-31 | 2014-08-07 | Samsung Electronics Co., Ltd. | Method of displaying user interface on device, and device |
US10055091B2 (en) | 2013-02-01 | 2018-08-21 | Microsoft Technology Licensing, Llc | Autosave and manual save modes for software applications |
US20140222435A1 (en) | 2013-02-01 | 2014-08-07 | Telenav, Inc. | Navigation system with user dependent language mechanism and method of operation thereof |
US9292492B2 (en) | 2013-02-04 | 2016-03-22 | Microsoft Technology Licensing, Llc | Scaling statistical language understanding systems across domains and intents |
US20140218372A1 (en) * | 2013-02-05 | 2014-08-07 | Apple Inc. | Intelligent digital assistant in a desktop environment |
US8694315B1 (en) | 2013-02-05 | 2014-04-08 | Visa International Service Association | System and method for authentication using speaker verification techniques and fraud model |
US20140223481A1 (en) | 2013-02-07 | 2014-08-07 | United Video Properties, Inc. | Systems and methods for updating a search request |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
EP2954685A4 (en) | 2013-02-07 | 2016-09-14 | Opanga Networks Inc | TRANSPARENT MULTIMEDIA ELEMENT DISTRIBUTION AND REPRESENTATIVE |
US9519858B2 (en) | 2013-02-10 | 2016-12-13 | Microsoft Technology Licensing, Llc | Feature-augmented neural networks and applications of same |
US9408040B2 (en) | 2013-02-14 | 2016-08-02 | Fuji Xerox Co., Ltd. | Systems and methods for room-level location using WiFi |
US9842489B2 (en) | 2013-02-14 | 2017-12-12 | Google Llc | Waking other devices for additional data |
US9791921B2 (en) | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
US10078437B2 (en) | 2013-02-20 | 2018-09-18 | Blackberry Limited | Method and apparatus for responding to a notification via a capacitive physical keyboard |
US9621619B2 (en) | 2013-02-21 | 2017-04-11 | International Business Machines Corporation | Enhanced notification for relevant communications |
US9019129B2 (en) | 2013-02-21 | 2015-04-28 | Apple Inc. | Vehicle location in weak location signal scenarios |
US9734819B2 (en) | 2013-02-21 | 2017-08-15 | Google Technology Holdings LLC | Recognizing accented speech |
US20140236986A1 (en) | 2013-02-21 | 2014-08-21 | Apple Inc. | Natural language document search |
US9414004B2 (en) | 2013-02-22 | 2016-08-09 | The Directv Group, Inc. | Method for combining voice signals to form a continuous conversation in performing a voice search |
US9484023B2 (en) | 2013-02-22 | 2016-11-01 | International Business Machines Corporation | Conversion of non-back-off language models for efficient speech decoding |
US9672822B2 (en) | 2013-02-22 | 2017-06-06 | Next It Corporation | Interaction with a portion of a content item through a virtual assistant |
US20140245140A1 (en) | 2013-02-22 | 2014-08-28 | Next It Corporation | Virtual Assistant Transfer between Smart Devices |
US20140304086A1 (en) | 2013-02-25 | 2014-10-09 | Turn Inc. | Methods and systems for modeling campaign goal adjustment |
US9330659B2 (en) | 2013-02-25 | 2016-05-03 | Microsoft Technology Licensing, Llc | Facilitating development of a spoken natural language interface |
CN104007832B (zh) | 2013-02-25 | 2017-09-01 | 上海触乐信息科技有限公司 | 连续滑行输入文本的方法、系统及设备 |
KR101383552B1 (ko) | 2013-02-25 | 2014-04-10 | 미디어젠(주) | 다중 명령어가 포함된 단일 문장의 음성인식방법 |
US9865266B2 (en) | 2013-02-25 | 2018-01-09 | Nuance Communications, Inc. | Method and apparatus for automated speaker parameters adaptation in a deployed speaker verification system |
US9172747B2 (en) | 2013-02-25 | 2015-10-27 | Artificial Solutions Iberia SL | System and methods for virtual assistant networks |
US9280981B2 (en) | 2013-02-27 | 2016-03-08 | Blackberry Limited | Method and apparatus for voice control of a mobile device |
US10354677B2 (en) | 2013-02-28 | 2019-07-16 | Nuance Communications, Inc. | System and method for identification of intent segment(s) in caller-agent conversations |
US9218819B1 (en) | 2013-03-01 | 2015-12-22 | Google Inc. | Customizing actions based on contextual data and voice-based inputs |
US9691382B2 (en) | 2013-03-01 | 2017-06-27 | Mediatek Inc. | Voice control device and method for deciding response of voice control according to recognized speech command and detection output derived from processing sensor data |
US9251467B2 (en) | 2013-03-03 | 2016-02-02 | Microsoft Technology Licensing, Llc | Probabilistic parsing |
US9886968B2 (en) | 2013-03-04 | 2018-02-06 | Synaptics Incorporated | Robust speech boundary detection system and method |
US9460715B2 (en) | 2013-03-04 | 2016-10-04 | Amazon Technologies, Inc. | Identification using audio signatures and additional characteristics |
US9554050B2 (en) | 2013-03-04 | 2017-01-24 | Apple Inc. | Mobile device using images and location for reminders |
US9454957B1 (en) | 2013-03-05 | 2016-09-27 | Amazon Technologies, Inc. | Named entity resolution in spoken language processing |
US9293129B2 (en) | 2013-03-05 | 2016-03-22 | Microsoft Technology Licensing, Llc | Speech recognition assisted evaluation on text-to-speech pronunciation issue detection |
KR101952179B1 (ko) | 2013-03-05 | 2019-05-22 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
US10795528B2 (en) | 2013-03-06 | 2020-10-06 | Nuance Communications, Inc. | Task assistant having multiple visual displays |
CN104038621A (zh) | 2013-03-06 | 2014-09-10 | 三星电子(中国)研发中心 | 在通信终端中管理事件信息的装置及方法 |
US10223411B2 (en) | 2013-03-06 | 2019-03-05 | Nuance Communications, Inc. | Task assistant utilizing context for improved interaction |
US9313261B2 (en) | 2013-03-07 | 2016-04-12 | Qualcomm Incorporated | System and methods of transferring tasks from a first mobile device to a second mobile device |
US20140279622A1 (en) | 2013-03-08 | 2014-09-18 | Sudhakar Bharadwaj | System and method for semantic processing of personalized social data and generating probability models of personal context to generate recommendations in searching applications |
US9990611B2 (en) | 2013-03-08 | 2018-06-05 | Baydin, Inc. | Systems and methods for incorporating calendar functionality into electronic messages |
US9496968B2 (en) | 2013-03-08 | 2016-11-15 | Google Inc. | Proximity detection by mobile devices |
US20140257902A1 (en) | 2013-03-08 | 2014-09-11 | Baydin, Inc. | Systems and methods for incorporating calendar functionality into electronic messages |
KR102113272B1 (ko) | 2013-03-11 | 2020-06-02 | 삼성전자주식회사 | 전자장치에서 복사/붙여넣기 방법 및 장치 |
US8964947B1 (en) | 2013-03-11 | 2015-02-24 | Amazon Technologies, Inc. | Approaches for sharing data between electronic devices |
US9761225B2 (en) | 2013-03-11 | 2017-09-12 | Nuance Communications, Inc. | Semantic re-ranking of NLU results in conversational dialogue applications |
US9477753B2 (en) | 2013-03-12 | 2016-10-25 | International Business Machines Corporation | Classifier-based system combination for spoken term detection |
US9361885B2 (en) | 2013-03-12 | 2016-06-07 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9112984B2 (en) | 2013-03-12 | 2015-08-18 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9129013B2 (en) | 2013-03-12 | 2015-09-08 | Nuance Communications, Inc. | Methods and apparatus for entity detection |
CN105009203A (zh) | 2013-03-12 | 2015-10-28 | 纽昂斯通讯公司 | 用于检测语音命令的方法和装置 |
US9076459B2 (en) | 2013-03-12 | 2015-07-07 | Intermec Ip, Corp. | Apparatus and method to classify sound to detect speech |
US11393461B2 (en) | 2013-03-12 | 2022-07-19 | Cerence Operating Company | Methods and apparatus for detecting a voice command |
US10229697B2 (en) | 2013-03-12 | 2019-03-12 | Google Technology Holdings LLC | Apparatus and method for beamforming to obtain voice and noise signals |
US9282423B2 (en) | 2013-03-13 | 2016-03-08 | Aliphcom | Proximity and interface controls of media devices for media presentations |
US20140274005A1 (en) | 2013-03-13 | 2014-09-18 | Aliphcom | Intelligent connection management in wireless devices |
US10219100B2 (en) | 2013-03-13 | 2019-02-26 | Aliphcom | Determining proximity for devices interacting with media devices |
US9378739B2 (en) | 2013-03-13 | 2016-06-28 | Nuance Communications, Inc. | Identifying corresponding positions in different representations of a textual work |
US9135248B2 (en) | 2013-03-13 | 2015-09-15 | Arris Technology, Inc. | Context demographic determination system |
US9514741B2 (en) | 2013-03-13 | 2016-12-06 | Nuance Communications, Inc. | Data shredding for speech recognition acoustic model training under data retention restrictions |
US9123345B2 (en) | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Voice interface systems and methods |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9189196B2 (en) | 2013-03-14 | 2015-11-17 | Google Inc. | Compartmentalized self registration of external devices |
US9247309B2 (en) | 2013-03-14 | 2016-01-26 | Google Inc. | Methods, systems, and media for presenting mobile content corresponding to media content |
US9842584B1 (en) | 2013-03-14 | 2017-12-12 | Amazon Technologies, Inc. | Providing content on multiple devices |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
KR20140112910A (ko) | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | 입력 제어 방법 및 이를 지원하는 전자 장치 |
US9524489B2 (en) | 2013-03-14 | 2016-12-20 | Samsung Electronics Co., Ltd. | Computing system with task transfer mechanism and method of operation thereof |
US10133546B2 (en) | 2013-03-14 | 2018-11-20 | Amazon Technologies, Inc. | Providing content on multiple devices |
US20140267599A1 (en) | 2013-03-14 | 2014-09-18 | 360Brandvision, Inc. | User interaction with a holographic poster via a secondary mobile device |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US20140278349A1 (en) | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Language Model Dictionaries for Text Predictions |
WO2014160309A1 (en) | 2013-03-14 | 2014-10-02 | Advanced Search Laboratories, Inc. | Method and apparatus for human-machine interaction |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
US9176649B2 (en) | 2013-03-15 | 2015-11-03 | American Megatrends, Inc. | Method and apparatus of remote management of computer system using voice and gesture based input |
US20160132046A1 (en) | 2013-03-15 | 2016-05-12 | Fisher-Rosemount Systems, Inc. | Method and apparatus for controlling a process plant with wearable mobile control devices |
US9886160B2 (en) | 2013-03-15 | 2018-02-06 | Google Llc | Managing audio at the tab level for user notification and control |
US20150314454A1 (en) | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
EP3101392B1 (en) | 2013-03-15 | 2021-12-15 | Apple Inc. | Mapping application with turn-by-turn navigation mode for output to vehicle display |
US9201865B2 (en) | 2013-03-15 | 2015-12-01 | Bao Tran | Automated assistance for user request that determines semantics by domain, task, and parameter |
US20140365505A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Harvesting Addresses |
EP4012719A1 (en) | 2013-03-15 | 2022-06-15 | Adityo Prakash | Systems and methods for facilitating integrated behavioral support |
US9189157B2 (en) | 2013-03-15 | 2015-11-17 | Blackberry Limited | Method and apparatus for word prediction selection |
JP6151381B2 (ja) | 2013-03-15 | 2017-06-21 | グーグル インコーポレイテッド | 国際言語のための仮想キーボード入力 |
US9378065B2 (en) | 2013-03-15 | 2016-06-28 | Advanced Elemental Technologies, Inc. | Purposeful computing |
US9299041B2 (en) | 2013-03-15 | 2016-03-29 | Business Objects Software Ltd. | Obtaining data from unstructured data for a structured data collection |
US20140267933A1 (en) | 2013-03-15 | 2014-09-18 | Toshiba America Information Systems, Inc. | Electronic Device with Embedded Macro-Command Functionality |
US10078487B2 (en) | 2013-03-15 | 2018-09-18 | Apple Inc. | Context-sensitive handling of interruptions |
US9558743B2 (en) | 2013-03-15 | 2017-01-31 | Google Inc. | Integration of semantic context information |
US10638198B2 (en) | 2013-03-15 | 2020-04-28 | Ebay Inc. | Shoppable video |
WO2014143959A2 (en) | 2013-03-15 | 2014-09-18 | Bodhi Technology Ventures Llc | Volume control for mobile device using a wireless device |
KR101857648B1 (ko) | 2013-03-15 | 2018-05-15 | 애플 인크. | 지능형 디지털 어시스턴트에 의한 사용자 트레이닝 |
US9631930B2 (en) | 2013-03-15 | 2017-04-25 | Apple Inc. | Warning for frequently traveled trips based on traffic |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US20140282178A1 (en) | 2013-03-15 | 2014-09-18 | Microsoft Corporation | Personalized community model for surfacing commands within productivity application user interfaces |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US20140282203A1 (en) | 2013-03-15 | 2014-09-18 | Research In Motion Limited | System and method for predictive text input |
US20140279787A1 (en) | 2013-03-15 | 2014-09-18 | Ximplar Limited | Systems And Methods for an Adaptive Application Recommender |
US9317585B2 (en) | 2013-03-15 | 2016-04-19 | Google Inc. | Search query suggestions based on personal information |
US9305374B2 (en) | 2013-03-15 | 2016-04-05 | Apple Inc. | Device, method, and graphical user interface for adjusting the appearance of a control |
US20140288939A1 (en) | 2013-03-20 | 2014-09-25 | Navteq B.V. | Method and apparatus for optimizing timing of audio commands based on recognized audio patterns |
US9479499B2 (en) | 2013-03-21 | 2016-10-25 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for identity authentication via mobile capturing code |
US20140298395A1 (en) | 2013-03-27 | 2014-10-02 | Tencent Technology (Shenzhen) Company Limited | Methods and systems for playing video on multiple terminals |
JP6115941B2 (ja) | 2013-03-28 | 2017-04-19 | Kddi株式会社 | 対話シナリオにユーザ操作を反映させる対話プログラム、サーバ及び方法 |
JP6221301B2 (ja) | 2013-03-28 | 2017-11-01 | 富士通株式会社 | 音声処理装置、音声処理システムおよび音声処理方法 |
CN103236260B (zh) | 2013-03-29 | 2015-08-12 | 京东方科技集团股份有限公司 | 语音识别系统 |
EP2784774A1 (en) | 2013-03-29 | 2014-10-01 | Orange | Telephone voice personnal assistant |
KR102050814B1 (ko) | 2013-04-02 | 2019-12-02 | 삼성전자주식회사 | 그룹 대화에서 사적 대화 제공 장치 및 방법 |
JP2014203207A (ja) | 2013-04-03 | 2014-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP6023874B2 (ja) | 2013-04-04 | 2016-11-09 | パイオニア株式会社 | 表示制御装置、表示制御方法、表示制御プログラムおよびコンピュータが読み取り可能な記録媒体 |
US9462115B2 (en) | 2013-04-04 | 2016-10-04 | James S. Rand | Unified communications system and method |
US9300718B2 (en) | 2013-04-09 | 2016-03-29 | Avaya Inc. | System and method for keyword-based notification and delivery of content |
CN103198831A (zh) | 2013-04-10 | 2013-07-10 | 威盛电子股份有限公司 | 语音操控方法与移动终端装置 |
US10027723B2 (en) | 2013-04-12 | 2018-07-17 | Provenance Asset Group Llc | Method and apparatus for initiating communication and sharing of content among a plurality of devices |
US10564815B2 (en) | 2013-04-12 | 2020-02-18 | Nant Holdings Ip, Llc | Virtual teller systems and methods |
US9875494B2 (en) | 2013-04-16 | 2018-01-23 | Sri International | Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant |
US8825474B1 (en) | 2013-04-16 | 2014-09-02 | Google Inc. | Text suggestion output using past interaction data |
WO2014172494A1 (en) | 2013-04-16 | 2014-10-23 | Imageware Systems, Inc. | Conditional and situational biometric authentication and enrollment |
US9760644B2 (en) | 2013-04-17 | 2017-09-12 | Google Inc. | Embedding event creation link in a document |
US20150193392A1 (en) | 2013-04-17 | 2015-07-09 | Google Inc. | User Interface for Quickly Checking Agenda and Creating New Events |
US10445115B2 (en) | 2013-04-18 | 2019-10-15 | Verint Americas Inc. | Virtual assistant focused user interfaces |
NL2010662C2 (en) | 2013-04-18 | 2014-10-21 | Bosch Gmbh Robert | Remote maintenance. |
US20140315492A1 (en) | 2013-04-22 | 2014-10-23 | Salesforce.Com, Inc. | Content delivery to a secondary device via a primary device |
US9075435B1 (en) | 2013-04-22 | 2015-07-07 | Amazon Technologies, Inc. | Context-aware notifications |
US9177318B2 (en) | 2013-04-22 | 2015-11-03 | Palo Alto Research Center Incorporated | Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function |
US9110889B2 (en) | 2013-04-23 | 2015-08-18 | Facebook, Inc. | Methods and systems for generation of flexible sentences in a social networking system |
CN104125322A (zh) | 2013-04-24 | 2014-10-29 | 腾讯科技(深圳)有限公司 | 来电和短信控制方法及移动终端 |
DE102013007502A1 (de) | 2013-04-25 | 2014-10-30 | Elektrobit Automotive Gmbh | Computer-implementiertes Verfahren zum automatischen Trainieren eins Dialogsystems und Dialogsystem zur Erzeugung von semantischen Annotationen |
EP2800345B1 (en) * | 2013-04-29 | 2015-08-05 | Swisscom AG | Method, electronic device and system for remote text input |
CN103280217B (zh) | 2013-05-02 | 2016-05-04 | 锤子科技(北京)有限公司 | 一种移动终端的语音识别方法及其装置 |
US9472205B2 (en) | 2013-05-06 | 2016-10-18 | Honeywell International Inc. | Device voice recognition systems and methods |
US9384751B2 (en) | 2013-05-06 | 2016-07-05 | Honeywell International Inc. | User authentication of voice controlled devices |
PT2994908T (pt) | 2013-05-07 | 2019-10-18 | Veveo Inc | Interface de entrada incremental de discurso com retorno em tempo real |
US20140337621A1 (en) | 2013-05-07 | 2014-11-13 | Serguei Nakhimov | Wearable communication device, security complex and user interface |
US9064495B1 (en) | 2013-05-07 | 2015-06-23 | Amazon Technologies, Inc. | Measurement of user perceived latency in a cloud based speech application |
KR20140132246A (ko) | 2013-05-07 | 2014-11-17 | 삼성전자주식회사 | 오브젝트 선택 방법 및 오브젝트 선택 장치 |
US9223898B2 (en) | 2013-05-08 | 2015-12-29 | Facebook, Inc. | Filtering suggested structured queries on online social networks |
EP2801974A3 (en) | 2013-05-09 | 2015-02-18 | DSP Group Ltd. | Low power activation of a voice activated device |
US9923849B2 (en) | 2013-05-09 | 2018-03-20 | Ebay Inc. | System and method for suggesting a phrase based on a context |
US9489625B2 (en) | 2013-05-10 | 2016-11-08 | Sri International | Rapid development of virtual personal assistant applications |
US9081411B2 (en) | 2013-05-10 | 2015-07-14 | Sri International | Rapid development of virtual personal assistant applications |
JP2014219614A (ja) | 2013-05-10 | 2014-11-20 | アルパイン株式会社 | オーディオ装置、ビデオ装置及びコンピュータプログラム |
CN103246638B (zh) | 2013-05-13 | 2017-09-01 | 小米科技有限责任公司 | 一种信息粘贴方法和装置 |
US20140337751A1 (en) | 2013-05-13 | 2014-11-13 | Microsoft Corporation | Automatic creation of calendar items |
US9293138B2 (en) | 2013-05-14 | 2016-03-22 | Amazon Technologies, Inc. | Storing state information from network-based user devices |
US20140343943A1 (en) | 2013-05-14 | 2014-11-20 | Saudi Arabian Oil Company | Systems, Computer Medium and Computer-Implemented Methods for Authenticating Users Using Voice Streams |
US8918272B2 (en) | 2013-05-14 | 2014-12-23 | Sony Corporation | Method and apparatus for finding a lost vehicle |
US20140347181A1 (en) | 2013-05-21 | 2014-11-27 | Michael Edward Smith Luna | Sensor-enabled media device |
US20140344205A1 (en) | 2013-05-15 | 2014-11-20 | Aliphcom | Smart media device ecosystem using local and remote data sources |
CN105122181B (zh) | 2013-05-16 | 2018-12-18 | 英特尔公司 | 用于基于情景的自然用户接口输入的技术 |
US9495266B2 (en) | 2013-05-16 | 2016-11-15 | Advantest Corporation | Voice recognition virtual test engineering assistant |
US9514470B2 (en) | 2013-05-16 | 2016-12-06 | Microsoft Technology Licensing, Llc | Enhanced search suggestion for personal information services |
KR101334342B1 (ko) | 2013-05-16 | 2013-11-29 | 주식회사 네오패드 | 문자 입력 장치 및 문자 입력 방법 |
US9432499B2 (en) | 2013-05-18 | 2016-08-30 | Loralee Hajdu | Peripheral specific selection of automated response messages |
WO2014189486A1 (en) | 2013-05-20 | 2014-11-27 | Intel Corporation | Natural human-computer interaction for virtual personal assistant systems |
US9188445B2 (en) | 2013-05-21 | 2015-11-17 | Honda Motor Co., Ltd. | System and method for storing and recalling location data |
US9466294B1 (en) | 2013-05-21 | 2016-10-11 | Amazon Technologies, Inc. | Dialog management system |
US20150199077A1 (en) | 2013-05-23 | 2015-07-16 | Google Inc. | Scheduling and viewing a calender event using time zones based on a user's location at event time |
US20140351760A1 (en) | 2013-05-24 | 2014-11-27 | Google Inc. | Order-independent text input |
US20140350933A1 (en) | 2013-05-24 | 2014-11-27 | Samsung Electronics Co., Ltd. | Voice recognition apparatus and control method thereof |
US9747900B2 (en) | 2013-05-24 | 2017-08-29 | Google Technology Holdings LLC | Method and apparatus for using image data to aid voice recognition |
KR102161230B1 (ko) * | 2013-05-28 | 2020-09-29 | 삼성전자주식회사 | 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치 |
US9710147B2 (en) | 2013-05-29 | 2017-07-18 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
US20140358523A1 (en) | 2013-05-30 | 2014-12-04 | Wright State University | Topic-specific sentiment extraction |
US20140358519A1 (en) | 2013-06-03 | 2014-12-04 | Xerox Corporation | Confidence-driven rewriting of source texts for improved translation |
US20140359637A1 (en) | 2013-06-03 | 2014-12-04 | Microsoft Corporation | Task continuance across devices |
US10282213B2 (en) | 2013-06-03 | 2019-05-07 | Avaya Inc. | System and method for conversational configuration of applications |
US9294455B2 (en) | 2013-06-04 | 2016-03-22 | Google Inc. | Maintaining video conference session continuity during transfer of session to alternative device |
US9286029B2 (en) | 2013-06-06 | 2016-03-15 | Honda Motor Co., Ltd. | System and method for multimodal human-vehicle interaction and belief tracking |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9267805B2 (en) | 2013-06-07 | 2016-02-23 | Apple Inc. | Modeling significant locations |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
KR102369784B1 (ko) | 2013-06-07 | 2022-03-03 | 애플 인크. | 지능형 자동 어시스턴트 |
CN110248019B (zh) * | 2013-06-08 | 2022-04-26 | 苹果公司 | 用于启用语音的对话界面的方法、计算机存储介质和设备 |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9477393B2 (en) | 2013-06-09 | 2016-10-25 | Apple Inc. | Device, method, and graphical user interface for displaying application status information |
US10481769B2 (en) * | 2013-06-09 | 2019-11-19 | Apple Inc. | Device, method, and graphical user interface for providing navigation and search functionalities |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9495620B2 (en) | 2013-06-09 | 2016-11-15 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
EP3937002A1 (en) | 2013-06-09 | 2022-01-12 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
CN104240701B (zh) * | 2013-06-10 | 2019-12-06 | 青海科瑞特富创业管理股份有限公司 | 汉语自然人语音控制洗衣机工作的方法 |
KR20140144104A (ko) | 2013-06-10 | 2014-12-18 | 삼성전자주식회사 | 전자기기 및 이의 서비스 제공 방법 |
JP6534926B2 (ja) | 2013-06-10 | 2019-06-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 話者識別方法、話者識別装置及び話者識別システム |
US9892115B2 (en) | 2013-06-11 | 2018-02-13 | Facebook, Inc. | Translation training with cross-lingual multi-media support |
US9449600B2 (en) | 2013-06-11 | 2016-09-20 | Plantronics, Inc. | Character data entry |
US9508040B2 (en) | 2013-06-12 | 2016-11-29 | Microsoft Technology Licensing, Llc | Predictive pre-launch for applications |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
US9501585B1 (en) | 2013-06-13 | 2016-11-22 | DataRPM Corporation | Methods and system for providing real-time business intelligence using search-based analytics engine |
US9311414B2 (en) | 2013-06-14 | 2016-04-12 | Google Inc. | Systems and methods of selecting content based on aggregate entity co-occurrence |
CN103292437B (zh) | 2013-06-17 | 2016-01-20 | 广东美的制冷设备有限公司 | 语音交互式空调器及其控制方法 |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
USRE49014E1 (en) | 2013-06-19 | 2022-04-05 | Panasonic Intellectual Property Corporation Of America | Voice interaction method, and device |
US9437186B1 (en) | 2013-06-19 | 2016-09-06 | Amazon Technologies, Inc. | Enhanced endpoint detection for speech recognition |
US10474961B2 (en) | 2013-06-20 | 2019-11-12 | Viv Labs, Inc. | Dynamically evolving cognitive architecture system based on prompting for additional user input |
US9633317B2 (en) | 2013-06-20 | 2017-04-25 | Viv Labs, Inc. | Dynamically evolving cognitive architecture system based on a natural language intent interpreter |
US20140379334A1 (en) | 2013-06-20 | 2014-12-25 | Qnx Software Systems Limited | Natural language understanding automatic speech recognition post processing |
KR102160767B1 (ko) | 2013-06-20 | 2020-09-29 | 삼성전자주식회사 | 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법 |
KR20140147587A (ko) | 2013-06-20 | 2014-12-30 | 한국전자통신연구원 | Wfst를 이용한 음성 끝점 검출 장치 및 방법 |
US9311298B2 (en) | 2013-06-21 | 2016-04-12 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
US10051072B2 (en) | 2013-06-21 | 2018-08-14 | Google Llc | Detecting co-presence in the physical world |
JP6171617B2 (ja) | 2013-06-24 | 2017-08-02 | 日本電気株式会社 | 応答対象音声判定装置、応答対象音声判定方法および応答対象音声判定プログラム |
US10496743B2 (en) | 2013-06-26 | 2019-12-03 | Nuance Communications, Inc. | Methods and apparatus for extracting facts from a medical text |
JP2015012301A (ja) | 2013-06-26 | 2015-01-19 | 京セラ株式会社 | 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法 |
US9747899B2 (en) | 2013-06-27 | 2017-08-29 | Amazon Technologies, Inc. | Detecting self-generated wake expressions |
US20150006148A1 (en) | 2013-06-27 | 2015-01-01 | Microsoft Corporation | Automatically Creating Training Data For Language Identifiers |
US8947596B2 (en) | 2013-06-27 | 2015-02-03 | Intel Corporation | Alignment of closed captions |
WO2014210429A1 (en) | 2013-06-28 | 2014-12-31 | Harman International Industries, Inc. | Wireless control of linked devices |
US9741339B2 (en) | 2013-06-28 | 2017-08-22 | Google Inc. | Data driven word pronunciation learning and scoring with crowd sourcing based on the word's phonemes pronunciation scores |
US9646606B2 (en) | 2013-07-03 | 2017-05-09 | Google Inc. | Speech recognition using domain knowledge |
JP2015014960A (ja) | 2013-07-05 | 2015-01-22 | ソニー株式会社 | 情報処理装置、および記憶媒体 |
CN103365279A (zh) | 2013-07-10 | 2013-10-23 | 崔海伟 | 智能家居系统的状态反馈系统、方法及状态检测装置 |
JP6102588B2 (ja) | 2013-07-10 | 2017-03-29 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
DE102014109121B4 (de) | 2013-07-10 | 2023-05-04 | Gm Global Technology Operations, Llc | Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes |
US9396727B2 (en) | 2013-07-10 | 2016-07-19 | GM Global Technology Operations LLC | Systems and methods for spoken dialog service arbitration |
CN110096253B (zh) | 2013-07-11 | 2022-08-30 | 英特尔公司 | 利用相同的音频输入的设备唤醒和说话者验证 |
WO2015006196A1 (en) | 2013-07-11 | 2015-01-15 | Mophie, Inc. | Method and system for communicatively coupling a wearable computer with one or more non-wearable computers |
TWI508057B (zh) | 2013-07-15 | 2015-11-11 | Chunghwa Picture Tubes Ltd | 語音辨識系統以及方法 |
US9305554B2 (en) | 2013-07-17 | 2016-04-05 | Samsung Electronics Co., Ltd. | Multi-level speech recognition |
US9711148B1 (en) | 2013-07-18 | 2017-07-18 | Google Inc. | Dual model speaker identification |
US9311912B1 (en) | 2013-07-22 | 2016-04-12 | Amazon Technologies, Inc. | Cost efficient distributed text-to-speech processing |
US20150032238A1 (en) | 2013-07-23 | 2015-01-29 | Motorola Mobility Llc | Method and Device for Audio Input Routing |
US9407950B2 (en) | 2013-07-23 | 2016-08-02 | Microsoft Technology Licensing, Llc | Controlling devices in entertainment environment |
KR102089444B1 (ko) | 2013-07-25 | 2020-03-16 | 삼성전자 주식회사 | 음성 인식 기능을 지원하는 전자 기기의 음성 입력 제어 방법 및 장치 장치 |
US9772994B2 (en) | 2013-07-25 | 2017-09-26 | Intel Corporation | Self-learning statistical natural language processing for automatic production of virtual personal assistants |
US8947530B1 (en) | 2013-07-26 | 2015-02-03 | Joseph Frank Scalisi | Smart lock systems and methods |
US9247219B2 (en) | 2013-07-26 | 2016-01-26 | SkyBell Technologies, Inc. | Doorbell communication systems and methods |
CN103412789B (zh) | 2013-07-26 | 2016-09-21 | 宇龙计算机通信科技(深圳)有限公司 | 一种启动应用程序的方法、系统及移动终端 |
US9335983B2 (en) | 2013-07-28 | 2016-05-10 | Oded Haim Breiner | Method and system for displaying a non-installed android application and for requesting an action from a non-installed android application |
JP6370033B2 (ja) | 2013-07-29 | 2018-08-08 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
TWI516698B (zh) | 2013-07-31 | 2016-01-11 | Apex Medical Corp | Air cushion device and its vent valve |
US9575720B2 (en) | 2013-07-31 | 2017-02-21 | Google Inc. | Visual confirmation for a recognized voice-initiated action |
US9311915B2 (en) | 2013-07-31 | 2016-04-12 | Google Inc. | Context-based speech recognition |
US20150039606A1 (en) | 2013-08-01 | 2015-02-05 | Vamsi Krishna Salaka | Search phrase modification |
TWI601032B (zh) | 2013-08-02 | 2017-10-01 | 晨星半導體股份有限公司 | 應用於聲控裝置的控制器與相關方法 |
EP3031211B1 (en) | 2013-08-06 | 2020-11-11 | Saronikos Trading and Services, Unipessoal Lda. | System for controlling electronic devices by means of voice commands, more specifically a remote control to control a plurality of electronic devices by means of voice commands |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
KR20150017156A (ko) | 2013-08-06 | 2015-02-16 | 삼성전자주식회사 | 휴대단말기에서 추천어를 제공하는 방법 및 장치 |
US20150046828A1 (en) | 2013-08-08 | 2015-02-12 | Samsung Electronics Co., Ltd. | Contextualizing sensor, service and device data with mobile devices |
CN103414949B (zh) * | 2013-08-09 | 2016-06-01 | 冠捷显示科技(厦门)有限公司 | 一种基于智能电视的多媒体编辑系统与方法 |
US9264862B2 (en) | 2013-08-15 | 2016-02-16 | Apple Inc. | Determining exit from a vehicle |
KR20150020872A (ko) | 2013-08-19 | 2015-02-27 | 현대자동차주식회사 | 차량 기능 제어를 위한 제어 장치 및 제어 방법 |
CN103780970B (zh) | 2013-08-20 | 2018-03-16 | 华为终端(东莞)有限公司 | 一种媒体播放的方法、装置和系统 |
JP2015041845A (ja) | 2013-08-21 | 2015-03-02 | カシオ計算機株式会社 | 文字入力装置及びプログラム |
CN104426841A (zh) | 2013-08-21 | 2015-03-18 | 阿里巴巴集团控股有限公司 | 设置背景图像的方法及相关的服务器和系统 |
EP3036594B1 (en) | 2013-08-21 | 2021-05-26 | Ademco Inc. | Devices and methods for interacting with an hvac controller |
US9161188B2 (en) | 2013-08-22 | 2015-10-13 | Yahoo! Inc. | System and method for automatically suggesting diverse and personalized message completions |
EP2862164B1 (en) | 2013-08-23 | 2017-05-31 | Nuance Communications, Inc. | Multiple pass automatic speech recognition |
EP3040985B1 (en) | 2013-08-26 | 2023-08-23 | Samsung Electronics Co., Ltd. | Electronic device and method for voice recognition |
US9729592B2 (en) | 2013-08-27 | 2017-08-08 | Persais, Llc | System and method for distributed virtual assistant platforms |
US20150066817A1 (en) | 2013-08-27 | 2015-03-05 | Persais, Llc | System and method for virtual assistants with shared capabilities |
CN104423780B (zh) | 2013-08-27 | 2020-07-14 | 北京三星通信技术研究有限公司 | 一种终端设备及其应用程序的关联显示方法 |
CN104427104B (zh) | 2013-08-28 | 2018-02-27 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
KR102147935B1 (ko) | 2013-08-29 | 2020-08-25 | 삼성전자주식회사 | 데이터 처리 방법 및 그 전자 장치 |
WO2015029379A1 (ja) | 2013-08-29 | 2015-03-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 機器制御方法、表示制御方法及び購入決済方法 |
US20150066506A1 (en) | 2013-08-30 | 2015-03-05 | Verint Systems Ltd. | System and Method of Text Zoning |
CN105453080A (zh) | 2013-08-30 | 2016-03-30 | 英特尔公司 | 用于虚拟个人助理的可扩展上下文感知的自然语言交互 |
US10867597B2 (en) | 2013-09-02 | 2020-12-15 | Microsoft Technology Licensing, Llc | Assignment of semantic labels to a sequence of words using neural network architectures |
US9633669B2 (en) | 2013-09-03 | 2017-04-25 | Amazon Technologies, Inc. | Smart circular audio buffer |
EP3340025B1 (en) | 2013-09-03 | 2019-06-12 | Apple Inc. | User interface for manipulating user interface objects with magnetic properties |
US9316400B2 (en) | 2013-09-03 | 2016-04-19 | Panasonic Intellctual Property Corporation of America | Appliance control method, speech-based appliance control system, and cooking appliance |
US10001817B2 (en) | 2013-09-03 | 2018-06-19 | Apple Inc. | User interface for manipulating user interface objects with magnetic properties |
EP3042327A2 (en) | 2013-09-04 | 2016-07-13 | Zero360, Inc. | Wearable device |
KR102065409B1 (ko) | 2013-09-04 | 2020-01-13 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
GB2517952B (en) | 2013-09-05 | 2017-05-31 | Barclays Bank Plc | Biometric verification using predicted signatures |
US9460704B2 (en) | 2013-09-06 | 2016-10-04 | Google Inc. | Deep networks for unit selection speech synthesis |
US9208779B2 (en) | 2013-09-06 | 2015-12-08 | Google Inc. | Mixture of n-gram language models |
JP6295554B2 (ja) | 2013-09-06 | 2018-03-20 | 株式会社リコー | プログラム、情報処理装置 |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
US9485708B2 (en) | 2013-09-10 | 2016-11-01 | Qualcomm Incorporated | Systems and methods for concurrent service discovery and minimum spanning tree formation for service delivery |
US20150140934A1 (en) | 2013-09-10 | 2015-05-21 | Playtabase, LLC | Wireless motion activated user device with bi-modality communication |
US20150074524A1 (en) | 2013-09-10 | 2015-03-12 | Lenovo (Singapore) Pte. Ltd. | Management of virtual assistant action items |
CN104700832B (zh) | 2013-12-09 | 2018-05-25 | 联发科技股份有限公司 | 语音关键字检测系统及方法 |
US9343068B2 (en) | 2013-09-16 | 2016-05-17 | Qualcomm Incorporated | Method and apparatus for controlling access to applications having different security levels |
US9600228B2 (en) | 2013-09-16 | 2017-03-21 | Here Global B.V. | Enhanced system and method for static query generation and entry |
US9240182B2 (en) | 2013-09-17 | 2016-01-19 | Qualcomm Incorporated | Method and apparatus for adjusting detection threshold for activating voice assistant function |
US9755605B1 (en) | 2013-09-19 | 2017-09-05 | Amazon Technologies, Inc. | Volume control |
JP2015060423A (ja) * | 2013-09-19 | 2015-03-30 | 株式会社東芝 | 音声翻訳装置、音声翻訳方法およびプログラム |
CN105793923A (zh) | 2013-09-20 | 2016-07-20 | 亚马逊技术股份有限公司 | 本地和远程语音处理 |
CN104463552B (zh) | 2013-09-22 | 2018-10-02 | 中国电信股份有限公司 | 日历提醒生成方法和装置 |
US20150088511A1 (en) | 2013-09-24 | 2015-03-26 | Verizon Patent And Licensing Inc. | Named-entity based speech recognition |
US9418650B2 (en) | 2013-09-25 | 2016-08-16 | Verizon Patent And Licensing Inc. | Training speech recognition using captions |
US10134395B2 (en) | 2013-09-25 | 2018-11-20 | Amazon Technologies, Inc. | In-call virtual assistants |
US9401881B2 (en) | 2013-09-26 | 2016-07-26 | International Business Machines Corporation | Automatic question generation and answering based on monitored messaging sessions |
US9443527B1 (en) | 2013-09-27 | 2016-09-13 | Amazon Technologies, Inc. | Speech recognition capability generation and control |
US20150092520A1 (en) | 2013-09-27 | 2015-04-02 | Google Inc. | Adaptive Trigger Point For Smartwatch Gesture-to-Wake |
CN104516522B (zh) | 2013-09-29 | 2018-05-01 | 北京三星通信技术研究有限公司 | 九宫格键盘输入的方法和装置 |
US9344755B2 (en) | 2013-09-30 | 2016-05-17 | Sonos, Inc. | Fast-resume audio playback |
US20150095278A1 (en) | 2013-09-30 | 2015-04-02 | Manyworlds, Inc. | Adaptive Probabilistic Semantic System and Method |
US20150095031A1 (en) | 2013-09-30 | 2015-04-02 | At&T Intellectual Property I, L.P. | System and method for crowdsourcing of word pronunciation verification |
US20150095268A1 (en) | 2013-10-02 | 2015-04-02 | Apple Inc. | Intelligent multi-user task planning |
KR101772044B1 (ko) | 2013-10-02 | 2017-08-28 | 에스케이테크엑스 주식회사 | 거절메시지 전송 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체 |
US20150100537A1 (en) | 2013-10-03 | 2015-04-09 | Microsoft Corporation | Emoji for Text Predictions |
US20150100983A1 (en) | 2013-10-06 | 2015-04-09 | Yang Pan | Personal Mobile Device as Ad hoc Set-Top Box for Television |
US9436918B2 (en) | 2013-10-07 | 2016-09-06 | Microsoft Technology Licensing, Llc | Smart selection of text spans |
KR101480474B1 (ko) | 2013-10-08 | 2015-01-09 | 엘지전자 주식회사 | 오디오 재생장치와 이를 포함하는 시스템 |
US20150100313A1 (en) | 2013-10-09 | 2015-04-09 | Verizon Patent And Licensing, Inc. | Personification of computing devices for remote access |
EP3055786A4 (en) | 2013-10-09 | 2017-05-17 | Google, Inc. | Automatic definition of entity collections |
KR102114219B1 (ko) | 2013-10-10 | 2020-05-25 | 삼성전자주식회사 | 오디오 시스템 및 오디오 출력 방법, 그리고 스피커 장치 |
KR101506510B1 (ko) | 2013-10-10 | 2015-03-30 | 송철호 | 음성인식 홈 네트워크 시스템 |
US10834546B2 (en) | 2013-10-14 | 2020-11-10 | Oath Inc. | Systems and methods for providing context-based user interface |
US8996639B1 (en) | 2013-10-15 | 2015-03-31 | Google Inc. | Predictive responses to incoming communications |
US9063640B2 (en) | 2013-10-17 | 2015-06-23 | Spotify Ab | System and method for switching between media items in a plurality of sequences of media items |
US9461945B2 (en) | 2013-10-18 | 2016-10-04 | Jeffrey P. Phillips | Automated messaging response |
US9143907B1 (en) | 2013-10-21 | 2015-09-22 | West Corporation | Providing data messaging support by intercepting and redirecting received short message service (SMS) messages |
JP6280342B2 (ja) | 2013-10-22 | 2018-02-14 | 株式会社Nttドコモ | 機能実行指示システム及び機能実行指示方法 |
US20150120723A1 (en) | 2013-10-24 | 2015-04-30 | Xerox Corporation | Methods and systems for processing speech queries |
JP2015083938A (ja) | 2013-10-25 | 2015-04-30 | 三菱電機株式会社 | ナビゲーションシステム |
US10346753B2 (en) | 2013-10-28 | 2019-07-09 | Nant Holdings Ip, Llc | Intent engines, systems and method |
US20150120296A1 (en) | 2013-10-29 | 2015-04-30 | At&T Intellectual Property I, L.P. | System and method for selecting network-based versus embedded speech processing |
US10055681B2 (en) | 2013-10-31 | 2018-08-21 | Verint Americas Inc. | Mapping actions and objects to tasks |
US20150123898A1 (en) | 2013-10-31 | 2015-05-07 | Lg Electronics Inc. | Digital device and control method thereof |
US9942396B2 (en) | 2013-11-01 | 2018-04-10 | Adobe Systems Incorporated | Document distribution and interaction |
US9183830B2 (en) | 2013-11-01 | 2015-11-10 | Google Inc. | Method and system for non-parametric voice conversion |
US10019985B2 (en) | 2013-11-04 | 2018-07-10 | Google Llc | Asynchronous optimization for sequence training of neural networks |
FR3012895B1 (fr) | 2013-11-05 | 2015-12-25 | Commissariat Energie Atomique | Procede et programme d'ordinateur pour l'execution deportee de taches informatiques d'un equipement sans fil |
US10088973B2 (en) | 2013-11-08 | 2018-10-02 | Google Llc | Event scheduling presentation in a graphical user interface environment |
US9600474B2 (en) | 2013-11-08 | 2017-03-21 | Google Inc. | User interface for realtime language translation |
US9547644B2 (en) | 2013-11-08 | 2017-01-17 | Google Inc. | Presenting translations of text depicted in images |
US10311482B2 (en) | 2013-11-11 | 2019-06-04 | At&T Intellectual Property I, Lp | Method and apparatus for adjusting a digital assistant persona |
JP6493866B2 (ja) | 2013-11-12 | 2019-04-03 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 情報処理装置、情報処理方法、およびプログラム |
US10430024B2 (en) | 2013-11-13 | 2019-10-01 | Microsoft Technology Licensing, Llc | Media item selection using user-specific grammar |
GB2520266A (en) | 2013-11-13 | 2015-05-20 | Ibm | Cursor-Based Character input interface |
US9361084B1 (en) | 2013-11-14 | 2016-06-07 | Google Inc. | Methods and systems for installing and executing applications |
US10454783B2 (en) | 2014-02-05 | 2019-10-22 | Apple Inc. | Accessory management system using environment model |
US9443522B2 (en) | 2013-11-18 | 2016-09-13 | Beijing Lenovo Software Ltd. | Voice recognition method, voice controlling method, information processing method, and electronic apparatus |
US9898554B2 (en) | 2013-11-18 | 2018-02-20 | Google Inc. | Implicit question query identification |
US10110932B2 (en) | 2013-11-18 | 2018-10-23 | Cable Television Laboratories, Inc. | Session administration |
US10162813B2 (en) | 2013-11-21 | 2018-12-25 | Microsoft Technology Licensing, Llc | Dialogue evaluation via multiple hypothesis ranking |
US10058777B2 (en) | 2013-11-21 | 2018-08-28 | Tencent Technology (Shenzhen) Company Limited | Task execution method, apparatus and system |
CN103593054B (zh) * | 2013-11-25 | 2018-04-20 | 北京光年无限科技有限公司 | 一种结合情绪识别及输出的问答系统 |
US20150149354A1 (en) | 2013-11-27 | 2015-05-28 | Bank Of America Corporation | Real-Time Data Recognition and User Interface Field Updating During Voice Entry |
US9451434B2 (en) | 2013-11-27 | 2016-09-20 | At&T Intellectual Property I, L.P. | Direct interaction between a user and a communication network |
US10079013B2 (en) | 2013-11-27 | 2018-09-18 | Sri International | Sharing intents to provide virtual assistance in a multi-person dialog |
US9698999B2 (en) | 2013-12-02 | 2017-07-04 | Amazon Technologies, Inc. | Natural language control of secondary device |
US9110635B2 (en) | 2013-12-03 | 2015-08-18 | Lenova (Singapore) Pte. Ltd. | Initiating personal assistant application based on eye tracking and gestures |
US8719039B1 (en) | 2013-12-05 | 2014-05-06 | Google Inc. | Promoting voice actions to hotwords |
US9215510B2 (en) | 2013-12-06 | 2015-12-15 | Rovi Guides, Inc. | Systems and methods for automatically tagging a media asset based on verbal input and playback adjustments |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN103645876B (zh) | 2013-12-06 | 2017-01-18 | 百度在线网络技术(北京)有限公司 | 语音输入方法和装置 |
US9639682B2 (en) | 2013-12-06 | 2017-05-02 | Adt Us Holdings, Inc. | Voice activated application for mobile devices |
US20150162001A1 (en) | 2013-12-10 | 2015-06-11 | Honeywell International Inc. | System and method for textually and graphically presenting air traffic control voice information |
US20150160855A1 (en) | 2013-12-10 | 2015-06-11 | Google Inc. | Multiple character input with a single selection |
US9900177B2 (en) | 2013-12-11 | 2018-02-20 | Echostar Technologies International Corporation | Maintaining up-to-date home automation models |
GB201321927D0 (en) | 2013-12-11 | 2014-01-22 | Touchtype Ltd | System and method for inputting text into electronic devices |
US9696886B2 (en) | 2013-12-12 | 2017-07-04 | Google Technology Holdings LLC | Systems and methods for communicating task reminders on portable electronic devices |
US9208153B1 (en) | 2013-12-13 | 2015-12-08 | Symantec Corporation | Filtering relevant event notifications in a file sharing and collaboration environment |
KR20160101079A (ko) | 2013-12-16 | 2016-08-24 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 가상 어시스턴트를 제공하기 위한 시스템 및 방법 |
US9804820B2 (en) | 2013-12-16 | 2017-10-31 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
US9251492B2 (en) | 2013-12-16 | 2016-02-02 | Nuiku, Inc. | Customized-enterprise-software integration systems and methods |
US10534623B2 (en) | 2013-12-16 | 2020-01-14 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
US9571645B2 (en) | 2013-12-16 | 2017-02-14 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
US9479931B2 (en) | 2013-12-16 | 2016-10-25 | Nuance Communications, Inc. | Systems and methods for providing a virtual assistant |
WO2015092943A1 (en) | 2013-12-17 | 2015-06-25 | Sony Corporation | Electronic devices and methods for compensating for environmental noise in text-to-speech applications |
US9721570B1 (en) | 2013-12-17 | 2017-08-01 | Amazon Technologies, Inc. | Outcome-oriented dialogs on a speech recognition platform |
KR101510013B1 (ko) | 2013-12-18 | 2015-04-07 | 현대자동차주식회사 | 자동차의 조작계 터치패드를 이용한 멀티 조작 시스템 및 방법 |
GB2523984B (en) | 2013-12-18 | 2017-07-26 | Cirrus Logic Int Semiconductor Ltd | Processing received speech data |
US10565268B2 (en) | 2013-12-19 | 2020-02-18 | Adobe Inc. | Interactive communication augmented with contextual information |
US9741343B1 (en) | 2013-12-19 | 2017-08-22 | Amazon Technologies, Inc. | Voice interaction application selection |
CN105723451B (zh) | 2013-12-20 | 2020-02-28 | 英特尔公司 | 从低功率始终侦听模式到高功率语音识别模式的转换 |
US10811013B1 (en) | 2013-12-20 | 2020-10-20 | Amazon Technologies, Inc. | Intent-specific automatic speech recognition result generation |
KR102179506B1 (ko) | 2013-12-23 | 2020-11-17 | 삼성전자 주식회사 | 전자장치 및 그 제어방법 |
CN203721183U (zh) | 2013-12-25 | 2014-07-16 | 安徽科大讯飞信息科技股份有限公司 | 一种语音唤醒装置 |
KR102092164B1 (ko) * | 2013-12-27 | 2020-03-23 | 삼성전자주식회사 | 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들 |
JP6121896B2 (ja) | 2013-12-27 | 2017-04-26 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理システム |
JP2015127758A (ja) | 2013-12-27 | 2015-07-09 | シャープ株式会社 | 応答制御装置、制御プログラム |
US9640181B2 (en) | 2013-12-27 | 2017-05-02 | Kopin Corporation | Text editing with gesture control and natural speech |
US9460735B2 (en) | 2013-12-28 | 2016-10-04 | Intel Corporation | Intelligent ancillary electronic device |
US9390726B1 (en) | 2013-12-30 | 2016-07-12 | Google Inc. | Supplementing speech commands with gestures |
US20150278737A1 (en) | 2013-12-30 | 2015-10-01 | Google Inc. | Automatic Calendar Event Generation with Structured Data from Free-Form Speech |
US10078489B2 (en) | 2013-12-30 | 2018-09-18 | Microsoft Technology Licensing, Llc | Voice interface to a social networking service |
US9152307B2 (en) | 2013-12-31 | 2015-10-06 | Google Inc. | Systems and methods for simultaneously displaying clustered, in-line electronic messages in one display |
US9274673B2 (en) * | 2013-12-31 | 2016-03-01 | Google Inc. | Methods, systems, and media for rewinding media content based on detected audio events |
US9778817B2 (en) | 2013-12-31 | 2017-10-03 | Findo, Inc. | Tagging of images based on social network tags or comments |
US10088972B2 (en) | 2013-12-31 | 2018-10-02 | Verint Americas Inc. | Virtual assistant conversations |
US9471875B2 (en) | 2013-12-31 | 2016-10-18 | International Business Machines Corporation | Using ontologies to comprehend regular expressions |
US9424241B2 (en) | 2013-12-31 | 2016-08-23 | Barnes & Noble College Booksellers, Llc | Annotation mode including multiple note types for paginated digital content |
US9742836B2 (en) | 2014-01-03 | 2017-08-22 | Yahoo Holdings, Inc. | Systems and methods for content delivery |
US20150193379A1 (en) | 2014-01-06 | 2015-07-09 | Apple Inc. | System and method for cognizant time-based reminders |
JP6318621B2 (ja) | 2014-01-06 | 2018-05-09 | 株式会社デンソー | 音声処理装置、音声処理システム、音声処理方法、音声処理プログラム |
US9037455B1 (en) | 2014-01-08 | 2015-05-19 | Google Inc. | Limiting notification interruptions |
US8938394B1 (en) | 2014-01-09 | 2015-01-20 | Google Inc. | Audio triggers based on context |
US9443516B2 (en) | 2014-01-09 | 2016-09-13 | Honeywell International Inc. | Far-field speech recognition systems and methods |
US9924215B2 (en) | 2014-01-09 | 2018-03-20 | Hsni, Llc | Digital media content management system and method |
US20150201077A1 (en) | 2014-01-12 | 2015-07-16 | Genesys Telecommunications Laboratories, Inc. | Computing suggested actions in caller agent phone calls by using real-time speech analytics and real-time desktop analytics |
US10360907B2 (en) | 2014-01-14 | 2019-07-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9514748B2 (en) | 2014-01-15 | 2016-12-06 | Microsoft Technology Licensing, Llc | Digital personal assistant interaction with impersonations and rich multimedia in responses |
US8868409B1 (en) | 2014-01-16 | 2014-10-21 | Google Inc. | Evaluating transcriptions with a semantic parser |
US20150199965A1 (en) | 2014-01-16 | 2015-07-16 | CloudCar Inc. | System and method for recognition and automatic correction of voice commands |
US9336300B2 (en) | 2014-01-17 | 2016-05-10 | Facebook, Inc. | Client-side search templates for online social networks |
CN104794122B (zh) | 2014-01-20 | 2020-04-17 | 腾讯科技(北京)有限公司 | 一种位置信息推荐方法、装置和系统 |
KR102210433B1 (ko) | 2014-01-21 | 2021-02-01 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
CN105900042B (zh) | 2014-01-22 | 2019-06-28 | 索尼公司 | 重定向音频输入和输出的方法及设备 |
CN103744761B (zh) | 2014-01-22 | 2017-02-08 | 广东欧珀移动通信有限公司 | 一种控制多台移动终端自动执行任务的方法及系统 |
WO2015112137A1 (en) | 2014-01-22 | 2015-07-30 | Pearl Capital Developments Llc | Coordinated hand-off of audio data transmission |
CN103760984A (zh) | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 人机对话系统 |
US11386886B2 (en) | 2014-01-28 | 2022-07-12 | Lenovo (Singapore) Pte. Ltd. | Adjusting speech recognition using contextual information |
US9858039B2 (en) | 2014-01-28 | 2018-01-02 | Oracle International Corporation | Voice recognition of commands extracted from user interface screen devices |
US10019060B2 (en) | 2014-01-30 | 2018-07-10 | Duane Matthew Cash | Mind-controlled virtual assistant on a smartphone device |
JP6296813B2 (ja) | 2014-01-30 | 2018-03-20 | キヤノン株式会社 | 情報処理端末、情報処理端末の制御方法およびプログラム |
US10978060B2 (en) | 2014-01-31 | 2021-04-13 | Hewlett-Packard Development Company, L.P. | Voice input command |
US10096040B2 (en) | 2014-01-31 | 2018-10-09 | Walmart Apollo, Llc | Management of the display of online ad content consistent with one or more performance objectives for a webpage and/or website |
US20160173960A1 (en) | 2014-01-31 | 2016-06-16 | EyeGroove, Inc. | Methods and systems for generating audiovisual media items |
US9292488B2 (en) | 2014-02-01 | 2016-03-22 | Soundhound, Inc. | Method for embedding voice mail in a spoken utterance using a natural language processing computer system |
US10028008B2 (en) | 2014-02-04 | 2018-07-17 | Google Llc | Persistent media player |
US10157272B2 (en) | 2014-02-04 | 2018-12-18 | Qualcomm Incorporated | Systems and methods for evaluating strength of an audio password |
JP2015149568A (ja) | 2014-02-05 | 2015-08-20 | キヤノン株式会社 | 画像形成装置、その制御方法およびプログラム |
US10050926B2 (en) | 2014-02-05 | 2018-08-14 | Facebook, Inc. | Ideograms based on sentiment analysis |
KR20150092996A (ko) | 2014-02-06 | 2015-08-17 | 삼성전자주식회사 | 디스플레이 장치 및 이를 이용한 전자 장치의 제어 방법 |
US20150334346A1 (en) | 2014-05-16 | 2015-11-19 | Elwha Llc | Systems and methods for automatically connecting a user of a hands-free intercommunication system |
US20160336007A1 (en) | 2014-02-06 | 2016-11-17 | Mitsubishi Electric Corporation | Speech search device and speech search method |
US20150228281A1 (en) | 2014-02-07 | 2015-08-13 | First Principles,Inc. | Device, system, and method for active listening |
US9837075B2 (en) | 2014-02-10 | 2017-12-05 | Mitsubishi Electric Research Laboratories, Inc. | Statistical voice dialog system and method |
US9576588B2 (en) | 2014-02-10 | 2017-02-21 | Apple Inc. | Close-talk detector for personal listening device with adaptive active noise control |
US10083205B2 (en) | 2014-02-12 | 2018-09-25 | Samsung Electronics Co., Ltd. | Query cards |
US9037967B1 (en) | 2014-02-18 | 2015-05-19 | King Fahd University Of Petroleum And Minerals | Arabic spell checking technique |
US10469428B2 (en) | 2014-02-21 | 2019-11-05 | Samsung Electronics Co., Ltd. | Apparatus and method for transmitting message |
US9589562B2 (en) | 2014-02-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Pronunciation learning through correction logs |
WO2015127404A1 (en) | 2014-02-24 | 2015-08-27 | Microsoft Technology Licensing, Llc | Unified presentation of contextually connected information to improve user efficiency and interaction performance |
US20150243279A1 (en) | 2014-02-26 | 2015-08-27 | Toytalk, Inc. | Systems and methods for recommending responses |
US9495959B2 (en) | 2014-02-27 | 2016-11-15 | Ford Global Technologies, Llc | Disambiguation of dynamic commands |
US20150248651A1 (en) | 2014-02-28 | 2015-09-03 | Christine E. Akutagawa | Social networking event planning |
US10389876B2 (en) | 2014-02-28 | 2019-08-20 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US10757201B2 (en) | 2014-03-01 | 2020-08-25 | Microsoft Technology Licensing, Llc | Document and content feed |
US9412363B2 (en) | 2014-03-03 | 2016-08-09 | Microsoft Technology Licensing, Llc | Model based approach for on-screen item selection and disambiguation |
WO2015133022A1 (ja) | 2014-03-03 | 2015-09-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9582246B2 (en) | 2014-03-04 | 2017-02-28 | Microsoft Technology Licensing, Llc | Voice-command suggestions based on computer context |
US20150256873A1 (en) | 2014-03-04 | 2015-09-10 | Microsoft Technology Licensing, Llc | Relayed voice control of devices |
US9489171B2 (en) * | 2014-03-04 | 2016-11-08 | Microsoft Technology Licensing, Llc | Voice-command suggestions based on user identity |
US9574890B2 (en) | 2014-03-04 | 2017-02-21 | Qualcomm Incorporated | Reduced power consumption and improved user experience when navigating along familiar routes |
US10409454B2 (en) | 2014-03-05 | 2019-09-10 | Samsung Electronics Co., Ltd. | Smart watch device and user interface thereof |
US9286910B1 (en) | 2014-03-13 | 2016-03-15 | Amazon Technologies, Inc. | System for resolving ambiguous queries based on user context |
CN103885663A (zh) | 2014-03-14 | 2014-06-25 | 深圳市东方拓宇科技有限公司 | 一种生成和播放音乐的方法及其对应终端 |
US9405377B2 (en) | 2014-03-15 | 2016-08-02 | Microsoft Technology Licensing, Llc | Trainable sensor-based gesture recognition |
CN103841268A (zh) | 2014-03-17 | 2014-06-04 | 联想(北京)有限公司 | 信息处理方法和信息处理装置 |
US9430186B2 (en) | 2014-03-17 | 2016-08-30 | Google Inc | Visual indication of a recognized voice-initiated action |
US10102274B2 (en) | 2014-03-17 | 2018-10-16 | NLPCore LLC | Corpus search systems and methods |
CN103885608A (zh) | 2014-03-19 | 2014-06-25 | 百度在线网络技术(北京)有限公司 | 一种输入方法及系统 |
US9734817B1 (en) | 2014-03-21 | 2017-08-15 | Amazon Technologies, Inc. | Text-to-speech task scheduling |
US9336306B2 (en) | 2014-03-21 | 2016-05-10 | International Business Machines Corporation | Automatic evaluation and improvement of ontologies for natural language processing tasks |
US9966079B2 (en) | 2014-03-24 | 2018-05-08 | Lenovo (Singapore) Pte. Ltd. | Directing voice input based on eye tracking |
US20170075653A1 (en) | 2014-03-26 | 2017-03-16 | Sony Corporation | Electronic device and method for controlling the electronic device |
US9431021B1 (en) | 2014-03-27 | 2016-08-30 | Amazon Technologies, Inc. | Device grouping for audio based interactivity |
US9916839B1 (en) | 2014-03-27 | 2018-03-13 | Amazon Technologies, Inc. | Shared audio functionality based on device grouping |
IN2014DE00899A (ja) | 2014-03-28 | 2015-10-02 | Samsung Electronics Co Ltd | |
RU2014111971A (ru) | 2014-03-28 | 2015-10-10 | Юрий Михайлович Буров | Способ и система голосового интерфейса |
US9710546B2 (en) | 2014-03-28 | 2017-07-18 | Microsoft Technology Licensing, Llc | Explicit signals personalized search |
CA2943513C (en) | 2014-03-29 | 2020-08-04 | Thomson Reuters Global Resources | Improved method, system and software for searching, identifying, retrieving and presenting electronic documents |
US9196243B2 (en) | 2014-03-31 | 2015-11-24 | International Business Machines Corporation | Method and system for efficient spoken term detection using confusion networks |
US10037758B2 (en) | 2014-03-31 | 2018-07-31 | Mitsubishi Electric Corporation | Device and method for understanding user intent |
US20150278370A1 (en) | 2014-04-01 | 2015-10-01 | Microsoft Corporation | Task completion for natural language input |
US9286892B2 (en) | 2014-04-01 | 2016-03-15 | Google Inc. | Language modeling in speech recognition |
US10749989B2 (en) | 2014-04-01 | 2020-08-18 | Microsoft Technology Licensing Llc | Hybrid client/server architecture for parallel processing |
CN103902373B (zh) | 2014-04-02 | 2017-09-29 | 百度在线网络技术(北京)有限公司 | 智能终端控制方法、服务器和智能终端 |
US10992609B2 (en) | 2014-04-02 | 2021-04-27 | CloLa, Inc. | Text-messaging based concierge services |
CN106416309B (zh) | 2014-04-02 | 2020-05-12 | 索尼公司 | 电子装置、移动终端和接近检测方法 |
US20150286627A1 (en) | 2014-04-03 | 2015-10-08 | Adobe Systems Incorporated | Contextual sentiment text analysis |
KR102249086B1 (ko) | 2014-04-04 | 2021-05-10 | 삼성전자주식회사 | 레코딩 지원 전자장치 및 방법 |
US9519644B2 (en) | 2014-04-04 | 2016-12-13 | Facebook, Inc. | Methods and devices for generating media items |
KR20150115555A (ko) | 2014-04-04 | 2015-10-14 | 삼성전자주식회사 | 전자 장치 및 그의 정보 제공 방법 |
US9383827B1 (en) | 2014-04-07 | 2016-07-05 | Google Inc. | Multi-modal command display |
JP6282516B2 (ja) | 2014-04-08 | 2018-02-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 複数機器の音声操作システム、音声操作方法及び、プログラム |
CN104978963A (zh) | 2014-04-08 | 2015-10-14 | 富士通株式会社 | 语音识别装置、方法以及电子设备 |
US9542948B2 (en) | 2014-04-09 | 2017-01-10 | Google Inc. | Text-dependent speaker identification |
US20150294516A1 (en) | 2014-04-10 | 2015-10-15 | Kuo-Ching Chiang | Electronic device with security module |
US9888452B2 (en) | 2014-04-10 | 2018-02-06 | Twin Harbor Labs Llc | Methods and apparatus notifying a user of the operating condition of a household appliance |
US20170178664A1 (en) | 2014-04-11 | 2017-06-22 | Analog Devices, Inc. | Apparatus, systems and methods for providing cloud based blind source separation services |
CN108551675B (zh) | 2014-04-14 | 2022-04-15 | 创新先进技术有限公司 | 一种应用客户端、服务端及对应的Portal认证方法 |
US20150294086A1 (en) | 2014-04-14 | 2015-10-15 | Elwha Llc | Devices, systems, and methods for automated enhanced care rooms |
US9652453B2 (en) | 2014-04-14 | 2017-05-16 | Xerox Corporation | Estimation of parameters for machine translation without in-domain parallel data |
US10540979B2 (en) | 2014-04-17 | 2020-01-21 | Qualcomm Incorporated | User interface for secure access to a device using speaker verification |
US20150302856A1 (en) | 2014-04-17 | 2015-10-22 | Qualcomm Incorporated | Method and apparatus for performing function by speech input |
US10770075B2 (en) | 2014-04-21 | 2020-09-08 | Qualcomm Incorporated | Method and apparatus for activating application by speech input |
US20150302316A1 (en) | 2014-04-22 | 2015-10-22 | Google Inc. | System and method for determining unwanted phone messages |
KR20150122561A (ko) | 2014-04-23 | 2015-11-02 | 삼성전자주식회사 | 디바이스 및 상기 디바이스에서의 착신 호출 처리 방법 |
US9607613B2 (en) | 2014-04-23 | 2017-03-28 | Google Inc. | Speech endpointing based on word comparisons |
US20150310862A1 (en) | 2014-04-24 | 2015-10-29 | Microsoft Corporation | Deep learning for semantic parsing including semantic utterance classification |
CN105025051A (zh) | 2014-04-24 | 2015-11-04 | 深圳市赛格导航科技股份有限公司 | 一种云端语音服务提供方法和系统 |
US10845982B2 (en) | 2014-04-28 | 2020-11-24 | Facebook, Inc. | Providing intelligent transcriptions of sound messages in a messaging application |
US9478247B2 (en) | 2014-04-28 | 2016-10-25 | Sonos, Inc. | Management of media content playback |
US9520127B2 (en) | 2014-04-29 | 2016-12-13 | Microsoft Technology Licensing, Llc | Shared hidden layer combination for speech recognition systems |
US8976063B1 (en) | 2014-04-29 | 2015-03-10 | Google Inc. | Automated detection of vehicle parking and location |
US9600600B2 (en) | 2014-04-30 | 2017-03-21 | Excalibur Ip, Llc | Method and system for evaluating query suggestions quality |
KR102248474B1 (ko) | 2014-04-30 | 2021-05-07 | 삼성전자 주식회사 | 음성 명령 제공 방법 및 장치 |
US10789304B2 (en) | 2014-05-06 | 2020-09-29 | Oath Inc. | Method and system for measuring user engagement with content items |
US9501163B2 (en) | 2014-05-06 | 2016-11-22 | Symbol Technologies, Llc | Apparatus and method for activating a trigger mechanism |
KR102282487B1 (ko) | 2014-05-08 | 2021-07-26 | 삼성전자주식회사 | 애플리케이션 실행 장치 및 방법 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US9459889B2 (en) | 2014-05-19 | 2016-10-04 | Qualcomm Incorporated | Systems and methods for context-aware application control |
KR102216048B1 (ko) | 2014-05-20 | 2021-02-15 | 삼성전자주식회사 | 음성 명령 인식 장치 및 방법 |
US10726831B2 (en) | 2014-05-20 | 2020-07-28 | Amazon Technologies, Inc. | Context interpretation in natural language processing using previous dialog acts |
KR102223278B1 (ko) | 2014-05-22 | 2021-03-05 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
WO2015179632A1 (en) | 2014-05-22 | 2015-11-26 | Scheffler Lee J | Methods and systems for neural and cognitive processing |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9990433B2 (en) | 2014-05-23 | 2018-06-05 | Samsung Electronics Co., Ltd. | Method for searching and device thereof |
KR102329420B1 (ko) | 2014-05-23 | 2021-11-22 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9437189B2 (en) | 2014-05-29 | 2016-09-06 | Google Inc. | Generating language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9519634B2 (en) | 2014-05-30 | 2016-12-13 | Educational Testing Service | Systems and methods for determining lexical associations among words in a corpus |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
WO2015183699A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Predictive messaging method |
US10237711B2 (en) | 2014-05-30 | 2019-03-19 | Apple Inc. | Dynamic types for activity continuation between electronic devices |
US10579212B2 (en) | 2014-05-30 | 2020-03-03 | Apple Inc. | Structured suggestions |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10033818B2 (en) | 2014-05-30 | 2018-07-24 | Apple Inc. | Using listen ranges to deliver content to electronic devices from local caching servers |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
TWI520007B (zh) | 2014-05-30 | 2016-02-01 | 由田新技股份有限公司 | 眼控密碼輸入設備、方法、電腦可讀取紀錄媒體及電腦程式產品 |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US11088807B2 (en) | 2014-05-30 | 2021-08-10 | Apple Inc. | Application-level acknowledgements |
US9380123B2 (en) | 2014-05-30 | 2016-06-28 | Apple Inc. | Activity continuation between electronic devices |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
EP3149554B1 (en) | 2014-05-30 | 2024-05-01 | Apple Inc. | Continuity |
US10387451B2 (en) | 2014-05-30 | 2019-08-20 | Apple Inc. | Synchronization system for multiple client devices |
US9887949B2 (en) | 2014-05-31 | 2018-02-06 | Apple Inc. | Displaying interactive notifications on touch sensitive devices |
GB2526805A (en) | 2014-06-03 | 2015-12-09 | Nokia Technologies Oy | Methods, apparatuses and computer programs for adapting content |
US10318016B2 (en) | 2014-06-03 | 2019-06-11 | Harman International Industries, Incorporated | Hands free device with directional interface |
US9363254B2 (en) | 2014-06-04 | 2016-06-07 | Sonos, Inc. | Cloud queue access control |
US8995972B1 (en) | 2014-06-05 | 2015-03-31 | Grandios Technologies, Llc | Automatic personal assistance between users devices |
JP6307356B2 (ja) | 2014-06-06 | 2018-04-04 | 株式会社デンソー | 運転コンテキスト情報生成装置 |
CN107113222B (zh) | 2014-06-06 | 2020-09-01 | 谷歌有限责任公司 | 基于环境的主动聊天信息系统 |
US10325205B2 (en) | 2014-06-09 | 2019-06-18 | Cognitive Scale, Inc. | Cognitive information processing system environment |
EP2983065B1 (en) | 2014-06-11 | 2018-08-01 | Huawei Technologies Co., Ltd. | Method and terminal for quickly starting application service |
CN104090652B (zh) | 2014-06-13 | 2017-07-21 | 北京搜狗科技发展有限公司 | 一种语音输入方法和装置 |
US20150364140A1 (en) | 2014-06-13 | 2015-12-17 | Sony Corporation | Portable Electronic Equipment and Method of Operating a User Interface |
US10127901B2 (en) | 2014-06-13 | 2018-11-13 | Microsoft Technology Licensing, Llc | Hyper-structure recurrent neural networks for text-to-speech |
US10250538B2 (en) | 2014-06-14 | 2019-04-02 | Trisha N. Prabhu | Detecting messages with offensive content |
KR20150144668A (ko) | 2014-06-17 | 2015-12-28 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
CH709795B1 (fr) | 2014-06-18 | 2021-02-26 | Katia Sa | Procédé et système de filtrage d'appels téléphoniques entrants indésirables. |
US20150370787A1 (en) | 2014-06-18 | 2015-12-24 | Microsoft Corporation | Session Context Modeling For Conversational Understanding Systems |
US9390706B2 (en) | 2014-06-19 | 2016-07-12 | Mattersight Corporation | Personality-based intelligent personal assistant system and methods |
US9462112B2 (en) | 2014-06-19 | 2016-10-04 | Microsoft Technology Licensing, Llc | Use of a digital assistant in communications |
US10186282B2 (en) | 2014-06-19 | 2019-01-22 | Apple Inc. | Robust end-pointing of speech signals using speaker recognition |
CN104036774B (zh) | 2014-06-20 | 2018-03-06 | 国家计算机网络与信息安全管理中心 | 藏语方言识别方法及系统 |
US20150371529A1 (en) | 2014-06-24 | 2015-12-24 | Bose Corporation | Audio Systems and Related Methods and Devices |
US10783166B2 (en) | 2014-06-24 | 2020-09-22 | Google Llc | List accumulation and reminder triggering |
US9384738B2 (en) | 2014-06-24 | 2016-07-05 | Google Inc. | Dynamic threshold for speaker verification |
US9632748B2 (en) | 2014-06-24 | 2017-04-25 | Google Inc. | Device designation for audio input monitoring |
US9807559B2 (en) | 2014-06-25 | 2017-10-31 | Microsoft Technology Licensing, Llc | Leveraging user signals for improved interactions with digital personal assistant |
US20150379118A1 (en) | 2014-06-27 | 2015-12-31 | United Video Properties, Inc. | Methods and systems for generating playlists based on activities being performed by a user |
US20150381923A1 (en) | 2014-06-27 | 2015-12-31 | United Video Properties, Inc. | Methods and systems for adjusting a play length of a media asset based user actions |
US10402453B2 (en) | 2014-06-27 | 2019-09-03 | Nuance Communications, Inc. | Utilizing large-scale knowledge graphs to support inference at scale and explanation generation |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
KR102261552B1 (ko) | 2014-06-30 | 2021-06-07 | 삼성전자주식회사 | 음성 명령어 제공 방법 및 이를 지원하는 전자 장치 |
US20160005320A1 (en) | 2014-07-02 | 2016-01-07 | Christopher deCharms | Technologies for brain exercise training |
US11330100B2 (en) | 2014-07-09 | 2022-05-10 | Ooma, Inc. | Server based intelligent personal assistant services |
US20160012038A1 (en) | 2014-07-10 | 2016-01-14 | International Business Machines Corporation | Semantic typing with n-gram analysis |
US10321204B2 (en) * | 2014-07-11 | 2019-06-11 | Lenovo (Singapore) Pte. Ltd. | Intelligent closed captioning |
US10506273B2 (en) | 2014-07-15 | 2019-12-10 | Verizon Patent And Licensing Inc. | Using a media client device to present media content from a mobile device |
US9665248B2 (en) | 2014-07-15 | 2017-05-30 | Google Inc. | Adaptive background playback behavior |
KR20160009344A (ko) | 2014-07-16 | 2016-01-26 | 삼성전자주식회사 | 귓속말 인식 방법 및 장치 |
CN104113471B (zh) | 2014-07-18 | 2018-06-05 | 广州三星通信技术研究有限公司 | 通讯连接异常时的信息处理方法和装置 |
US9257120B1 (en) | 2014-07-18 | 2016-02-09 | Google Inc. | Speaker verification using co-location information |
WO2016010857A1 (en) | 2014-07-18 | 2016-01-21 | Apple Inc. | Raise gesture detection in a device |
US9560402B2 (en) | 2014-07-23 | 2017-01-31 | Highlands Technologies Solutions | Methods for displaying personalized messages, images and the like at event centers including cinema |
US20160028666A1 (en) | 2014-07-24 | 2016-01-28 | Framy Inc. | System and method for instant messaging |
US9301256B2 (en) | 2014-07-24 | 2016-03-29 | Verizon Patent And Licensing Inc. | Low battery indication for callers to mobile device |
US20160086116A1 (en) | 2014-07-27 | 2016-03-24 | Supriya Rao | Method and system of an automatically managed calendar and contextual task list |
US9325842B1 (en) | 2014-07-28 | 2016-04-26 | Google Inc. | Systems and methods for associating a string with a content item |
US10178229B2 (en) | 2014-07-29 | 2019-01-08 | United Efficiency, Inc. | System for limiting mobile phone distraction in motor vehicles and / or within fixed locations |
EP2998822B1 (en) | 2014-07-31 | 2018-09-12 | Samsung Electronics Co., Ltd | Mobile communication device using a plurality of wearable devices in parallel |
US20160034811A1 (en) | 2014-07-31 | 2016-02-04 | Apple Inc. | Efficient generation of complementary acoustic models for performing automatic speech recognition system combination |
WO2016017997A1 (en) | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable glasses and method of providing content using the same |
CN104123191A (zh) | 2014-07-31 | 2014-10-29 | 北京智谷睿拓技术服务有限公司 | 任务迁移控制方法、装置和系统 |
US9377871B2 (en) | 2014-08-01 | 2016-06-28 | Nuance Communications, Inc. | System and methods for determining keyboard input in the presence of multiple contact points |
US9898175B2 (en) | 2014-08-05 | 2018-02-20 | Fibar Group S.A. | Home network manager for home automation |
US9874997B2 (en) | 2014-08-08 | 2018-01-23 | Sonos, Inc. | Social playback queues |
US9548066B2 (en) | 2014-08-11 | 2017-01-17 | Amazon Technologies, Inc. | Voice application architecture |
US9767794B2 (en) | 2014-08-11 | 2017-09-19 | Nuance Communications, Inc. | Dialog flow management in hierarchical task dialogs |
US9361442B2 (en) | 2014-08-12 | 2016-06-07 | International Business Machines Corporation | Triggering actions on a user device based on biometrics of nearby individuals |
US10243891B2 (en) | 2014-08-14 | 2019-03-26 | Oath Inc. | Cross-device integration system and method |
US9838999B2 (en) | 2014-08-14 | 2017-12-05 | Blackberry Limited | Portable electronic device and method of controlling notifications |
WO2016028793A1 (en) | 2014-08-18 | 2016-02-25 | Interdigital Patent Holdings, Inc. | Injecting streaming media into a playlist |
JP6044604B2 (ja) | 2014-08-18 | 2016-12-14 | カシオ計算機株式会社 | 端末装置、およびプログラム |
US10345767B2 (en) | 2014-08-19 | 2019-07-09 | Samsung Electronics Co., Ltd. | Apparatus and method for gamification of sensor data interpretation in smart home |
KR20160023089A (ko) | 2014-08-21 | 2016-03-03 | 엘지전자 주식회사 | 디지털 디바이스 및 그 제어 방법 |
US20160055240A1 (en) | 2014-08-22 | 2016-02-25 | Microsoft Corporation | Orphaned utterance detection system and method |
CN105472587A (zh) | 2014-08-26 | 2016-04-06 | 小米科技有限责任公司 | 来电处理方法和装置 |
WO2016032806A1 (en) | 2014-08-26 | 2016-03-03 | Apple Inc. | User interface for limiting notifications and alerts |
US10068008B2 (en) | 2014-08-28 | 2018-09-04 | Microsoft Technologies Licensing, LLC | Spelling correction of email queries |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9990610B2 (en) | 2014-08-29 | 2018-06-05 | Google Llc | Systems and methods for providing suggested reminders |
CN105471705B (zh) | 2014-09-03 | 2021-03-23 | 腾讯科技(深圳)有限公司 | 一种基于即时通讯的智能控制方法、设备及系统 |
CN104243699A (zh) | 2014-09-04 | 2014-12-24 | 宇龙计算机通信科技(深圳)有限公司 | 一种来电拒接后的提醒方法、系统及移动终端 |
US9959863B2 (en) | 2014-09-08 | 2018-05-01 | Qualcomm Incorporated | Keyword detection using speaker-independent keyword models for user-designated keywords |
CN105960672B (zh) | 2014-09-09 | 2019-11-26 | 微软技术许可有限责任公司 | 用于稳健语音识别的变量组件深度神经网络 |
US20160071517A1 (en) | 2014-09-09 | 2016-03-10 | Next It Corporation | Evaluating Conversation Data based on Risk Factors |
US10204622B2 (en) | 2015-09-10 | 2019-02-12 | Crestron Electronics, Inc. | Acoustic sensory network |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10171558B2 (en) | 2014-09-12 | 2019-01-01 | Microsoft Technology Licensing, Llc | Cross device application discovery and control |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10261672B1 (en) | 2014-09-16 | 2019-04-16 | Amazon Technologies, Inc. | Contextual launch interfaces |
CN105490890A (zh) | 2014-09-16 | 2016-04-13 | 中兴通讯股份有限公司 | 智能家庭终端及其控制方法 |
US9548979B1 (en) | 2014-09-19 | 2017-01-17 | United Services Automobile Association (Usaa) | Systems and methods for authentication program enrollment |
US9778736B2 (en) | 2014-09-22 | 2017-10-03 | Rovi Guides, Inc. | Methods and systems for calibrating user devices |
JP6052814B2 (ja) | 2014-09-24 | 2016-12-27 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音声認識モデルの構築方法、音声認識方法、コンピュータ・システム、音声認識装置、プログラムおよび記録媒体 |
US9508028B2 (en) | 2014-09-24 | 2016-11-29 | Nuance Communications, Inc. | Converting text strings into number strings, such as via a touchscreen input |
US10317992B2 (en) | 2014-09-25 | 2019-06-11 | Microsoft Technology Licensing, Llc | Eye gaze for spoken language understanding in multi-modal conversational interactions |
US20160094889A1 (en) | 2014-09-29 | 2016-03-31 | Rovi Guides, Inc. | Systems and methods for determining whether to merge search queries based on contextual information |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9378740B1 (en) | 2014-09-30 | 2016-06-28 | Amazon Technologies, Inc. | Command suggestions during automatic speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
JP6448971B2 (ja) | 2014-09-30 | 2019-01-09 | シャープ株式会社 | 対話装置 |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646634B2 (en) | 2014-09-30 | 2017-05-09 | Google Inc. | Low-rank hidden input layer for speech recognition neural network |
US9578156B2 (en) | 2014-09-30 | 2017-02-21 | Samsung Electronics Co., Ltd. | Method and apparatus for operating an electronic device |
US9830321B2 (en) | 2014-09-30 | 2017-11-28 | Rovi Guides, Inc. | Systems and methods for searching for a media asset |
US10235996B2 (en) | 2014-10-01 | 2019-03-19 | XBrain, Inc. | Voice and connection platform |
US9559993B2 (en) | 2014-10-02 | 2017-01-31 | Oracle International Corporation | Virtual agent proxy in a real-time chat service |
US20160099984A1 (en) | 2014-10-03 | 2016-04-07 | Across Lab, Inc. | Method and apparatus for remote, multi-media collaboration, including archive and search capability |
US9812128B2 (en) | 2014-10-09 | 2017-11-07 | Google Inc. | Device leadership negotiation among voice interface devices |
US9318107B1 (en) | 2014-10-09 | 2016-04-19 | Google Inc. | Hotword detection on multiple devices |
US9424841B2 (en) | 2014-10-09 | 2016-08-23 | Google Inc. | Hotword detection on multiple devices |
US9741344B2 (en) | 2014-10-20 | 2017-08-22 | Vocalzoom Systems Ltd. | System and method for operating devices using voice commands |
US20160117386A1 (en) | 2014-10-22 | 2016-04-28 | International Business Machines Corporation | Discovering terms using statistical corpus analysis |
US9576575B2 (en) | 2014-10-27 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Providing voice recognition shortcuts based on user verbal input |
CN104360990A (zh) | 2014-10-27 | 2015-02-18 | 深圳市金立通信设备有限公司 | 一种编辑内容的方法 |
CN104464733B (zh) | 2014-10-28 | 2019-09-20 | 百度在线网络技术(北京)有限公司 | 一种语音对话的多场景管理方法及装置 |
CN104460593B (zh) | 2014-10-29 | 2017-10-10 | 小米科技有限责任公司 | 模式切换方法及装置 |
US9880714B2 (en) | 2014-10-30 | 2018-01-30 | Ebay Inc. | Dynamic loading of contextual ontologies for predictive touch screen typing |
CN104374399A (zh) | 2014-10-31 | 2015-02-25 | 北京搜狗科技发展有限公司 | 一种导航信息显示方法和装置 |
CN105574067B (zh) | 2014-10-31 | 2020-01-21 | 株式会社东芝 | 项目推荐装置以及项目推荐方法 |
US9646611B2 (en) | 2014-11-06 | 2017-05-09 | Microsoft Technology Licensing, Llc | Context-based actions |
US9842102B2 (en) | 2014-11-10 | 2017-12-12 | Oracle International Corporation | Automatic ontology generation for natural-language processing applications |
US10572589B2 (en) | 2014-11-10 | 2020-02-25 | International Business Machines Corporation | Cognitive matching of narrative data |
GB2532075A (en) | 2014-11-10 | 2016-05-11 | Lego As | System and method for toy recognition and detection based on convolutional neural networks |
JP6720170B2 (ja) | 2014-11-11 | 2020-07-08 | ウェビー・コーポレーション | スマートスペースのためのシステム及び方法 |
US10228904B2 (en) | 2014-11-12 | 2019-03-12 | Lenovo (Singapore) Pte. Ltd. | Gaze triggered voice recognition incorporating device velocity |
US9542927B2 (en) | 2014-11-13 | 2017-01-10 | Google Inc. | Method and system for building text-to-speech voice from diverse recordings |
US20160139662A1 (en) | 2014-11-14 | 2016-05-19 | Sachin Dabhade | Controlling a visual device based on a proximity between a user and the visual device |
US10116748B2 (en) | 2014-11-20 | 2018-10-30 | Microsoft Technology Licensing, Llc | Vehicle-based multi-modal interface |
US9361126B1 (en) | 2014-11-24 | 2016-06-07 | International Business Machines Corporation | Device driver aggregation in operating system deployment |
US9258604B1 (en) | 2014-11-24 | 2016-02-09 | Facebook, Inc. | Commercial detection based on audio fingerprinting |
US9886430B2 (en) | 2014-11-25 | 2018-02-06 | Microsoft Technology Licensing, Llc | Entity based content selection |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
US10192549B2 (en) | 2014-11-28 | 2019-01-29 | Microsoft Technology Licensing, Llc | Extending digital personal assistant action providers |
US9812126B2 (en) | 2014-11-28 | 2017-11-07 | Microsoft Technology Licensing, Llc | Device arbitration for listening devices |
CN111757189B (zh) | 2014-12-01 | 2022-07-15 | 构造数据有限责任公司 | 用于连续介质片段识别的系统和方法 |
KR20160065503A (ko) | 2014-12-01 | 2016-06-09 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US10587541B2 (en) | 2014-12-02 | 2020-03-10 | Facebook, Inc. | Device, method, and graphical user interface for lightweight messaging |
US9466297B2 (en) | 2014-12-09 | 2016-10-11 | Microsoft Technology Licensing, Llc | Communication system |
US20160162569A1 (en) | 2014-12-09 | 2016-06-09 | Idibon, Inc. | Methods and systems for improving machine learning performance |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9241073B1 (en) | 2014-12-09 | 2016-01-19 | Ringcentral, Inc. | Systems and methods for managing an event scheduling request in a telephony system |
US20160170966A1 (en) | 2014-12-10 | 2016-06-16 | Brian Kolo | Methods and systems for automated language identification |
CN107209549B (zh) | 2014-12-11 | 2020-04-17 | 微软技术许可有限责任公司 | 能够实现可动作的消息传送的虚拟助理系统 |
KR20160071732A (ko) | 2014-12-12 | 2016-06-22 | 삼성전자주식회사 | 음성 입력을 처리하는 방법 및 장치 |
US9912758B2 (en) | 2014-12-16 | 2018-03-06 | Yahoo Holdings, Inc. | Continuing an application session on a different device |
US9904673B2 (en) | 2014-12-17 | 2018-02-27 | International Business Machines Corporation | Conversation advisor |
JP6230726B2 (ja) | 2014-12-18 | 2017-11-15 | 三菱電機株式会社 | 音声認識装置および音声認識方法 |
US9911415B2 (en) | 2014-12-19 | 2018-03-06 | Lenovo (Singapore) Pte. Ltd. | Executing a voice command during voice input |
US9552816B2 (en) | 2014-12-19 | 2017-01-24 | Amazon Technologies, Inc. | Application focus in speech-based systems |
JP6504808B2 (ja) | 2014-12-22 | 2019-04-24 | キヤノン株式会社 | 撮像装置、音声コマンド機能の設定方法、コンピュータプログラム、及び記憶媒体 |
KR20160076201A (ko) | 2014-12-22 | 2016-06-30 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US10672390B2 (en) | 2014-12-22 | 2020-06-02 | Rovi Guides, Inc. | Systems and methods for improving speech recognition performance by generating combined interpretations |
US9690542B2 (en) | 2014-12-22 | 2017-06-27 | Microsoft Technology Licensing, Llc | Scaling digital personal assistant agents across devices |
US9811312B2 (en) | 2014-12-22 | 2017-11-07 | Intel Corporation | Connected device voice command support |
US10229356B1 (en) | 2014-12-23 | 2019-03-12 | Amazon Technologies, Inc. | Error tolerant neural network model compression |
US9483388B2 (en) | 2014-12-29 | 2016-11-01 | Quixey, Inc. | Discovery of application states |
US9837081B2 (en) | 2014-12-30 | 2017-12-05 | Microsoft Technology Licensing, Llc | Discovering capabilities of third-party voice-enabled resources |
US10713005B2 (en) | 2015-01-05 | 2020-07-14 | Google Llc | Multimodal state circulation |
US9959129B2 (en) | 2015-01-09 | 2018-05-01 | Microsoft Technology Licensing, Llc | Headless task completion within digital personal assistants |
EP3193328B1 (en) | 2015-01-16 | 2022-11-23 | Samsung Electronics Co., Ltd. | Method and device for performing voice recognition using grammar model |
CN104575501B (zh) | 2015-01-19 | 2017-11-03 | 北京云知声信息技术有限公司 | 一种收音机语音操控指令解析方法及系统 |
KR102305584B1 (ko) | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
US9367541B1 (en) | 2015-01-20 | 2016-06-14 | Xerox Corporation | Terminological adaptation of statistical machine translation system through automatic generation of phrasal contexts for bilingual terms |
CN105869641A (zh) | 2015-01-22 | 2016-08-17 | 佳能株式会社 | 语音识别装置及语音识别方法 |
US9947313B2 (en) | 2015-01-26 | 2018-04-17 | William Drewes | Method for substantial ongoing cumulative voice recognition error reduction |
CN104573472A (zh) | 2015-01-30 | 2015-04-29 | 深圳市中兴移动通信有限公司 | 移动终端及其操作方法 |
US20160224559A1 (en) | 2015-01-30 | 2016-08-04 | Linkedin Corporation | Ranking adjustment of federated content items in a social network |
US20160227107A1 (en) | 2015-02-02 | 2016-08-04 | Lenovo (Singapore) Pte. Ltd. | Method and device for notification preview dismissal |
US9424412B1 (en) | 2015-02-02 | 2016-08-23 | Bank Of America Corporation | Authenticating customers using biometrics |
US20160225372A1 (en) | 2015-02-03 | 2016-08-04 | Samsung Electronics Company, Ltd. | Smart home connected device contextual learning using audio commands |
US9613022B2 (en) | 2015-02-04 | 2017-04-04 | Lenovo (Singapore) Pte. Ltd. | Context based customization of word assistance functions |
US10062061B2 (en) | 2015-02-05 | 2018-08-28 | Conduent Business Services, Llc | Pay-by-phone parking system aided by a vision based monitoring device |
CN104679472A (zh) | 2015-02-13 | 2015-06-03 | 百度在线网络技术(北京)有限公司 | 人机语音交互方法和装置 |
US10121472B2 (en) | 2015-02-13 | 2018-11-06 | Knowles Electronics, Llc | Audio buffer catch-up apparatus and method with two microphones |
KR101678087B1 (ko) | 2015-02-16 | 2016-11-23 | 현대자동차주식회사 | 차량 및 그 제어방법 |
KR20160101826A (ko) | 2015-02-17 | 2016-08-26 | 삼성전자주식회사 | 멀티 유저 기반의 전자 장치 |
JP2016151928A (ja) | 2015-02-18 | 2016-08-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9554356B2 (en) | 2015-02-19 | 2017-01-24 | Microsoft Technology Licensing, Llc | Personalized reminders |
US10339440B2 (en) | 2015-02-19 | 2019-07-02 | Digital Reasoning Systems, Inc. | Systems and methods for neural language modeling |
US9928232B2 (en) | 2015-02-27 | 2018-03-27 | Microsoft Technology Licensing, Llc | Topically aware word suggestions |
CN107408045B (zh) | 2015-02-27 | 2022-10-04 | 三星电子株式会社 | 控制安装有多个操作系统的设备的方法和该设备 |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9911412B2 (en) | 2015-03-06 | 2018-03-06 | Nuance Communications, Inc. | Evidence-based natural language input recognition |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10216351B2 (en) | 2015-03-08 | 2019-02-26 | Apple Inc. | Device configuration user interface |
US20160266871A1 (en) | 2015-03-11 | 2016-09-15 | Adapx, Inc. | Speech recognizer for multimodal systems and signing in/out with and /or for a digital pen |
US9805713B2 (en) | 2015-03-13 | 2017-10-31 | Google Inc. | Addressing missing features in models |
US9984686B1 (en) | 2015-03-17 | 2018-05-29 | Amazon Technologies, Inc. | Mapping device capabilities to a predefined set |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US10721517B2 (en) | 2015-03-20 | 2020-07-21 | Liuzhou Guitong Technology Co., Ltd. | Method and system for synchronously reproducing multimedia multi-information |
CN104869342A (zh) * | 2015-06-09 | 2015-08-26 | 柳州桂通科技股份有限公司 | 一种多媒体多信息同步重现的方法及其应用 |
US20160286045A1 (en) | 2015-03-23 | 2016-09-29 | Vonage Network Llc | System and method for providing an informative message when rejecting an incoming call |
US10063510B2 (en) | 2015-03-24 | 2018-08-28 | Facebook, Inc. | Techniques to share and remix media through a messaging system |
US9703394B2 (en) | 2015-03-24 | 2017-07-11 | Google Inc. | Unlearning techniques for adaptive language models in text entry |
US9672725B2 (en) | 2015-03-25 | 2017-06-06 | Microsoft Technology Licensing, Llc | Proximity-based reminders |
US20160284005A1 (en) | 2015-03-25 | 2016-09-29 | Facebook, Inc. | Techniques for product, service, and business recommendation |
US10261482B2 (en) | 2015-03-26 | 2019-04-16 | Ca, Inc. | Initiating actions on wearable devices |
US10133538B2 (en) | 2015-03-27 | 2018-11-20 | Sri International | Semi-supervised speaker diarization |
TWI525532B (zh) | 2015-03-30 | 2016-03-11 | Yu-Wei Chen | Set the name of the person to wake up the name for voice manipulation |
US9484021B1 (en) | 2015-03-30 | 2016-11-01 | Amazon Technologies, Inc. | Disambiguation in speech recognition |
US20160293157A1 (en) | 2015-03-30 | 2016-10-06 | Google Inc. | Contextual Voice Action History |
US10192546B1 (en) | 2015-03-30 | 2019-01-29 | Amazon Technologies, Inc. | Pre-wakeword speech processing |
US20170047063A1 (en) | 2015-03-31 | 2017-02-16 | Sony Corporation | Information processing apparatus, control method, and program |
US20160322044A1 (en) | 2015-04-01 | 2016-11-03 | Elwha Llc | Networked User Command Recognition |
US20170032783A1 (en) | 2015-04-01 | 2017-02-02 | Elwha Llc | Hierarchical Networked Command Recognition |
US10049099B2 (en) | 2015-04-10 | 2018-08-14 | Facebook, Inc. | Spell correction with hidden markov models on online social networks |
US10095683B2 (en) | 2015-04-10 | 2018-10-09 | Facebook, Inc. | Contextual speller models on online social networks |
US9678664B2 (en) | 2015-04-10 | 2017-06-13 | Google Inc. | Neural network for keyboard input decoding |
US10021209B2 (en) | 2015-04-10 | 2018-07-10 | Open Text Sa Ulc | Systems and methods for caching of managed content in a distributed environment using a multi-tiered architecture |
CN106463112B (zh) | 2015-04-10 | 2020-12-08 | 华为技术有限公司 | 语音识别方法、语音唤醒装置、语音识别装置及终端 |
US20160299977A1 (en) | 2015-04-13 | 2016-10-13 | Quixey, Inc. | Action-Based App Recommendation Engine |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10218651B2 (en) | 2015-04-20 | 2019-02-26 | Oracle International Corporation | Virtual assistance for chat agents |
KR102269035B1 (ko) | 2015-04-21 | 2021-06-24 | 삼성전자주식회사 | 서버 및 서버의 그룹 액션 제어방법 |
US9472196B1 (en) | 2015-04-22 | 2016-10-18 | Google Inc. | Developer voice actions system |
CN104836909B (zh) | 2015-04-27 | 2018-05-11 | 广东小天才科技有限公司 | 一种来电自动接通的方法及装置 |
US10109277B2 (en) | 2015-04-27 | 2018-10-23 | Nuance Communications, Inc. | Methods and apparatus for speech recognition using visual information |
US10083213B1 (en) | 2015-04-27 | 2018-09-25 | Intuit Inc. | Method and system for routing a question based on analysis of the question content and predicted user satisfaction with answer content before the answer content is generated |
WO2016175354A1 (ko) | 2015-04-29 | 2016-11-03 | 주식회사 아카인텔리전스 | 인공지능 대화 장치 및 방법 |
US11010768B2 (en) | 2015-04-30 | 2021-05-18 | Oracle International Corporation | Character-based attribute value extraction system |
GB2537903B (en) | 2015-04-30 | 2019-09-04 | Toshiba Res Europe Limited | Device and method for a spoken dialogue system |
US9953063B2 (en) | 2015-05-02 | 2018-04-24 | Lithium Technologies, Llc | System and method of providing a content discovery platform for optimizing social network engagements |
US20160328205A1 (en) | 2015-05-05 | 2016-11-10 | Motorola Mobility Llc | Method and Apparatus for Voice Operation of Mobile Applications Having Unnamed View Elements |
US9892363B2 (en) | 2015-05-07 | 2018-02-13 | Truemotion, Inc. | Methods and systems for sensor-based driving data collection |
CN104867492B (zh) | 2015-05-07 | 2019-09-03 | 科大讯飞股份有限公司 | 智能交互系统及方法 |
US9953648B2 (en) | 2015-05-11 | 2018-04-24 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the same |
US10685471B2 (en) | 2015-05-11 | 2020-06-16 | Facebook, Inc. | Methods and systems for playing video while transitioning from a content-item preview to the content item |
US9761220B2 (en) | 2015-05-13 | 2017-09-12 | Microsoft Technology Licensing, Llc | Language modeling based on spoken and unspeakable corpuses |
US9906482B2 (en) | 2015-05-13 | 2018-02-27 | The Travelers Indemnity Company | Predictive electronic message management systems and controllers |
US20160337299A1 (en) | 2015-05-13 | 2016-11-17 | Google Inc. | Prioritized notification display |
US10133613B2 (en) | 2015-05-14 | 2018-11-20 | Microsoft Technology Licensing, Llc | Digital assistant extensibility to third party applications |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
EP3300074B1 (en) | 2015-05-19 | 2019-08-21 | Sony Corporation | Information processing apparatus |
KR20160136013A (ko) | 2015-05-19 | 2016-11-29 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US10446142B2 (en) | 2015-05-20 | 2019-10-15 | Microsoft Technology Licensing, Llc | Crafting feedback dialogue with a digital assistant |
US10061848B2 (en) | 2015-05-22 | 2018-08-28 | Microsoft Technology Licensing, Llc | Ontology-crowd-relevance deep response generation |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10097973B2 (en) | 2015-05-27 | 2018-10-09 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
EP3304440B1 (en) | 2015-05-27 | 2021-05-19 | Orion Labs | Intelligent agent features for wearable personal communication nodes |
US9408182B1 (en) | 2015-05-28 | 2016-08-02 | Google Inc. | Third party action triggers |
US9552547B2 (en) | 2015-05-29 | 2017-01-24 | Sas Institute Inc. | Normalizing electronic communications using a neural-network normalizer and a neural-network flagger |
US10200543B2 (en) | 2015-06-01 | 2019-02-05 | Huawei Technologies Co., Ltd. | Method and apparatus for customer service management for a wireless communication network |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10505884B2 (en) | 2015-06-05 | 2019-12-10 | Microsoft Technology Licensing, Llc | Entity classification and/or relationship identification |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10755032B2 (en) | 2015-06-05 | 2020-08-25 | Apple Inc. | Indexing web pages with deep links |
CN111522525B (zh) | 2015-06-05 | 2023-08-29 | 苹果公司 | 基于可佩戴设备的状态改变伴随通信设备行为 |
US9529500B1 (en) | 2015-06-05 | 2016-12-27 | Apple Inc. | Application recommendation based on detected triggering events |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US9865265B2 (en) | 2015-06-06 | 2018-01-09 | Apple Inc. | Multi-microphone speech recognition systems and related techniques |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US20160357861A1 (en) | 2015-06-07 | 2016-12-08 | Apple Inc. | Natural language event detection |
US20160365101A1 (en) | 2015-06-15 | 2016-12-15 | Motorola Mobility Llc | Enabling Event Driven Voice Interaction with a Device |
US20160371250A1 (en) | 2015-06-16 | 2016-12-22 | Microsoft Technology Licensing, Llc | Text suggestion using a predictive grammar model |
WO2016205338A1 (en) | 2015-06-18 | 2016-12-22 | Amgine Technologies (Us), Inc. | Managing interactions between users and applications |
US9818409B2 (en) | 2015-06-19 | 2017-11-14 | Google Inc. | Context-dependent modeling of phonemes |
US9767386B2 (en) | 2015-06-23 | 2017-09-19 | Adobe Systems Incorporated | Training a classifier algorithm used for automatically generating tags to be applied to images |
CN104951077A (zh) | 2015-06-24 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法、装置和终端设备 |
KR102317526B1 (ko) | 2015-06-25 | 2021-10-26 | 엘지전자 주식회사 | 헤드셋 및 그 제어 방법 |
WO2016206747A1 (en) | 2015-06-25 | 2016-12-29 | Intel IP Corporation | A mobile communications device and a method for controlling a mobile communications device receiver |
US10325590B2 (en) | 2015-06-26 | 2019-06-18 | Intel Corporation | Language model modification for local speech recognition systems using remote sources |
US20160379638A1 (en) | 2015-06-26 | 2016-12-29 | Amazon Technologies, Inc. | Input speech quality matching |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10134425B1 (en) | 2015-06-29 | 2018-11-20 | Amazon Technologies, Inc. | Direction-based speech endpointing |
US10121471B2 (en) | 2015-06-29 | 2018-11-06 | Amazon Technologies, Inc. | Language model speech endpointing |
US9881613B2 (en) | 2015-06-29 | 2018-01-30 | Google Llc | Privacy-preserving training corpus selection |
US20160379641A1 (en) | 2015-06-29 | 2016-12-29 | Microsoft Technology Licensing, Llc | Auto-Generation of Notes and Tasks From Passive Recording |
US10019992B2 (en) | 2015-06-29 | 2018-07-10 | Disney Enterprises, Inc. | Speech-controlled actions based on keywords and context thereof |
US9536527B1 (en) | 2015-06-30 | 2017-01-03 | Amazon Technologies, Inc. | Reporting operational metrics in speech-based systems |
KR102371188B1 (ko) | 2015-06-30 | 2022-03-04 | 삼성전자주식회사 | 음성 인식 장치 및 방법과 전자 장치 |
WO2017004204A1 (en) | 2015-06-30 | 2017-01-05 | K4Connect Inc. | Home automation (ha) system including desired scene implementation based upon user-selectable list of addressable ha devices and related methods |
US9998597B2 (en) | 2015-07-06 | 2018-06-12 | Nuance Communications, Inc. | Systems and methods for facilitating communication using an interactive communication system |
US10073887B2 (en) | 2015-07-06 | 2018-09-11 | Conduent Business Services, Llc | System and method for performing k-nearest neighbor search based on minimax distance measure and efficient outlier detection |
CN105100356B (zh) | 2015-07-07 | 2018-04-06 | 上海斐讯数据通信技术有限公司 | 一种音量自动调节的方法和系统 |
JP2017019331A (ja) | 2015-07-08 | 2017-01-26 | Ntn株式会社 | 車両用モータ駆動装置 |
US20170011303A1 (en) | 2015-07-09 | 2017-01-12 | Qualcomm Incorporated | Contact-Based Predictive Response |
CN104967748B (zh) | 2015-07-13 | 2018-10-23 | 宁波萨瑞通讯有限公司 | 一种安全操作应用服务的方法 |
US10249297B2 (en) | 2015-07-13 | 2019-04-02 | Microsoft Technology Licensing, Llc | Propagating conversational alternatives using delayed hypothesis binding |
US10426037B2 (en) | 2015-07-15 | 2019-09-24 | International Business Machines Corporation | Circuitized structure with 3-dimensional configuration |
CN106373575B (zh) | 2015-07-23 | 2020-07-21 | 阿里巴巴集团控股有限公司 | 一种用户声纹模型构建方法、装置及系统 |
US10686738B2 (en) | 2015-07-24 | 2020-06-16 | Facebook, Inc. | Providing personal assistant service via messaging |
US10311384B2 (en) | 2015-07-29 | 2019-06-04 | Microsoft Technology Licensing, Llc | Automatic creation and maintenance of a taskline |
KR20170014297A (ko) | 2015-07-29 | 2017-02-08 | 엘지전자 주식회사 | 와치 타입의 이동 단말기 및 그 제어 방법 |
US10255921B2 (en) | 2015-07-31 | 2019-04-09 | Google Llc | Managing dialog data providers |
US9691361B2 (en) | 2015-08-03 | 2017-06-27 | International Business Machines Corporation | Adjusting presentation of content on a display |
US20170039283A1 (en) | 2015-08-03 | 2017-02-09 | Microsoft Technology Licensing, Llc | Searching Based on the Persona of Another |
JP5906345B1 (ja) | 2015-08-05 | 2016-04-20 | 株式会社Cygames | 操作履歴に基づいてタッチ対象を予測するプログラム、電子装置、システム及び制御方法 |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
KR102386854B1 (ko) | 2015-08-20 | 2022-04-13 | 삼성전자주식회사 | 통합 모델 기반의 음성 인식 장치 및 방법 |
US10572073B2 (en) | 2015-08-24 | 2020-02-25 | Sony Corporation | Information processing device, information processing method, and program |
US10362978B2 (en) | 2015-08-28 | 2019-07-30 | Comcast Cable Communications, Llc | Computational model for mood |
US20170061423A1 (en) | 2015-09-01 | 2017-03-02 | Bank Of America Corporation | Use of wearable as an account control system |
US10339917B2 (en) | 2015-09-03 | 2019-07-02 | Google Llc | Enhanced speech endpointing |
US9531862B1 (en) | 2015-09-04 | 2016-12-27 | Vishal Vadodaria | Contextual linking module with interactive intelligent agent for managing communications with contacts and navigation features |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10026399B2 (en) | 2015-09-11 | 2018-07-17 | Amazon Technologies, Inc. | Arbitration between voice-enabled devices |
CN106534469A (zh) | 2015-09-11 | 2017-03-22 | 昆明我行科技有限公司 | 一种为智能手机实现电话通讯功能扩展的方法及电子设备 |
US9736318B2 (en) | 2015-09-16 | 2017-08-15 | International Business Machines Corporation | Adaptive voice-text transmission |
US9665567B2 (en) | 2015-09-21 | 2017-05-30 | International Business Machines Corporation | Suggesting emoji characters based on current contextual emotional state of user |
US9875081B2 (en) | 2015-09-21 | 2018-01-23 | Amazon Technologies, Inc. | Device selection for providing a response |
US20170085547A1 (en) | 2015-09-22 | 2017-03-23 | International Business Machines Corporation | Storing, indexing and recalling data based on brain activity |
US9734142B2 (en) | 2015-09-22 | 2017-08-15 | Facebook, Inc. | Universal translation |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9990040B2 (en) | 2015-09-25 | 2018-06-05 | Immersion Corporation | Haptic CAPTCHA |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10425768B2 (en) | 2015-09-30 | 2019-09-24 | Lenovo (Singapore) Pte. Ltd. | Adjusting audio output volume based on a detected presence of another device |
US20170092278A1 (en) | 2015-09-30 | 2017-03-30 | Apple Inc. | Speaker recognition |
US20170091612A1 (en) | 2015-09-30 | 2017-03-30 | Apple Inc. | Proactive assistant with memory assistance |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10970646B2 (en) | 2015-10-01 | 2021-04-06 | Google Llc | Action suggestions for user-selected content |
US20170102837A1 (en) | 2015-10-07 | 2017-04-13 | Spotify Ab | Dynamic control of playlists using wearable devices |
US10891106B2 (en) | 2015-10-13 | 2021-01-12 | Google Llc | Automatic batch voice commands |
US10083685B2 (en) | 2015-10-13 | 2018-09-25 | GM Global Technology Operations LLC | Dynamically adding or removing functionality to speech recognition systems |
KR102405793B1 (ko) | 2015-10-15 | 2022-06-08 | 삼성전자 주식회사 | 음성 신호 인식 방법 및 이를 제공하는 전자 장치 |
GB2557532A (en) | 2015-10-21 | 2018-06-20 | Google Llc | Parameter collection and automatic dialog generation in dialog systems |
WO2017070535A1 (en) | 2015-10-22 | 2017-04-27 | Knowles Electronics, Llc | Microphone with programmable phone onset detection engine |
EP3369002A4 (en) | 2015-10-26 | 2019-06-12 | 24/7 Customer, Inc. | METHOD AND DEVICE FOR FACILITATING THE PREDICTION OF CUSTOMER VISIONS |
US10146874B2 (en) | 2015-10-28 | 2018-12-04 | Fujitsu Limited | Refining topic representations |
CN106657521A (zh) | 2015-10-30 | 2017-05-10 | 中兴通讯股份有限公司 | 一种智能设备语音交流方法、装置和系统 |
US20170125016A1 (en) | 2015-11-02 | 2017-05-04 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for processing voice messages |
US9691378B1 (en) | 2015-11-05 | 2017-06-27 | Amazon Technologies, Inc. | Methods and devices for selectively ignoring captured audio data |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US9804681B2 (en) | 2015-11-10 | 2017-10-31 | Motorola Mobility Llc | Method and system for audible delivery of notifications partially presented on an always-on display |
KR102432620B1 (ko) | 2015-11-12 | 2022-08-16 | 삼성전자주식회사 | 외부 객체의 근접에 따른 동작을 수행하는 전자 장치 및 그 방법 |
US10769189B2 (en) | 2015-11-13 | 2020-09-08 | Microsoft Technology Licensing, Llc | Computer speech recognition and semantic understanding from activity patterns |
US10546028B2 (en) | 2015-11-18 | 2020-01-28 | International Business Machines Corporation | Method for personalized breaking news feed |
US9940934B2 (en) | 2015-11-18 | 2018-04-10 | Uniphone Software Systems | Adaptive voice authentication system and method |
US10255611B2 (en) | 2015-11-20 | 2019-04-09 | International Business Machines Corporation | Determining pricing using categorized costs with tree structures |
US9697393B2 (en) | 2015-11-20 | 2017-07-04 | Symbol Technologies, Llc | Methods and systems for adjusting mobile-device operating parameters based on housing-support type |
CN106773742B (zh) | 2015-11-23 | 2019-10-25 | 宏碁股份有限公司 | 语音控制方法及语音控制系统 |
US9792907B2 (en) | 2015-11-24 | 2017-10-17 | Intel IP Corporation | Low resource key phrase detection for wake on voice |
CN105430186A (zh) | 2015-11-27 | 2016-03-23 | 东莞酷派软件技术有限公司 | 一种拒接短信的发送方法及系统 |
CN105897675A (zh) | 2015-11-27 | 2016-08-24 | 乐视云计算有限公司 | 视频服务提供方法、访问鉴权方法及服务器和系统 |
KR102450853B1 (ko) | 2015-11-30 | 2022-10-04 | 삼성전자주식회사 | 음성 인식 장치 및 방법 |
US10546015B2 (en) | 2015-12-01 | 2020-01-28 | Facebook, Inc. | Determining and utilizing contextual meaning of digital standardized image characters |
US9946862B2 (en) | 2015-12-01 | 2018-04-17 | Qualcomm Incorporated | Electronic device generating notification based on context data in response to speech phrase from user |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10229671B2 (en) | 2015-12-02 | 2019-03-12 | GM Global Technology Operations LLC | Prioritized content loading for vehicle automatic speech recognition systems |
KR102535044B1 (ko) | 2015-12-08 | 2023-05-23 | 삼성전자주식회사 | 단말장치, 서버 및 이벤트 제안방법 |
US10796693B2 (en) | 2015-12-09 | 2020-10-06 | Lenovo (Singapore) Pte. Ltd. | Modifying input based on determined characteristics |
US9990921B2 (en) | 2015-12-09 | 2018-06-05 | Lenovo (Singapore) Pte. Ltd. | User focus activated voice recognition |
US9830449B1 (en) | 2015-12-16 | 2017-11-28 | Amazon Technologies, Inc. | Execution locations for request-driven code |
US10685170B2 (en) | 2015-12-16 | 2020-06-16 | Microsoft Technology Licensing, Llc | Dynamic content layout generator |
US10013416B1 (en) | 2015-12-18 | 2018-07-03 | Amazon Technologies, Inc. | Language based solution agent |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
KR102423588B1 (ko) | 2015-12-28 | 2022-07-22 | 삼성전자주식회사 | 정보 제공 방법 및 장치 |
CN108701125A (zh) | 2015-12-29 | 2018-10-23 | Mz知识产权控股有限责任公司 | 用于建议表情符号的系统和方法 |
US9716795B1 (en) | 2015-12-30 | 2017-07-25 | Qualcomm Incorporated | Diversion of a call to a wearable device |
US10002607B2 (en) | 2016-01-05 | 2018-06-19 | Microsoft Technology Licensing, Llc | Cross device companion application for phone |
US20170193083A1 (en) | 2016-01-06 | 2017-07-06 | International Business Machines Corporation | Identifying message content related to an event utilizing natural language processing and performing an action pertaining to the event |
US10382729B2 (en) | 2016-01-06 | 2019-08-13 | Vivint, Inc. | Home automation system-initiated calls |
JP2017123564A (ja) | 2016-01-07 | 2017-07-13 | ソニー株式会社 | 制御装置、表示装置、方法及びプログラム |
CN105718448B (zh) | 2016-01-13 | 2019-03-19 | 北京新美互通科技有限公司 | 一种对输入字符进行自动翻译的方法和装置 |
US9792534B2 (en) | 2016-01-13 | 2017-10-17 | Adobe Systems Incorporated | Semantic natural language vector space |
US9747289B2 (en) | 2016-01-13 | 2017-08-29 | Disney Enterprises, Inc. | System and method for proximity-based personalized content recommendations |
US20170206899A1 (en) | 2016-01-20 | 2017-07-20 | Fitbit, Inc. | Better communication channel for requests and responses having an intelligent agent |
US20170235361A1 (en) | 2016-01-20 | 2017-08-17 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Interaction based on capturing user intent via eye gaze |
KR102490548B1 (ko) | 2016-01-25 | 2023-01-19 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
US9922647B2 (en) | 2016-01-29 | 2018-03-20 | International Business Machines Corporation | Approach to reducing the response time of a speech interface |
US10182155B2 (en) | 2016-02-03 | 2019-01-15 | At&T Intellectual Property I, L.P. | Directing care calls using historical call backs, demographics and real time attributes |
KR102495523B1 (ko) | 2016-02-04 | 2023-02-03 | 삼성전자 주식회사 | 음성 명령을 처리하는 방법 및 이를 제공하는 전자 장치 |
US10055489B2 (en) | 2016-02-08 | 2018-08-21 | Ebay Inc. | System and method for content-based media analysis |
US9858927B2 (en) | 2016-02-12 | 2018-01-02 | Amazon Technologies, Inc | Processing spoken commands to control distributed audio outputs |
US10431218B2 (en) | 2016-02-15 | 2019-10-01 | EVA Automation, Inc. | Integration and probabilistic control of electronic devices |
US9858129B2 (en) | 2016-02-16 | 2018-01-02 | International Business Machines Corporation | Dynamic copy content retrieval |
US11023680B2 (en) | 2016-02-17 | 2021-06-01 | The King Abdulaziz City For Science And Technology (Kacst) | Method and system for detecting semantic errors in a text using artificial neural networks |
KR20170096774A (ko) | 2016-02-17 | 2017-08-25 | 이준영 | 전자기기의 사용자 행동기반 정황인식 작동모드 |
KR102041063B1 (ko) | 2016-02-18 | 2019-11-05 | 소니 주식회사 | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US20180063308A1 (en) | 2016-02-23 | 2018-03-01 | Bioworld Merchandising | System and Method for Voice Recognition |
US9779735B2 (en) | 2016-02-24 | 2017-10-03 | Google Inc. | Methods and systems for detecting and processing speech signals |
US20170249309A1 (en) | 2016-02-29 | 2017-08-31 | Microsoft Technology Licensing, Llc | Interpreting and Resolving Conditional Natural Language Queries |
US9922648B2 (en) | 2016-03-01 | 2018-03-20 | Google Llc | Developer voice actions system |
US20170263254A1 (en) | 2016-03-10 | 2017-09-14 | lntel IP Corporation | Malware-proof privacy indicator |
US10404829B2 (en) | 2016-03-11 | 2019-09-03 | Wipro Limited | Method and system for achieving improved quality of service (QoS) for content delivery in a SDN controller based communication network |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
KR102190856B1 (ko) | 2016-03-14 | 2020-12-14 | 애플 인크. | 크리덴셜을 제공하는 음성 입력의 식별 |
DK201670539A1 (en) | 2016-03-14 | 2017-10-02 | Apple Inc | Dictation that allows editing |
US10210862B1 (en) | 2016-03-21 | 2019-02-19 | Amazon Technologies, Inc. | Lattice decoding and result confirmation using recurrent neural networks |
US10304444B2 (en) | 2016-03-23 | 2019-05-28 | Amazon Technologies, Inc. | Fine-grained natural language understanding |
US11089132B2 (en) | 2016-03-29 | 2021-08-10 | Microsoft Technology Licensing, Llc | Extensibility for context-aware digital personal assistant |
US20170286397A1 (en) | 2016-03-30 | 2017-10-05 | International Business Machines Corporation | Predictive Embeddings |
US10979843B2 (en) | 2016-04-08 | 2021-04-13 | Qualcomm Incorporated | Spatialized audio output based on predicted position data |
US20170308609A1 (en) | 2016-04-21 | 2017-10-26 | Microsoft Technology Licensing, Llc | Multi-result ranking exploration |
EP3434024B1 (en) | 2016-04-21 | 2023-08-02 | Hewlett-Packard Development Company, L.P. | Electronic device microphone listening modes |
US10353947B2 (en) | 2016-04-25 | 2019-07-16 | Adobe Inc. | Relevancy evaluation for image search results |
US20170311005A1 (en) | 2016-04-26 | 2017-10-26 | Szu-Tung Lin | Method of wireless audio transmission and playback |
US10431205B2 (en) | 2016-04-27 | 2019-10-01 | Conduent Business Services, Llc | Dialog device with dialog support generated using a mixture of language models combined using a recurrent neural network |
ES2964705T3 (es) | 2016-05-06 | 2024-04-09 | Univ Leland Stanford Junior | Plataformas móviles y portátiles de captura y retroalimentación de vídeo para la terapia de trastornos mentales |
US11507064B2 (en) | 2016-05-09 | 2022-11-22 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for industrial internet of things data collection in downstream oil and gas environment |
US10332516B2 (en) | 2016-05-10 | 2019-06-25 | Google Llc | Media transfer among media output devices |
RU2632144C1 (ru) | 2016-05-12 | 2017-10-02 | Общество С Ограниченной Ответственностью "Яндекс" | Компьютерный способ создания интерфейса рекомендации контента |
US10217464B2 (en) | 2016-05-13 | 2019-02-26 | Koninklijke Philips N.V. | Vocabulary generation system |
US10534635B2 (en) | 2016-05-13 | 2020-01-14 | Sap Se | Personal digital assistant |
US20170329466A1 (en) | 2016-05-13 | 2017-11-16 | Sap Se | User interface application and digital assistant |
KR20170128820A (ko) | 2016-05-16 | 2017-11-24 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US11416212B2 (en) | 2016-05-17 | 2022-08-16 | Microsoft Technology Licensing, Llc | Context-based user agent |
WO2017197650A1 (zh) | 2016-05-20 | 2017-11-23 | 华为技术有限公司 | 通话中的交互方法和设备 |
US10417566B2 (en) | 2016-05-22 | 2019-09-17 | Microsoft Technology Licensing, Llc | Self-learning technique for training a PDA component and a simulated user component |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US10832665B2 (en) | 2016-05-27 | 2020-11-10 | Centurylink Intellectual Property Llc | Internet of things (IoT) human interface apparatus, system, and method |
US9922655B2 (en) | 2016-05-31 | 2018-03-20 | International Business Machines Corporation | System, method, and recording medium for controlling dialogue interruptions by a speech output device |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
GB2583988B (en) | 2016-06-06 | 2021-03-31 | Cirrus Logic Int Semiconductor Ltd | Voice user interface |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
CN107480161A (zh) | 2016-06-08 | 2017-12-15 | 苹果公司 | 用于媒体探究的智能自动化助理 |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10148546B2 (en) | 2016-06-09 | 2018-12-04 | Apple Inc. | Scheduling processing tasks based on predicted context |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10127926B2 (en) | 2016-06-10 | 2018-11-13 | Google Llc | Securely executing voice actions with speaker identification and authentication input types |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10592601B2 (en) | 2016-06-10 | 2020-03-17 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
CN107491285B (zh) | 2016-06-11 | 2019-01-01 | 苹果公司 | 智能设备仲裁和控制 |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
CN113238707A (zh) | 2016-06-11 | 2021-08-10 | 苹果公司 | 具有数字助理的应用集成 |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
AU2017100486C4 (en) | 2016-06-11 | 2019-09-05 | Apple Inc. | Intelligent device arbitration and control |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10117046B2 (en) | 2016-06-12 | 2018-10-30 | Apple Inc. | Discrete location classification |
WO2017218194A1 (en) | 2016-06-12 | 2017-12-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
DK201670608A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | User interfaces for retrieving contextually relevant media content |
US10257314B2 (en) | 2016-06-22 | 2019-04-09 | Microsoft Technology Licensing, Llc | End-to-end user experiences with a digital assistant |
US11232136B2 (en) | 2016-06-27 | 2022-01-25 | Google Llc | Contextual voice search suggestions |
US10271093B1 (en) | 2016-06-27 | 2019-04-23 | Amazon Technologies, Inc. | Systems and methods for routing content to an associated output device |
US10332513B1 (en) | 2016-06-27 | 2019-06-25 | Amazon Technologies, Inc. | Voice enablement and disablement of speech processing functionality |
US9990176B1 (en) | 2016-06-28 | 2018-06-05 | Amazon Technologies, Inc. | Latency reduction for content playback |
US10200397B2 (en) | 2016-06-28 | 2019-02-05 | Microsoft Technology Licensing, Llc | Robust matching for identity screening |
US10783151B1 (en) | 2016-06-29 | 2020-09-22 | Amazon Technologies, Inc. | Popularity-based content feed management system |
GB201611380D0 (en) | 2016-06-30 | 2016-08-17 | Microsoft Technology Licensing Llc | Artificial neural network with side input for language modelling and prediction |
US10491598B2 (en) | 2016-06-30 | 2019-11-26 | Amazon Technologies, Inc. | Multi-factor authentication to access services |
US20180007096A1 (en) | 2016-06-30 | 2018-01-04 | Microsoft Technology Licensing, Llc | Weighted data center reselection |
US9934777B1 (en) | 2016-07-01 | 2018-04-03 | Amazon Technologies, Inc. | Customized speech processing language models |
WO2018009397A1 (en) | 2016-07-06 | 2018-01-11 | Pcms Holdings, Inc. | System and method for customizing smart home speech interfaces using personalized speech profiles |
US10339224B2 (en) | 2016-07-13 | 2019-07-02 | Fujitsu Social Science Laboratory Limited | Speech recognition and translation terminal, method and non-transitory computer readable medium |
US10467114B2 (en) | 2016-07-14 | 2019-11-05 | International Business Machines Corporation | Hierarchical data processor tester |
US11211168B2 (en) | 2016-07-19 | 2021-12-28 | Northwestern University | Systems and methods for identifying content based on user interactions |
US9825801B1 (en) | 2016-07-22 | 2017-11-21 | Spotify Ab | Systems and methods for using seektables to stream media items |
US10303772B2 (en) | 2016-07-29 | 2019-05-28 | International Business Machines Corporation | Measuring mutual understanding in human-computer conversation |
US10387461B2 (en) | 2016-08-16 | 2019-08-20 | Google Llc | Techniques for suggesting electronic messages based on user activity and other context |
US9967382B2 (en) | 2016-08-19 | 2018-05-08 | Amazon Technologies, Inc. | Enabling voice control of telephone device |
US20180060312A1 (en) | 2016-08-23 | 2018-03-01 | Microsoft Technology Licensing, Llc | Providing ideogram translation |
US10110272B2 (en) | 2016-08-24 | 2018-10-23 | Centurylink Intellectual Property Llc | Wearable gesture control device and method |
US10313779B2 (en) | 2016-08-26 | 2019-06-04 | Bragi GmbH | Voice assistant system for wireless earpieces |
US11200026B2 (en) | 2016-08-26 | 2021-12-14 | Bragi GmbH | Wireless earpiece with a passive virtual assistant |
US10192551B2 (en) | 2016-08-30 | 2019-01-29 | Google Llc | Using textual input and user state information to generate reply content to present in response to the textual input |
US10546066B2 (en) | 2016-08-31 | 2020-01-28 | Microsoft Technology Licensing, Llc | End-to-end learning of dialogue agents for information access |
US10217462B2 (en) | 2016-08-31 | 2019-02-26 | Microsoft Technology Licensing, Llc | Automating natural language task/dialog authoring by leveraging existing content |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
CN107809372A (zh) | 2016-09-08 | 2018-03-16 | 阿里巴巴集团控股有限公司 | 活动提醒消息的生成方法、活动提醒方法及装置 |
CN114584651B (zh) | 2016-09-09 | 2023-01-24 | 荣耀终端有限公司 | 用于推送通知的方法、电子设备及存储介质 |
US10403273B2 (en) | 2016-09-09 | 2019-09-03 | Oath Inc. | Method and system for facilitating a guided dialog between a user and a conversational agent |
US20180089166A1 (en) | 2016-09-23 | 2018-03-29 | Apple Inc. | User interface for providing text prediction |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10846618B2 (en) | 2016-09-23 | 2020-11-24 | Google Llc | Smart replies using an on-device model |
US9786271B1 (en) | 2016-09-28 | 2017-10-10 | International Business Machines Corporation | Voice pattern coding sequence and cataloging voice matching system |
US20180088969A1 (en) | 2016-09-28 | 2018-03-29 | Lenovo (Singapore) Pte. Ltd. | Method and device for presenting instructional content |
WO2018067528A1 (en) | 2016-10-03 | 2018-04-12 | Google Llc | Device leadership negotiation among voice interface devices |
JP6683893B2 (ja) | 2016-10-03 | 2020-04-22 | グーグル エルエルシー | デバイストポロジーに基づく音声コマンドの処理 |
US10304463B2 (en) | 2016-10-03 | 2019-05-28 | Google Llc | Multi-user personalization at a voice interface device |
JP2018063537A (ja) | 2016-10-12 | 2018-04-19 | 株式会社東芝 | ホームネットワーク、電子機器、処理装置および表示方法 |
US10372814B2 (en) | 2016-10-18 | 2019-08-06 | International Business Machines Corporation | Methods and system for fast, adaptive correction of misspells |
CN106484139B (zh) | 2016-10-19 | 2019-01-29 | 北京新美互通科技有限公司 | 表情符号推荐方法及装置 |
US11392598B2 (en) | 2016-10-19 | 2022-07-19 | Ebay Inc. | Applying a quantitative range for qualitative terms |
US10678502B2 (en) | 2016-10-20 | 2020-06-09 | Qualcomm Incorporated | Systems and methods for in-ear control of remote devices |
US10950230B2 (en) | 2016-10-28 | 2021-03-16 | Panasonic Intellectual Property Corporation Of America | Information processing device and information processing method |
US10469665B1 (en) | 2016-11-01 | 2019-11-05 | Amazon Technologies, Inc. | Workflow based communications routing |
US20180121432A1 (en) | 2016-11-02 | 2018-05-03 | Microsoft Technology Licensing, Llc | Digital assistant integration with music services |
US10783883B2 (en) | 2016-11-03 | 2020-09-22 | Google Llc | Focus session at a voice interface device |
US10777201B2 (en) | 2016-11-04 | 2020-09-15 | Microsoft Technology Licensing, Llc | Voice enabled bot platform |
US10776714B2 (en) | 2016-11-04 | 2020-09-15 | Google Llc | Constructing and processing computational graphs for dynamically structured machine learning models |
US10127908B1 (en) | 2016-11-11 | 2018-11-13 | Amazon Technologies, Inc. | Connected accessory for a voice-controlled device |
US10515632B2 (en) | 2016-11-15 | 2019-12-24 | At&T Intellectual Property I, L.P. | Asynchronous virtual assistant |
KR102501714B1 (ko) | 2016-11-16 | 2023-02-21 | 삼성전자주식회사 | 사용자의 음성 입력에 대한 답변 메시지를 제공하는 디바이스 및 방법 |
US10170110B2 (en) | 2016-11-17 | 2019-01-01 | Robert Bosch Gmbh | System and method for ranking of hybrid speech recognition results with neural networks |
US10332523B2 (en) | 2016-11-18 | 2019-06-25 | Google Llc | Virtual assistant identification of nearby computing devices |
US10230841B2 (en) | 2016-11-22 | 2019-03-12 | Apple Inc. | Intelligent digital assistant for declining an incoming call |
US10242443B2 (en) | 2016-11-23 | 2019-03-26 | General Electric Company | Deep learning medical systems and methods for medical procedures |
US10331791B2 (en) | 2016-11-23 | 2019-06-25 | Amazon Technologies, Inc. | Service for developing dialog-driven applications |
EP3545374A4 (en) | 2016-11-23 | 2019-12-18 | Alarm.com Incorporated | DETECTION OF AUTHORIZED USER PRESENCE AND HANDLING OF UN AUTHENTICATED MONITORING SYSTEM COMMANDS |
KR20180060328A (ko) | 2016-11-28 | 2018-06-07 | 삼성전자주식회사 | 멀티 모달 입력을 처리하는 전자 장치, 멀티 모달 입력을 처리하는 방법 및 멀티 모달 입력을 처리하는 서버 |
GB201620235D0 (en) | 2016-11-29 | 2017-01-11 | Microsoft Technology Licensing Llc | Neural network data entry system |
US9934785B1 (en) | 2016-11-30 | 2018-04-03 | Spotify Ab | Identification of taste attributes from an audio signal |
US11144825B2 (en) | 2016-12-01 | 2021-10-12 | University Of Southern California | Interpretable deep learning framework for mining and predictive modeling of health care data |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US20180158548A1 (en) | 2016-12-07 | 2018-06-07 | B9 Systems, LLC | Data processing systems for scheduling work shifts, such as physician work shifts |
JP6795387B2 (ja) | 2016-12-14 | 2020-12-02 | パナソニック株式会社 | 音声対話装置、音声対話方法、音声対話プログラム及びロボット |
US10521245B2 (en) | 2016-12-18 | 2019-12-31 | Oracle International Corporation | Method and system for recursive plug-in application recipe generation |
US10216832B2 (en) | 2016-12-19 | 2019-02-26 | Interactions Llc | Underspecification of intents in a natural language processing system |
US10109275B2 (en) | 2016-12-19 | 2018-10-23 | Asapp, Inc. | Word hash language model |
JP2018101828A (ja) | 2016-12-19 | 2018-06-28 | 船井電機株式会社 | 制御装置 |
US11237696B2 (en) | 2016-12-19 | 2022-02-01 | Google Llc | Smart assist for repeated actions |
US10032451B1 (en) | 2016-12-20 | 2018-07-24 | Amazon Technologies, Inc. | User recognition for speech processing systems |
JP2018101242A (ja) | 2016-12-20 | 2018-06-28 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム。 |
WO2018118442A1 (en) | 2016-12-21 | 2018-06-28 | Google Llc | Acoustic-to-word neural network speech recognizer |
US20190182176A1 (en) | 2016-12-21 | 2019-06-13 | Facebook, Inc. | User Authentication with Voiceprints on Online Social Networks |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10186266B1 (en) | 2016-12-28 | 2019-01-22 | Amazon Technologies, Inc. | Message playback using a shared device |
US10831366B2 (en) | 2016-12-29 | 2020-11-10 | Google Llc | Modality learning on mobile devices |
WO2018123067A1 (ja) | 2016-12-29 | 2018-07-05 | ヤマハ株式会社 | コマンドデータ送信装置、ローカルエリア装置、機器制御システム、コマンドデータ送信装置の制御方法、ローカルエリア装置の制御方法、機器制御方法、及びプログラム |
US10210864B2 (en) | 2016-12-29 | 2019-02-19 | T-Mobile Usa, Inc. | Voice command for communication between related devices |
US10268680B2 (en) | 2016-12-30 | 2019-04-23 | Google Llc | Context-aware human-to-computer dialog |
US10115396B2 (en) | 2017-01-03 | 2018-10-30 | Logitech Europe, S.A. | Content streaming system |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US9747083B1 (en) | 2017-01-23 | 2017-08-29 | Essential Products, Inc. | Home device application programming interface |
US10136364B2 (en) | 2017-01-24 | 2018-11-20 | Essential Products, Inc. | Media and communications in a connected environment |
US10146768B2 (en) | 2017-01-25 | 2018-12-04 | Google Llc | Automatic suggested responses to images received in messages using language model |
US11151130B2 (en) | 2017-02-04 | 2021-10-19 | Tata Consultancy Services Limited | Systems and methods for assessing quality of input text using recurrent neural networks |
US10467509B2 (en) | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Computationally-efficient human-identifying smart assistant computer |
US11100384B2 (en) | 2017-02-14 | 2021-08-24 | Microsoft Technology Licensing, Llc | Intelligent device user interactions |
CN106776581B (zh) | 2017-02-21 | 2020-01-24 | 浙江工商大学 | 基于深度学习的主观性文本情感分析方法 |
US11314898B2 (en) | 2017-02-28 | 2022-04-26 | Samsung Electronics Co., Ltd. | Operating method of electronic device for function execution based on voice command in locked state and electronic device supporting the same |
KR20180101063A (ko) | 2017-03-03 | 2018-09-12 | 삼성전자주식회사 | 사용자 입력을 처리하는 전자 장치 및 그 방법 |
DE102017203570A1 (de) | 2017-03-06 | 2018-09-06 | Volkswagen Aktiengesellschaft | Verfahren und vorrichtung zur darstellung von empfohlenen bedienhandlungen eines vorschlagssystems und interaktion mit dem vorschlagssystem |
US10096319B1 (en) | 2017-03-13 | 2018-10-09 | Amazon Technologies, Inc. | Voice-based determination of physical and emotional characteristics of users |
US10074371B1 (en) | 2017-03-14 | 2018-09-11 | Amazon Technologies, Inc. | Voice control of remote device by disabling wakeword detection |
US20180268106A1 (en) | 2017-03-17 | 2018-09-20 | Orbit Healthcare, Inc. | System and method for connecting patients, medical service providers, and medical insurance providers |
US20180270343A1 (en) | 2017-03-20 | 2018-09-20 | Motorola Mobility Llc | Enabling event-driven voice trigger phrase on an electronic device |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
US10547729B2 (en) | 2017-03-27 | 2020-01-28 | Samsung Electronics Co., Ltd. | Electronic device and method of executing function of electronic device |
US20180285056A1 (en) | 2017-03-28 | 2018-10-04 | Microsoft Technology Licensing, Llc | Accessory human interface device |
US10468032B2 (en) | 2017-04-10 | 2019-11-05 | Intel Corporation | Method and system of speaker recognition using context aware confidence modeling |
US10013979B1 (en) | 2017-04-17 | 2018-07-03 | Essential Products, Inc. | Expanding a set of commands to control devices in an environment |
KR102414122B1 (ko) | 2017-04-19 | 2022-06-29 | 삼성전자주식회사 | 사용자 발화를 처리하는 전자 장치 및 그 동작 방법 |
KR102298947B1 (ko) | 2017-04-28 | 2021-09-08 | 삼성전자주식회사 | 음성 데이터 처리 방법 및 이를 지원하는 전자 장치 |
US10282416B2 (en) | 2017-05-05 | 2019-05-07 | Apple Inc. | Unified framework for text conversion and prediction |
US10902855B2 (en) | 2017-05-08 | 2021-01-26 | Motorola Mobility Llc | Methods and devices for negotiating performance of control operations with acoustic signals |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
US20180330714A1 (en) | 2017-05-12 | 2018-11-15 | Apple Inc. | Machine learned systems |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US10366692B1 (en) | 2017-05-15 | 2019-07-30 | Amazon Technologies, Inc. | Accessory for a voice-controlled device |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US10395659B2 (en) | 2017-05-16 | 2019-08-27 | Apple Inc. | Providing an auditory-based interface of a digital assistant |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
CN109688442B (zh) | 2017-05-16 | 2021-06-04 | 苹果公司 | 用于家庭媒体控制的方法和界面 |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10009666B1 (en) | 2017-05-16 | 2018-06-26 | Google Llc | Cross-device handoffs |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US11048995B2 (en) | 2017-05-16 | 2021-06-29 | Google Llc | Delayed responses by computational assistant |
KR102100742B1 (ko) | 2017-05-16 | 2020-04-14 | 애플 인크. | 디지털 어시스턴트 서비스의 원거리 확장 |
US20180336439A1 (en) | 2017-05-18 | 2018-11-22 | Intel Corporation | Novelty detection using discriminator of generative adversarial network |
US10170137B2 (en) | 2017-05-18 | 2019-01-01 | International Business Machines Corporation | Voice signal component forecaster |
US10521512B2 (en) | 2017-05-26 | 2019-12-31 | Bose Corporation | Dynamic text-to-speech response from a smart speaker |
US20180349472A1 (en) | 2017-06-02 | 2018-12-06 | Apple Inc. | Methods and systems for providing query suggestions |
US20180349447A1 (en) | 2017-06-02 | 2018-12-06 | Apple Inc. | Methods and systems for customizing suggestions using user-specific information |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US20180349346A1 (en) | 2017-06-02 | 2018-12-06 | Apple Inc. | Lattice-based techniques for providing spelling corrections |
US10410635B2 (en) | 2017-06-09 | 2019-09-10 | Soundhound, Inc. | Dual mode speech recognition |
US20180357073A1 (en) | 2017-06-13 | 2018-12-13 | Motorola Solutions, Inc | Method, device, and system for electronic digital assistant for natural language detection of a user status change and corresponding modification of a user interface |
US10990930B2 (en) | 2017-06-19 | 2021-04-27 | International Business Machines Corporation | Autonomous event generator |
US10453451B2 (en) | 2017-07-05 | 2019-10-22 | Comcast Cable Communications, Llc | Methods and systems for using voice to control multiple devices |
US20190013025A1 (en) | 2017-07-10 | 2019-01-10 | Google Inc. | Providing an ambient assist mode for computing devices |
US20190019077A1 (en) | 2017-07-17 | 2019-01-17 | Cisco Technology, Inc. | Automatic configuration of cognitive assistant |
CN107450800A (zh) | 2017-07-25 | 2017-12-08 | 维沃移动通信有限公司 | 一种任务设置方法、移动终端及计算机可读存储介质 |
US10467552B2 (en) | 2017-07-31 | 2019-11-05 | Pearson Education, Inc. | System and method for automatic content provisioning |
CN107545262B (zh) | 2017-07-31 | 2020-11-06 | 华为技术有限公司 | 一种在自然场景图像中检测文本的方法及装置 |
US10783149B2 (en) | 2017-08-02 | 2020-09-22 | Microsoft Technology Licensing, Llc | Dynamic productivity content rendering based upon user interaction patterns |
US11294530B2 (en) | 2017-08-07 | 2022-04-05 | Microsoft Technology Licensing, Llc | Displaying a translucent version of a user interface element |
US11972327B2 (en) | 2017-08-25 | 2024-04-30 | Samsung Electronics Co., Ltd. | Method for automating actions for an electronic device |
KR102426704B1 (ko) | 2017-08-28 | 2022-07-29 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
JP6929168B2 (ja) | 2017-08-31 | 2021-09-01 | キヤノン株式会社 | 音声制御デバイス、印刷装置、それらの制御方法およびプログラム |
US10796687B2 (en) | 2017-09-06 | 2020-10-06 | Amazon Technologies, Inc. | Voice-activated selective memory for voice-capturing devices |
US11004444B2 (en) | 2017-09-08 | 2021-05-11 | Amazon Technologies, Inc. | Systems and methods for enhancing user experience by communicating transient errors |
US10438594B2 (en) | 2017-09-08 | 2019-10-08 | Amazon Technologies, Inc. | Administration of privileges by speech for voice assistant system |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10719507B2 (en) | 2017-09-21 | 2020-07-21 | SayMosaic Inc. | System and method for natural language processing |
CN107786730B (zh) | 2017-09-27 | 2021-06-25 | 珠海市魅族科技有限公司 | 一种任务管理方法及终端 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US11450314B2 (en) | 2017-10-03 | 2022-09-20 | Google Llc | Voice user interface shortcuts for an assistant application |
JP6913897B2 (ja) | 2017-10-09 | 2021-08-04 | ボイス・ライフ・インコーポレーテッド | 無線給電の効率化 |
KR102421255B1 (ko) | 2017-10-17 | 2022-07-18 | 삼성전자주식회사 | 음성 신호를 제어하기 위한 전자 장치 및 방법 |
JP7063990B2 (ja) | 2017-10-21 | 2022-05-09 | アップル インコーポレイテッド | 共用デバイス上の仮想アシスタントシステム用の個人ドメイン |
US10680978B2 (en) | 2017-10-23 | 2020-06-09 | Microsoft Technology Licensing, Llc | Generating recommended responses based on historical message data |
CN107623616A (zh) | 2017-10-27 | 2018-01-23 | 成都密为科技有限公司 | 智能网关和具有智能网关的取电开关 |
US20190129615A1 (en) | 2017-10-30 | 2019-05-02 | Futurewei Technologies, Inc. | Apparatus and method for simplifying repeat performance of a prior performed task based on a context of a mobile device |
US10152966B1 (en) | 2017-10-31 | 2018-12-11 | Comcast Cable Communications, Llc | Preventing unwanted activation of a hands free device |
US9967381B1 (en) | 2017-11-03 | 2018-05-08 | Republic Wireless, Inc. | Virtual telephony assistant |
US10685648B2 (en) | 2017-11-08 | 2020-06-16 | International Business Machines Corporation | Sensor fusion model to enhance machine conversational awareness |
US10515640B2 (en) | 2017-11-08 | 2019-12-24 | Intel Corporation | Generating dialogue based on verification scores |
CN107871500B (zh) | 2017-11-16 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 一种播放多媒体的方法和装置 |
US10521946B1 (en) | 2017-11-21 | 2019-12-31 | Amazon Technologies, Inc. | Processing speech to drive animations on avatars |
US10013654B1 (en) | 2017-11-29 | 2018-07-03 | OJO Labs, Inc. | Cooperatively operating a network of supervised learning processors to concurrently distribute supervised learning processor training and provide predictive responses to input data |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
JP6962158B2 (ja) | 2017-12-01 | 2021-11-05 | ヤマハ株式会社 | 機器制御システム、機器制御方法、及びプログラム |
CN107919123B (zh) | 2017-12-07 | 2022-06-03 | 北京小米移动软件有限公司 | 多语音助手控制方法、装置及计算机可读存储介质 |
US10971173B2 (en) | 2017-12-08 | 2021-04-06 | Google Llc | Signal processing coordination among digital voice assistant computing devices |
WO2019112625A1 (en) | 2017-12-08 | 2019-06-13 | Google Llc | Signal processing coordination among digital voice assistant computing devices |
US11182122B2 (en) | 2017-12-08 | 2021-11-23 | Amazon Technologies, Inc. | Voice control of computing devices |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
US10664540B2 (en) | 2017-12-15 | 2020-05-26 | Intuit Inc. | Domain specific natural language understanding of customer intent in self-help |
US11409816B2 (en) | 2017-12-19 | 2022-08-09 | Motorola Solutions, Inc. | Methods and systems for determining an action to be taken in response to a user query as a function of pre-query context information |
US11221669B2 (en) | 2017-12-20 | 2022-01-11 | Microsoft Technology Licensing, Llc | Non-verbal engagement of a virtual assistant |
US10170135B1 (en) | 2017-12-29 | 2019-01-01 | Intel Corporation | Audio gait detection and identification |
US10685225B2 (en) | 2017-12-29 | 2020-06-16 | Wipro Limited | Method and system for detecting text in digital engineering drawings |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10524040B2 (en) | 2018-01-29 | 2019-12-31 | Apple Inc. | Headphones with orientation sensors |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US11145298B2 (en) | 2018-02-13 | 2021-10-12 | Roku, Inc. | Trigger word detection with multiple digital assistants |
US11195000B2 (en) | 2018-02-13 | 2021-12-07 | FLIR Belgium BVBA | Swipe gesture detection systems and methods |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US11044364B2 (en) | 2018-03-15 | 2021-06-22 | Ways Investments, LLC | System, method, and apparatus for providing help |
US10674014B2 (en) | 2018-03-15 | 2020-06-02 | Ways Investments, LLC | System, method, and apparatus for providing help |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
CN108647681B (zh) | 2018-05-08 | 2019-06-14 | 重庆邮电大学 | 一种带有文本方向校正的英文文本检测方法 |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
AU2019100576C4 (en) | 2018-06-03 | 2020-01-30 | Apple Inc. | Accelerated task performance |
US10818296B2 (en) | 2018-06-21 | 2020-10-27 | Intel Corporation | Method and system of robust speaker recognition activation |
WO2020010530A1 (en) | 2018-07-10 | 2020-01-16 | Microsoft Technology Licensing, Llc | Automatically generating motions of an avatar |
US20200019609A1 (en) | 2018-07-13 | 2020-01-16 | Asapp, Inc. | Suggesting a response to a message by selecting a template using a neural network |
US10721190B2 (en) | 2018-07-31 | 2020-07-21 | Microsoft Technology Licensing, Llc | Sequence to sequence to classification model for generating recommended messages |
GB2576016B (en) | 2018-08-01 | 2021-06-23 | Arm Ip Ltd | Voice assistant devices |
US10885277B2 (en) | 2018-08-02 | 2021-01-05 | Google Llc | On-device neural networks for natural language understanding |
EP3642837B1 (en) | 2018-08-23 | 2024-03-13 | Google LLC | Regulating assistant responsiveness according to characteristics of a multi-assistant environment |
TWI683306B (zh) | 2018-08-28 | 2020-01-21 | 仁寶電腦工業股份有限公司 | 多語音助理之控制方法 |
US20200092625A1 (en) | 2018-09-13 | 2020-03-19 | Hayes S. Raffle | Smart device cover |
US10958301B2 (en) | 2018-09-18 | 2021-03-23 | Roku, Inc. | Audio synchronization of a dumb speaker and a smart speaker using a spread code |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US20200127988A1 (en) | 2018-10-19 | 2020-04-23 | Apple Inc. | Media intercom over a secure device to device communication channel |
KR102608470B1 (ko) | 2018-10-23 | 2023-12-01 | 삼성전자주식회사 | 데이터 인식 장치 및 방법과 트레이닝 장치 및 방법 |
US11196863B2 (en) | 2018-10-24 | 2021-12-07 | Verint Americas Inc. | Method and system for virtual assistant conversations |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11238850B2 (en) | 2018-10-31 | 2022-02-01 | Walmart Apollo, Llc | Systems and methods for e-commerce API orchestration using natural language interfaces |
CN110288077B (zh) | 2018-11-14 | 2022-12-16 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的合成说话表情的方法和相关装置 |
TWI682325B (zh) | 2018-11-20 | 2020-01-11 | 新唐科技股份有限公司 | 辨識系統及辨識方法 |
US20200175566A1 (en) | 2018-11-30 | 2020-06-04 | International Business Machines Corporation | Adding and prioritizing items in a product list |
US11011171B2 (en) | 2018-12-06 | 2021-05-18 | Google Llc | Pre-emptively initializing an automated assistant routine and/or dismissing a scheduled alarm |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
CN113168304A (zh) | 2018-12-07 | 2021-07-23 | 谷歌有限责任公司 | 有条件地将各种自动助理功能分配给与外围助理控制设备的交互 |
CN109657629B (zh) | 2018-12-24 | 2021-12-07 | 科大讯飞股份有限公司 | 一种文本行提取方法及装置 |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US10937425B2 (en) | 2019-01-10 | 2021-03-02 | Dell Products L.P. | Systems and methods for selectively activating and interacting with a speech recognition service during application runtime without interrupting execution of the application |
US12080395B2 (en) | 2019-03-01 | 2024-09-03 | Cambia Health Solutions, Inc. | Systems and methods for management of clinical queues |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11467646B2 (en) | 2019-03-28 | 2022-10-11 | Lenovo (Singapore) Pte. Ltd. | Context data sharing |
US11258865B2 (en) | 2019-03-28 | 2022-02-22 | Servicenow, Inc. | Automated integration with cloud-based services |
CN110135411B (zh) | 2019-04-30 | 2021-09-10 | 北京邮电大学 | 名片识别方法和装置 |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US20200379640A1 (en) | 2019-05-29 | 2020-12-03 | Apple Inc. | User-realistic path synthesis via multi-task generative adversarial networks for continuous path keyboard input |
US11887585B2 (en) | 2019-05-31 | 2024-01-30 | Apple Inc. | Global re-ranker |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK180649B1 (en) | 2019-05-31 | 2021-11-11 | Apple Inc | Voice assistant discoverability through on-device targeting and personalization |
US20200380389A1 (en) | 2019-05-31 | 2020-12-03 | Apple Inc. | Sentiment and intent analysis for customizing suggestions using user-specific information |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
CN110647274A (zh) | 2019-08-15 | 2020-01-03 | 华为技术有限公司 | 一种界面显示方法及设备 |
CN110531860B (zh) | 2019-09-02 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的动画形象驱动方法和装置 |
CN110825469A (zh) | 2019-09-18 | 2020-02-21 | 华为技术有限公司 | 语音助手显示方法及装置 |
CN110598671B (zh) | 2019-09-23 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 基于文本的虚拟形象行为控制方法、设备和介质 |
US20210090314A1 (en) | 2019-09-25 | 2021-03-25 | Apple Inc. | Multimodal approach for avatar animation |
US10757499B1 (en) | 2019-09-25 | 2020-08-25 | Sonos, Inc. | Systems and methods for controlling playback and other features of a wireless headphone |
-
2015
- 2015-12-08 US US14/963,094 patent/US10331312B2/en active Active
- 2015-12-16 DK DKPA201570826A patent/DK178888B1/en not_active IP Right Cessation
-
2016
- 2016-08-03 DK DKPA201670575A patent/DK179111B1/en active
- 2016-08-16 WO PCT/US2016/047184 patent/WO2017044257A1/en active Application Filing
- 2016-08-16 AU AU2016247040A patent/AU2016247040B2/en active Active
- 2016-08-16 KR KR1020177023656A patent/KR20170100067A/ko not_active Application Discontinuation
- 2016-08-16 KR KR1020237036132A patent/KR102688593B1/ko active IP Right Grant
- 2016-08-16 CN CN202110968356.4A patent/CN113687746A/zh active Pending
- 2016-08-16 CN CN201680003291.7A patent/CN107003797B/zh active Active
- 2016-08-16 KR KR1020227011512A patent/KR102594066B1/ko active IP Right Grant
- 2016-08-16 JP JP2016569709A patent/JP2018502345A/ja active Pending
- 2016-08-16 EP EP16766674.2A patent/EP3167618A1/en not_active Ceased
- 2016-08-16 KR KR1020217021647A patent/KR102385459B1/ko active IP Right Grant
- 2016-08-16 CN CN201710551469.8A patent/CN107577385B/zh active Active
- 2016-08-16 CN CN202110968828.6A patent/CN113687747A/zh active Pending
- 2016-08-16 KR KR1020177007440A patent/KR20170036805A/ko not_active Application Discontinuation
- 2016-08-16 KR KR1020207001841A patent/KR102277920B1/ko active IP Right Grant
- 2016-08-16 KR KR1020247024758A patent/KR20240116592A/ko not_active Application Discontinuation
- 2016-08-16 EP EP17178232.9A patent/EP3291564A1/en not_active Ceased
-
2017
- 2017-04-27 DK DKPA201770287A patent/DK201770287A1/en not_active Application Discontinuation
- 2017-06-14 JP JP2017116994A patent/JP6635982B2/ja active Active
- 2017-06-20 US US15/627,869 patent/US10379715B2/en active Active
- 2017-06-27 AU AU2017204359A patent/AU2017204359B2/en active Active
-
2018
- 2018-06-25 JP JP2018120017A patent/JP6779257B2/ja active Active
- 2018-11-09 AU AU2018260958A patent/AU2018260958B2/en active Active
-
2019
- 2019-04-25 US US16/394,965 patent/US10956006B2/en active Active
- 2019-04-30 DK DKPA201970273A patent/DK201970273A1/en not_active Application Discontinuation
-
2020
- 2020-07-24 AU AU2020207867A patent/AU2020207867B2/en active Active
- 2020-10-13 JP JP2020172654A patent/JP2021012728A/ja active Pending
-
2021
- 2021-03-05 US US17/193,244 patent/US11853536B2/en active Active
-
2022
- 2022-07-07 AU AU2022204891A patent/AU2022204891B2/en active Active
-
2023
- 2023-04-14 JP JP2023066584A patent/JP2023099020A/ja active Pending
- 2023-12-22 US US18/395,247 patent/US20240134506A1/en active Pending
-
2024
- 2024-03-14 AU AU2024201697A patent/AU2024201697A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12033633B1 (en) * | 2019-03-26 | 2024-07-09 | Amazon Technologies, Inc. | Ambient device state content display |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6635982B2 (ja) | メディア環境内におけるインテリジェント自動アシスタント | |
JP6542983B2 (ja) | メディア検索及び再生のためのインテリジェント自動アシスタント | |
US11838579B2 (en) | Intelligent automated assistant for TV user interactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170621 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170621 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171113 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180820 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180827 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20181026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6635982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |