JP6635982B2 - メディア環境内におけるインテリジェント自動アシスタント - Google Patents

メディア環境内におけるインテリジェント自動アシスタント Download PDF

Info

Publication number
JP6635982B2
JP6635982B2 JP2017116994A JP2017116994A JP6635982B2 JP 6635982 B2 JP6635982 B2 JP 6635982B2 JP 2017116994 A JP2017116994 A JP 2017116994A JP 2017116994 A JP2017116994 A JP 2017116994A JP 6635982 B2 JP6635982 B2 JP 6635982B2
Authority
JP
Japan
Prior art keywords
user
media
request
displayed
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017116994A
Other languages
English (en)
Other versions
JP2017215971A (ja
Inventor
リア ティー. ナポリターノ,
リア ティー. ナポリターノ,
グレース エイチ. ウォン,
グレース エイチ. ウォン,
エンリケ ディー. ペーニャ,
エンリケ ディー. ペーニャ,
エレミヤ ディー. ショー,
エレミヤ ディー. ショー,
ホルヘ エス. フィーノ,
ホルヘ エス. フィーノ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2017215971A publication Critical patent/JP2017215971A/ja
Application granted granted Critical
Publication of JP6635982B2 publication Critical patent/JP6635982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/45Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/483Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/489Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Automatic Disk Changers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

[関連出願の相互参照]
本出願は、2015年9月8日に出願された、「Intelligent Automated Assistant in a Media Environment」と題する米国特許仮出願第62/215,676号、及び2015年12月8日に出願された「Intelligent Automated Assistant in a Media Environment」と題する米国特許非仮出願第14/963,094号からの優先権を主張する。これら出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
本出願は、以下の同時係属出願に関連する。2015年に12月8日に出願された米国特許非仮出願第14/963,089号、「Intelligent Automated Assistant for Media Search and Playback」(弁護士整理番号106842137900(P27499US1))、2014年9月26日に出願された米国特許非仮出願第14/498,503号、「Intelligent Automated Assistant for TV User Interactions」(弁護士整理番号106842065100(P18133US1))、及び2014年9月26日に出願された米国特許非仮出願第14/498,391号、「Real−time Digital Assistant Knowledge Updates」(弁護士整理番号106842097900(P22498US1))。これら出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
[技術分野]
本願は概してインテリジェント自動アシスタントに関し、より詳細には、メディア環境内で動作するインテリジェント自動アシスタントに関する。
インテリジェント自動アシスタント(又はデジタルアシスタント)は、ユーザと電子デバイスとの間の直感的なインターフェースを提供することができる。これらのアシスタントは、ユーザが発語及び/又はテキスト形式の自然言語を使用してデバイス又はシステムと対話することを可能にしてもよい。例えば、ユーザは、電子デバイスに関連付けられた仮想アシスタントへと、自然言語形式の発語ユーザ入力を提供することによって、電子デバイスのサービスにアクセスしてもよい。仮想アシスタントは、ユーザの意図を推測し、ユーザの意図をタスクへと動作化するために、発語ユーザ入力に対する自然言語処理を実行することができる。その後、タスクは、電子デバイスの1つ以上の機能を実行することによって実行することができ、いくつかの実施例では、関連する出力を自然言語形式でユーザに返すことができる。
デジタルアシスタントをメディア環境(例えば、テレビ、テレビセットトップボックス、ケーブルボックス、ゲームデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)内に統合することは、ユーザの、メディア消費に関連するタスクを支援するために望ましくなり得る。例えば、デジタルアシスタントは、消費するべき望ましいメディアコンテンツを見つけることを支援するために利用することができる。しかし、デジタルアシスタントとのユーザ対話は音声及び視覚出力を含む場合があり、これによってメディアコンテンツの消費が中断される可能性がある。それゆえ、メディアコンテンツの消費の中断を最小限に抑えながらも、十分な支援がユーザに提供される様態でデジタルアシスタントをメディア環境内に統合することが課題になり得る。
デジタルアシスタントをメディア環境内で動作させるためのシステム及びプロセスが開示される。いくつかの例示的なプロセスでは、コンテンツを表示している間にユーザ入力を検出することができる。プロセスは、ユーザ入力が第1の入力形式に対応するかどうかを判定することができる。ユーザ入力が第1の入力形式に対応するとの判定に従って、複数の例示的な自然言語要求を表示することができる。複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連することができる。
いくつかの実施形態では、ユーザ入力が第1の入力形式に対応しないとの判定に従って、プロセスは、ユーザ入力が第2の入力形式に対応するかどうかを判定することができる。ユーザ入力が第2の入力形式に対応するとの判定に従って、音声データをサンプリングすることができる。プロセスは、音声データがユーザ要求を包含するかどうかを判定することができる。音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを実行することができる。いくつかの実施例では、タスクは、ユーザ要求を少なくとも部分的に満足する結果を取得することと、結果の一部分を有する第2のユーザインターフェースを表示すること、を含むことができる。コンテンツの一部分は、第2のユーザインターフェースが表示されている間に表示され続けることができ、第2のユーザインターフェースの表示区域は、コンテンツの部分の表示区域よりも小さいものであることができる。
いくつかの実施形態では、第2のユーザインターフェースを表示している間に第3のユーザ入力を検出することができる。第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースの表示を、結果の部分を有する第3のユーザインターフェースの表示と置換することができる。第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有することができる。加えて、ユーザ要求を少なくとも部分的に満足する第2の結果を取得することができる。第2の結果は結果と異なることができる。第3のユーザインターフェースは第2の結果の少なくとも一部分を含むことができる。
いくつかの実施形態では、第3のユーザインターフェースを表示している間に第4のユーザ入力を検出することができる。第4のユーザ入力は方向を指示することができる。第4のユーザ入力を検出したことに応じて、第3のユーザインターフェースのフォーカスを第3のユーザインターフェース内の第1のアイテムから第3のユーザインターフェース内の第2のアイテムへ切り換えることができる。第2のアイテムは、第1のアイテムに対して、指示された方向に位置付けられていることができる。
いくつかの実施形態では、第3のユーザインターフェースを表示している間に第5のユーザ入力を検出することができる。第5のユーザ入力を検出したことに応じて、検索フィールドを表示することができる。加えて、仮想キーボードインターフェースを表示することができ、仮想キーボードインターフェースを介して受信された入力は検索フィールド内へのテキスト記入を生じさせることができる。更に、いくつかの実施形態では、第2の電子デバイスのディスプレイ上に選択可能なアフォーダンスを出現させることができ、アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介して電子デバイスによって受信されることを可能にする。
いくつかの実施形態では、第3のユーザインターフェースを表示している間に第6のユーザ入力を検出することができる。第6のユーザ入力を検出したことに応じて、第2のユーザ要求を包含する第2の音声データをサンプリングすることができる。プロセスは、第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを判定することができる。第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、第3のユーザインターフェースを介して結果のサブセットを表示することができる。第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求でないとの判定に従って、第2のユーザ要求を少なくとも部分的に満足する第3の結果を取得することができる。第3のユーザインターフェースを介して第3の結果の一部分を表示することができる。
いくつかの実施形態では、サンプリングされた音声データはユーザ発言を含むことができ、ユーザ発言に対応するユーザ意図を決定することができる。プロセスは、ユーザ意図が、アプリケーションの状態又は設定を調整せよとの要求を含むかどうかを判定することができる。ユーザ意図が、アプリケーションの状態又は設定を調整せよとの要求を含むとの判定に従って、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することができる。
いくつかの実施形態では、ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定に従って、プロセスは、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかを判定することができる。ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定に従って、ユーザ意図を少なくとも部分的に満足するテキストのみの結果を表示することができる。
いくつかの実施形態では、ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定に従って、プロセスは、表示されたコンテンツがメディアコンテンツを含むかどうかを判定することができる。表示されたコンテンツがメディアコンテンツを含むとの判定に従って、プロセスは、メディアコンテンツを一時停止させることができるかどうかを更に判定することができる。メディアコンテンツを一時停止させることができるとの判定に従って、メディアコンテンツは一時停止され、第3のユーザインターフェースを介して、ユーザ意図を少なくとも部分的に満足する結果を表示することができる。第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有することができる。メディアコンテンツを一時停止させることができないとの判定に従って、メディアコンテンツが表示されている間に、第2のユーザインターフェースを介して結果を表示することができる。第2のユーザインターフェースによって占有される表示区域は、メディアコンテンツによって占有される表示区域よりも小さいものであることができる。更に、いくつかの実施形態では、表示されたコンテンツがメディアコンテンツを含まないとの判定に従って、第3のユーザインターフェースを介して結果を表示することができる。
様々な実施例に係る、デジタルアシスタントを実装するためのシステム及び環境を示すブロック図である。
様々な実施例に係るメディアシステムを示すブロック図である。
様々な実施例に係るユーザデバイスを示すブロック図である。
様々な実施例に係るデジタルアシスタントシステム又はそのサーバ部分を示すブロック図である。
様々な実施例に係る、図4Aに示されるデジタルアシスタントの機能を示す。
様々な実施例に係るオントロジの一部分を示す。
様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。
下記の図番号において、図6Oは、大文字のOと数字の0(ゼロ)とのいかなる混同も回避するために、意図的に省略されている。
様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図5A〜図5Iに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。
様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。 様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。
下記の図番号において、図8Oは、大文字のOと数字の0(ゼロ)とのいかなる混同も回避するために、意図的に省略されている。
様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。 様々な実施例に係る、図7A〜図7Cに示されるプロセスの様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。
様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す。
様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるように構成された電子デバイスの機能ブロック図を示す。
様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるように構成された電子デバイスの機能ブロック図を示す。
以下の実施例の説明では、実践することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができる点を理解されたい。
本願は、デジタルアシスタントをメディア環境内で動作させるためのシステム及びプロセスに関する。1つの例示的なプロセスでは、コンテンツを表示している間にユーザ入力を検出することができる。プロセスは、ユーザ入力が第1の入力形式に対応するかどうかを判定することができる。ユーザ入力が第1の入力形式に対応するとの判定に従って、複数の例示的な自然言語要求を表示することができる。複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連することができる。コンテクスト上関連する例示的な自然言語要求は、ユーザに、メディアデバイス上のユーザの現在の使用状況に最も関連性のあるデジタルアシスタントの機能を都合良く知らせるために望ましくなり得る。これは、ユーザに、デジタルアシスタントのサービスを利用することを促すことができ、また、ユーザの、デジタルアシスタントとの対話エクスペリエンスを改善することができる。
いくつかの実施形態では、ユーザ入力が第1の入力形式に対応しないとの判定に従って、プロセスは、ユーザ入力が第2の入力形式に対応するかどうかを判定することができる。ユーザ入力が第2の入力形式に対応するとの判定に従って、音声データをサンプリングすることができる。プロセスは、音声データがユーザ要求を包含するかどうかを判定することができる。音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを実行することができる。
いくつかの実施形態では、実行されるタスクは、ユーザ要求の性質、及び第2の入力形式のユーザ入力が検出される間に表示されているコンテンツに依存することができる。ユーザ要求が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求(例えば、表示されたメディアコンテンツのための字幕をオンにすること)である場合には、タスクは、アプリケーションの状態又は設定を調整することを含むことができる。ユーザ要求が、テキストのみの出力に関連付けられた複数の所定の要求種別のうちの1つ(例えば、現在の時間の要求)である場合には、タスクは、ユーザ要求を満足するテキストを表示することを含むことができる。表示されたコンテンツがメディアコンテンツを含み、ユーザ要求が、結果を取得して表示することを要請する場合には、プロセスは、メディアコンテンツを一時停止させることができるかどうかを判定することができる。メディアコンテンツを一時停止させることができると判定された場合には、メディアコンテンツは一時停止され、拡大されたユーザインターフェース(例えば、図6Hに示される、第3のユーザインターフェース626)上に、そのユーザ要求を満足する結果を表示することができる。メディアコンテンツを一時停止させることができないと判定された場合には、メディアコンテンツが表示され続けている間に、縮小されたユーザインターフェース(例えば、図6Gに示される、第2のユーザインターフェース618)上に、そのユーザ要求を満足する結果を表示することができる。第2のユーザインターフェースの表示区域は、メディアコンテンツの表示区域よりも小さいものであることができる。更に、表示されたコンテンツがメディアコンテンツを含まない場合には、拡大されたユーザインターフェース上に、そのユーザ要求を満足する結果を表示することができる。表示されたコンテンツ、及びユーザ要求の種別に従って出力フォーマットを調整することによって、デジタルアシスタントは、メディアコンテンツのユーザの消費の中断を最小限に抑えつつ包括的支援を提供することのバランスをインテリジェントにとることができる。これによって、改善されたユーザエクスペリエンスを得ることができる。
1.システム及び環境
図1は、様々な実施例に係る、デジタルアシスタントを動作させるための例示的なシステム100を示す。用語「デジタルアシスタント」、「仮想アシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、発語及び/又はテキスト形式の自然言語入力を解釈してユーザ意図を推測し、推測されたユーザ意図に基づきアクションを実行する任意の情報処理システムを指してもよい。例えば、推測されたユーザ意図に基づきアクションを実行するために、システムは、以下のことのうちの1つ以上を実行することができる。推測されたユーザ意図を実現するように設計されたステップ及びパラメータを含むタスクフローを特定すること、推測されたユーザ意図からの特定の必要事項をタスクフロー内に入力すること、プログラム、方法、サービス、アプリケーションプログラミングインターフェース(application programming interface、API)、若しくは同様のものを呼び出すことによってタスクフローを実行すること、並びに可聴(例えば、発語)及び/若しくは視覚形式のユーザへの出力応答を生成すること。
具体的には、デジタルアシスタントは、少なくとも部分的に、自然言語コマンド、要求、陳述、叙述、及び/又は照会の形でユーザ要求を受け付ける能力を有することができる。通例、ユーザ要求はデジタルアシスタントによる情報回答又はタスクの実行のいずれかを求めることができる。ユーザ要求への満足な応答は、要求された情報回答の提供、要求されたタスクの実行、又は両者の組み合わせとなることができる。例えば、ユーザはデジタルアシスタントに「パリは何時ですか?」などの質問をすることができる。デジタルアシスタントは、要求された情報を引き出し、「パリは4:00PMです」と応答することができる。ユーザはまた、例えば、「Reese Witherspoon主演の映画を見つけてください」と、タスクの実行を要求することができる。それに応じて、デジタルアシスタントは、要求された検索クエリを実行し、関連のある映画タイトルを、ユーザが選択するために表示することができる。要求されたタスクの実行中に、デジタルアシスタントは、長期間にわたる複数の情報交換を伴う継続的ダイアログ内でユーザと時折対話することができる。情報又は種々のタスクの実行を要求するためにデジタルアシスタントと対話する方法は他にも数多く存在する。テキスト応答を提供し、プログラムされたアクションを取ることに加えて、デジタルアシスタントはまた、他の視覚又は音声形式の応答を、例えば、言葉、警報、音楽、画像、ビデオ、アニメーション等として、提供することができる。更に、本明細書において説明されるように、例示的なデジタルアシスタントは、(例えば、テレビセットトップボックス上における)メディアコンテンツの再生を制御し、表示ユニット(例えば、テレビ)上にメディアコンテンツ又はその他の情報を表示させることができる。
図1に示されているように、いくつかの実施例では、デジタルアシスタントはクライアント−サーバモデルに従って実装することができる。デジタルアシスタントは、メディアデバイス104上で実行されるクライアント側部分102(以後、「DAクライアント102」)、及びサーバシステム108上で実行されるサーバ側部分106(以後「DAサーバ106」)を含むことができる。更に、いくつかの実施例では、クライアント側部分はまた、ユーザデバイス122上で実行されることができる。DAクライアント102は1つ以上のネットワーク110を通じてDAサーバ106と通信することができる。DAクライアント102は、ユーザ対応入力及び出力処理、並びにDAサーバ106との通信などのクライアント側機能性を提供することができる。DAサーバ106は、それぞれのデバイス(例えば、メディアデバイス104及びユーザデバイス122)上に各々常駐する任意の数のDAクライアント102のためのサーバ側機能性を提供することができる。
メディアデバイス104は、メディアコンテンツを管理及び制御するように構成されている任意の好適な電子デバイスであることができる。例えば、メディアデバイス104は、ケーブルボックスデバイス、衛星ボックスデバイス、ビデオプレーヤデバイス、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲームシステム、DVDプレーヤ、ブルーレイディスク(商標)プレーヤ、このようなデバイスの組み合わせ、又は同様のものなどの、テレビセットトップボックスを含むことができる。図1に示されるように、メディアデバイス104はメディアシステム128の一部であることができる。メディアデバイス104に加えて、メディアシステム128は遠隔制御装置124及び表示ユニット126を含むことができる。メディアデバイス104は表示ユニット126上にメディアコンテンツを表示することができる。表示ユニット126は、テレビディスプレイ、モニタ、プロジェクタ、又は同様のものなどの、任意の種類のディスプレイであることができる。いくつかの実施例では、メディアデバイス104は、表示ユニット126と統合されているか、又はそれと別個のものであることができる、音声システム(例えば、音声受信器)、及びスピーカ(図示されていない)に接続していることができる。他の実施例では、表示ユニット126及びメディアデバイス104は、高度の処理能力及びネットワーク接続性能力を有するスマートテレビなどの、単一のデバイス内に一緒に組み込まれていることができる。このような実施例では、メディアデバイス104の機能は、結合されたデバイス上のアプリケーションとして実行されることができる。
いくつかの実施例では、メディアデバイス104は、メディアコンテンツの複数の種類及びソースのためのメディアコントロールセンターとして機能することができる。例えば、メディアデバイス104は、生放送のテレビ(例えば、無線、衛星、又はケーブルTV)へのユーザアクセスを促進することができる。それゆえ、メディアデバイス104は、ケーブルチューナ、衛星チューナ、又は同様のものを含むことができる。いくつかの実施例では、メディアデバイス104はまた、後でタイムシフト視聴するためにTV番組を録画することができる。他の実施例では、メディアデバイス104は、(例えば、様々な無料、有料、及び加入ベースのストリーミングサービスからの、)ケーブル配信のオンデマンドTV番組、ビデオ、及び音楽、並びにインターネット配信のTV番組、ビデオ、及び音楽などの、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、メディアデバイス104は、モバイルユーザデバイスからの写真を表示すること、結合された記憶デバイスからのビデオを再生すること、結合されたミュージックプレーヤからの音楽を再生すること、又は同様のことなどの、任意の他のソースからのメディアコンテンツの再生又は表示を促進することができる。メディアデバイス104はまた、所望に応じて、本明細書において説明されているメディア制御機構の様々な他の組み合わせを含むことができる。メディアデバイス104の詳細な説明が以下において図2を参照して提供される。
ユーザデバイス122は、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、装着型電子デバイス(例えば、デジタルグラス、リストバンド、腕時計、ブローチ、アームバンド等)、又は同様のものなどの、任意のパーソナル電子デバイスであることができる。ユーザデバイス122の詳細な説明が以下において図3を参照して提供される。
いくつかの実施例では、ユーザは、ユーザデバイス122、遠隔制御装置124、又はメディアデバイス104と統合されたインターフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を通じてメディアデバイス104と対話することができる。例えば、デジタルアシスタントのためのメディア関連のクエリ又はコマンドを含む発語入力をユーザデバイス122及び/又は遠隔制御装置124において受信することができ、発語入力を、メディア関連のタスクをメディアデバイス104上で実行させるために用いることができる。同様に、メディアデバイス104上のメディアを制御するための触知コマンドを、ユーザデバイス122及び/又は遠隔制御装置124において(並びに図示されていない他のデバイスから)受信することができる。それゆえ、メディアデバイス104の様々な機能は種々の仕方で制御することができ、ユーザに、複数のデバイスからメディアコンテンツを制御するための複数の選択肢を与える。
通信ネットワーク(単数又は複数)110の例としては、ローカルエリアネットワーク(local area network、LAN)、及びワイドエリアネットワーク(wide area network、WAN)、例えば、インターネットを挙げることができる。通信ネットワーク(単数又は複数)110は、例えば、イーサネット(登録商標)、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Wi−Fi(登録商標)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi−MAX(登録商標)、又は任意の他の好適な通信プロトコル等の、様々な有線又は無線プロトコルを含む、任意の周知のネットワークプロトコルを用いて実装することができる。
DAサーバ106は、クライアント対応入力/出力(input/output、I/O)インターフェース112、1つ以上の処理モジュール114、データ及びモデル116、並びに外部サービスへのI/Oインターフェース118を含むことができる。クライアント対応I/Oインターフェース112は、DAサーバ106のためのクライアント対応入力及び出力処理を促進することができる。1つ以上の処理モジュール114は、発語入力を処理し、自然言語入力に基づいてユーザの意図を決定するために、データ及びモデル116を利用することができる。更に、1つ以上の処理モジュール114は、推測されたユーザ意図に基づいてタスク実行を実行することができる。いくつかの実施例では、DAサーバ106は、タスクを完了させるか又は情報を取得するために、ネットワーク(単数又は複数)110を通じて、電話サービス、カレンダーサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビ番組サービス、ストリーミングメディアサービス、メディア検索サービス、及び同様のものなどの外部サービス120と通信することができる。外部サービスへのI/Oインターフェース118はこのような通信を促進することができる。
サーバシステム108は、1つ以上の独立型データ処理装置、又はコンピュータの分散型ネットワーク上に実装することができる。いくつかの実施例では、サーバシステム108は、また、様々な仮想デバイス及び/又はサードパーティサービスプロバイダ(例えば、サードパーティクラウドサービスプロバイダ)のサービスを利用して、サーバシステム108の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供することができる。
図1に示されるデジタルアシスタントはクライアント側部分(例えば、DAクライアント102)及びサーバ側部分(例えば、DAサーバ106)の両方を含むことができるが、いくつかの実施例では、デジタルアシスタントの機能は、ユーザデバイス又はメディアデバイス上にインストールされる独立型アプリケーションとして実装することができる。加えて、デジタルアシスタントのクライアント部分とサーバ部分との間の機能の分配は実施態様によって異なり得る。例えば、いくつかの実施例では、ユーザデバイス122又はメディアデバイス104上で実行されるDAクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、デジタルアシスタントの全ての他の機能をバックエンドサーバに委ねるシンクライアントであることができる。
2.メディアシステム
図2は、様々な実施例に係るメディアシステム128のブロック図を示す。メディアシステム128は、表示ユニット126、遠隔制御装置124、及びスピーカ268に通信可能に結合されているメディアデバイス104を含むことができる。メディアデバイス104は遠隔制御装置124を介してユーザ入力を受信することができる。表示ユニット126上にメディアデバイス104からのメディアコンテンツを表示することができる。
本例では、図2に示されるように、メディアデバイス104は、メモリインターフェース202、1つ以上のプロセッサ204、及び周辺機器インターフェース206を含むことができる。メディアデバイス104内の様々な構成要素は、1つ以上の通信バス又は信号線によって互いに結合されていることができる。メディアデバイス104は、周辺機器インターフェース206に結合されている様々なサブシステム及び周辺デバイスを更に含むことができる。サブシステム及び周辺デバイスは情報を収集し、及び/又はメディアデバイス104の種々の機能性を促進することができる。
例えば、メディアデバイス104は通信サブシステム224を含むことができる。様々な通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含み得る、1つ以上の有線及び/又は無線通信サブシステム224を通じて、通信機能が促進されてもよい。
いくつかの実施例では、メディアデバイス104は、周辺機器インターフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は音声/ビデオ出力コントローラ270を含むことができる。音声/ビデオ出力コントローラ270は表示ユニット126及びスピーカ268に結合されていることができるか、又は音声及びビデオ出力を別の仕方で(例えば、音声/ビデオポート、無線送信などを介して)提供することができる。I/Oサブシステム240はリモートコントローラ242を更に含むことができる。リモートコントローラ242は、(例えば、有線接続、Bluetooth(登録商標)、Wi−Fi(登録商標)などを介して)遠隔制御装置124に通信可能に結合されることができる。
遠隔制御装置124は、音声データ(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン272、触知入力をキャプチャするためのボタン(単数又は複数)274、及びリモートコントローラ242を介したメディアデバイス104との通信を促進するための送受信器276を含むことができる。更に、遠隔制御装置124は、触覚及び/若しくは触知の接触に基づくユーザからの入力を受け付けるタッチ感知面278、センサ、又はセンサのセットを含むことができる。タッチ感知面278及びリモートコントローラ242は、タッチ感知面278上における接触(並びに接触の任意の移動又は中断)を検出し、検出された接触(例えば、ジェスチャ、接触運動など)を、表示ユニット126上に表示されたユーザインターフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換することができる。いくつかの実施例では、遠隔制御装置124はまた、キーボード、ジョイスティック、又は同様のものなどの、他の入力機構を含むことができる。いくつかの実施例では、遠隔制御装置124は、ライト、ディスプレイ、スピーカ、又は同様のものなどの、出力機構を更に含むことができる。遠隔制御装置124において受信された入力(例えば、ユーザ発語、ボタン押下、接触運動など)は遠隔制御装置124を介してメディアデバイス104へ伝達されることができる。I/Oサブシステム240はまた、他の入力コントローラ(単数又は複数)244を含むことができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス248に結合されることができる。
いくつかの実施例では、メディアデバイス104は、メモリ250に結合されたメモリインターフェース202を更に含むことができる。メモリ250としては、任意の電子式、磁気式、光学式、電磁式、赤外線式、若しくは半導体式のシステム、装置、又はデバイス、ポータブルコンピュータディスケット(磁気式)、ランダムアクセスメモリ(random access memory、RAM)(磁気式)、読み出し専用メモリ(read-only memory、ROM)(磁気式)、消去可能なプログラマブル読出し専用メモリ(erasable programmable read-only memory、EPROM)(磁気式)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどのポータブル光ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティック、及び同様のものなどのフラッシュメモリ、を挙げることができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体は、(例えば、本明細書において説明されている様々なプロセスの部分又は全てを実行する)命令を、コンピュータベースのシステム、プロセッサを含むシステム、又は命令実行システム、装置、若しくはデバイスから命令をフェッチすることができ、それらの命令を実行することができる他のシステムなどの、命令実行システム、装置、若しくはデバイスによる使用、又はそれと関連した使用のために記憶するために用いることができる。他の実施例では、(例えば、本明細書において説明されている様々なプロセスの部分又は全てを実行する)命令は、サーバシステム108の非一時的コンピュータ可読記憶媒体上に記憶することができるか、又はメモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム108の非一時的コンピュータ可読記憶媒体との間で分配することができる。本明細書の文脈においては、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はこれらとともに使用するためのプログラムを収容又は記憶し得る、任意の媒体であることができる。
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインターフェース(graphical user interface、GUI)モジュール256、デバイス上メディアモジュール258、デバイス外メディアモジュール260、及びアプリケーションモジュール262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加デバイス、1つ以上のコンピュータ及び/又は1つ以上のサーバとの通信を促進してもよい。グラフィカルユーザインターフェースモジュール256はグラフィカルユーザインターフェース処理を促進することができる。デバイス上メディアモジュール258は、メディアデバイス104上にローカルに記憶されたメディアコンテンツの記憶及び再生を促進することができる。デバイス外メディアモジュール260は、(例えば、リモートサーバ上、ユーザデバイス122上などの)外部ソースから取得されたメディアコンテンツのストリーミング再生又はダウンロードを促進することができる。更に、デバイス外メディアモジュール260は、放送及びケーブルコンテンツを受信すること(例えば、チャンネル同調)を促進することができる。アプリケーションモジュール262は、ウェブブラウジング、メディア処理、ゲーム、並びに/又はその他のプロセス及び機能などの、メディア関連アプリケーションの様々な機能性を促進することができる。
本明細書で説明されるように、メモリ250はまた、例えば、デジタルアシスタントのクライアント側機能性を提供するために、(例えば、デジタルアシスタントクライアントモジュール264内の)クライアント側デジタルアシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、プリファレンスデータ、及び/若しくはユーザのメディア検索履歴、メディアウォッチリスト、最近見たもののリスト、お気に入りメディアアイテム等などのその他のデータ)も記憶することができる。ユーザデータ266はまた、デジタルアシスタントを支援する、又は任意の他のアプリケーションのための、発語認識を実行する際に用いることができる。
様々な実施例では、デジタルアシスタントクライアントモジュール264は、メディアデバイス104の様々なユーザインターフェース(例えば、I/Oサブシステム240又は同様のもの)を通じて、音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け付ける能力を有することができる。デジタルアシスタントクライアントモジュール264はまた、音声(例えば、発語出力)、視覚、及び/又は触覚形式の出力を提供する能力を有することもできる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、デジタルアシスタントクライアントモジュール264は、通信サブシステム224を用いてデジタルアシスタントサーバ(例えば、DAサーバ106)と通信することができる。
いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話及び/又は現在のユーザ入力に関連付けられたコンテクストを確立するために、様々なサブシステム及び周辺デバイスを利用して、メディアデバイス104に関連する、及びメディアデバイス104の周囲環境からの追加情報を収集することができる。このようなコンテクストまた、ユーザデバイス122などからの、他のデバイスからの情報を含むことができる。いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力とともにコンテクスト情報又はそのサブセットをデジタルアシスタントサーバに提供することができる。デジタルアシスタントはまた、ユーザへの出力をどのように準備し、配信するかを決定するために、コンテクスト情報を用いることができる。コンテクスト情報は、メディアデバイス104又はサーバシステム108によって、正確な発語認識を支援するために更に用いられることができる。
いくつかの実施例では、ユーザ入力に付随するコンテクスト情報は、照明、周囲ノイズ、周囲温度、別の物体までの距離、及び同様のものなどの、センサ情報を含むことができる。コンテクスト情報は、メディアデバイス104の物理的状態(例えば、デバイスのロケーション、デバイスの温度、電力レベルなど)又はメディアデバイス104のソフトウェア状態(例えば、実行中のプロセス、インストールされているアプリケーション、過去及び現在のネットワーク活動、バックグラウンドサービス、エラーログ、リソース使用量など)に関連付けられた情報を更に含むことができる。コンテクスト情報は、ユーザから受信された情報(例えば、発語入力)、ユーザによって要求された情報、並びにユーザに提示された情報(例えば、メディアデバイスによって現在若しくは以前に表示された情報)を更に含むことができる。コンテクスト情報は、接続されたデバイス、又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、ユーザデバイス122上に表示されたコンテンツ、ユーザデバイス122上の再生可能なコンテンツなど)を更に含むことができる。これらのコンテクスト情報の種類のうちの任意のものを、ユーザ入力に関連付けられたコンテクスト情報として、DAサーバ106に提供する(又はメディアデバイス104自身の上で用いる)ことができる。
いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、DAサーバ106からの要求に応じて、メディアデバイス104上に記憶されている情報(例えば、ユーザデータ266)を選択的に提供することができる。加えて、又は代替的に、情報は、発語認識及び/又はデジタルアシスタント機能を実行する際にメディアデバイス104自身の上で用いることができる。デジタルアシスタントクライアントモジュール264はまた、DAサーバ106による要求に応じて、自然言語ダイアログ又は他のユーザインターフェースを介してユーザから追加入力を引き出すことができる。デジタルアシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成においてDAサーバ106を助けるために、追加入力をDAサーバ106に渡すことができる。
様々な実施例では、メモリ250は追加の命令又はより少数の命令を含んでもよい。更に、メディアデバイス104の様々な機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
3.ユーザデバイス
図3は、様々な実施例に係る例示的なユーザデバイス122のブロック図を示す。図に示すように、ユーザデバイス122は、メモリインターフェース302、1つ以上のプロセッサ304、及び周辺機器インターフェース306を含んでもよい。ユーザデバイス122内の様々な構成要素は、1つ以上の通信バス又は信号線によって互いに結合されてもよい。ユーザデバイス122は、周辺機器インターフェース306に結合される様々なセンサ、サブシステム、及び周辺機器デバイスを更に含んでもよい。センサ、サブシステム、及び周辺デバイスは情報を収集し、並びに/又はユーザ機器122の種々の機能性を促進することができる。
例えば、ユーザデバイス122は、向き、光、及び近接検知機能を促進するために周辺機器インターフェース306に結合された、動きセンサ310、光センサ312、及び近接センサ314を含むことができる。関連機能を促進するために、測位システム(例えば、GPS受信機)、温度センサ、生体測定センサ、ジャイロスコープ、コンパス、加速度計、及び同様のもの等の、1つ以上の他のセンサ316も周辺機器インターフェース306に接続されることができる。
いくつかの実施例では、カメラサブシステム320及び光学センサ322は、写真の撮影及びビデオクリップの録画等の、カメラ機能を促進するために利用されてもよい。様々な通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含み得る、1つ以上の有線及び/又は無線通信サブシステム324を通じて、通信機能が促進されてもよい。音声認識機能、音声複製機能、デジタル録音機能、及び電話機能などの、音声使用可能機能を促進するために、音声サブシステム326がスピーカ328及びマイクロフォン330に結合されることができる。
いくつかの実施例では、ユーザデバイス122は、周辺機器インターフェース306に結合されたI/Oサブシステム340を更に含んでもよい。I/Oサブシステム340は、タッチスクリーンコントローラ342及び/又は他の入力コントローラ(単数又は複数)344を含むことができる。タッチスクリーンコントローラ342は、タッチスクリーン346に結合されていることができる。タッチスクリーン346及びタッチスクリーンコントローラ342は、例えば、容量性、抵抗性、赤外線、及び表面弾性波技術、近接センサアレイ、並びに同様のものなどの複数のタッチ感知技術のうちの任意のものを用いて、接触並びにその移動若しくは中断を検出することができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス348に結合されることができる。
いくつかの実施例では、ユーザデバイス122は、メモリ350に結合されたメモリインターフェース302を更に含んでもよい。メモリ350としては、任意の電子式、磁気式、光学式、電磁式、赤外線式、若しくは半導体式のシステム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気式)、ランダムアクセスメモリ(RAM)(磁気式)、読み出し専用メモリ(ROM)(磁気式)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気式)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどのポータブル光ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティック、及び同様のものなどのフラッシュメモリ、を挙げることができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体は、(例えば、本明細書において説明されている様々なプロセスの部分又は全てを実行する)命令を、コンピュータベースのシステム、プロセッサを含むシステム、又は命令実行システム、装置、若しくはデバイスから命令をフェッチすることができ、それらの命令を実行することができる他のシステムなどの、命令実行システム、装置、若しくはデバイスによる使用、又はそれと関連した使用のために記憶するために用いることができる。他の実施例では、(例えば、本明細書において説明されている様々なプロセスの部分又は全てを実行する)命令は、サーバシステム108の非一時的コンピュータ可読記憶媒体上に記憶することができるか、又はメモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム108の非一時的コンピュータ可読記憶媒体との間で分配することができる。本明細書の文脈においては、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はこれらとともに使用するためのプログラムを収容又は記憶し得る、任意の媒体であることができる。
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインターフェース(GUI)モジュール356、センサ処理モジュール358、電話モジュール360、及びアプリケーションモジュール362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加デバイス、1つ以上のコンピュータ及び/又は1つ以上のサーバとの通信を促進してもよい。グラフィカルユーザインターフェースモジュール356はグラフィカルユーザインターフェース処理を促進することができる。センサ処理モジュール358はセンサ関連の処理及び機能を促進することができる。電話モジュール360は電話関連のプロセス及び機能を促進してもよい。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング、並びに/又はその他のプロセス及び機能等の、ユーザアプリケーションの様々な機能性を促進することができる。
本明細書で説明されるように、メモリ350はまた、例えば、デジタルアシスタントのクライアント側機能性を提供するために、(例えば、デジタルアシスタントクライアントモジュール364内の)クライアント側デジタルアシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、プリファレンスデータ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組のお気に入り等などのその他のデータ)も記憶することができる。ユーザデータ366はまた、デジタルアシスタントを支援する、又は任意の他のアプリケーションのための、発語認識を実行する際に用いることができる。デジタルアシスタントクライアントモジュール364及びユーザデータ366は、それぞれ、以上において図2を参照して説明されたとおりのデジタルアシスタントクライアントモジュール264及びユーザデータ266と同様又は同一であることができる。
様々な実施例では、メモリ350は追加の命令又はより少数の命令を含んでもよい。更に、ユーザデバイス122の様々な機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
いくつかの実施例では、ユーザデバイス122は、メディアデバイス104の諸態様を制御するように構成することができる。例えば、ユーザデバイス122は遠隔制御装置(例えば、遠隔制御装置124として機能することができる。ユーザデバイス122を介して受信されたユーザ入力は、対応するアクションをメディアデバイス104によって実行させるために、メディアデバイス104へ(例えば、通信サブシステムを用いて)伝送することができる。加えて、ユーザデバイス122は、メディアデバイス104から命令を受信するように構成することができる。例えば、メディアデバイス104は、実行し、ユーザデバイス122上にオブジェクト(例えば、選択可能なアフォーダンス)を表示させるためのタスクをユーザデバイス122に引き渡すことができる。
システム100及びメディアシステム128は、図1及び図2に示される構成要素及び構成に限定されず、ユーザデバイス122、メディアデバイス104、及び遠隔制御装置124は同様に、図2及び図3に示される構成要素及び構成に限定されないことを理解されたい。システム100、メディアシステム128、ユーザデバイス122、メディアデバイス104、及び遠隔制御装置124は全て、様々な実施例に係る複数の構成において、より少数の構成要素又は他の構成要素を含むことができる。
4.デジタルアシスタントシステム
図4Aは、様々な実施例に係るデジタルアシスタントシステム400のブロック図を示す。いくつかの実施例では、デジタルアシスタントシステム400は独立型コンピュータシステム上に実装することができる。いくつかの実施例では、デジタルアシスタントシステム400は複数のコンピュータにわたって分散させることができる。いくつかの実施例では、デジタルアシスタントのモジュール及び機能のいくつかはサーバ部分及びクライアント部分に分割されることができる。この場合には、クライアント部分は1つ以上のユーザデバイス(例えば、デバイス104又は122)上に常駐し、例えば、図1に示されているように、1つ以上のネットワークを通じてサーバ部分(例えば、サーバシステム108)と通信する。いくつかの実施例では、デジタルアシスタントシステム400は、図1に示されるサーバシステム108(及び/又はDAサーバ106)の一実装形態であることができる。デジタルアシスタントシステム400はデジタルアシスタントシステムの単なる一例にすぎず、デジタルアシスタントシステム400は、図示されているよりも多数又は少数の構成要素を有することができるか、2つ以上の構成要素を組み合わせてもよいか、あるいは構成要素の異なる構成又は配置を有してもよいことに留意されたい。図4Aに示される種々の構成要素は、1つ以上の信号処理回路及び/若しくは特定用途向け集積回路を含む、ハードウェア、1つ以上のプロセッサによって実行されるソフトウェア命令、ファームウェア、又はそれらの組み合わせの形態で実装されることができる。
デジタルアシスタントシステム400は、メモリ402、1つ以上のプロセッサ404、I/Oインターフェース406、及びネットワーク通信インターフェース408を含むことができる。これらの構成要素は1本以上の通信バス又は信号線410を通じて互いに通信することができる。
いくつかの実施例では、メモリ402は、高速ランダムアクセスメモリ並びに/又は不揮発性コンピュータ可読記憶媒体(例えば、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性固体メモリデバイス)などの、非一時的コンピュータ可読媒体を含むことができる。
いくつかの実施例では、I/Oインターフェース406は、ディスプレイ、キーボード、タッチスクリーン、及びマイクロフォンなどの、デジタルアシスタントシステム400のI/Oデバイス416をユーザインターフェースモジュール422に結合することができる。I/Oインターフェース406は、ユーザインターフェースモジュール422と協働して、ユーザ入力(例えば、音声入力、キーボード入力、タッチ入力等)を受信し、それらを適宜に処理することができる。いくつかの実施例では、例えば、デジタルアシスタントが独立型ユーザデバイス上に実装される場合には、デジタルアシスタントシステム400は、図2又は図3においてそれぞれデバイス104又は122に関して説明されている構成要素及びI/O通信インターフェースの任意のものを含むことができる。いくつかの実施例では、デジタルアシスタントシステム400はデジタルアシスタントの実装形態のサーバ部分を表すことができ、クライアントデバイス(例えば、ユーザデバイス104又は122)上に常駐するクライアント側部分を通じてユーザと対話することができる。
いくつかの実施例では、ネットワーク通信インターフェース408は有線通信ポート(単数又は複数)412並びに/又は無線伝送及び受信回路機構414を含むことができる。有線通信ポート(単数又は複数)は、1つ以上の有線インターフェース、例えば、イーサネット、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)などを介して通信信号を受信及び送信することができる。無線回路414は、通信ネットワーク及び他の通信デバイスから/へ、RF信号及び/又は光信号を受信及び送信することができる。無線通信は、GSM(登録商標)、EDGE、CDMA、TDMA、Bluetooth(登録商標)、Wi−Fi(登録商標)、VoIP、Wi−MAX(登録商標)、あるいは任意のその他の好適な通信プロトコル等の、複数の通信規格、プロトコル及び技術のうちの任意のものを用いることができる。ネットワーク通信インターフェース408は、インターネット、イントラネット、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)などの無線ネットワーク、及び/又はメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの、ネットワークを用いた、デジタルアシスタントシステム400とデバイスとの間の通信を可能にすることができる。
いくつかの実施例では、メモリ402、又はメモリ402のコンピュータ可読記憶媒体は、オペレーティングシステム418、通信モジュール420、ユーザインターフェースモジュール422、1つ以上のアプリケーション424、及びデジタルアシスタントモジュール426の全て又はサブセットを含むプログラム、モジュール、命令、及びデータ構造を記憶することができる。特に、メモリ402、又はメモリ402のコンピュータ可読記憶媒体は、後述されるプロセス800を実行する命令を記憶することができる。1つ以上のプロセッサ404はこれらのプログラム、モジュール、及び命令を実行することができ、データ構造から/へ読み出し/書き込みを行うことができる。
オペレーティングシステム418(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、iOS、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorksなどの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェア構成要素及び/又はドライバを含むことができ、様々なハードウェア、ファームウェア、及びソフトウェア構成要素間の通信を促進する。
通信モジュール420は、ネットワーク通信インターフェース408を通じたデジタルアシスタントシステム400とその他のデバイスとの間の通信を促進することができる。例えば、通信モジュール420は電子デバイス(例えば、104、122)の通信サブシステム(例えば、224、324)と通信することができる。通信モジュール420はまた、無線回路機構414及び/又は有線通信ポート412によって受信されたデータを処理するための種々の構成要素も含むことができる。
ユーザインターフェースモジュール422はI/Oインターフェース406を介して(例えば、キーボード、タッチスクリーン、ポインティングデバイス、コントローラ、及び/又はマイクロフォンから)ユーザからのコマンド及び/又は入力を受信し、ディスプレイ上にユーザインターフェースオブジェクトを生成することができる。ユーザインターフェースモジュール422はまた、出力(例えば、発語、音響、アニメーション、テキスト、アイコン、振動、触覚フィードバック、光など)を準備し、I/Oインターフェース406を介して(例えば、ディスプレイ、オーディオチャネル、スピーカ、タッチパッドなどを通じて)ユーザへ配信することができる。
アプリケーション424は、1つ以上のプロセッサ404によって実行されるように構成されたプログラム及び/又はモジュールを含むことができる。例えば、デジタルアシスタントシステム400が独立型ユーザデバイス上に実装される場合には、アプリケーション424は、ゲーム、カレンダーアプリケーション、ナビゲーションアプリケーション、又は電子メールアプリケーションなどの、ユーザアプリケーションを含むことができる。デジタルアシスタントシステム400がサーバ上に実装される場合には、アプリケーション424は、例えば、資源管理アプリケーション、診断アプリケーション、又はスケジューリングアプリケーションを含むことができる。
メモリ402はまた、デジタルアシスタントモジュール426(又はデジタルアシスタントのサーバ部分)も記憶することができる。いくつかの実施例では、デジタルアシスタントモジュール426は、以下のサブモジュール、又はそれらのサブセット若しくはスーパーセットを含むことができる。I/O処理モジュール428、発語テキスト化(speech-to-text、STT)処理モジュール430、自然言語処理モジュール432、ダイアログフロー処理モジュール434、タスクフロー処理モジュール436、サービス処理モジュール438、及び発語合成モジュール440。これらのモジュールの各々は、デジタルアシスタントモジュール426の以下のシステム又はデータ及びモデルのうちの1つ以上、又はそれらのサブセット若しくはスーパーセットへのアクセスを有することができる。オントロジ460、語彙索引444、ユーザデータ448、タスクフローモデル454、サービスモデル456、及び自動発語認識(automatic speech recognition、ASR)システム431。
いくつかの実施例では、デジタルアシスタントモジュール426内に実装された処理モジュール、データ及びモデルを用いて、デジタルアシスタントは以下のもののうちの少なくともいくつかを実行することができる。発語入力をテキストに変換すること、ユーザから受信した自然言語入力内に表現されているユーザの意図を特定すること、ユーザの意図を完全に推測するために必要な情報を(例えば、単語、ゲーム、意図などの曖昧さを除去することによって)能動的に引き出し、取得すること、推測された意図を達成するためのタスクフローを決定すること、及び推測された意図を達成するためのタスクフローを実行すること。
いくつかの実施例では、図4Bに示されるように、I/O処理モジュール428は、ユーザ入力(例えば、発語入力)を取得するため、及びユーザ入力への応答を(例えば、発語出力として)提供するために、図4AにおけるI/Oデバイス416を通じてユーザと対話するか、又は、図4Aにおけるネットワーク通信インターフェース408を通じて電子デバイス(例えば、デバイス104若しくは122)と対話することができる。I/O処理モジュール428は、ユーザ入力とともに、又はその受信の直後に、ユーザ入力に関連付けられるコンテクスト情報を電子デバイスから任意選択的に取得することができる。コンテクスト情報は、ユーザ入力に関連するユーザ固有のデータ、語彙、及び/又はプリファレンスを含むことができる。いくつかの実施例では、コンテクスト情報はまた、ユーザ要求が受信された時点における電子デバイスのソフトウェア及びハードウェア状態、並びに/又はユーザ要求が受信された時点におけるユーザの周囲環境に関する情報も含む。いくつかの実施例では、I/O処理モジュール428はまた、ユーザ要求について、ユーザに補足質問を送り、ユーザから回答を受信することができる。ユーザ要求がI/O処理モジュール428によって受信され、ユーザ要求が発語入力を含むことができる場合には、I/O処理モジュール428は発語入力を発語テキスト化変換のためにSTT処理モジュール430(又は発語認識装置)へ転送することができる。
STT処理モジュール430は1つ以上のASRシステム(例えば、ASRシステム431)を含むことができる。1つ以上のASRシステムは、I/O処理モジュール428を通じて受信された発語入力を処理し、認識結果を生成することができる。各ASRシステムはフロントエンド発語プリプロセッサを含むことができる。フロントエンド発語プリプロセッサは発語入力から代表特徴を抽出することができる。例えば、フロントエンド発語プリプロセッサは発語入力に対してフーリエ変換を実行し、発語入力を一連の代表多次元ベクトルとして特徴付けるスペクトル特徴を抽出することができる。更に、各ASRシステムは1つ以上の発語認識モデル(例えば、音響モデル及び/又は言語モデル)を含むことができ、1つ以上の発語認識エンジンを実装することができる。発語認識モデルの例としては、隠れマルコフモデル、混合ガウスモデル、ディープニューラルネットワークモデル、nグラム言語モデル、及びその他の統計的モデルを挙げることができる。発語認識エンジンの例としては、動的タイムワーピングベースのエンジン、及び重み付き有限状態トランスデューサ(weighted finite-state transducer、WFST)ベースのエンジンを挙げることができる。1つ以上の発語認識モデル及び1つ以上の発語認識エンジンを用いて、フロントエンド発語プリプロセッサの抽出された代表特徴を処理し、中間認識結果(例えば、音素、音素文字列、及び部分語)、並びに最終的に、テキスト認識結果(例えば、単語、単語文字列、若しくはトークンの列)を生成することができる。いくつかの実施例では、発語入力は、認識結果を生成するために、サードパーティサービスによって、又は電子デバイス(例えば、デバイス104若しくは122)上で少なくとも部分的に処理することができる。STT処理モジュール430が、テキスト文字列(例えば、単語、単語の列、又はトークンの列)を包含する認識結果を生成すると、認識結果は意図推論のために自然言語処理モジュール432に渡されることができる。
いくつかの実施例では、1つ以上のASRシステムの1つ以上の言語モデルは、メディアに関連した結果へ偏向させられるように構成することができる。一実施例では、1つ以上の言語モデルは、メディア関連テキストのコーパスを用いて訓練することができる。別の実施例では、ASRシステムは、メディアに関連した認識結果を優先するように構成することができる。いくつかの実施例では、1つ以上のASRシステムは静的言語モデル及び動的言語モデルを含むことができる。静的言語モデルは、テキストの一般コーパスを用いて訓練することができ、その一方で、動的言語モデルは、ユーザ固有のテキストを用いて訓練することができる。例えば、ユーザから受信された以前の発語入力に対応するテキストを、動的言語モデルを生成するために用いることができる。いくつかの実施例では、1つ以上のASRシステムは、静的言語モデル及び/又は動的言語モデルに基づく認識結果を生成するように構成することができる。更に、いくつかの実施例では、1つ以上のASRシステムは、より最近に受信された以前の発語入力に対応する認識結果を優先するように構成することができる。
発語テキスト化処理についての更なる詳細が、2011年9月20日に出願された、「Consolidating Speech Recognition Results」についての米国実用特許出願第13/236,942号に記載されている。同出願の開示全体は本明細書において参照により組み込まれている。
いくつかの実施例では、STT処理モジュール430は、音声記号変換モジュール431を介して、認識可能な単語の語彙を含み、及び/又はそれにアクセスすることができる。各語彙単語は、発語認識音声記号で表現された単語の1つ以上の候補発音に関連付けられていることができる。特に、認識可能な単語の語彙は、複数の候補発音に関連付けられた単語を含むことができる。例えば、語彙は、
の候補発音に関連付けられた単語「tomato」を含んでもよい。更に、語彙単語は、ユーザからの以前の発語入力に基づくカスタム候補発音に関連付けられていることができる。このようなカスタム候補発音はSTT処理モジュール430内に記憶されることができ、特定のユーザに、デバイス上のそのユーザのプロファイルを介して関連付けられていることができる。いくつかの実施例では、単語のための候補発音は、単語の綴り、並びに1つ以上の言語規則及び/若しくは音声規則に基づいて決定することができる。いくつかの実施例では、候補発音は、例えば、既知の標準的発音に基づいて、手動で生成することができる。
いくつかの実施例では、候補発音は候補発音の一般性に基づいて順位付けすることができる。例えば、候補発音
よりも高く順位付けすることができる。なぜなら、前者は、(例えば、全ユーザの間で、特定の地理的領域内のユーザについて、又はユーザの任意の他の適当なサブセットについて)より一般的に用いられている発音であるからである。いくつかの実施例では、候補発音は、候補発音が、ユーザに関連付けられたカスタム候補発音であるかどうかに基づいて順位付けすることができる。例えば、カスタム候補発音は標準的な候補発音よりも高く順位付けすることができる。これは、標準的な発音から逸脱した特有の発音を有する固有名詞を認識するために有用になり得る。いくつかの実施例では、候補発音は、出身地、国籍、又は民族などの、1つ以上の発語特性に関連付けられていることができる。例えば、候補発音
は米国に関連付けられていることができ、それに対して、候補発音
は英国に関連付けられていることができる。更に、候補発音の順位は、デバイス上のユーザのプロファイル内に記憶されているユーザの1つ以上の特性(例えば、出身地、国籍、民族など)に基づくことができる。例えば、ユーザのプロファイルから、ユーザは米国に関連付けられていると判定することができる。ユーザが米国に関連付けられていることに基づき、候補発音
(米国に関連付けられている)を候補発音
(英国に関連付けられている)よりも高く順位付けすることができる。いくつかの実施例では、順位付けされた候補発音のうちの1つを、予測される発音(例えば、最も可能性の高い発音)として選択することができる。
発語入力が受信されると、STT処理モジュール430は、発語入力に対応する音素を(例えば、音響モデルを用いて)決定するために用いられることができ、次に、音素に一致する単語を(例えば、言語モデルを用いて)決定することを試みることができる。例えば、STT処理モジュール430がまず、発語入力の一部分に対応する音素列
を特定することができた場合には、次に、それは、語彙索引444に基づいて、この列は単語「tomato」に対応すると決定することができる。
いくつかの実施例では、STT処理モジュール430は、発言内の単語を決定するために近似照合技法を用いることができる。それゆえ、例えば、STT処理モジュール430は、たとえ、その特定の音素列がその単語のための候補音素列のうちの1つでなくても、音素列
は単語「tomato」に対応すると決定することができる。
デジタルアシスタントの自然言語処理モジュール432(「自然言語プロセッサ」)は、STT処理モジュール430によって生成された単語又はトークンの列(「トークン列」)を獲得し、トークン列を、デジタルアシスタントによって認識される1つ以上の「実施可能な意図」に関連付けようと試みることができる。「実施可能な意図」は、デジタルアシスタントによって実行されることができ、タスクフローモデル454内に実装される関連付けられたタスクフローを有することができるタスクを表すことができる。関連付けられたタスクフローは、タスクを実行するためにデジタルアシスタントが取る一連のプログラムされたアクション及びステップであることができる。デジタルアシスタントの能力の範囲は、タスクフローモデル454内に実装され、記憶されているタスクフローの数及び種類に依存し、又は、換言すれば、デジタルアシスタントが認識する「実施可能な意図」の数及び種類に依存することができる。しかし、デジタルアシスタントの有効性はまた、自然言語で表現されたユーザ要求から正確な「実施可能な意図(単数又は複数)」を推測するアシスタントの能力にも依存し得る。
いくつかの実施例では、STT処理モジュール430から取得される単語又はトークンの列に加えて、自然言語処理モジュール432はまた、ユーザ要求に関連付けられるコンテクスト情報も、例えば、I/O処理モジュール428から、受信することができる。自然言語処理モジュール432は、STT処理モジュール430から受信したトークン列内に包含されている情報を明らかにし、補完し、及び/又は更に明確にするために、コンテクスト情報を任意選択的に用いることができる。コンテクスト情報は、例えば、ユーザプリファレンス、ユーザデバイスのハードウェア及び/又はソフトウェア状態、ユーザ要求の前、最中、若しくは直後に収集されたセンサ情報、デジタルアシスタントとユーザとの間の以前の対話(例えば、ダイアログ)、並びに同様のものを含むことができる。本明細書で説明されるように、コンテクスト情報は動的であることができ、時間、ロケーション、ダイアログの内容及び他の因子によって変化し得る。
いくつかの実施例では、自然言語処理は、例えば、オントロジ460に基づくことができる。オントロジ460は、多数のノードを包含する階層構造であり、各ノードは、「実施可能な意図」又はその他の「属性」のうちの1つ以上に関連する「実施可能な意図」又は「属性」のいずれかを表すことができる。上述したように、「実施可能な意図」は、デジタルアシスタントが実行する能力を有するタスクを表すことができる。即ち、それは「実施可能」であるか又は実施の対象とすることができる。「属性」は、実施可能な意図、又は別の属性の下位態様に関連付けられるパラメータを表すことができる。オントロジ460内の実施可能な意図ノードと属性ノードとの間のリンクは、属性ノードによって表されるパラメータが、実施可能な意図ノードによって表されるタスクにどのように関係するのかを定義することができる。
いくつかの実施例では、オントロジ460は実施可能な意図ノード及び属性ノードで構成されることができる。オントロジ460内において、それぞれの実施可能な意図ノードは1つ以上の属性ノードに直接又は1つ以上の中間属性ノードを介してリンクされていることができる。同様に、それぞれの属性ノードは、1つ以上の実施可能な意図ノードに直接又は1つ以上の中間属性ノードを介してリンクされていることができる。例えば、図4Cに示されるように、オントロジ460は「メディア」ノード(即ち、実施可能な意図ノード)を含むことができる。属性ノード「俳優(単数又は複数)」、「メディアジャンル」、及び「メディアタイトル」は各々、実施可能な意図ノード(即ち、「メディア検索」ノード)に直接リンクされていることができる。加えて、属性ノード「名前」、「年齢」、「ウルマー・スケール・ランキング」、及び「国籍」は属性ノード「俳優」の下位ノードであることができる。
別の実施例では、図4Cに示されるように、オントロジ460はまた、「天気」ノード(即ち、別の実施可能な意図ノード)を含むことができる。属性ノード「日付/時間」及び「ロケーション」は各々、「天気検索」ノードにリンクされていることができる。いくつかの実施例では、1つ以上の属性ノードは2つ以上の実施可能な意図に関連することができることを認識されたい。これらの実施例では、1つ以上の属性ノードは、オントロジ460内の2つ以上の実施可能な意図に対応するそれぞれのノードにリンクされていることができる。
実施可能な意図ノードは、そのリンクされた概念ノードとともに、「ドメイン」として記述することができる。本説明では、各ドメインは、それぞれの実施可能な意図に関連付けられていることができ、特定の実施可能な意図に関連付けられたノードのグループ(及びノード間の関係)を指すことができる。例えば、図4Cに示されるオントロジ460は、オントロジ460内のメディアドメイン462の例及び天気ドメイン464の例を含むことができる。メディアドメイン462は、実施可能な意図ノード「メディア検索」、並びに属性ノード「俳優(単数又は複数)」、「メディアジャンル」、並びに「メディアタイトル」を含むことができる。天気ドメイン464は、実施可能な意図ノード「天気検索」、並びに属性ノード「ロケーション」及び「日付/時間」を含むことができる。いくつかの実施例では、オントロジ460は多くのドメインで構成されることができる。各ドメインは、1つ以上の他のドメインと、1つ以上の属性ノードを共有することができる。
図4Cはオントロジ460内の2つの例示的なドメインを示しているが、他のドメインは、例えば、「運動選手」、「株価」、「道案内」、「メディア設定」、「スポーツチーム」、及び「時間」、「ジョークを言う」などを含むことができる。「運動選手」ドメインは「運動選手情報の検索」の実施可能な意図ノードに関連付けられることができ、「運動選手の名前」、「運動選手のチーム」、及び「運動選手の統計情報」などの属性ノードを更に含んでもよい。
いくつかの実施例では、オントロジ460は、デジタルアシスタントが理解し、作用する能力を有する全てのドメイン(及びしたがって実施可能な意図)を含むことができる。いくつかの実施例では、オントロジ460は、ドメイン若しくはノード全体を追加若しくは除去すること、又はオントロジ460内のノード間の関係を変更することなどによって、変更することができる。
いくつかの実施例では、オントロジ460内の各ノードは、そのノードによって表される属性又は実施可能な意図に関連する単語及び/又はフレーズのセットに関連付けられていることができる。各ノードに関連付けられた単語及び/又はフレーズのそれぞれのセットは、そのノードに関連付けられたいわゆる「語彙」であることができる。各ノードに関連付けられる単語及び/又はフレーズのそれぞれのセットは、ノードによって表される属性又は実施可能な意図に関連して語彙索引444内に記憶することができる。例えば、図4Cに戻ると、「俳優」の属性についてのノードに関連付けられた語彙は、「Aリスト」、「Reese Witherspoon」、「Arnold Schwarzenegger」、「Brad Pitt」等などの単語を含むことができる。別の例として、「天気検索」の実施可能な意図のためのノードに関連付けられた語彙は、「天気」、「〜はどんな様子ですか(what's it like in)」、「予報」等などの単語及びフレーズを含むことができる。語彙索引444は異なる言語の単語及びフレーズを任意選択的に含むことができる。
自然言語処理モジュール432は、STT処理モジュール430からトークン列(例えば、テキスト文字列)を受信し、どのノードがトークン列内の単語によって暗示されているのかを判定することができる。いくつかの実施例では、トークン列内の単語又はフレーズが(語彙索引444を介して)オントロジ460内の1つ以上のノードに関連付けられることが分かれば、その単語又はフレーズはそれらのノードを「トリガする」又は「アクティブにする」ことができる。アクティブにされたノードの量及び/又は相対的重要度に基づき、自然言語処理モジュール432は、実施可能な意図のうちの1つを、ユーザがデジタルアシスタントに実行させようと意図したタスクとして選択することができる。いくつかの実施例では、最も多く「トリガされた」ノードを有するドメインを選択することができる。いくつかの実施例では、最も高い信頼値を有するドメイン(例えば、その様々なトリガされたノードの相対的重要度に基づく)を選択することができる。いくつかの実施例では、ドメインは、トリガされたノードの数及び重要度の組み合わせに基づき選択することができる。いくつかの実施例では、ノードを選択する際には、デジタルアシスタントがユーザからの同様の要求を以前に正確に解釈したかどうか等の追加の因子も考慮される。
ユーザデータ448は、ユーザ固有語彙、ユーザプリファレンス、ユーザアドレス、ユーザの既定言語及び第二言語、ユーザの連絡先リスト、並びに各ユーザに関するその他の短期的若しくは長期的情報等の、ユーザ固有の情報を含むことができる。いくつかの実施例では、自然言語処理モジュール432は、ユーザ入力内に包含されている情報を補完してユーザ意図を更に明確にするために、ユーザ固有の情報を用いることができる。例えば、ユーザ要求「今週の天気はいかがですか」のために、自然言語処理モジュール432は、ユーザに、このような情報を自分の要求内で明示的に提供するように要請する代わりに、ユーザがどこに位置しているのかを判定するためにユーザデータ448にアクセスすることができる。
トークン文字列に基づくオントロジ検索のその他の詳細が、2008年12月22日出願の「Method and Apparatus for Searching Using an Active Ontology」に対する米国実用特許出願第12/341,743号に記載されている。同出願の開示全体は本明細書において参照により組み込まれている。
いくつかの実施例では、自然言語処理モジュール432が、ユーザ要求に基づき、実施可能な意図(又はドメイン)を特定すると、自然言語処理モジュール432は、特定された実施可能な意図を表すように、構造化されたクエリを生成することができる。いくつかの実施例では、構造化されたクエリは、実施可能な意図のためのドメイン内の1つ以上のノードのためのパラメータを含むことができ、パラメータの少なくとも一部には、ユーザ要求内で指定された特定の情報及び要求事項が入力される。例えば、ユーザは、「このTVシリーズの他のシーズンを見つけてください」と言ってもよい。この場合には、自然言語処理モジュール432は、ユーザ入力に基づき、実施可能な意図を「メディア検索」であると正確に特定することができる。オントロジによれば、「メディア」ドメインのための構造化されたクエリは、{メディア俳優}、{メディアジャンル}、{メディアタイトル}、及び同様のもの等のパラメータを含み得る。いくつかの実施例では、発語入力、及びSTT処理モジュール430を用いて発語入力から導き出されたテキストに基づいて、自然言語処理モジュール432は、レストラン予約ドメインのための部分的な構造化されたクエリを生成することができる。この場合、部分的な構造化されたクエリはパラメータ{メディアジャンル=「テレビシリーズ」}を含む。しかし、本例では、ユーザの発言は、ドメインに関連付けられる構造化されたクエリを完成するために十分な情報を包含していない。したがって、{メディアタイトル}等のその他の必要パラメータは、現在利用可能な情報に基づいては、構造化されたクエリ内で指定されなくてもよい。いくつかの実施例では、自然言語処理モジュール432は、構造化されたクエリのいくつかのパラメータに、受信したコンテクスト情報を入力することができる。例えば、TVシリーズ「Mad Men」がメディアデバイス上で現在再生中であることができる。このコンテクスト情報に基づいて、自然言語処理モジュール432は、構造化されたクエリ内の{メディアタイトル}パラメータに「Mad Men」を入力することができる。
いくつかの実施例では、自然言語処理モジュール432は、生成された構造化されたクエリ(任意の完成したパラメータを含む)をタスクフロー処理モジュール436(「タスクフロープロセッサ」)に渡すことができる。タスクフロー処理モジュール436は、自然言語処理モジュール432から、構造化されたクエリを受信し、必要に応じて、構造化されたクエリを完成させ、ユーザの最終的な要求を「完了する」ために必要とされるアクションを実行するように構成することができる。いくつかの実施例では、これらのタスクを完成させるために必要な種々の手順はタスクフローモデル454内で提供することができる。いくつかの実施例では、タスクフローモデル454は、ユーザから追加情報を取得するための手順、及び実施可能な意図に関連付けられるアクションを実行するためのタスクフローを含むことができる。
上述したように、構造化されたクエリを完成させるために、タスクフロー処理モジュール436は、追加情報を取得し、及び/又は潜在的に曖昧な発言の曖昧さを除去するために、ユーザとの追加のダイアログを開始することが必要になる場合がある。このような対話が必要となる場合には、タスクフロー処理モジュール436は、ユーザとのダイアログに携わるためにダイアログフロー処理モジュール434を呼び出すことができる。いくつかの実施例では、ダイアログフロー処理モジュール434は、どのように(及び/又はいつ)ユーザに追加情報を求めるべきかを決定することができ、ユーザ応答を受信し、これらを処理することができる。I/O処理モジュール428を通じてユーザに質問を提供することができ、ユーザから回答を受信することができる。いくつかの実施例では、ダイアログフロー処理モジュール434は音声及び/又は視覚出力を介してユーザにダイアログ出力を提示することができ、口頭の応答又は物理的な(例えば、クリック)応答を介してユーザから入力を受信することができる。例えば、ユーザは「パリの天気はいかがですか?」と尋ねてもよい。タスクフロー処理モジュール436が、ドメイン「天気検索」に関連付けられた構造化されたクエリのための「ロケーション」情報を決定するべくダイアログフロー処理モジュール434を呼び出すと、ダイアログフロー処理モジュール434は、「どのパリですか?」などの質問を、ユーザに渡すために生成することができる。加えて、ダイアログフロー処理モジュール434は、「パリ、テキサス」及び「パリ、フランス」に関連付けられたアフォーダンスをユーザ選択のために提示させることができる。ユーザから応答が受信されると、次に、ダイアログフロー処理モジュール434は、構造化されたクエリに、欠けている情報を入力するか、又は構造化されたクエリから欠けている情報を完成させるために、その情報をタスクフロー処理モジュール436に渡すことができる。
タスクフロー処理モジュール436が、実施可能な意図のための構造化されたクエリを完成すると、タスクフロー処理モジュール436は、実施可能な意図に関連付けられる最終的なタスクの実行に進むことができる。それに応じて、タスクフロー処理モジュール436は、構造化されたクエリ内に包含されている具体的なパラメータに応じて、タスクフローモデル454内のステップ及び命令を実行することができる。例えば、「メディア検索」の実施可能な意図のためのタスクフローモデルは、メディア検索クエリを実行し、関連性のあるメディアアイテムを取得するためのステップ及び命令を含むことができる。例えば、{メディア検索、メディアジャンル=TVシリーズ、メディアタイトル=Mad Men}などの構造化されたクエリを用いて、タスクフロー処理モジュール436は、(1)メディアデータベースを用いてメディア検索クエリを実行し、関連性のあるメディアアイテムを取得するステップ、(2)関連性及び/若しくは人気に従って、取得されたメディアアイテムを順位付けするステップ、並びに(3)関連性及び/若しくは人気に従って並べ替えられたメディアアイテムを表示するステップを実行することができる。
いくつかの実施例では、タスクフロー処理モジュール436は、ユーザ入力内で要求されたタスクを完了するため、又はユーザ入力内で要求された情報の回答を提供するために、サービス処理モジュール438(「サービス処理モジュール」)の補助を用いることができる。例えば、サービス処理モジュール438は、メディア検索を実行するため、天気情報を引き出すため、他のユーザデバイス上にインストールされているアプリケーションを呼び出すか若しくはそれらと対話するため、並びにサードパーティサービス(例えば、ソーシャルネットワーキングウェブサイト、メディアレビューウェブサイト、メディア購読サービスなど)を呼び出すか若しくはそれらと対話するために、タスクフロー処理モジュール436の代わりに動作することができる。いくつかの実施例では、各サービスによって必要とされるプロトコル及びAPIは、サービスモデル456の中のそれぞれのサービスモデルによって指定され得る。サービス処理モジュール438は、サービスのための適当なサービスモデルにアクセスし、サービスモデルに係るサービスによって必要とされるプロトコル及びAPIに従ってサービスの要求を生成することができる。
例えば、サードパーティメディア検索サービスが、メディア検索を実行するために必要なパラメータを指定するサービスモデル、及び必要なパラメータの値をメディア検索サービスへ伝達するためのAPIを提出することができる。タスクフロー処理モジュール436によって要求されると、サービス処理モジュール438は、メディア検索サービスとのネットワーク接続を確立し、メディア検索の必要なパラメータ(例えば、メディア俳優、メディアジャンル、メディアタイトル)を、メディア検索サービスのAPIに応じたフォーマットでオンライン予約インターフェースへ送信することができる。
いくつかの実施例では、ユーザの意図を推測して明確にし、ユーザ意図を更に明らかにして絞り込むための情報を取得し、ユーザの意図を達成するべく応答(例えば、ユーザへの出力又はタスクの完了)を最終的に生成するために、自然言語処理モジュール432、ダイアログフロー処理モジュール434、及びタスクフロー処理モジュール436を集合的かつ反復的に用いることができる。生成された応答は、ユーザの意図を少なくとも部分的に達成する発語入力に対するダイアログ応答であることができる。更に、いくつかの実施例では、生成された応答を発語出力として出力することができる。これらの実施例では、生成された応答を発語合成モジュール440(例えば、発語合成器)へ送信することができ、そこで、それを、発語形式のダイアログ応答を合成するために処理することができる。更に他の実施例では、生成された応答は、発語入力内のユーザ要求を満足することに関連するデータコンテンツであることができる。
発語合成モジュール440は、ユーザへの提示のための発語出力を合成するように構成することができる。発語合成モジュール440は、デジタルアシスタントによって提供されたテキストに基づいて発語出力を合成する。例えば、生成されたダイアログ応答はテキスト文字列の形式のものであることができる。発語合成モジュール440はテキスト文字列を可聴発語出力に変換することができる。発語合成モジュール440は、テキストから発語出力を生成するために、限定するものではないが、波形接続合成、単位選択合成、ダイフォン(diphone)合成、分野限定合成、フォルマント合成、調音合成、隠れマルコフモデル(hidden Markov model、HMM)ベースの合成、及び正弦波合成を含む、任意の適当な発語合成技法を用いることができる。いくつかの実施例では、発語合成モジュール440は、単語に対応する音素文字列に基づいて個々の単語を合成するように構成することができる。例えば、音素文字列が、生成されたダイアログ応答内の単語に関連付けられていることができる。音素文字列は、単語に関連付けられたメタデータ内に記憶されていることができる。発語合成モジュール440は、単語を発語形式で合成するために、メタデータ内の音素文字列直接処理するように構成することができる。
いくつかの実施例では、発語合成モジュール440を用いる代わりに(又はそれに加えて)、遠隔デバイス(例えば、サーバシステム108)上で発語合成を実行することができ、合成された発語をユーザへの出力のためにユーザデバイスへ送信することができる。例えば、これは、デジタルアシスタントのための出力がサーバシステムにおいて生成されるいくつかの実装形態において行われ得る。また、サーバシステムは一般的にユーザデバイスよりも多くの処理能力又は資源を有するため、クライアント側合成を用いて実現可能であろうよりも高品質の発語出力を得ることが可能になり得る。
2011年1月10日に出願された、「Intelligent Automated Assistant」と題する米国実用特許出願第12/987,982号、及び2011年9月30日に出願された、「Generating and Processing Task Items That Represent Tasks to Perform」と題する米国実用特許出願第13/251,088号に、デジタルアシスタントに関する更なる詳細を見いだすことができる。これらの出願の開示の全体は本明細書において参照により組み込まれている。
4.メディア環境内においてデジタルアシスタントと対話するためのプロセス
図5A〜図5Iは、様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセス500を示す。プロセス500は、デジタルアシスタントを実装する1つ以上の電子デバイスを用いて実行することができる。例えば、プロセス500は、上述された、システム100、メディアシステム128、メディアデバイス104、ユーザデバイス122、又はデジタルアシスタントシステム400のうちの1つ以上を用いて実行することができる。図6A〜図6Qは、様々な実施例に係る、プロセス500の様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。プロセス500は、以下において図5A〜図5Iと図6A〜図6Qを同時に参照して説明される。プロセス500内のいくつかの動作は組み合わせることができ、いくつかの動作の順序は変更することができ、いくつかの動作は省略することができることを理解されたい。
プロセス500のブロック502において、表示ユニット(例えば、表示ユニット126)上にコンテンツを表示することができる。図6Aに示される本実施例では、表示されたコンテンツは、メディアデバイス(例えば、メディアデバイス104)上で再生中であるメディアコンテンツ602(例えば、映画、ビデオ、テレビ番組、ビデオゲームなど)を含むことができる。他の実施例では、表示されたコンテンツは、メディアデバイス上で実行中のアプリケーションに関連付けられたコンテンツ、又はメディアデバイスのデジタルアシスタントと対話するためのユーザインターフェースなどの、メディアデバイスに関連付けられた他のコンテンツを含むことができる。具体的には、表示されたコンテンツは、メインメニューユーザインターフェース、又はユーザによって以前に要求されたオブジェクト若しくは結果を有するユーザインターフェース(例えば、第2のユーザインターフェース618若しくは第3のユーザインターフェース626)を含むことができる。
プロセス500のブロック504において、ユーザ入力を検出することができる。ユーザ入力は、ブロック502のコンテンツが表示されている間に検出することができる。いくつかの実施例では、ユーザ入力は、メディアデバイスの遠隔制御装置(例えば、遠隔制御装置124)上で検出することができる。具体的には、ユーザ入力は、遠隔制御装置のボタン(例えば、ボタン274)の押下又はタッチ感知面(例えば、タッチ感知面278)の接触などの、遠隔制御装置とのユーザ対話であることができる。いくつかの実施例では、ユーザ入力は、メディアデバイスと対話するように構成されている第2の電子デバイス(例えば、デバイス122)を介して検出することができる。ユーザ入力を検出したことに応じて、ブロック506〜592のうちの1つ以上を実行することができる。
プロセス500のブロック506において、ユーザ入力が第1の入力形式に対応するかどうかに関する判定を行うことができる。第1の入力形式はメディアデバイスへの既定の入力であることができる。一例では、第1の入力形式は、遠隔制御装置の特定のボタンを押下し、ボタンを、ボタンを押下してから所定の期間以内に放すこと(例えば、短押し)を含むことができる。メディアデバイスは、ユーザ入力が第1の入力形式に一致するかどうかを判定することができる。ユーザ入力が第1の入力形式に対応するとの判定に従って、ブロック508〜514のうちの1つ以上を実行することができる。
プロセス500のブロック508において、及び図6Bを参照すると、デジタルアシスタントを呼び出し、それと対話するためのテキストによる教示604を表示することができる。具体的には、教示604は、デジタルアシスタントを呼び出し、それと対話するために必要なユーザ入力を説明することができる。例えば、教示604は、ブロック516において後述される第2の入力形式をどのように実行するのかを説明することができる。
プロセス500のブロック510において、及び図6Bに示されるように、表示ユニット上に受動的視覚的インジケータ606を表示することができる。受動的視覚的インジケータ606は、デジタルアシスタントがまだ呼び出されていないことを指示することができる。具体的には、ユーザ入力を検出したことに応じて、メディアデバイスのマイクロフォン(例えば、マイクロフォン272)がアクティブ化されなくてもよい。それゆえ、受動的視覚的インジケータ606は、デジタルアシスタントが音声入力を処理していないことの視覚的信号の役割を果たすことができる。本例では、視覚的インジケータ606は、ユーザの発語に応答しない受動的な平坦な波形であることができる。更に、受動的視覚的インジケータ606は、その受動的ステータスを指示するための無彩色(例えば、黒色、灰色など)を含むことができる。受動的視覚的インジケータのために他の視覚的パターン又は画像を企図することもできることを認識されたい。受動的視覚的インジケータ606は教示604と同時に表示することができる。更に、受動的視覚的インジケータ606は、ブロック512〜514のうちの1つ以上を実行している間に継続的に表示することができる。
プロセス500のブロック512において、及び図6Cを参照すると、表示ユニット上に打ち込み検索を実行するための教示608を表示することができる。具体的には、教示608は、打ち込み検索を実行するために用いることができる仮想キーボードインターフェースを表示するために必要なユーザ入力を説明することができる。いくつかの実施例では、デジタルアシスタントを呼び出し、それと対話するための教示604、及び打ち込み検索を実行するための教示608を順に異なる時間において表示することができる。例えば、教示608の表示が教示604の表示に取って代わってもてもよいか、又はその逆であってもよい。本例では、教示604、608はテキスト形式のものである。他の実施例では、教示604、608はグラフィカル形式のもの(例えば、絵、記号、アニメーションなど)であることができることを認識されたい。
プロセス500のブロック514において、表示ユニット上に1つ以上の例示的な自然言語要求を表示することができる。例えば、図6D〜図6Eは、表示ユニット上に表示された2つの異なる例示的な自然言語要求610、612を示す。いくつかの実施例では、例示的な自然言語要求は、表示ユニット上に第1のユーザインターフェースを介して表示することができる。第1のユーザインターフェースは、表示されたコンテンツ上に重ね合わせることができる。例示的な自然言語要求は、ユーザに、デジタルアシスタントと対話するためのガイダンスを提供することができる。更に、例示的な自然言語要求は、ユーザに、デジタルアシスタントの様々な機能を知らせることができる。例示的な自然言語要求のうちの1つに対応するユーザ発言を受信したことに応じて、デジタルアシスタントはそれぞれのアクションを実行させることができる。例えば、メディアデバイスのデジタルアシスタントが(例えば、ブロック504における第2の入力形式のユーザ入力によって)呼び出され、「30秒先へ飛んでください」というユーザ発言を(例えば、ブロック518において)提供されたことに応じて、デジタルアシスタントは、メディアデバイス上で再生中のメディアコンテンツに30秒だけ前方へ飛び越させることができる。
表示された例示的な自然言語要求は、表示されているコンテンツ(例えば、メディアコンテンツ602)にコンテクスト上関連することができる。例えば、例示的な自然言語要求のセットがメディアデバイス上、又は別個のサーバ上に記憶されていることができる。例示的な自然言語要求のセット内の各々の例示的な自然言語要求は、1つ以上のコンテクスト属性(例えば、再生中のメディアコンテンツ、ホームページ、iTunes(登録商標)メディアストア、俳優、映画、天気、スポーツ、株価など)に関連付けられていることができる。いくつかの実施例では、ブロック514は、例示的な自然言語要求のセットから、表示ユニット上に表示されたコンテンツに対応するコンテクスト属性を有する例示的な自然言語要求を特定することを含むことができる。次に、表示ユニット上に、特定された例示的な自然言語要求を表示することができる。それゆえ、表示ユニット上に表示されたコンテンツによって異なる例示的な自然言語要求が表示され得る。コンテクスト上関連する例示的な自然言語要求を表示することは、ユーザに、メディアデバイス上のユーザの現在の使用状況に最も関連性のあるデジタルアシスタントの機能を都合良く知らせる助けとなることができる。これは全体的なユーザエクスペリエンスを改善することができる。
図6D〜図6Eに示される本実施例では、例示的な自然言語要求610、612は各々、表示ユニット上のメディアコンテンツ602にコンテクスト上関連することができる。具体的には、例示的な自然言語要求610、612は、メディアデバイス上で再生中のメディアコンテンツに関連付けられた1つ以上の設定を変更又は制御することの要求であることができる。このような例示的な自然言語要求は、クローズドキャプションをオン/オフにすること、特定の言語による字幕をオンにすること、巻き戻すこと/先へ飛ぶこと、メディアコンテンツの再生を一時停止すること、メディアコンテンツの再生を再スタートすること、メディアコンテンツの再生速度を下げること若しくは上げること、メディアコンテンツの音量(例えば、音声ゲイン)を上げること/下げること、並びに同様のことの要求を含むことができる。更に、メディアコンテンツ602にコンテクスト上関連する他の例示的な自然言語要求は、メディアコンテンツ602に対応するメディアアイテムをユーザのウォッチリストに追加すること、メディアコンテンツ602に関連する情報(例えば、俳優情報、あらすじ、公開日など)を示すこと、メディアコンテンツ602に関連する他のメディアアイテム若しくはコンテンツ(例えば、同じシリーズ、同じシーズン、同じ俳優/監督、同じジャンルなど)を示すこと、並びに同様のことの要求を含むことができる。
表示されたコンテンツが、メディアデバイスのアプリケーションに関連付けられたコンテンツを含む実施例では、コンテクスト上関連する例示的な自然言語要求は、アプリケーションの1つ以上の設定又は状態を変更せよとの要求を含むことができる。具体的には、例示的な自然言語要求は、アプリケーションを開け、若しくは閉じよ、又はアプリケーションの1つ以上の機能を操作せよとの要求を含むことができる。
いくつかの実施例では、表示されたコンテンツは、アイテムを検索、ブラウズ、又は選択するためのユーザインターフェース(例えば、第2のユーザインターフェース618又は第3のユーザインターフェース626)を含むことができる。具体的には、表示されたユーザインターフェースは1つ以上のメディアアイテムを含むことができる。更に、ユーザインターフェースのフォーカスは1つ以上のメディアアイテムのうちのメディアアイテム(例えば、図6Gにおけるカーソル624によって目立たせたメディアアイテム623)上にあることができる。これらの実施例では、コンテクスト上関連する例示的な自然言語要求は、表示されたユーザインターフェース内の1つ以上のメディアアイテムに関係する情報又は他のメディアアイテムの要求を含むことができる。具体的には、例示的な自然言語要求は、ユーザインターフェースのフォーカスになっているメディアアイテムに関連する要求を含むことができる。これらの実施例では、例示的な自然言語要求は、「これはどういうものですか?」、「これの格付けはどうですか?」、「これには誰が出演していますか?」、「次のエピソードはいつ出ますか?」、「これに似た映画をもっと教えてください。」、及び「同じ俳優が主演する映画を教えてください。」などの要求を含むことができる。特定の実施例では、ユーザインターフェースを介して、テレビシリーズMad Menなどの、メディアアイテム又は一連のメディアアイテムに関連する情報を表示することができる。本実施例では、コンテクスト上関連する例示的な自然言語要求は、メディアアイテム又は一連のメディアアイテムの1つ以上の属性(例えば、出演者、筋、格付け、公開日、監督、プロバイダなど)に基づく要求(例えば、「January Jonesが出ている他の番組。」)を含むことができる。加えて、コンテクスト上関連する例示的な自然言語要求は、フォーカスされたメディアアイテム、若しくはユーザインターフェース内に表示された別のメディアアイテムを再生、選択、若しくは入手するための要求(例えば、「これを借りてください。」、「これを再生してください。」、「これを買ってください。」、若しくは「How to Train Your Dragon 2を再生してください。」)、又はユーザインターフェース内のメディアアイテムの間をナビゲートするための要求(例えば、「コメディーへ行ってください。」若しくは「ホラー映画へ跳んでください。」)を含むことができる。更に、これらの実施例では、コンテクスト上関連する例示的な自然言語要求は、他のメディアアイテムを検索するための要求(例えば、「新しいコメディーを見つけてください。」、「無料の名作映画を教えてください。」、又は「Nicole Kidman主演のいくつかの番組は何ですか?」)を含むことができる。
いくつかの実施例では、表示されたコンテンツは、特定のカテゴリ又はトピックに従って整理されたメディアアイテムを含むことができる。これらの実施例では、コンテクスト上関連する例示的な自然言語要求は、その特定のカテゴリ又はトピックに関連する要求を含むことができる。例えば、表示されたコンテンツが、様々な俳優に従って整理されたメディアアイテムを含む実施例では、コンテクスト上関連する例示的な自然言語要求は、俳優に関連する情報又はメディアアイテムの要求(例えば、「Jennifer Lawrence主演の映画は何ですか?」、「Scarlett Johanssonは何歳ですか?」、又は「Brad Pittの最新映画は何ですか?」)を含むことができる。表示されたコンテンツが、番組チャンネル又はコンテンツプロバイダに従って整理されたメディアアイテム(例えば、チャンネルページ又はTVガイドページ)を含む別の実施例では、コンテクスト上関連する例示的な自然言語要求は、番組チャンネル又はコンテンツプロバイダに関連する情報又はメディアアイテムの要求(例えば、「1時間後に放送する番組は何ですか?」、「ゴールデンアワーにHBOでやるのは何ですか?」、「ABCに合わせてください。」、又は「バスケットボールはどのチャンネルで放送していますか?」)を含むことができる。表示されたコンテンツが、ユーザによって最近選択されたメディアアイテム(例えば、「最近再生したもの」リスト)、又はユーザの興味を引くものとして特定されたメディアアイテム(例えば、「ウォッチリスト」)を含む更に別の実施例では、コンテクスト上関連する例示的な自然言語要求は、メディアアイテムのうちの1つを視聴するか、又は引き続き視聴するための要求(例えば、「中断したところから再開してください。」、「Birdmanを引き続き見ます。」、又は「これをもう一度最初から再生してください。」)を含むことができる。
いくつかの実施例では、表示されたコンテンツは、特定のトピックに対応する結果又は情報を包含するユーザインターフェースを含むことができる。具体的には、結果は、以前のユーザ要求(例えば、デジタルアシスタントへの要求)に関連付けられていることができ、天気、株価、又はスポーツなどのトピックに対応する情報を含むことができる。これらの実施例では、コンテクスト上関連する例示的な自然言語要求は、結果を絞り込めとの要求、又は特定のトピックに関係する追加情報の要求を含むことができる。例えば、表示されたコンテンツが、特定のロケーションのための天気情報を含む実施例では、コンテクスト上関連する例示的な自然言語要求は、別のロケーションのため、又は異なる時間帯のための追加の天気情報を表示せよとの要求(例えば、「ニューヨーク市ではどうですか?」、「来週はどうなりそうですか?、「それからハワイについては?」など)を含むことができる。表示されたコンテンツが、スポーツチーム又は運動選手に関連する情報を含む別の実施例では、コンテクスト上関連する例示的な自然言語要求は、スポーツチーム又は運動選手に関連する追加情報を提供せよとの要求(例えば、「Shaquille O'Nealの身長はどのぐらいですか?」、「Tom Bradyが生まれたのはいつですか?」、「49ersの次の試合はいつですか?」、「Manchester Unitedはこの間の試合ではどうでしたか?」、「LA Lakersのポイントガードを務めているのは誰ですか?」など)を含むことができる。表示されたコンテンツが、株価に関連する情報を含む更に別の実施例では、コンテクスト上関連する例示的な自然言語要求は、追加の株価関連情報の要求(例えば、「S&P 500の始値はいくらですか?」、「Appleはどんな調子ですか?」、「昨日のダウ・ジョーンズの終値はいくらでしたか?」など)を含むことができる。更に、いくつかの実施例では、表示されたコンテンツは、以前のユーザ要求に関連付けられたメディア検索結果を包含するユーザインターフェースを含むことができる。これらの実施例では、コンテクスト上関連する例示的な自然言語要求は、表示されたメディア検索結果を絞り込むことの要求(例えば、「去年のものだけ」、「格付けGのもののみ」、「無料のものだけ」など)、又は異なるメディア検索を実行することの要求(例えば、「いいアクション映画を見つけてください」、「Jackie Chanの映画をいくつか教えてください」など)を含むことができる。
いくつかの実施例では、表示されたコンテンツは、メディアデバイスのメインメニューユーザインターフェースを含むことができる。メインメニューユーザインターフェースは、例えば、メディアデバイスのホーム画面又はルートディレクトリであることができる。これらの実施例では、コンテクスト上関連する例示的な自然言語要求は、デジタルアシスタントの様々な機能を表現する要求を含むことができる。具体的には、デジタルアシスタントは、メディアデバイスに関連付けられた中核能力のセットを有することができ、コンテクスト上関連する例示的な自然言語要求は、デジタルアシスタントの中核能力の各々に関連する要求(例えば、「無料のいい映画を教えてください」、「天気はどうですか」、「Breaking Badの次のエピソードを再生してください」、又は「Appleの株価はいくらですか?」)を含むことができる。
例示的な自然言語要求は自然言語形式のものであることができる。これは、ユーザに、デジタルアシスタントが自然言語要求を理解する能力を有することを知らせる助けとなることができる。更に、いくつかの実施例では、ユーザに、デジタルアシスタントが、表示されたコンテンツに基づいてユーザの要求に関連付けられた正しいユーザ意図を推測する能力を有することを知らせるために、例示的な自然言語要求はコンテクスト的に曖昧であることができる。具体的には、上述された実施例において示されるように、例示的な自然言語要求は、「これ(this)」若しくは「もの(ones)」などのコンテクスト的に曖昧な用語、又は「無料ものだけ。」若しくは「ニューヨークではどうですか?」などのコンテクスト的に曖昧なフレーズを含むことができる。これらの例示的な自然言語要求は、ユーザに、デジタルアシスタントが、表示されたコンテンツに基づいてこのような要求に関連付けられた正しいコンテクストを決定する能力を有することを知らせることができる。これはユーザに、デジタルアシスタントと対話する際に、表示されたコンテンツのコンテクストを頼りにするように促す。これは、デジタルアシスタントとのより自然な対話エクスペリエンスを促進するために望ましくなり得る。
いくつかの実施例では、ブロック508〜512の後にブロック514を実行することができる。具体的には、例示的な自然言語要求は、ブロック506においてユーザ入力が第1の入力形式に対応すると判定してから所定の時間を置いて、表示ユニット上に表示することができる。いくつかの実施例では、ブロック508〜514は任意の順序で実行することができること、及びいくつかの実施例では、ブロック508〜514のうちの2つ以上は同時に実行することができることを認識されたい。
いくつかの実施例では、例示的な自然言語要求は所定の順序で交代で表示される。各々の例示的な自然言語要求は異なる時間に別個に表示することができる。具体的には、現在の例示的な自然言語要求の表示を後続の例示的な自然言語要求の表示と置換することができる。例えば、図6Dに示されるように、例示的な自然言語要求610を最初に表示することができる。所定の時間の後、例示的な自然言語要求610(「30秒先へ飛んでください」)の表示を、図6Eに示されるように、例示的な自然言語要求612(「次のエピソードを再生してください」)の表示と置換することができる。それゆえ、本実施例では、例示的な自然言語要求610及び例示的な自然言語要求612は、同時にではなく、1つずつ表示される。
いくつかの実施例では、例示的な自然言語要求を、各リストが1つ以上の例示的な自然言語要求を含む複数のリストにグループ化することができる。これらの実施例では、ブロック514は、表示ユニット上に例示的な自然言語要求のリストを表示することを含むことができる。各リストは所定の順序で異なる時間に表示させることができる。更に、リストは交代で表示させることができる。
ブロック508〜514のうちの1つ以上を実行している間に、表示されたコンテンツは表示ユニット上に表示され続けることができる。例えば、図6B〜図6Eに示されるように、メディアコンテンツ602は、ブロック508〜512が実行されている間に、メディアデバイス上で再生され、表示ユニット上に表示され続けることができる。更に、メディアコンテンツを再生している間に、メディアコンテンツに関連付けられた音声がメディアデバイスによって出力されることができる。いくつかの実施例では、ユーザ入力を検出したことに応じて、又はユーザ入力が第1の入力形式に対応するとの判定に従って、音声の振幅は低減させられない。これは、再生されているメディアコンテンツ602の消費の中断を低減するために望ましくなり得る。それゆえ、ユーザは、要素604〜612が表示ユニット上に表示されているにもかかわらず、音声出力を介してメディアコンテンツ602を追い続けることができる。
いくつかの実施例では、図6B〜図6Dにおけるメディアコンテンツ602の中抜きのフォントによって表現されているように、ユーザ入力を検出したことに応じて、又はユーザ入力が第1の入力形式に対応するとの判定に従って、表示されたコンテンツの明るさを(例えば、20〜40%だけ)低減させることができる。これらの実施例では、表示された要素604〜612を、表示されたメディアコンテンツ602上に重ね合わせることができる。明るさを低減させることは、表示された要素604〜612を目立たせる助けとなることができる。同時に、メディアコンテンツ602は依然として表示ユニット上で認識することができ、これにより、要素604〜612が表示されている間にユーザがメディアコンテンツ602を消費し続けることが可能になる。
ブロック508〜512のうちの1つを実行している間に、(例えば、ブロック504において第2の入力形式のユーザ入力を検出することによって)デジタルアシスタントを呼び出すことができ、例示的な自然言語要求のうちの1つに対応するユーザ発言を(例えば、ブロック518において)受信することができる。次に、デジタルアシスタントは、受信された要求に応じてタスクを(例えば、ブロック532において)実行することができる。デジタルアシスタントを呼び出し、それと対話することに関する更なる詳細が、以下において図5B〜図5Iを参照して提供される。更に、ブロック508〜512のうちの1つを実行している間に、(例えば、ブロック558において第5のユーザ入力を検出することによって)打ち込み検索を実行するための仮想キーボードインターフェースを呼び出すことができる。仮想キーボードインターフェースを呼び出し、打ち込み検索を実行することに関する更なる詳細が、以下において図5Gを参照して提供される。
ブロック506を再び参照すると、ユーザ入力が第1の入力形式に対応しないとの判定に従って、図5Bのブロック516〜530のうちの1つ以上を実行することができる。ブロック516において、ユーザ入力が第2の入力形式に対応するかどうかに関する判定を行うことができる。第2の入力形式は、第1の入力形式と異なるメディアデバイスへの既定の入力であることができる。いくつかの実施例では、第2の入力形式は、メディアデバイスの遠隔制御装置上の特定のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくこと(例えば、長押し)を含むことができる。第2の入力形式は、デジタルアシスタントを呼び出すことに関連付けられていることができる。いくつかの実施例では、第1の入力形式及び第2の入力形式は、遠隔制御装置の同じボタン(例えば、デジタルアシスタントを呼び出すように構成されたボタン)を用いて実施することができる。これは、デジタルアシスタントの呼び出しと、デジタルアシスタントを呼び出し、それと対話するための教示の提供とを単一のボタンに直感的に統合するために望ましくなり得る。更に、経験の浅いユーザは、長押しよりもむしろ短押しを直感的に実行する可能性がある。それゆえ、短押しを検出したことに応じて教示を提供することで、教示を、経験豊富なユーザではなく、経験の浅いユーザに主に向けることを可能にすることができる。これは、経験豊富なユーザには教示を迂回するための選択肢を許しつつ、ガイダンスを最も必要とする経験の浅いユーザに対しては教示を容易に表示させることによって、ユーザエクスペリエンスを改善することができる。
ユーザ入力が第2の入力形式に対応するとのブロック516における判定に従って、ブロック518〜530のうちの1つ以上を実行することができる。いくつかの実施例では、メディアコンテンツ602は、ブロック518〜530のうちの1つ以上を実行している間にメディアデバイス上で再生し続けることができる。具体的には、メディアコンテンツ602は、ブロック518において音声データをサンプリングしている間、及びブロック528においてタスクを実行している間に、メディアデバイス上で再生し、表示ユニット上に表示され続けることができる。
プロセス500のブロック518において、音声データをサンプリングすることができる。具体的には、メディアデバイスの第1のマイクロフォン(例えば、マイクロフォン272)をアクティブ化し、音声データをサンプリングすることを開始することができる。いくつかの実施例では、サンプリングされた音声データはユーザからのユーザ発言を含むことができる。ユーザ発言は、デジタルアシスタントに向けられたユーザ要求を表現することができる。更に、いくつかの実施例では、ユーザ要求は、タスクを実行せよとの要求であることができる。具体的には、ユーザ要求はメディア検索要求であることができる。例えば、図6Fを参照すると、サンプリングされた音声データは、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」というユーザ発言を含むことができる。他の実施例では、ユーザ要求は、メディアアイテムを再生せよ、又は特定の情報(例えば、天気、株価、スポーツなど)を提供せよとの要求であることができる。
サンプリングされた音声データ内のユーザ発言は自然言語形式のものであることができる。いくつかの実施例では、ユーザ発言は、指定が不完全であるユーザ要求を表現することができる。この場合、ユーザ発言は、ユーザ要求を満足するために必要な全ての情報を明示的に限定しない。例えば、ユーザ発言は、「次のエピソードを再生してください」であることができる。本実施例では、ユーザ要求は、次のエピソードを再生するべきメディアシリーズを明示的に限定していない。更に、いくつかの実施例では、ユーザ発言は1つ以上の曖昧な用語を含むことができる。
音声データがサンプリングされる期間は、終点の検出に基づくことができる。具体的には、音声データは、第2の入力形式のユーザ入力が最初に検出された開始時間から、終点が検出された終了時間までサンプリングすることができる。いくつかの実施例では、終点はユーザ入力に基づくことができる。具体的には、第2の入力形式のユーザ入力(例えば、ボタンを所定の期間よりも長い間、押下すること)を最初に検出すると、第1のマイクロフォンをアクティブ化することができる。第1のマイクロフォンは、第2の入力形式のユーザ入力が検出され続けている間、音声データをサンプリングするためにアクティブ化されたままとどまることができる。第2の入力形式のユーザ入力の検出を中止すると(例えば、ボタンが放される)、第1のマイクロフォンをアクティブ解除することができる。それゆえ、これらの実施例では、ユーザ入力の終了を検出した時に終点が検出される。したがって、音声データは、第2の入力形式のユーザ入力を検出している間にサンプリングされる。
他の実施例では、終点を検出することは、サンプリングされた音声データの1つ以上の音声特性に基づくことができる。具体的には、サンプリングされた音声データの1つ以上の音声特性を監視することができ、1つ以上の音声特性が1つ以上の所定の基準を満足しないと判定してから所定の時間の後に終点を検出することができる。更に他の実施例では、終点は、固定した期間に基づいて検出することができる。具体的には、終点は、第2の入力形式のユーザ入力を最初に検出してから所定の期間の後に検出することができる。
いくつかの実施例では、ブロック504又は516が実行されている間に、表示されたコンテンツに関連付けられた音声を(例えば、スピーカ268を用いて)出力することができる。具体的には、音声は、メディアデバイス上で再生し、表示ユニット上に表示されているメディアアイテムの音声であることができる。音声は、音声信号を介してメディアデバイスから出力することができる。これらの実施例では、ユーザ入力が第2の入力形式に対応すると判定した時、及び音声データをサンプリングした時に、表示されたコンテンツに関連付けられた音声をダッキングすることができる(例えば、音声の振幅を低減させる)。例えば、音声は、音声信号に関連付けられたゲインを低減させることによってダッキングすることができる。他の実施例では、ブロック518において音声データをサンプリングしている間は、メディアコンテンツに関連付けられた音声の出力を中止することができる。例えば、音声は、音声信号を遮断又は中断することによって中止することができる。音声の出力をダッキング又は中止することは、サンプリングされた音声データ内の背景ノイズを低減し、ユーザ発言に関連付けられた発語信号の相対強度を増大させるために望ましくなり得る。更に、音声のダッキング又は中止は、ユーザがデジタルアシスタントに発語入力を提供することを開始するめの音声キューの役割を果たすことができる。
いくつかの実施例では、ノイズキャンセルを実行するために、音声データをサンプリングしている間に背景音声データをサンプリングすることができる。これらの実施例では、遠隔制御装置又はメディアデバイスは第2のマイクロフォンを含むことができる。第2のマイクロフォンは、第1のマイクロフォンと異なる向き(例えば、第1のマイクロフォンと反対向き)に指向させることができる。第2のマイクロフォンは、音声データがサンプリングされている間に背景音声データをサンプリングするためにアクティブ化することができる。いくつかの実施例では、背景音声データを用いて、音声データ内の背景ノイズを除去することができる。他の実施例では、メディアデバイスは、表示されたコンテンツに関連付けられた音声を出力するための音声信号を発生させることができる。発生された音声信号を用いて、音声データから背景ノイズを除去することができる。音声信号からの背景ノイズのノイズキャンセルを実行することは、メディア環境内におけるデジタルアシスタントとの対話のために特に好適になり得る。これは、複数の人からの発言が音声データ内に入り交じり得る、メディアコンテンツを消費することの共用性(communal nature)のゆえであり得る。音声データ内の背景ノイズを除去することによって、音声データにおけるより高い信号対ノイズ比を得ることができる。これは、音声データをユーザ要求のために処理する際に望ましくなり得る。
プロセス500のブロック520において、及び図6Fを参照すると、表示ユニット上に能動的視覚的インジケータ614を表示することができる。能動的視覚的インジケータ614は、ユーザに、デジタルアシスタントが呼び出され、能動的にリスニングしていることを指示することができる。具体的には、能動的視覚的インジケータ614は、ユーザに、デジタルアシスタントに発語入力を提供することを開始するように促すための視覚キューの役割を果たすことができる。いくつかの実施例では、能動的視覚的インジケータ614は、デジタルアシスタントが呼び出されたことを指示するための色及び/又は視覚的アニメーションを含むことができる。例えば、図6Fに示されるように、能動的視覚的インジケータ614は、デジタルアシスタントによって受信された音声データの1つ以上の特性(例えば、振幅)に応答する能動的波形を含むことができる。例えば、能動的視覚的インジケータ614は、音がより大きい音声データの部分に応じてより大きな振幅を有する波形を表示し、音がより小さい音声データの部分に応じてより小さな振幅を有する波形を表示することができる。更に、受動的視覚的インジケータ606(例えば、図6E)を表示している間にデジタルアシスタントが呼び出される実施例では、視覚的インジケータ606の表示を能動的視覚的インジケータ614の表示と置換することができる。これは、どのようにデジタルアシスタントを呼び出し、それと対話するのかを実例説明するための図6B〜図6Eに示される教示的なユーザインターフェースから、デジタルアシスタントと能動的に対話するための図6Fに示される能動的ユーザインターフェースへの自然な移行を提供することができる。
プロセス500のブロック522において、サンプリングされた音声データ内のユーザ発言のテキスト表現を決定することができる。例えば、テキスト表現は、サンプリングされた音声データに対する発語テキスト化(STT)処理を実行することによって決定することができる。具体的には、サンプリングされた音声データを、STT処理モジュール(例えば、STT処理モジュール430)を用いて処理し、サンプリングされた音声データ内のユーザ発言をテキスト表現に変換することができる。テキスト表現は、対応するテキスト文字列を表現するトークン文字列であることができる。
いくつかの実施例では、STT処理をメディア関連のテキスト結果へ偏向させることができる。偏向は、メディア関連テキストのコーパスを用いて訓練される言語モデルを利用することによって実施することができる。追加的に、又は代替的に、偏向は、メディアに関連するテキスト結果候補により大きく重み付けすることによって実施することができる。このように、偏向を行うことで、メディアに関連するテキスト結果候補を、偏向を行わない場合よりも高く順位付けすることができる。偏向は、メディア関連のユーザ発言(例えば、映画の名前、映画の俳優など)のSTT処理の精度を高めるために望ましくなり得る。例えば、「Jurassic Park」、「Arnold Schwarzenegger」、及び「Shrek」などの、特定のメディア関連の単語又はフレーズを典型的なテキストコーパス内に見いだすことはめったにできず、それゆえ、メディア関連のテキスト結果への偏向を行わなければ、STT処理の間にうまく認識されない恐れがある。
いくつかの実施例では、テキスト表現は別個のデバイス(例えば、DAサーバ106)から取得することができる。具体的には、サンプリングされた音声データを、STT処理を実行するためにメディアデバイスから別個のデバイスへ伝送することができる。これらの実施例では、メディアデバイスは、別個のデバイスに(例えば、サンプリングされた音声データとともに別個のデバイスへ伝送されたデータを介して)、サンプリングされた音声データがメディアアプリケーションに関連付けられていることを指示することができる。指示はSTT処理をメディア関連のテキスト結果へ偏向させることができる。
いくつかの実施例では、テキスト表現は、音声データをサンプリングする前にメディアデバイスによって受信された以前のユーザ発言に基づくことができる。具体的には、以前のユーザ発言の1つ以上の部分に対応する、サンプリングされた音声データのテキスト結果候補に、より大きく重み付けすることができる。いくつかの実施例では、以前のユーザ発言を用いて言語モデルを生成することができ、生成された言語モデルを用いて、サンプリングされた音声データ内の現在のユーザ発言のテキスト表現を決定することができる。言語モデルは、追加のユーザ発言が受信され、処理される際に、動的に更新されることができる。
更に、いくつかの実施例では、テキスト表現は、音声データをサンプリングする前に以前のユーザ発言が受信された時間に基づくことができる。具体的には、サンプリングされた音声データに対して、より最近に受信された以前のユーザ発言に対応するテキスト結果候補に、サンプリングされた音声データに対して、もっと前に受信された以前のユーザ発言に対応するテキスト結果候補よりも大きく重み付けすることができる。
プロセス500のブロック524において、表示ユニット上にテキスト表現を表示することができる。例えば、図6Fは、サンプリングされた音声データ内のユーザ発言に対応するテキスト表現616を示す。いくつかの実施例では、ブロック522及び524は、音声データがサンプリングされている間に実行することができる。具体的には、ユーザ発言のテキスト表現616は、音声データがサンプリングされるのに従い、及びサンプリングされた音声データに対してSTT処理が実行されるのに従い、テキスト表現616がリアルタイムで表示されるように、ストリーミング方式で表示させることができる。テキスト表現616を表示することは、ユーザに、デジタルアシスタントがユーザの要求を正しく処理していることの確認を提供することができる。
プロセス500のブロック526において、ユーザ発言に対応するユーザ意図を決定することができる。ユーザ意図は、ブロック522のテキスト表現に対して自然言語処理を実行することによって決定することができる。具体的には、自然言語処理モジュール(例えば、自然言語処理モジュール432)を用いてテキスト表現を処理し、ユーザ意図を導き出すことができる。例えば、図6Fを参照すると、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」に対応するテキスト表現616から、ユーザ意図は、ロマンチックコメディーのジャンル及びReese Witherspoonの俳優を有するメディアアイテムの検索を要求することであると決定することができる。いくつかの実施例では、ブロック526は、自然言語処理モジュールを用いて、決定されたユーザ意図を表現する構造化されたクエリを生成することを更に含むことができる。「Reese Witherspoon主演のロマンチックコメディーを見つけてください」という本実施例では、ロマンチックコメディーのジャンル及びReese Witherspoonの俳優を有するメディアアイテムのメディア検索クエリを表現する構造化されたクエリを生成することができる。
いくつかの実施例では、ユーザ意図を決定するための自然言語処理を、メディア関連のユーザ意図へ偏向させることができる。具体的には、自然言語処理モジュールは、オントロジ内のメディア関連ノードをトリガする、メディア関連の単語及びフレーズ(例えば、メディアタイトル、メディアジャンル、俳優、MPAA映画格付けラベルなど)を特定するように訓練することができる。例えば、自然言語処理モジュールは、テキスト表現内のフレーズ「Jurassic Park」を映画タイトルとして特定し、その結果、メディアアイテムの検索という実施可能な意図に関連付けられたオントロジ内の「メディア検索」ノードをトリガすることができる。いくつかの実施例では、偏向は、オントロジ内のノードをメディア関連ノードの所定のセットに限定することによって実施することができる。例えば、メディア関連ノードのセットは、メディアデバイスのアプリケーションに関連付けられたノードであることができる。更に、いくつかの実施例では、偏向は、メディアに関連したユーザ意図候補に、メディアに関連しないユーザ意図候補よりも大きく重み付けすることによって実施することができる。
いくつかの実施例では、ユーザ意図は別個のデバイス(例えば、DAサーバ106)から取得することができる。具体的には、音声データを、自然言語処理を実行するために別個のデバイスへ伝送することができる。これらの実施例では、メディアデバイスは、別個のデバイスに、(例えば、サンプリングされた音声データとともに別個のデバイスへ伝送されたデータを介して)、サンプリングされた音声データがメディアアプリケーションに関連付けられていることを指示することができる。指示は、自然言語処理をメディア関連のユーザ意図へ偏向させることができる。
プロセス500のブロック528において、サンプリングされた音声データがユーザ要求を包含するかどうかに関する判定を行うことができる。判定は、ブロック526の決定されたユーザ意図から行うことができる。ユーザ意図が、タスクを実行せよとのユーザ要求を含む場合には、サンプリングされた音声データは、ユーザ要求を包含すると判定されることができる。逆に、ユーザ意図が、タスクを実行せよとのユーザ要求を含まない場合には、サンプリングされた音声データは、ユーザ要求を包含しないと判定されることができる。更に、いくつかの実施例では、ブロック526において、ユーザ意図がテキスト表現から決定不可能であるか、又はブロック522において、テキスト表現が、サンプリングされた音声データから決定不可能である場合には、サンプリングされた音声データは、ユーザ要求を包含しないと判定されることができる。音声データがユーザ要求を包含しないとの判定に従って、ブロック530を実行することができる。
プロセス500のブロック530において、表示ユニット上にユーザの意図の明確化の要求を表示することができる。一実施例では、明確化の要求は、ユーザに対する、ユーザ要求を繰り返せとの要求であることができる。別の実施例では、明確化の要求は、デジタルアシスタントはユーザの発言を理解することができないとの陳述であることができる。更に別の実施例では、ユーザの意図を決定することができなかったことを指示するためのエラーメッセージを表示することができる。更に、いくつかの実施例では、音声データがユーザ要求を包含しないとの判定に従って、応答が提供されなくてもよい。
図5Cを参照すると、サンプリングされた音声データがユーザ要求を包含するとのブロック528における判定に従って、ブロック532を実行することができる。プロセス500のブロック532において、ユーザ要求を少なくとも部分的に満足するタスクを実行することができる。例えば、ブロック526においてタスクを実行することは、ブロック526の生成された構造化されたクエリ内で定義された1つ以上のタスクを実行することを含むことができる。1つ以上のタスクは、デジタルアシスタントのタスクフロー処理モジュール(例えば、タスクフロー処理モジュール436)を用いて実行することができる。いくつかの実施例では、タスクは、メディアデバイス上のアプリケーションの状態又は設定を変更することを含むことができる。より具体的には、タスクは、例えば、要求されたメディアアイテムを選択若しくは再生すること、要求されたアプリケーションを開くこと、若しくは閉じること、又は表示されたユーザインターフェース内を、要求された仕方でナビゲートすることを含むことができる。いくつかの実施例では、ブロック532において、タスクは、メディアデバイスから、タスクに関連する発語を出力することなく実行することができる。それゆえ、これらの実施例では、ユーザは発語の形式でデジタルアシスタントに要求を提供することができるが、デジタルアシスタントは発語形式でユーザに応答を提供しなくてもよい。むしろ、デジタルアシスタントは、表示ユニット上に結果を表示することによって視覚的に応答するのみであってもよい。これは、メディアコンテンツを消費することの共用エクスペリエンスを保つために望ましくなり得る。
他の実施例では、タスクは、要求された情報を引き出し、表示することを含むことができる。具体的には、ブロック532においてタスクを実行することは、ブロック534〜536のうちの1つ以上を実行することを含むことができる。プロセス500のブロック534において、ユーザ要求を少なくとも部分的に満足する結果を取得することができる。結果は外部サービス(例えば、外部サービス120)から取得することができる。一実施例では、ユーザ要求は、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」などの、メディア検索クエリを実行せよとの要求であることができる。本実施例では、ブロック534は、要求されたメディア検索を(例えば、外部サービスのメディア関連データベースを用いて)実行し、ロマンチックコメディーのジャンル及びReese Witherspoonの俳優を有するメディアアイテムを取得することを含むことができる。他の実施例では、ユーザ要求は、天気、スポーツ、及び株価などの他の種類の情報の要求を含むことができ、ブロック534においてそれぞれの情報を取得することができる。
プロセス500のブロック536において、表示ユニット上に第2のユーザインターフェースを表示することができる。第2のユーザインターフェースは、ブロック534において取得された結果の一部分を含むことができる。例えば、図6Gに示されるように、表示ユニット上に第2のユーザインターフェース618を表示することができる。第2のユーザインターフェース618は、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」というユーザ要求を満足するメディアアイテム622を含むことができる。本実施例では、メディアアイテム622は、「Legally Blonde」、「Legally Blonde 2」、「Hot Pursuit」、及び「This Means War」などのメディアアイテムを含むことができる。第2のユーザインターフェース618は、取得された結果を説明するテキストヘッダ620を更に含むことができる。テキストヘッダ620は、ユーザの要求が直接対処されたという印象を与えるために、ユーザ要求の一部分を言い換えることができる。これは、ユーザとデジタルアシスタントとの間の、より感じがよく、対話性のよいエクスペリエンスを提供する。図6Gに示される本実施例では、メディアアイテム622は、第2のユーザインターフェース618を横切る単一の列内に整理される。他の実施例では、メディアアイテム622の整理及び提示は異なり得ることを認識されたい。
第2のユーザインターフェース618は、第2のユーザインターフェース618内のメディアアイテム622をナビゲートし、選択するためのカーソル624を更に含むことができる。カーソルの位置は、他のメディアアイテムに対して、カーソルが位置付けられているメディアアイテムを視覚的に目立たせることによって指示されることができる。例えば、本例では、カーソル624が位置付けられているメディアアイテム623は、第2のユーザインターフェース618内に表示されている他のメディアアイテムと比べて、より大きくし、より太い輪郭線で描くことができる。
いくつかの実施例では、表示されたコンテンツの少なくとも一部分は、第2のユーザインターフェースが表示されている間に表示され続けることができる。例えば、図6Gに示されるように、第2のユーザインターフェース618は、表示ユニットの底部に表示される小さなペインであることができ、その一方で、メディアコンテンツ602はメディアデバイス上で再生し、第2のユーザインターフェース618の上方で表示ユニット上に表示され続ける。第2のユーザインターフェース618は、再生しているメディアコンテンツ602上に重ね合わせることができる。本実施例では、表示ユニットにおける第2のユーザインターフェース618の表示区域は、表示ユニット上におけるメディアコンテンツ602の表示区域よりも小さいものであることができる。これは、ユーザがメディアコンテンツを消費している間にデジタルアシスタントによって表示される結果の侵入性を低減するために望ましくなり得る。他の実施例では、表示されたコンテンツの表示区域に対する第2のユーザインターフェースの表示区域は異なり得ることを認識されたい。更に、図6Gにおける「メディア再生中」のための中実のフォントによって指示されるように、第2のユーザインターフェース618を表示すると、メディアコンテンツ602の明るさを通常(例えば、ユーザ入力を検出する前の図6Aにおける明るさ)に戻すことができる。これは、ユーザに、デジタルアシスタントとの対話が完了したことを指示する助けとなることができる。それゆえ、ユーザは、要求された結果(例えば、メディアアイテム622)を見ながらメディアコンテンツ602を消費し続けることができる。
メディア検索から取得されたメディアアイテムが第2のユーザインターフェース上に表示される実施例では、表示されるメディアアイテムの数を制限することができる。これは、ユーザが、最も関連性の高い結果に焦点を合わせることを可能にし、ユーザが、選択を行う際に、結果の数に圧倒されてしまうことを防止するために望ましくなり得る。これらの実施例では、ブロック532は、取得された結果内のメディアアイテムの数が所定の数(例えば、30、28、又は25個)以下であるかどうかを判定することを更に含むことができる。取得された結果内のメディアアイテムの数が所定の数以下であるとの判定に従って、取得された結果内のメディアアイテムの全てが第2のユーザインターフェース内に含まれることができる。取得された結果内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、取得された結果内の所定の数のメディアアイテムのみが第2のユーザインターフェース内に含まれることができる。
更に、いくつかの実施例では、メディア検索要求に最も関連性のある、取得された結果内のメディアアイテムのみが第2のユーザインターフェース内に表示されることができる。具体的には、取得された結果内のメディアアイテムの各々は、メディア検索要求に関する関連性スコアに関連付けられていることができる。表示されるメディアアイテムは、取得された結果の間で最も高い関連性スコアを有することができる。更に、第2のユーザインターフェース内のメディアアイテムは、関連性スコアに従って配列することができる。例えば、図6Gを参照すると、より高い関連性スコアを有するメディアアイテムは、第2のユーザインターフェース618の一方の側(例えば、カーソル624に近接した側)に近接して位置付けられる可能性が高くなり得、その一方で、より低い関連性スコアを有するメディアアイテムは、第2のユーザインターフェース618の反対の側(例えば、カーソル624に遠い側)に近接して位置付けられる可能性が高くなり得る。加えて、取得された結果内の各メディアアイテムは人気格付けに関連付けられていることができる。人気格付けは、映画評論家の格付け(例えば、ロッテン・トマト格付け)に基づくか、又はメディアアイテムを再生のために選択したユーザの数に基づくことができる。いくつかの実施例では、メディアアイテム622は、第2のユーザインターフェース618内において人気格付けに基づいて配列することができる。例えば、より高い人気格付けを有するメディアアイテムは、第2のユーザインターフェース618の一方の側に位置付けられる可能性が高くなり得、その一方で、より低い人気格付けを有するメディアアイテムは、第2のユーザインターフェース618の反対の側に近接して位置付けられる可能性が高くなり得る。
図5Cにおけるブロック532に続く異なるフロー(例えば、D、E、F、及びG)によって指示されるように、ブロック532の後に、図5D、図5E、図5F、又は図5Iの、それぞれ、ブロック538、542、550、又は570のうちの1つを実行することができる。ブロック538、542、550、又は570は、ブロック536において第2のユーザインターフェースを表示している間に実行することができる。いくつかの実施例では、プロセス500は、代替的に、ブロック536の後に、実行するべき適切なフロー(例えば、D、E、F、又はG)を決定するための決定ステップを含むことができる。具体的には、ブロック536の後にユーザ入力を検出することができ、検出されたユーザ入力が第2のユーザ入力(例えば、ブロック538)に対応するのか、第3のユーザ入力(例えば、ブロック542)に対応するのか、第4のユーザ入力(例えば、ブロック550)に対応するのか、それとも第6のユーザ入力(例えば、ブロック570)に対応するのかに関する判定を行うことができる。例えば、ユーザ入力がブロック542の第3のユーザ入力に対応するとの判定に従って、ブロック544〜546のうちの1つ以上を実行することができる。ブロック546の後にも同様の決定ステップが含まれることができる。
プロセス500のブロック538において、及び図5Dを参照すると、第2のユーザ入力を検出することができる。上述されたように、第2のユーザ入力は、第2のユーザインターフェースが表示ユニット上に表示されている間に検出することができる。第2のユーザ入力はメディアデバイスの遠隔制御装置上で検出することができる。例えば、第2のユーザ入力は、遠隔制御装置のタッチ感知面上における第1の所定の運動パターンを含むことができる。一実施例では、第1の所定の運動パターンは、タッチ感知面上における第1の接触点から第2の接触点への第1の方向の連続的な接触運動を含むことができる。遠隔制御装置を、意図した仕方で把持している時には、第1の方向は、下方向、又はユーザへ向かう方向になることができる。第2のユーザ入力のための他の入力形式も企図することができることを認識されたい。第2のユーザ入力を検出したことに応じて、ブロック540を実行することができる。
プロセス500のブロック540において、第2のユーザインターフェースを閉じることができ、それにより、第2のユーザインターフェースはもはや表示されない。例えば、図6Gを参照すると、第2のユーザ入力を検出したことに応じて、第2のユーザインターフェース618は表示されなくなる。本実施例では、第2のユーザインターフェース618閉じると、メディアコンテンツ602を表示ユニットのフルスクリーン上に表示させることができる。例えば、第2のユーザインターフェース618の表示を中止すると、メディアコンテンツ602は、図6Aに示されるように表示されることができる。
プロセス500のブロック542において、及び図5Eを参照すると、第3のユーザ入力を検出することができる。第3のユーザ入力は、第2のユーザインターフェースが表示ユニット上に表示されている間に検出することができる。第3のユーザ入力はメディアデバイスの遠隔制御装置上で検出することができる。例えば、第3のユーザ入力は、遠隔制御装置のタッチ感知面上における第2の所定の運動パターンを含むことができる。第2の所定の運動パターンは、タッチ感知面上における第3の接触点から第4の接触点への第2の方向の連続的な接触運動を含むことができる。第2の方向は第1の方向と反対であることができる。具体的には、遠隔制御装置を、意図した仕方で把持している時には、第2の方向は、上方向、又はユーザから離れる方向になることができる。第3のユーザ入力を検出したことに応じて、ブロック544〜546のうちの1つ以上を実行することができる。いくつかの実施例では、図6Gに示されるように、第2のユーザインターフェース618は、ユーザに、第3のユーザ入力を提供することによって第2のユーザインターフェース618を拡大することができることを指示するためのグラフィックインジケータ621(例えば、矢印)を含むことができる。更に、グラフィックインジケータ621は、ユーザに、第3のユーザ入力のためのタッチ感知面上における第2の所定の運動パターンに関連付けられた第2の方向を指示することができる。
プロセス500のブロック544において、第2の結果を取得することができる。取得された第2の結果は、ブロック534において取得された結果と同様であるが、同一ではなくなり得る。いくつかの実施例では、取得された第2の結果はユーザ要求を少なくとも部分的に満足することができる。例えば、取得された第2の結果は、ブロック534において取得された結果の1つ以上の特性、パラメータ、又は属性を共有することができる。図6F〜図6Gに示される実施例では、ブロック544は、ブロック534において実行されたメディア検索クエリに関連する1つ以上の追加のメディア検索クエリを実行することを含むことができる。例えば、1つ以上の追加のメディア検索クエリは、ロマンチックコメディーのジャンルを有するメディアアイテムの検索、又はReese Witherspoon主演のメディアアイテムの検索を含むことができる。それゆえ、取得された第2の結果は、ロマンチックコメディーであるメディアアイテム(例えば、メディアアイテム634)、及び/又はReese Witherspoon主演のメディアアイテム(例えば、メディアアイテム636)を含むことができる。
いくつかの実施例では、取得された第2の結果は、ブロック504においてユーザ入力を検出する前に受信された以前のユーザ要求に基づくことができる。具体的には、取得された第2の結果は、以前のユーザ要求の1つ以上の特性又はパラメータを含むことができる。例えば、以前のユーザ要求は、「最近5年以内に公開された映画を教えてください」であることができる。本実施例では、取得された第2の結果は、Reese Witherspoon主演で、最近5年以内に公開されたロマンチックコメディー映画であるメディアアイテムを含むことができる。
更に、いくつかの実施例では、ブロック544は、第3のユーザ入力が検出された時に第2のユーザインターフェースがフォーカスされているアイテムにコンテクスト上関連する第2の結果を取得することを含むことができる。例えば、図6Gを参照すると、第3のユーザ入力が検出された時に、カーソル624は第2のユーザインターフェース618内のメディアアイテム623に位置付けられていることができる。メディアアイテム623は、例えば、映画「Legally Blonde」であることができる。本実施例では、取得された第2の結果は、メディアアイテム「Legally Blonde」に関連付けられた1つ以上の特性、属性、又はパラメータを共有することができる。具体的には、取得された第2の結果は、「Legally Blonde」のように、ロースクールに通うこと、又は専門的職業に就いている女性が主役であることに関連するメディアアイテムを含むことができる。
プロセス500のブロック546において、表示ユニット上に第3のユーザインターフェースを表示することができる。具体的には、ブロック536における第2のユーザインターフェースの表示を、ブロック546における第3のユーザインターフェースの表示と置換することができる。いくつかの実施例では、第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースを第3のユーザインターフェースになるように拡大することができる。第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有することができる。第3のユーザインターフェースは、ブロック534の取得された結果の一部分を含むことができる。更に、第3のユーザインターフェースは、ブロック544の取得された第2の結果の一部分を含むことができる。
一実施例では、図6Hに示されるように、第3のユーザインターフェース626は実質的に表示ユニットの表示区域全体を占有することができる。本実施例では、メディアコンテンツ602及び第2のユーザインターフェース618の以前の表示は第3のユーザインターフェース626の表示によって取って代わられることができる。第3のユーザ入力を検出したことに応じて、メディアコンテンツの再生をメディアデバイス上で一時停止させることができる。これは、ユーザが、第3のユーザインターフェース626内のメディアアイテムをブラウズしている間に、メディアコンテンツ602の任意の部分を見逃すことを防止するために望ましくなり得る。
第3のユーザインターフェース626は、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」というユーザ要求を満足するメディアアイテム622を含むことができる。更に、第3のユーザインターフェース626は、同じユーザ要求を少なくとも部分的に満足するメディアアイテム632を含むことができる。メディアアイテム632は、異なる特性、属性、又はパラメータに各々対応するメディアアイテムの複数のセットを含むことができる。本実施例では、メディアアイテム632は、ロマンチックコメディーであるメディアアイテム634、及びReese Witherspoon主演のメディアアイテム636を含むことができる。メディアアイテムの各セットは、テキストヘッダ(例えば、テキストヘッダ628、630)でラベル付けすることができる。テキストヘッダは、メディアアイテムのそれぞれのセットに関連付けられた1つ以上の属性又はパラメータを説明することができる。更に、テキストヘッダは各々、ユーザによってデジタルアシスタントに提供されると、デジタルアシスタントにメディアアイテムの同様のセットを取得させることができる、例示的なユーザ発言であることができる。例えば、テキストヘッダ628を参照すると、デジタルアシスタントは、ユーザからユーザ発言「ロマンチックコメディー」を受信したことに応じて、ロマンチックコメディーであるメディアアイテム(例えば、メディアアイテム634)を取得し、表示することができる。
図6Hに示される実施例では、メディアアイテム622は、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」という最初のユーザ要求に基づくが、他の実施例では、メディアアイテム632は、メディア選択履歴、メディア検索履歴、以前のメディア検索が受信された順序、メディアに関連した属性間の関係、メディアアイテムの人気、及び同様のものなどの、他の因子に基づくことができることを認識されたい。
ユーザ要求がメディア検索要求である実施例では、取得された第2の結果は、ブロック534の取得された結果内のメディアアイテムの数に基づくことができる。具体的には、第3のユーザ入力を検出したことに応じて、取得された結果内のメディアアイテムの数が所定の数以下であるかどうかに関する判定を行うことができる。取得された結果内のメディアアイテムの数が所定の数以下であるとの判定に従って、取得された第2の結果は、第2のユーザインターフェース内のメディアアイテムと異なるメディアアイテムを含むことができる。取得された第2の結果は、ブロック534において実行されたメディア検索要求を少なくとも部分的に満足することができる。同時に、取得された第2の結果は、取得された結果よりも広範になることができ、ブロック534において実行されたメディア検索要求内で限定されたパラメータの全てよりも少数のパラメータに関連付けられていることができる。これは、ユーザに、結果のより広範なセット、及び選択するべきより多くの選択肢を提供するために望ましくなり得る。
いくつかの実施例では、ブロック534の取得された結果内のメディアアイテムの数が所定の数以下であるとの判定に従って、メディア検索要求が、1つを超える検索属性又はパラメータを含むかどうかに関する判定を行うことができる。メディア検索要求が、1つを超える検索属性又はパラメータを含むとの判定に従って、取得された第2の結果は、1つを超える検索属性又はパラメータに関連付けられたメディアアイテムを含むことができる。更に、取得された第2の結果内のメディアアイテムは、第3のユーザインターフェース内において、1つを超える検索属性又はパラメータに従って整理することができる。
図6F〜図6Hに示される実施例では、メディア検索要求「Reese Witherspoon主演のロマンチックコメディーを見つけてください」は、1つを超える検索属性又はパラメータ(例えば、「ロマンチックコメディー」及び「Reese Witherspoon」)を含むと判定することができる。メディア検索要求が、1つを超える検索属性又はパラメータを含むとの判定に従って、取得された第2の結果は、検索パラメータ「ロマンチックコメディー」に関連付けられたメディアアイテム634、及び検索パラメータ「Reese Witherspoonの映画」に関連付けられたメディアアイテム636を含むことができる。図6Hに示されるように、メディアアイテム634は「ロマンチックコメディー」のカテゴリの下で整理することができ、メディアアイテム636は「Reese Witherspoon」のカテゴリの下で整理することができる。
いくつかの実施例では、ブロック534の取得された結果内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、第3のユーザインターフェースは、取得された結果の第1の部分及び第2の部分を含むことができる。取得された結果の第1の部分は所定の数のメディアアイテム(例えば、最も高い関連性スコアを有するもの)を含むことができる。取得された結果の第2の部分は、取得された結果の第1の部分と異なることができ、取得された結果の第1の部分よりも多数のメディアアイテムを含むことができる。更に、取得された結果内のメディアアイテムが、1つを超えるメディア種別(例えば、映画、テレビ番組、音楽、アプリケーション、ゲームなど)を含むかどうかを判定することができる。取得された結果内のメディアアイテムが、1つを超えるメディア種別を含むと判定したことに応じて、取得された結果の第2の部分内のメディアアイテムはメディア種別に従って整理することができる。
図6Iに示される実施例では、ブロック534において取得された結果は、Reese Witherspoon主演のロマンチックコメディーであるメディアアイテムを含むことができる。取得された結果内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、第3のユーザインターフェース626内に、取得された結果の第1の部分(メディアアイテム622)及び取得された結果の第2の部分(メディアアイテム638)を表示することができる。取得された結果が、1つを超えるメディア種別(例えば、映画及びTV番組)を含むと判定したことに応じて、メディアアイテム638はメディア種別に従って整理することができる。具体的には、メディアアイテム640は「映画」のカテゴリの下で整理することができ、メディアアイテム642は「TV番組」のカテゴリの下で整理することができる。更に、いくつかの実施例では、それぞれのメディア種別(例えば、映画、TV番組)に対応するメディアアイテムの各セット(例えば、メディアアイテム640、642)は、メディアアイテムのそれぞれのセット内で、最も多いジャンル、俳優/監督、又は公開日に従って並べ替えることができる。他の実施例では、取得された結果内のメディアアイテムが、1つを超えるメディア属性又はパラメータに関連付けられていると判定したことに応じて、取得された結果の第2の部分内のメディアアイテムは(メディア種別でなく)メディア属性又はパラメータに従って整理することができることを認識されたい。
いくつかの実施例では、スクロールコマンドを表現するユーザ入力(例えば、ブロック550において後述される第4のユーザ入力)を検出することができる。スクロールコマンドを表現するユーザ入力を受信したことに応じて、拡大されたユーザインターフェース(又はより具体的には、拡大されたユーザインターフェース内のアイテム)をスクロールさせることができる。スクロールしている間に、拡大されたユーザインターフェースが、拡大されたユーザインターフェース内の所定の位置を越えてスクロールしたかどうかに関する判定を行うことができる。拡大されたユーザインターフェースが、拡大されたユーザインターフェース内の所定の位置を越えてスクロールしたとの判定に応じて、拡大されたユーザインターフェース上に、取得された結果の第3の部分内のメディアアイテムを表示させることができる。第3の部分内のメディアアイテムは、第3の部分内のメディアアイテムに関連付けられた1つ以上のメディアコンテンツプロバイダ(例えば、iTunes、Netflix、HuluPlus、HBOなど)に従って整理することができる。他の実施例では、拡大されたユーザインターフェースが、拡大されたユーザインターフェース内の所定の位置を越えてスクロールしたとの判定に応じて、他のメディアアイテムを取得することができることを認識されたい。例えば、人気のあるメディアアイテム、又は取得された結果に関連するメディアアイテムを取得することができる。
図5Eにおけるブロック546から進む異なるフロー(例えば、B、F、G、及びH)によって指示されるように、ブロック532の後に、図5F、図5G、図5H、又は図5Iの、それぞれ、ブロック550、558、566、又は570を実行することができる。具体的には、いくつかの実施例では、ブロック550、560、564、又は570は、ブロック546において第3のユーザインターフェースを表示している間に実行することができる。
プロセス500のブロック550において、及び図5Fを参照すると、第4のユーザ入力を検出することができる。第4のユーザ入力は、第2のユーザインターフェース(例えば、第2のユーザインターフェース618)又は第3のユーザインターフェース(例えば、第3のユーザインターフェース626)が表示ユニット上に表示されている間に検出することができる。いくつかの実施例では、第4のユーザ入力はメディアデバイスの遠隔制御装置上で検出することができる。第4のユーザ入力は表示ユニット上における方向(例えば、上、下、左、右)を指示することができる。例えば、第4のユーザ入力は、遠隔制御装置のタッチ感知面上の第1の位置から、第1の位置の右にあるタッチ感知面上の第2の位置への接触運動であることができる。それゆえ、接触運動は表示ユニット上における右方向に対応することができる。第4のユーザ入力を検出したことに応じて、ブロック552を実行することができる。
プロセス500のブロック552において、第2のユーザインターフェース又は第3のユーザインターフェースのフォーカスを第1のアイテムから第2のユーザインターフェース又は第3のユーザインターフェース上の第2のアイテムへ切り換えることができる。第2のアイテムは、第1のアイテムに対して上記の方向(例えば、第4のユーザ入力に対応する同じ方向)に位置付けられていることができる。例えば、図6Gにおいて、カーソル624がメディアアイテム623に位置付けられていることにより、第2のユーザインターフェース618のフォーカスはメディアアイテム623上にあることができる。表示ユニット上における右方向に対応する第4のユーザ入力を検出したことに応じて、第2のユーザインターフェース618のフォーカスを、図6Gにおけるメディアアイテム623から、メディアアイテム623の右に位置する図6Jにおけるメディアアイテム625へ切り換えることができる。具体的には、カーソル624の位置をメディアアイテム623からメディアアイテム625へ変更することができる。別の実施例では、図6Hを参照すると、第3のユーザインターフェース626のフォーカスはメディアアイテム623上にあることができる。表示ユニット上における下方向に対応する第4のユーザ入力を検出したことに応じて、第3のユーザインターフェース626のフォーカスを、図6Hにおけるメディアアイテム623から、メディアアイテム623に対して下方向に位置付する図6Kにおけるメディアアイテム627へ切り換えることができる。具体的には、カーソル624の位置をメディアアイテム623からメディアアイテム627へ変更することができる。
プロセス500のブロック554において、第2のユーザインターフェース又は第3のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を受信することができる。例えば、図6Jを参照すると、カーソル624がメディアアイテム625に位置付けられている間に、ユーザ選択に対応するユーザ入力を検出することによって、第2のユーザインターフェース618を介してメディアアイテム625の選択を受信することができる。同様に、図6Kを参照すると、カーソル624がメディアアイテム627に位置付けられている間に、ユーザ選択に対応するユーザ入力を検出することによって、第3のユーザインターフェース626を介してメディアアイテム627の選択を受信することができる。1つ以上のメディアアイテムのうちのメディアアイテムの選択を受信したことに応じて、ブロック556を実行することができる。
プロセス500のブロック556において、表示ユニット上に、選択されたメディアアイテムに関連付けられたメディアコンテンツを表示することができる。いくつかの実施例では、メディアコンテンツは、メディアデバイス上で再生中であるか、又はメディアデバイスを通じてストリーミング中である映画、ビデオ、テレビ番組、アニメーション、又は同様のものであることができる。いくつかの実施例では、メディアコンテンツは、メディアデバイス上で実行中のビデオゲーム、電子ブック、アプリケーション、又はプログラムであることができる。更に、いくつかの実施例では、メディアコンテンツは、メディアアイテムに関連する情報であることができる。情報は、選択されたメディアアイテムの様々な特性(例えば、あらすじ、出演者、監督、作者、公開日、格付け、継続時間など)を説明する製品情報であることができる。
プロセス500のブロック558において、及び図5Gを参照すると、第5のユーザ入力を検出することができる。いくつかの実施例では、第5のユーザ入力は、第3のユーザインターフェース(例えば、第3のユーザインターフェース626)を表示している間に検出することができる。これらの実施例では、第5のユーザ入力は、第3のユーザインターフェースのフォーカスが第3のユーザインターフェースの最上段内のメディアアイテム(例えば、図6Hの第3のユーザインターフェース626内のメディアアイテム622のうちの1つ)上にある間に検出することができる。他の実施例では、第5のユーザ入力は、第1のユーザインターフェースを表示している間に検出することができる。これらの実施例では、第5のユーザ入力は、ブロック508〜514のうちのいずれか1つを実行している間に検出することができる。いくつかの実施例では、第5のユーザ入力はメディアデバイスの遠隔制御装置上で検出することができる。第5のユーザ入力は第3のユーザ入力と同様又は同一であることができる。例えば、第5のユーザ入力は、タッチ感知面上における、第2の方向の連続的な接触運動(例えば、スワイプアップ接触運動)を含むことができる。他の実施例では、第5のユーザ入力はアフォーダンスのアクティブ化であることができる。アフォーダンスは、仮想キーボードインターフェース又は打ち込み検索インターフェースに関連付けられていることができる。第5のユーザ入力を検出したことに応じて、ブロック560〜564のうちの1つ以上を実行することができる。
プロセス500のブロック560において、打ち込み検索入力を受信するように構成された検索フィールドを表示することができる。例えば、図6Lに示されるように、表示されたユニット上に検索フィールド644を表示することができる。いくつかの実施例では、検索フィールドは、打ち込み検索クエリを受信するように構成することができる。打ち込み検索クエリは、メディアアイテムの検索などのメディア関連検索クエリであることができる。いくつかの実施例では、検索フィールドは、検索フィールド644を介して入力されたテキストと、メディアアイテムに関連付けられた記憶されたテキストとの間のテキスト文字列の一致に基づいてメディア関連検索を実行するように構成することができる。更に、いくつかの実施例では、デジタルアシスタントは、検索フィールド644を介して入力を受信するように構成されていなくてもよい。これは、ユーザに、打ち込み式のインターフェースではなく、発語インターフェースを介してデジタルアシスタントと対話するように促すことができ、メディアデバイスとユーザとの間のより感じのよいインターフェースを促進する。いくつかの実施例では、検索フィールドは第2のユーザインターフェース(例えば、第2のユーザインターフェース618)又は第3のユーザインターフェース(例えば、第3のユーザインターフェース626)内にもとから表示されていてもよいことを認識されたい。これらの実施例では、ブロック566を実行する必要はなくてもよい。
プロセス500のブロック562において、表示ユニット上に仮想キーボードインターフェースを表示することができる。例えば、図6Lに示されるように、仮想キーボードインターフェース646を表示することができる。仮想キーボードインターフェース646は、仮想キーボードインターフェース646を介して受信されたユーザ入力が検索フィールド内へのテキスト記入を生じさせるように構成することができる。いくつかの実施例では、仮想キーボードインターフェースは、デジタルアシスタントと対話するために用いられることができない。
プロセス500のブロック564において、ユーザインターフェースのフォーカスを検索フィールドへ切り換えることができる。例えば、図6Lを参照すると、ブロック568において検索フィールド644を目立たせることができる。更に、テキスト入力カーソルを検索フィールド644内に位置付けることができる。いくつかの実施例では、検索フィールド内に、ユーザに、打ち込み検索を入力するように促すテキストを表示することができる。図6Lに示されるように、テキスト648はプロンプト「検索を打ち込んでください」を含む。
プロセス500のブロック566において、及び図5Hを参照すると、第7のユーザ入力を検出することができる。いくつかの実施例では、第7のユーザ入力は、第3のユーザインターフェース(例えば、第3のユーザインターフェース626)を表示している間に検出することができる。いくつかの実施例では、第7のユーザ入力は、電子デバイスの遠隔制御装置のボタンを押下することを含むことができる。ボタンは、例えば、電子デバイスのメインメニューユーザインターフェースへナビゲートするためのメニューボタンであることができる。他の実施例では、第7のユーザ入力は他の形式のユーザ入力を含むことができることを認識されたい。第7のユーザ入力を検出したことに応じて、ブロック568を実行することができる。
プロセス500のブロック568において、表示ユニット上に第3のユーザインターフェースを表示するのを中止することができる。具体的には、第7のユーザ入力は第3のユーザインターフェースを閉じさせることができる。いくつかの実施例では、第7のユーザ入力は、第3のユーザインターフェースの代わりにメインメニューユーザインターフェースメニューを表示させることができる。代替的に、メディアコンテンツ(例えば、メディアコンテンツ602)が、第3のユーザインターフェース(例えば、第3のユーザインターフェース626)を表示する前に表示され、電子デバイス上におけるメディアコンテンツの再生が、第3のユーザインターフェースを表示すると同時に一時停止された(例えば、第3のユーザ入力を検出したことに応じて一時停止された)実施例では、第7のユーザ入力を検出したことに応じて、電子デバイス上におけるメディアコンテンツの再生を再開することができる。したがって、第7のユーザ入力を検出したことに応じて、メディアコンテンツを表示することができる。
プロセス500のブロック570において、及び図5Iを参照すると、第6のユーザ入力を検出することができる。図6Mに示されるように、第6のユーザ入力は、第3のユーザインターフェース626を表示している間に検出することができる。しかし、他の実施例では、第6のユーザ入力は、代替的に、第2のユーザインターフェース(例えば第2のユーザインターフェース618)を表示している間に検出することができる。第6のユーザ入力が検出された時に、第2のユーザインターフェース又は第3のユーザインターフェースは、ユーザ要求を少なくとも部分的に満足する結果の一部分を含むことができる。第6のユーザ入力は、電子デバイスのデジタルアシスタントを呼び出すための入力を含むことができる。具体的には、第6のユーザ入力は、以上においてブロック516を参照して説明された、第2の入力形式のユーザ入力と同様又は同一であることができる。例えば、第6のユーザ入力は、メディアデバイスの遠隔制御装置上の特定のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくこと(例えば、長押し)を含むことができる。第6のユーザ入力を検出したことに応じて、ブロック572〜592のうちの1つ以上を実行することができる。
プロセス500のブロック572において、第2の音声データをサンプリングすることができる。ブロック572は、上述されたブロック518と同様又は同一であることができる。具体的には、サンプリングされた第2の音声データはユーザからの第2のユーザ発言を含むことができる。第2のユーザ発言は、デジタルアシスタントに向けられた第2のユーザ要求を表現することができる。いくつかの実施例では、第2のユーザ要求は、第2のタスクを実行せよとの要求であることができる。例えば、図6Mを参照すると、サンプリングされた第2の音声データは、第2のユーザ発言、「Luke Wilsonが出ているものだけ」を含むことができる。本実施例では、第2のユーザ発言は、以前のメディア検索を、Luke Wilsonが俳優として出ているメディアアイテムのみを含むように絞り込めとの第2のユーザ要求を表現することができる。本実施例では、第2のユーザ発言は自然言語形式のものである。更に、第2のユーザ要求は指定が不完全であり得る。この場合には、第2のユーザ発言は、ユーザ要求を定めるために必要な全ての情報をはっきりと指定しない。例えば、第2のユーザ発言は、「もの(the ones)」が何を指すのかをはっきりと指定していない。他の実施例では、第2のユーザ要求は、メディアアイテムを再生せよ、又は特定の情報(例えば、天気、株価、スポーツなど)を提供せよとの要求であることができる。
いくつかの実施例では、第6のユーザ入力に対して、上述されたブロック520〜526を同様に実行することができることを認識されたい。具体的には、図6Mに示されるように、第6のユーザ入力を検出すると同時に、表示ユニット上に能動的視覚的インジケータ614を表示することができる。第2のユーザ発言の第2のテキスト表現650を(例えば、STT処理モジュール430を用いて)決定し、表示ユニット上に表示することができる。第2のテキスト表現に基づいて、第2のユーザ発言に対応する第2のユーザ意図を(例えば、自然言語処理モジュール432を用いて)決定することができる。いくつかの実施例では、図6Mに示されるように、第6のユーザ入力が検出された時に表示ユニット上に表示されているコンテンツは、第6のユーザ入力を検出したことに応じて、フェードさせるか、又は明るさを低減させることができる。これは、能動的視覚的インジケータ614及び第2のテキスト表現650を目立たせる助けとなることができる。
プロセス500のブロック574において、サンプリングされた第2の音声データが第2のユーザ要求を包含するかどうかに関する判定を行うことができる。ブロック574は、上述されたブロック528と同様又は同一であることができる。具体的には、ブロック574における判定は、第2のユーザ発言の第2のテキスト表現から決定された第2のユーザ意図に基づいて行うことができる。第2の音声データがユーザ要求を包含しないとの判定に従って、ブロック576を実行することができる。代替的に、第2の音声データが第2のユーザ要求を包含するとの判定に従って、ブロック578〜592のうちの1つ以上を実行することができる。
プロセス500のブロック576において、表示ユニット上にユーザの意図の明確化の要求を表示することができる。ブロック576は、上述されたブロック530と同様又は同一であることができる。
プロセス500のブロック578において、第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかに関する判定を行うことができる。いくつかの実施例では、判定は、第2のユーザ発言に対応する第2のユーザ意図から行うことができる。具体的には、第2のユーザ要求は、第2のユーザ発言内で特定された、ユーザ要求の結果を絞り込めとの明示された指示に基づいて、ユーザ要求の結果を絞り込めとの要求であると判定することができる。例えば、図6Mを参照すると、第2のテキスト表現650は、自然言語処理の最中に、第2のユーザ発言が、メディア検索結果を絞り込もうとする明示的な意図に対応する所定の単語又はフレーズを含むかどうかを判定するために、パースされることができる。メディア検索結果を絞り込もうとする明示的な意図に対応する単語又はフレーズの例としては、「〜だけ(just)」、「〜のみ(only)」、「〜によってフィルタする(filter by)」、及び同様のものを挙げることができる。それゆえ、第2のテキスト表現650内の単語「〜だけ(just)」に基づいて、第2のユーザ要求は、ユーザ要求、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」に関連付けられたメディア検索結果を絞り込めとの要求であると判定することができる。第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを判定するための他の技法を実施することもできることを認識されたい。第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、ブロック580〜582のうちの1つ以上を実行することができる。
プロセス500のブロック580において、ユーザ要求を少なくとも部分的に満足する結果のサブセットを取得することができる。いくつかの実施例では、結果のサブセットは、第2のユーザ要求内で限定された追加のパラメータに従って既存の結果にフィルタリングすることによって取得することができる。例えば、ブロック534において取得された(例えば、メディアアイテム622を含む)結果に、Luke Wilsonが俳優として出ているメディアアイテムが特定されるようにフィルリングすることができる。他の実施例では、ユーザ要求と第2のユーザ要求の要件を組み合わせた新たなメディア検索クエリを実行することができる。例えば、新たなメディア検索クエリは、ロマンチックコメディーのジャンル、並びにReese Witherspoon及びLuke Wilsonの俳優を有するメディアアイテムの検索クエリであることができる。本実施例では、新たなメディア検索クエリは、「Legally Blonde」、及び「Legally Blonde 2」などのメディアアイテムをもたらすことができる。
第3のユーザインターフェースを表示している間に第6のユーザ入力が検出される実施例では、ユーザ要求及び/又は第2のユーザ要求に関連する追加の結果を取得することができる。追加の結果は、ユーザ要求及び/又は第2のユーザ要求内で述べられている1つ以上の属性又はパラメータを有するメディアアイテムを含むことができる。更に、追加の結果は、ユーザ要求及び第2のユーザ要求内で述べられている全ての属性又はパラメータを含まなくてもよい。例えば、図6H及び図6Mに示される実施例を参照すると、追加の結果は、以下の属性又はパラメータ:ロマンチックコメディー、Reese Witherspoon、及びLuke Wilson、のうちの少なくとも1つ(ただし全てではない)を有するメディアアイテムを含むことができる。追加の結果は、ユーザに、結果のより広範なセット、及び選択するべきより多くの選択肢を提供するために望ましくなり得る。更に、追加の結果は、ユーザの興味を引く可能性が高い関連結果であることができる。
ブロック582において、表示ユニット上に結果のサブセットを表示することができる。例えば、図6Nに示されるように、結果のサブセットは、「Legally Blonde」、及び「Legally Blonde 2」などの映画を含むことができる、メディアアイテム652を含むことができる。本実施例では、メディアアイテム652は第3のユーザインターフェース626の最上段内に表示される。テキストヘッダ656は、表示されたメディアアイテム652に関連付けられた属性又はパラメータを説明することができる。具体的には、テキストヘッダ656は、第2のユーザ発言に関連付けられたユーザの意図の言い換えを含むことができる。第2のユーザインターフェース(例えば、図6Gに示される第2のユーザインターフェース618)を表示している間に第6のユーザ入力が検出される実施例では、メディアアイテム652は代わりに第2のユーザインターフェース内に表示することができる。これらの実施例では、メディアアイテム652は、第2のユーザインターフェースを横切る単一の列として表示することができる。メディアアイテム652が第2のユーザインターフェース又は第3のユーザインターフェース内に表示される仕方は様々あり得ることを認識されたい。
第3のユーザインターフェースを表示している間に第6のユーザ入力が検出される実施例では、第3のユーザインターフェース内に、ユーザ要求及び/又は第2のユーザ要求に関連する追加の結果を表示することができる。例えば、図6Nを参照すると、追加の結果は、ユーザ要求及び/又は第2のユーザ要求内で述べられている1つ以上のパラメータを有するメディアアイテム654を含むことができる。具体的には、メディアアイテム654は、Luke Wilson主演のロマンチックコメディーであるメディアアイテム658、及びLukeWilsonが主演し、最近10年間に公開されたメディアアイテム660を含むことができる。メディアアイテムの各セット(例えば、メディアアイテム658、660)は、テキストヘッダ(例えば、テキストヘッダ662、664)でラベル付けすることができる。テキストヘッダは、メディアアイテムのそれぞれのセットに関連付けられた1つ以上のパラメータを説明することができる。テキストヘッダは自然言語形式のものであってもよい。更に、各テキストヘッダは、ユーザによってデジタルアシスタントに提供されると、デジタルアシスタントにメディアアイテムの同様のセットを取得させることができる、例示的なユーザ発言であることができる。例えば、テキストヘッダ662を参照すると、デジタルアシスタントは、ユーザからユーザ発言「Luke Wilson主演のロマンチックコメディー」を受信したことに応じて、Luke Wilson主演のロマンチックコメディーであるメディアアイテム(例えば、メディアアイテム658)を取得し、表示することができる。
ブロック578を再び参照すると、第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求でないと判定することができる。このような判定は、ユーザ要求の結果を絞り込むための明示的な指示が第2のユーザ発言内に全く存在しないことに基づいて行うことができる。例えば、自然言語処理の最中に第2のユーザ発言の第2のテキスト表現をパースする際に、メディア検索結果を絞り込もうとする明示的な意図に対応する所定の単語又はフレーズが特定されない場合がある。これは、第2のユーザ要求が、以前のユーザ要求に関連のない要求(例えば、新たな要求)であることに起因し得る。例えば、第2のユーザ要求は、「Reese Witherspoon主演のロマンチックコメディーを見つけてください」という以前のユーザ要求に関連のない要求である、「ホラー映画を見つけてください」であることができる。代替的に、第2のユーザ要求は、以前のユーザ要求の結果を絞り込めとの要求、又は以前のユーザ要求に関連のない新たな要求のどちらかとして解釈することができる、曖昧な言葉を含むことができる。例えば、図6Pを参照すると、第2のユーザ発言は「Luke Wilson」であることができる。これは、以前のユーザ要求の結果を絞り込めとの要求(例えば、Luke Wilsonが俳優として出ているメディアアイテムのみを含むように絞り込めとの要求)、又は以前のユーザ要求に関連のない新たな要求(例えば、Luke Wilsonが俳優として出ているメディアアイテムの新たなメディア検索)のどちらかとして解釈することができる。これらの実施例では、第2のユーザ要求は、ユーザ要求の結果を絞り込めとの要求ではないと判定することができる。第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、ブロック584〜592のより多くのうちの1つを実行することができる。
プロセス500のブロック584において、第2のユーザ要求を少なくとも部分的に満足する第2のタスクを実行することができる。ブロック584は、ブロック584の第2のタスクがブロック532のタスクと異なってもよいことを除いては、上述されたブロック532と同様であることができる。ブロック584はブロック586〜588のうちの1つ以上を含むことができる。
プロセス500のブロック586において、第2のユーザ要求を少なくとも部分的に満足する第3の結果を取得することができる。ブロック586は、上述されたブロック534と同様であることができる。図6Pに示される実施例を参照すると、第2のユーザ発言「Luke Wilson」は、Luke Wilsonが俳優として出ているメディアアイテムを特定するための新たなメディア検索クエリを実行せよとの要求と解釈することができる。それゆえ、本実施例では、ブロック586は、要求されたメディア検索を実行し、Luke Wilsonが俳優として出ているメディアアイテムを取得することを含むことができる。他の実施例では、ユーザ要求は、他の種類の情報(例えば、天気、スポーツ、株価など)の要求を含むことができ、ブロック586においてそれぞれの種類の情報を取得することができることを認識されたい。
プロセス500のブロック588において、表示ユニット上に第3の結果の一部分を表示することができる。例えば、図6Qを参照すると、第3のユーザインターフェース626内に、Luke Wilsonが俳優として出ているメディアアイテム670(例えば、「Playing It Cool」、「The Skeleton Twins」、及び「You Kill Me」などの映画)を含む第3の結果を表示することができる。本実施例では、メディアアイテム670は第3のユーザインターフェース626の最上段内に表示することができる。テキストヘッダ678は、表示されたメディアアイテム670に関連付けられた属性を説明することができる。具体的には、テキストヘッダ678は、第2のユーザ発言に関連付けられた、決定されたユーザの意図の言い換えを含むことができる。第2のユーザインターフェース(例えば、図6Gに示される第2のユーザインターフェース618)を表示している間に第6のユーザ入力が検出される実施例では、メディアアイテム670は第2のユーザインターフェース内に表示することができる。これらの実施例では、メディアアイテム670は、第2のユーザインターフェースを横切る単一の列内に表示することができる。他の実施例では、第2のユーザインターフェース又は第3のユーザインターフェース内におけるメディアアイテム670の整理又は構成は異なり得ることを認識されたい。
プロセス500のブロック590において、ユーザ要求及び/又は第2のユーザ要求を少なくとも部分的に満足する第4の結果を取得することができる。具体的には、第4の結果は、ユーザ要求及び/又は第2のユーザ要求内で限定された1つ以上の属性又はパラメータを有するメディアアイテムを含むことができる。図6P及び図6Qに示される実施例を参照すると、第4の結果は、以下の属性又はパラメータ:ロマンチックコメディー、Reese Witherspoon、及びLuke Wilson、のうちの1つ以上を有するメディアアイテムを含むことができる。例えば、第4の結果は、ロマンチックコメディーのジャンルを有し、Luke Wilsonが主演するメディアアイテム676を含むことができる。第4の結果を取得することは、ユーザに、結果のより広範なセット、及びそれゆえ、選択するべきより多くの選択肢を提供するために望ましくなり得る。更に、第4の結果は、ユーザの実際の意図が満足される可能性を高めるために、第2のユーザ要求及び1つ以上の以前のユーザ要求から導き出された、代替の予測されたユーザ意図に関連付けられていることができる。これは、ユーザに返される結果の精度及び関連性を高める助けとなることができ、これにより、ユーザエクスペリエンスが改善される。
いくつかの実施例では、第4の結果の少なくとも一部分は、ユーザ要求及び第2のユーザ要求内で限定された全てのパラメータを有するメディアアイテムを含むことができる。例えば、第4の結果は、ロマンチックコメディーのジャンルを有し、Reese Witherspoon及びLuke Wilsonが主演するメディアアイテム674を含むことができる。メディアアイテム674は、第2のユーザ要求を用いて以前のユーザ要求の結果を絞り込むという代替の意図に関連付けられていることができる。ユーザが、第2の要求を、取得結果を絞り込めとの要求であるように実際に意図した場合には、メディアアイテム674を取得することは、ユーザの実際の意図が満足される可能性を高めるために望ましくなり得る。
いくつかの実施例では、第4の結果の一部分は、第6のユーザ入力が検出された時点におけるユーザインターフェースのフォーカスに基づくことができる。具体的には、ユーザインターフェースのフォーカスは、第6のユーザ入力が検出された時に第3のユーザインターフェースの1つ以上のアイテム上にあることができる。本実施例では、第4の結果の一部分は、ユーザインターフェースがフォーカスされた1つ以上のアイテムにコンテクスト上関連することができる。例えば、図6Kを参照すると、カーソル624はメディアアイテム627に位置付けられていることができ、それゆえ、第3のユーザインターフェース626のフォーカスはメディアアイテム627上にあることができる。本実施例では、メディアアイテム627に関連付けられた属性又はパラメータを、第4の結果の一部分を取得するために利用することができる。例えば、メディアアイテム627に関連付けられた「Reese Witherspoonの映画」のカテゴリは、第4の結果の一部分を取得するために利用することができ、得られた部分は、Reese Witherspoon及びLuke Wilsonの両者が主演するメディアアイテムを含むことができる。別の実施例では、メディアアイテム627は冒険映画であることができ、それゆえ、第4の結果の一部分は、Luke Wilson主演の冒険映画であるメディアアイテムを含むことができる。
プロセス500のブロック592において、第4の結果の一部分を表示することができる。第3のユーザインターフェースを表示している間に第6のユーザ入力が検出される実施例では、第3のユーザインターフェース内に第4の結果の部分を表示することができる。例えば、図6Qに示されるように、第4の結果の部分は、メディアアイテム670の後続の段内に表示されるメディアアイテム672を含むことができる。メディアアイテム672は、第2のユーザ要求及び/又はユーザ要求内で限定された属性又はパラメータ(例えば、ロマンチックコメディー、Reese Witherspoon、及びLuke Wilson)のうちの1つ以上に関連付けられていることができる。例えば、メディアアイテム672は、Luke Wilson主演のロマンチックコメディーであるメディアアイテム676、並びにReeseWitherspoon及びLuke Wilsonの両者が主演のロマンチックコメディーであるメディアアイテム674を含むことができる。メディアアイテムの各セット(例えば、メディアアイテム674、676)は、テキストヘッダ(例えば、テキストヘッダ680、682)でラベル付けすることができる。テキストヘッダは、メディアアイテムのそれぞれのセットに関連付けられた1つ以上の属性又はパラメータを説明することができる。テキストヘッダは自然言語形式のものであってもよい。更に、各テキストヘッダは、ユーザによってデジタルアシスタントに提供されると、デジタルアシスタントに、同様の属性を有するメディアアイテムの同様のセットを取得させることができる、例示的なユーザ発言であることができる。
上述されたように、「Luke Wilson」という第2のユーザ発言は、2つの可能性のあるユーザ意図、新たなメディア検索を実行するという第1のユーザ意図、又は以前のユーザ要求の結果を絞り込むという第2のユーザ意図、に関連付けられることができる。表示されたメディアアイテム670は第1のユーザ意図を満足することができ、表示されたメディアアイテム674は第2のユーザ意図を満足することができる。本実施例では、メディアアイテム670及び674は最も上の2つの段内に表示される。このように、第2のユーザ要求に関連付けられた2つの最も可能性の高いユーザ意図(例えば、新たな検索、又は以前の検索の絞り込み)のための結果を第3のユーザインターフェース626内において目立つように(例えば、最も上の2つの段)表示することができる。これは、消費するべき所望のメディアアイテムを見つけるまでの第3のユーザインターフェース内におけるユーザによるスクロール又はブラウズを最小限に抑えるために望ましくなり得る。スクロール及びブラウズを最小限に抑えるためにメディアアイテム670及び674を第3のユーザインターフェース626内で目立つように表示する仕方は様々あり得ることを認識されたい。
図7A〜図7Cは、様々な実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセス700を示す。プロセス700は、デジタルアシスタントを実装する1つ以上の電子デバイスを用いて実行することができる。例えば、プロセス700は、上述された、システム100、メディアシステム128、メディアデバイス104、ユーザデバイス122、又はデジタルアシスタントシステム400のうちの1つ以上を用いて実行することができる。図8A〜図8Wは、様々な実施例に係る、プロセス700の様々な段階においてメディアデバイスによって表示ユニット上に表示されるスクリーンショットを示す。プロセス700は、以下において図7A〜図7Cと図8A〜図8Wを同時に参照して説明される。プロセス700内のいくつかの動作は組み合わせることができ、いくつかの動作の順序は変更することができ、いくつかの動作は省略することができることを理解されたい。
プロセス700のブロック702において、表示ユニット(例えば、表示ユニット126)上にコンテンツを表示することができる。ブロック702は、上述されたブロック502と同様又は同一であることができる。図8Aを参照すると、表示されたコンテンツは、メディアデバイス(例えば、メディアデバイス104)上で再生されているメディアコンテンツ802(例えば、映画、ビデオ、テレビ番組、ビデオゲームなど)を含むことができる。他の実施例では、表示されたコンテンツは、メディアデバイス上で実行中のアプリケーションに関連付けられたコンテンツ、又はメディアデバイスのデジタルアシスタントと対話するためのユーザインターフェースなどの、他のコンテンツを含むことができる。具体的には、表示されたコンテンツは、メインメニューユーザインターフェース、又はユーザによって以前に要求されたオブジェクト若しくは結果を有するユーザインターフェースを含むことができる。
プロセス700のブロック704において、ユーザ入力を検出することができる。ブロック704は、上述されたブロック504と同様又は同一であることができる。ユーザ入力は、メディアデバイスのデジタルアシスタントを呼び出すために用いることができる。いくつかの実施例では、ユーザ入力は、ブロック702のコンテンツが表示されている間に検出することができる。ユーザ入力は、メディアデバイスの遠隔制御装置(例えば、遠隔制御装置124)上で検出することができる。例えば、ユーザ入力は、プロセス500のブロック516において説明された第2の入力形式に対応することができる。具体的には、ブロック704のユーザ入力は、メディアデバイスの遠隔制御装置上の特定のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくこと(例えば、長押し)を含むことができる。ユーザ入力を検出したことに応じて、ブロック706〜746のうちの1つ以上を実行することができる。
プロセス700のブロック706において、音声データをサンプリングすることができる。ブロック706は、上述されたブロック518と同様又は同一であることができる。サンプリングされた音声データはユーザ発言を含むことができる。ユーザ発言は、メディアデバイスのデジタルアシスタントに向けられたユーザ要求を表現することができる。例えば、図8Aに示される実施例を参照すると、サンプリングされた音声データは、「パリは何時ですか?」というユーザ発言を含むことができる。ユーザ発言は、構造化されていない自然言語の形態のものであることができる。いくつかの実施例では、ユーザ発言によって表現される要求は、指定が不完全であり得る。この場合には、ユーザ発言(例えば、「これを再生してください」)内には、要求を実行するために必要な情報が欠けているか、又は明示的に限定されていない。他の実施例では、ユーザ発言は明示的な要求ではなく、むしろ、要求が推測される間接的な質問又は陳述(例えば、「彼は何と言いましたか?」)であってもよい。更に、以下においてブロック712においてより詳細に説明されるように、ユーザ発言は1つ以上の曖昧な用語を含むことができる。
プロセス700のブロック708において、サンプリングされた音声データ内のユーザ発言のテキスト表現を決定することができる。ブロック708は、上述されたブロック522と同様又は同一であることができる。具体的には、テキスト表現は、サンプリングされた音声データ内のユーザ発言に対してSTT処理を実行することによって決定することができる。例えば、図8Aを参照すると、テキスト表現804「パリは何時ですか?」が、サンプリングされた音声データ内のユーザ発言から決定され、表示ユニット上に表示されることができる。図示のように、テキスト表現804は、メディアコンテンツ802がメディアデバイス上で再生し続けている間にメディアコンテンツ802の上に重ね合わせることができる。
いくつかの実施例では、テキスト表現を決定するために用いられるSTT処理を、メディア関連のテキスト結果へ偏向させることができる。加えて、又は代替的に、テキスト表現は、音声データをサンプリングする前にメディアデバイスによって受信された以前のユーザ発言に基づくことができる。更に、いくつかの実施例では、テキスト表現は、音声データをサンプリングする前に以前のユーザ発言が受信された時間に基づくことができる。テキスト表現が別個のデバイス(例えば、DAサーバ106)から取得される実施例では、メディアデバイスは、別個のデバイスに、サンプリングされた音声データがメディアアプリケーションに関連付けられていることを指示することができ、この指示は、別個のデバイス上におけるSTT処理をメディア関連のテキスト結果へ偏向させることができる。
プロセス700のブロック710において、ユーザ発言に対応するユーザ意図を決定することができる。ブロック710は、上述されたブロック526と同様であることができる。具体的には、(例えば、自然言語処理モジュール432による)自然言語処理を用いてブロック708のテキスト表現を処理し、ユーザ意図を導き出すことができる。例えば、図8Aを参照すると、テキスト表現804「パリは何時ですか?」から、ユーザ意図は、「パリ」という名前のロケーション内の時間を要求することであると決定することができる。ユーザ意図を決定するために用いられる自然言語処理は、メディア関連のユーザ意図へ偏向させることができる。ユーザ意図が別個のデバイス(例えば、DAサーバ106)から取得される実施例では、メディアデバイスは、別個のデバイスに、サンプリングされた音声データがメディアアプリケーションに関連付けられていることを指示することができ、この指示は、別個のデバイス上における自然言語処理をメディア関連のユーザ意図へ偏向させることができる。
いくつかの実施例では、ユーザ意図は、サンプリングされた音声データ内のユーザ発言から導き出された韻律情報に基づいて決定することができる。具体的には、ユーザ発言から韻律情報(例えば、調性、リズム、音量、強勢、抑揚、速度など)を導き出し、ユーザの態度、気分、情動、又は感情を判定することができる。次に、ユーザの態度、気分、情動、又は感情からユーザ意図を決定することができる。例えば、サンプリングされた音声データはユーザ発言「彼は何と言いましたか?」を含むことができる。本実施例では、ユーザ発言内で検出された高い音量及び強勢に基づいて、ユーザはいらいらしているか、又は欲求不満であると判定することができる。ユーザ発言及び判定されたユーザの感情に基づいて、ユーザ意図は、メディアデバイス上で再生されているメディアコンテンツに関連付けられた音声の音量を上げよとの要求を含むと決定することができる。
図7Aに示されるように、ブロック710はブロック712〜718のうちの1つ以上を含むことができる。具体的には、2つ以上のユーザ意図の蓋然性が高いことが分かり、自然言語処理モジュールが2つ以上のユーザ意図を単一のユーザ意図に絞り込むことができない場合には、ブロック712〜718のうちの1つ以上を実行することができる。例えば、このような状況は、ユーザ発言が、入手可能なコンテクスト情報に基づいて曖昧性を除去することができない曖昧な用語を包含する場合に生じ得る。
プロセス700のブロック712において、ユーザ発言(又はユーザ発言のテキスト表現)が曖昧な用語を含むかどうかに関する判定を行うことができる。判定は、ユーザ意図を決定するための(例えば、自然言語処理モジュール432を用いた)自然言語処理の最中に行うことができる。曖昧な用語は、1つを超える可能な解釈を有する単語又はフレーズであることができる。例えば、図8Aを参照すると、ユーザ発言「パリは何時ですか?」内の用語「パリ」は、フランス内のパリ市、又はテキサス、米国内のパリ市と解釈することができる。それゆえ、ユーザ発言内の用語「パリ」は、曖昧な用語であると判定することができる。
いくつかの実施例では、潜在的に曖昧な用語の曖昧性を除去するために、コンテクスト情報が(例えば、デジタルアシスタントによって)引き出されることができる。曖昧性除去が成功した場合には、ユーザ発言は曖昧な用語を含まないと判定することができる。例えば、メディアコンテンツ802は、パリ、フランスをその設定として有する映画(例えば、「Ratatouille」)であり、それゆえ、ユーザはパリ、テキサスよりもパリ、フランスに言及している可能性が高いと判定することができる。本実施例では、用語「パリ」は、パリ、フランスを指すように曖昧性をうまく除去することができ、それゆえ、ユーザ発言は曖昧な用語を含まないと判定することができる。
別の実施例では、ユーザ発言は「これを再生してください」であることができる。本実施例では、ユーザ発言は、再生されるべき特定のメディアアイテムを明示的に限定せず、それゆえ、用語「これ(this)」は、単独で解釈されると、メディアデバイスが利用できる任意のメディアアイテムを指すことができるであろう曖昧な用語であることができる。用語は、メディアデバイスによって表示ユニット上に表示されたコンテクスト情報を用いて曖昧性を除去することができる。例えば、デジタルアシスタントは、表示されたユーザインターフェースのフォーカスがメディアアイテム上にあるかどうかを判定することができる。ユーザインターフェースのフォーカスがメディアアイテム上にあるとの判定に従って、デジタルアシスタントは用語「これ(this)」の曖昧性を除去し、用語は、表示されたユーザインターフェースがフォーカスされているメディアアイテムを指すと判定することができる。この判定に基づいて、ブロック712において、ユーザ発言は曖昧な用語を含まないと判定することができる。それゆえ、ユーザ意図は、表示されたユーザインターフェースがフォーカスされているメディアアイテムを再生せよとの要求であると決定することができる。
用語の曖昧性を除去することができない実施例では、ブロック712において、ユーザ発言が曖昧な用語を包含するとの判定を行うことができる。ユーザ発言が曖昧な用語を含むと判定したことに応じて、ブロック714〜718のうちの1つ以上を実行することができる。プロセス700のブロック714において、曖昧な用語に基づいて2つ以上のユーザ意図の候補を取得することができる。2つ以上のユーザ意図の候補は、曖昧性を除去することができないユーザ発言から決定された最も可能性の高いユーザ意図の候補であることができる。図8Aに示される実施例を参照すると、2つ以上のユーザ意図の候補は、パリ、フランスにおける時間を要求するという第1のユーザ意図の候補、及びパリ、テキサスにおける時間を要求するという第2のユーザ意図の候補を含むことができる。
プロセス700のブロック716において、表示ユニット上に2つ以上のユーザ意図の候補をユーザ選択のために表示することができる。例えば、図8Bを参照すると、第1のユーザ意図の候補810及び第2のユーザ意図の候補808を表示することができる。更に、ユーザに、第1のユーザ意図の候補810と第2のユーザ意図の候補808との間で選択することによって、ユーザ発言に対応する実際のユーザ意図を指示するように促すためのテキストプロンプト806を提供することができる。テキストプロンプト806、第1のユーザ意図の候補810及び第2のユーザ意図の候補808は、メディアコンテンツ802上に重ね合わせることができる。
プロセス700のブロック716において、2つ以上のユーザ意図の候補のうちの1つのユーザ選択を受信することができる。いくつかの実施例では、ユーザ選択は、ユーザ意図の候補のうちの1つに対応するアフォーダンスの選択を介して受信することができる。具体的には、図8Bに示されるように、2つ以上のユーザ意図の候補(810、808)の各々は、選択可能なアフォーダンスとして表示ユニット上に表示することができる。メディアデバイスは、ユーザから、ディスプレイのフォーカスをアフォーダンスのうちの1つへ変更するための入力を(例えば、メディアデバイスの遠隔制御装置を介して)受信することができる。その後、そのアフォーダンスに対応するユーザ意図の候補のユーザ選択を(例えば、メディアデバイスの遠隔制御装置を介して)受信することができる。例えば、図8Bに示されるように、メディアデバイスは、カーソル812を、第1のユーザ意図の候補810(例えば、パリ、フランス)に対応するアフォーダンスの上に移動させるためのユーザ入力を受信することができる。その後、第1のユーザ意図の候補810のユーザ選択を受信することができる。
他の実施例では、ユーザ選択はデジタルアシスタントとの音声対話を介して受信することができる。例えば、2つ以上のユーザ意図の候補を表示している間に、第2のユーザ入力を検出することができる。第2のユーザ入力はブロック704のユーザ入力と同様又は同一であることができる。具体的には、第2のユーザ入力は、デジタルアシスタントを呼び出すための入力(例えば、メディアデバイスの遠隔制御装置上の特定のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくこと)であることができる。第2のユーザ入力を検出したことに応じて、第2の音声データをサンプリングすることができる。第2の音声データは、2つ以上の解釈のうちの1つのユーザ選択を表現する第2のユーザ発言を含むことができる。例えば、図8Cを参照すると、第2の音声データは、第2のユーザ発言「パリ、フランス」を含むことができる。図示のように、表示ユニット上に第2のユーザ発言「パリ、フランス」のテキスト表現814を表示することができる。本実施例では、第2のユーザ発言「パリ、フランス」は第1のユーザ意図の候補810(例えば、パリ、フランス)のユーザ選択を表現することができる。第2のユーザ発言「パリ、フランス」に基づいて、第1のユーザ意図の候補810が、ユーザ発言「パリは何時ですか?」に対応する実際のユーザ意図であると決定することができるそれゆえ、ブロック710において、ユーザ意図は、パリ、フランスにおける時間を要求することであると決定することができる。受信されたユーザ選択に基づいてユーザ意図を決定すると、ブロック720〜746のうちの1つ以上を実行することができる。
いくつかの実施例では、ブロック710〜718は、メディアデバイスから発語を出力することなく実行することができる。具体的には、テキストプロンプト806及びユーザ意図の候補808、810は、2つ以上のユーザ意図の候補808、810に関連付けられた発語を出力することなく表示することができる。それゆえ、ユーザからの入力は発語の形式で受信するがことができるが、デジタルアシスタントの出力は表示ユニット上においてユーザに視覚的に(及び音声の形式によらずに)提示することができる。これは、メディアコンテンツを消費することに関連付けられる共用エクスペリエンスを保つために望ましくなり得、これにより、メディアデバイスのユーザエクスペリエンスを改善することができる。
ブロック712を再び参照すると、ユーザ発言が曖昧な用語を含まないと判定したことに応じて、ブロック720〜746のうちの1つ以上を実行することができる。プロセス700の720のブロックにおいて、ユーザ意図が、メディアデバイスに関連付けられた複数の中核能力のうちの1つに対応するかどうかに関する判定を行うことができる。例えば、メディアデバイスは、例えば、メディアアイテムを検索すること、メディアアイテムを再生すること、並びにメディアアイテム、天気、株価、及びスポーツに関連する情報を提供することなどの、いくつかの所定の中核能力に関連付けられていることができる。ユーザ意図が、いくつかの所定の中核能力のうちの1つに関連するタスクを実行することを伴う場合には、ユーザ意図は、いくつかの所定の中核能力のうちの1つに対応すると判定することができる。例えば、ユーザ意図がReese Witherspoon主演のメディアアイテムの要求である場合には、ユーザ意図は、いくつかの所定の中核能力のうちの1つに対応すると判定することができる。ユーザ意図が、電子デバイスに関連付けられた複数の中核能力のうちの1つに対応すると判定したことに応じて、ブロック724〜746のうちの1つ以上を実行することができる。
逆に、ユーザ意図が、いくつかの所定の中核能力のうちの1つ以外のタスクを実行することを伴う場合には、ユーザ意図は、いくつかの所定の中核能力のうちの1つに対応しないと判定することができる。例えば、ユーザ意図が地図案内の要求である場合には、ユーザ意図は、いくつかの所定の中核能力のうちの1つに対応しないと判定することができる。ユーザ意図が、電子デバイスに関連付けられた複数の中核能力のうちの1つに対応しないと判定したことに応じて、ブロック722を実行することができる。
プロセス700のブロック722において、第2の電子デバイス(例えば、デバイス122)に、ユーザ意図を少なくとも部分的に満足させることができる。具体的には、第2の電子デバイスに、ユーザ意図を満足することを助成するためのタスクを実行させることができる。一実施例では、メディアデバイスが、地図案内を要求するというユーザ意図を満足するように構成されていないと判定することができ、それゆえ、ユーザ意図は、ユーザ意図を満足するために第2の電子デバイスへ伝送することができる。本実施例では、第2のユーザデバイスは、要求された地図案内を表示するタスクを実行することができる。他の実施例では、第2の電子デバイスに、ユーザ意図を満足することを助成するためのタスクを実行させるべく、ユーザ意図以外の情報を第2の電子デバイスへ伝送することができる。例えば、メディアデバイスのデジタルアシスタントは、ユーザ意図を満足するためのタスクフロー又は構造化されたクエリを(例えば、自然言語処理モジュール432又はタスクフロー処理モジュール436を用いて)決定することができ、タスクフロー又は構造化されたクエリは第2の電子デバイスへ伝送されることができる。その後、第2の電子デバイスは、ユーザ意図を満足することを助成するためのタスクフロー又は構造化されたクエリを実行することができる。
以下に提供される説明において明らかになるように、ユーザ意図を満足することに関連付けられる侵入性レベルは、ユーザ意図の性質に基づくことができる。場合によっては、ディスプレイ上にいかなる追加の応答又は出力を表示することもなく、ユーザ意図を満足することに関連付けられたタスクを実行することができる(例えば、ブロック726)。他の場合には、ユーザ意図を満足するために、テキスト応答のみ(例えば、対応する視覚出力又は音声出力を有しない)を提供する(例えば、ブロック732)。更に他の場合には、ユーザ意図を満足するために、関連性のある結果を有するユーザインターフェースを表示することができる(例えば、ブロック738、742、又は746)。ユーザインターフェースは、表示ユニットの過半又は過半未満を占有することができる。したがって、プロセス700は、ユーザ意図の性質に依存して出力の侵入性レベルをインテリジェントに調整することができる。これは、メディアコンテンツの消費の最中における望ましくない中断を低減させつつ、デジタルアシスタントのサービスへの便利なアクセスを可能にする。これにより、全体的なユーザエクスペリエンスが改善される。
プロセス700のブロック724において、ユーザ意図が、メディアデバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかに関する判定を行うことができる。ユーザ意図が、メディアデバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むと判定したことに応じて、ブロック726を実行することができる。プロセス700のブロック726において、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することができる。
いくつかの実施例では、状態又は設定は、メディアデバイス上で再生されている、表示されたメディアコンテンツに関連付けられていることができる。例えば、アプリケーションの状態又は設定を調整せよとの要求は、メディアデバイスによるメディアコンテンツの再生を制御せよとの要求を含むことができる。具体的には、それは、メディアデバイス上における表示されたメディアコンテンツの再生を一時停止せよ、再開せよ、再スタートせよ、停止せよ、巻き戻せ、又は早送りせよとの要求を含むことができる。それはまた、メディアコンテンツの所望の部分を再生するために、メディアコンテンツ内で(例えば、指定された期間だけ)前方又は後方に飛べとの要求を含むことができる。更に、アプリケーションの状態又は設定を調整せよとの要求は、表示されたメディアコンテンツに関連付けられた(例えば、指定された言語による)字幕若しくはクローズドキャプションをオン/オフにせよ、表示されたメディアコンテンツに関連付けられた音声の音量を上げよ/下げよ、表示されたメディアコンテンツに関連付けられた音声を消音せよ/消音解除せよ、又は表示されたメディアコンテンツが再生される速度を加速せよ/減速せよとの要求を含むことができる。
図8E〜図8Fは、メディアデバイスによるメディアコンテンツの再生を制御せよとの要求を含むユーザ意図の例示の実施例を示す。本実施例では、メディアコンテンツ802を再生している間にデジタルアシスタントを(例えば、ブロック704において)呼び出すことができる。メディアコンテンツは、最初、字幕を表示することなく表示することができる。(例えば、ブロック706において)サンプリングされた音声データは、ユーザ発言「英語字幕をオンにしてください」を包含することができる。図8Eに示されるように、表示ユニット上にユーザ発言のテキスト表現816を表示することができる。このユーザ発言に基づいて、ブロック710において、ユーザ意図が、メディアコンテンツ802のための英語字幕の表示をオンにせよとの要求を含むと決定することができる。更に、ブロック724において、このユーザ意図が、電子デバイスのアプリケーションの状態又は設定を調整せよとの要求であると判定することができる。この判定に応じて、メディアコンテンツ802のための英語字幕をオンにすることができる。図8Fにおけるラベル817によって表現されるように、ユーザ意図を満足するために、メディアコンテンツ802に関連付けられた英語字幕の表示を開始することができる。
図8G〜図8Hに示される別の例示の実施例では、サンプリングされた音声データ内のユーザ発言は、ユーザが、メディアコンテンツに関連付けられた音声の一部分が聞こえなかったことを指示する自然言語表現であることができる。具体的には、図8Gにおけるテキスト表現820によって示されるように、ユーザ発言は「彼は何と言いましたか?」であることができる。本実施例では、ユーザ意図が、ユーザが聞こえなかった音声の部分に対応するメディアコンテンツの一部分を再生し直せとの要求を含むと(例えば、ブロック710において)決定することができる。また、ユーザ意図が、メディアコンテンツに関連付けられた音声の聞こえにくさを支援するためのクローズドキャプションをオンにせよとの要求を含むと決定することもできる。更に、ユーザ発言内の韻律情報に基づいて、ユーザは欲求不満であるか、又はいらいらしていると判定することができ、それゆえ、ユーザの感情に基づいて、ユーザ意図が、メディアコンテンツに関連付けられた音声の音量を上げよとの要求を含むと決定することができる。ブロック724において、これらのユーザ意図が、電子デバイスのアプリケーションの状態又は設定を調整せよとの要求であると判定することができる。この判定に応じて、(例えば、図8Hにおけるラベル822によって表現されるように)メディアコンテンツを、メディアコンテンツの以前の部分まで所定の期間(例えば、15秒)だけ巻き戻すことができ、メディアコンテンツの再生をこの以前の部分から再スタートすることができる。加えて、メディアコンテンツの再生を以前の部分から再スタートする前に、(例えば、図8Hにおけるラベル824によって表現されるように)クローズドキャプションをオンにすることができる。更に、メディアコンテンツの再生を以前の部分から再スタートする前に、メディアコンテンツに関連付けられた音声の音量を上げることができる。
メディアコンテンツに関連付けられたクローズドキャプション又は字幕は、サービスプロバイダ(例えば、ケーブルプロバイダ又はメディア購読サービス)から取得することができることを理解されたい。しかし、クローズドキャプション又は字幕がサービスプロバイダから入手可能でない実施例では、メディアデバイスが、メディアコンテンツに関連付けられた音声の聞こえにくさを支援するために、クローズドキャプション又は字幕を生成することができる。例えば、サンプリングされた音声データ内のユーザ発言を受信する前に、及びメディアコンテンツが再生している間に、メディアコンテンツに関連付けられた音声内の発語を(例えば、STT処理モジュール730を用いて)テキストに継続的に変換し、メディアコンテンツと関連して記憶することができる。ユーザが聞こえなかったメディアコンテンツの以前の部分を再生し直せとのユーザ要求に応じて、メディアコンテンツの以前の部分を再生し直している間に、再生し直されている以前の部分に対応するテキストを引き出し、表示することができる。
いくつかの実施例では、表示されたメディアコンテンツに関連付けられた状態又は設定は、調整を実行するための追加のユーザインターフェースを表示することなく、あるいは状態又は設定が調整されていることの確認を表現するテキスト又はグラフィックを全く提供することなく、調整することができる。例えば、図8E〜図8Hの図示の実施例では、字幕(又はクローズドキャプション)は、「字幕をオンにしました」などのテキストを明示的に表示することなく、又は字幕の表示を制御するためのユーザインターフェースを表示することなく、単純にオンにすることができる。更に、状態又は設定は、ユーザ意図を満足することに関連付けられた音声を全く出力することなく調整することができる。例えば、図8E〜図8Hでは、字幕(又はクローズドキャプション)は、字幕がオンにされたことを確認する音声(例えば、発語又は非言語音声信号)を出力することなく、オンにすることができる。それゆえ、要求されたアクションは、メディアコンテンツの追加的な聴覚的又は視覚的中断を伴うことなく、単純に実行することができる。このように、プロセス700は、デジタルアシスタントのサービスへの便利なアクセスを提供しつつ、メディアコンテンツのユーザの消費の中断を最小限に抑えることができ、これにより、ユーザエクスペリエンスが改善される。
他の実施例では、メディアデバイス上のアプリケーションの状態又は設定を調整せよとの要求は、メディアデバイスのユーザインターフェース(例えば、第2のユーザインターフェース818、第3のユーザインターフェース826、又はメインメニューユーザインターフェース)内をナビゲートせよとの要求を含むことができる。一実施例では、ユーザインターフェース内をナビゲートせよとの要求は、ユーザインターフェースのフォーカスを第1のオブジェクト(例えば、第1のメディアアイテム)からユーザインターフェース内の第2のオブジェクト(例えば、第2のメディアアイテム)へ切り換えよとの要求を含むことができる。図8I〜図8Kはこのような要求の1つの例示の実施例を示す。図8Iに示されるように、表示されたコンテンツは、様々なカテゴリ(例えば、「ロマンチックコメディー」、「Reese Witherspoon主演のロマンチックコメディー」、及び「Luke Wilsonの映画」)に整理された複数のメディアアイテムを有する第3のユーザインターフェース826を含むことができる。カーソル828の位置によって指示されるように、第3のユーザインターフェース826のフォーカスは、「ロマンチックコメディー」のカテゴリの下にある第1のメディアアイテム830上にあることができる。第2のメディアアイテム832は「Legally Blonde」というタイトルを有することができ、「Reese Witherspoon主演のロマンチックコメディー」のカテゴリの下に位置付けられていることができる。図8Jにおけるテキスト表現834によって示されるように、(例えば、ブロック706において)サンプリングされた音声データ内のユーザ発言は、「Legally Blondeへ行ってください」であることができる。このユーザ発言に基づいて、ユーザ意図が、第3のユーザインターフェース826のフォーカスを第1のメディアアイテム830から、「Legally Blonde」というタイトルを有する第2のメディアアイテム832へ切り換えよとの要求であると(例えば、ブロック710において)決定することができる。このユーザ意図が、電子デバイスのアプリケーションの状態又は設定を調整せよとの要求であると(例えば、ブロック724において)判定したことに応じて、第3のユーザインターフェース826のフォーカスを第1のメディアアイテム830から第2のメディアアイテム832へ切り換えることができる。例えば、図8Kに示されるように、カーソル828の位置を第1のメディアアイテム830から第2のメディアアイテム832へ変更することができる。
別の実施例では、ユーザインターフェース内をナビゲートせよとの要求は、ユーザインターフェースのフォーカスを、ユーザインターフェース内に表示されている結果の特定のカテゴリへ変更せよとの要求を含むことができる。例えば、図8Iは、「ロマンチックコメディー」、「Reese Witherspoon主演のロマンチックコメディー」、及び「Luke Wilsonの映画」のカテゴリに関連付けられたメディアアイテムを含む。「Legally Blondeへ行ってください」ではなく、サンプリングされた音声データ内のユーザ発言は、代わりに、「Reese Witherspoon主演のロマンチックコメディーに飛んでください」であることができる。このユーザ発言に基づいて、「Reese Witherspoon主演のロマンチックコメディー」は、第3のユーザインターフェース826内に表示されているメディアアイテムのカテゴリを限定していると(例えば、ブロック710において)決定することができ、それゆえ、ユーザ意図は、ユーザインターフェースのフォーカスを、そのカテゴリに関連付けられた1つ以上のメディアアイテムへ変更せよとの要求であると決定することができる。このユーザ意図が、電子デバイスのアプリケーションの状態又は設定を調整せよとの要求であると(例えば、ブロック724において)判定したことに応じて、第3のユーザインターフェース826のフォーカスを、カテゴリに関連付けられた1つ以上のメディアアイテムへシフトさせることができる。例えば、図8Kに示されるように、カーソル828の位置を、「Reese Witherspoon主演のロマンチックコメディー」に関連付けられた第2のメディアアイテム832へシフトさせることができる。
更に他の実施例では、メディアデバイスのユーザインターフェース内をナビゲートせよとの要求は、ユーザインターフェース内のオブジェクトを選択せよとの要求を含むことができる。オブジェクトの選択は、オブジェクトに関連付けられたアクションを実行させることができる。例えば、図8Kに示されるように、カーソル828の位置は、「Legally Blonde」というタイトルを有する第2のメディアアイテム832上にある。図8Lに示されるように、(例えば、ブロック704において)デジタルアシスタントを呼び出すことができ、(例えば、ブロック706において)サンプリングされた音声データ内のユーザ発言は、(例えば、テキスト表現836として表示された)「これを再生してください」であることができる。このユーザ発言に基づいて、ユーザ意図が、特定のメディアアイテムを再生せよとの要求であると(例えば、ブロック710において)決定することができる。本実施例では、ユーザ発言は、再生されるべき特定のメディアアイテムを明示的に限定又は特定していない。具体的には、単語「これ(this)」が曖昧である。しかし、デジタルアシスタントは、ユーザ意図の曖昧性を除去するためのコンテクスト情報を取得することができる。例えば、音声データがサンプリングされた時点において、第3のユーザインターフェース826のフォーカスが第2のメディアアイテム832上にあると判定することができる。この判定に基づいて、第2のメディアアイテム832を、再生されるべきメディアアイテムとして特定することができる。第2のメディアアイテム832を再生するというユーザ意図が、電子デバイスのアプリケーションの状態又は設定を調整せよとの要求であると(例えば、ブロック724において)判定したことに応じて、第2のメディアアイテム832を再生することを助成するためのアクションを実行することができる。例えば、表示ユニット上に、第2のメディアアイテム832に関するプレビュー情報を表示することができる。プレビュー情報は、例えば、筋の概要、出演者のリスト、公開データ、ユーザ格付け、及び同様のものを含むことができる。加えて、又は代替的に、メディアデバイス上で第2のメディアアイテム832を再生することができ、表示ユニット上に、第2のメディアアイテム832に関連付けられたメディアコンテンツを表示することができる(例えば、図8Mにおけるテキスト838「Legally Blonde再生中」によって表現される。他の実施例では、選択されるべきメディアアイテムを明示的に特定することができることを認識されたい。例えば、「これを再生してください」ではなく、ユーザ発言は、「Legally Blondeを再生してください」と具体的に述べることができ、第2のメディアアイテム832を再生することを助成するための同様のアクションが実行されることができる。
更に他の実施例では、メディアデバイスのユーザインターフェース内をナビゲートせよとの要求は、メディアデバイスの特定のユーザインターフェース又はアプリケーションを閲覧せよとの要求を含むことができる。例えば、サンプリングされた音声データ内のユーザ発言は、「俳優ページへ行ってください」であることができる。この場合には、ユーザ意図は、特定の俳優に係るメディアアイテムのためのブラウジングに関連付けられたユーザインターフェースを表示せよとの要求を含む。別の実施例では、サンプリングされた音声データ内のユーザ発言は、「ホームページに連れて行ってください」であることができる。この場合には、ユーザ意図は、メディアデバイスのメインメニューユーザインターフェースを表示せよとの要求を含む。更に別の実施例では、メディアデバイスのユーザインターフェース内をナビゲートせよとの要求は、電子デバイス上のアプリケーションを起動せよとの要求を含むことができる。例えば、サンプリングされた音声データ内のユーザ発言は、「iTunesストアへ行ってください」であることができる。この場合には、ユーザ意図は、iTunesストアアプリケーションを起動せよとの要求を含む。メディアデバイス上のアプリケーションの状態又は設定を調整するための他の要求を企図することもできることを認識されたい。
ブロック724を再び参照すると、ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないと判定することができる。例えば、ユーザ意図は、代わりに、1つ以上のメディアアイテムに関連する情報を提示せよとの要求であることができる。このような判定に応じて、ブロック728〜746のうちの1つ以上を実行することができる。プロセス700のブロック728において、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかに関する判定を行うことができる。いくつかの実施例では、複数の所定の要求種別は、テキストのみの応答に関連付けられた要求であることができる。より具体的には、複数の所定の要求種別は、テキストのみの応答を必要とするようにあらかじめ決められた情報の要求であることができる。これは、メディアオブジェクト(例えば、画像、アニメーションオブジェクト、ビデオなど)を含む応答を必要とするようにあらかじめ決められた要求と対照的である。いくつかの実施例では、複数の所定の要求種別は、特定のロケーションにおける現在の時間の要求(例えば、「パリは何時ですか?)、ジョークを提示せよとの要求(例えば、「面白いジョークを言ってください。」)、又は電子デバイス上で現在再生されているメディアコンテンツに関する情報の要求(例えば、「この映画はいつ公開されましたか?」)を含むことができる。ユーザ意図が複数の所定の要求種別のうちの1つであると判定したことに応じて、ブロック730〜732のうちの1つ以上を実行することができる。
プロセス700のブロック730において、ユーザ意図を少なくとも部分的に満足する結果を取得することができる。例えば、結果は、タスクフローを実行することによって外部サービス(例えば、外部サービス120)から取得することができる。プロセス700のブロック732において、表示ユニット上に、ブロック730において取得された結果をテキスト形式で表示することができる。更に、結果は、対応するグラフィック、又は結果に対応するメディア関連アイテムを全く表示することなく、テキスト形式で表示することができる。
図8M〜図8Pはブロック728〜732の例示の実施例を示す。図8Mに示されるように、映画「Legally Blonde」がメディアデバイス上で最初に再生中であり、表示ユニット上に表示されていることができる。「Legally Blonde」を再生している間に、デジタルアシスタントを(例えば、ブロック704において)呼び出すことができ、サンプリングされた音声データ内のユーザ発言は「主演女優は誰ですか?」であることができる。例えば、図8Nに示されるように、表示ユニット上にユーザ発言のテキスト表現840を表示することができる。このユーザ発言に基づいて、ユーザ意図が、特定のメディアアイテムの主演女優を特定せよとの要求を含むと(例えば、ブロック710において)決定することができる。ユーザ発言はいかなる特定のメディアアイテムも指定していないため、ユーザ意図は曖昧であり得る。しかし、音声データがサンプリングされた時点において映画「Legally Blonde」が表示されていたことに基づいて、ユーザ意図に関連付けられたメディアアイテムが「Legally Blonde」であると決定することができる。本実施例では、ユーザ意図が複数の所定の要求種別のうちの1つであると(例えば、ブロック728において)判定することができる。具体的には、Legally Blondeにおける主演女優を特定するというユーザ意図を満足するためにテキストのみの応答を提供することができると判定することができる。ユーザ意図が複数の所定の要求種別のうちの1つであると判定したことに応じて、メディア関連データベース内で検索を(例えば、ブロック730において)実行し、「Reese Witherspoon」を映画「Legally Blonde」における主演女優として取得することができる。図8Pに示されるように、ユーザ意図を満足するために表示ユニット上にテキストのみの結果842「Reese Witherspoon」を表示することができる。テキストのみの結果842は、「Legally Blonde」の表示されたメディアコンテンツ上に重ね合わせることができる更に、「Legally Blonde」のメディアコンテンツは、テキストのみの結果842が表示されている間に再生し続けることができる。(例えば、ユーザ意図を満足するためにグラフィック結果又は追加のユーザインターフェースを表示することなく)テキストのみの結果842を表示することによって、ユーザ意図を邪魔にならない様態で満足することができ、メディアコンテンツのユーザ消費が中断されるのを最小限に抑えることができる。同時に、ユーザにデジタルアシスタントのサービスへのアクセスが提供される。これはユーザエクスペリエンスの改善のために望ましくなり得る。
ブロック728を再び参照すると、ユーザ意図が複数の所定の要求種別のうちの1つでないと判定することができる。具体的には、ユーザ意図は、満足するためにテキストだけではない結果を必要とするようにあらかじめ決められた要求種別であることができる。例えば、ユーザ意図は、メディア検索クエリを実行し、メディア検索クエリに対応するメディアアイテムを表示せよとの要求であることができる。他の実施例では、ユーザ意図はメディアアイテム以外の情報の要求であることができる。例えば、ユーザ意図は、スポーツチーム(例えば、「L.A.Lakersはこの間の試合ではどうでしたか?」)、運動選手(例えば、「LeBron Jamesの身長はどのぐらいですか?」)、株価(例えば、「ダウ・ジョーンズの昨日の終値はいくらでしたか?」、又は天気(例えば、「来週のパリ、フランスにおける天気予報はいかがですか?」)に関連付けられた情報の要求であることができる。ユーザ意図が複数の所定の要求種別のうちの1つでないと判定したことに応じて、ブロック734〜746のうちの1つ以上を実行することができる。
プロセス700のブロック734において、ユーザ意図を少なくとも部分的に満足する第2の結果を取得することができる。ブロック734は、上述されたブロック534と同様又は同一であることができる。一実施例では、ユーザ意図は、メディア検索クエリを実行せよとの要求を含むことができる。本実施例では、ブロック734においてメディア検索クエリを実行し、第2の結果を取得することができる。具体的には、第2の結果は、メディア検索クエリに対応するメディアアイテムを含むことができる。
いくつかの実施例では、ユーザ意図はメディア検索クエリでなくてもよい。例えば、ユーザ意図は、パリ、フランスにおける天気予報を提供せよとの要求(例えば、パリ、フランスにおける天気予報はいかがですか?)であることができる。本実施例では、ブロック734において取得された第2の結果は、パリ、フランスにおける7日間天気予報を含むことができる。第2の結果は、ユーザ意図を少なくとも部分的に満足する非メディアデータを含むことができる。具体的には、パリ、フランスにおける7日間天気予報は、テキストデータ(例えば、日付、気温、及び天気状況の簡単な説明)及びグラフィカル画像(例えば、晴れ、曇り、風、又は雨の画像)を含むことができる。更に、いくつかの実施例では、ブロック710において、ユーザ意図の範囲を、ユーザ意図を少なくとも部分的に満足するメディアアイテムの要求を含むように拡大することができる。これらの実施例では、ブロック734において取得された第2の結果は、ユーザ意図を少なくとも部分的に満足するメディアコンテンツを有する1つ以上のメディアアイテムを更に含むことができる。例えば、ブロック734において、関連期間の間のパリ、フランスにおける天気予報についてのメディア検索クエリを実行することができ、パリ、フランスにおける天気予報に関連する1つ以上のメディアアイテムを取得することができる。1つ以上のメディアアイテムは、例えば、パリ、フランスにおける天気予報を提示する天気チャンネルからのビデオクリップを含むことができる。これらの実施例では、表示されたユニット上のユーザインターフェース内に、非メディアデータ及び/又は1つ以上のメディアアイテムを(例えば、後述されるブロック738、742、又は746において)表示することができる。
プロセス700のブロック736において、表示されたコンテンツが電子デバイス上で再生中のメディアコンテンツを含むかどうかに関する判定を行うことができる。いくつかの実施例では、表示されたコンテンツが電子デバイス上で再生中のメディアコンテンツを含まないと判定することができる。例えば、表示されたコンテンツは、代わりに、メインメニューユーザインターフェース又は第3のユーザインターフェース(例えば、第3のユーザインターフェース826)などの、ユーザインターフェースを含むことができる。第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有することができる。更に、第3のユーザインターフェースは、ブロック704においてユーザ入力を検出する前に受信された以前のユーザ要求に関連する以前の結果を含むことができる。表示されたコンテンツがメディアコンテンツを含まないとの判定に従って、ブロック738を実行することができる。
プロセス700のブロック738において、表示ユニット上の第3のユーザインターフェース内に第2の結果の一部分を表示することができる。ブロック704におけるユーザ入力が受信される時点において、表示されたコンテンツが第3のユーザインターフェースをすでに含む実施例では、以前のユーザ要求に関連する以前の結果の表示を第3のユーザインターフェース内の第2の結果の表示の一部分と置換することができる。ブロック704におけるユーザ入力が受信される時点において、表示されたコンテンツが第3のユーザインターフェースを含まない(例えば、表示されたコンテンツがメインメニューユーザインターフェースを含む)実施例では、第3のユーザインターフェースを表示することができ、表示された第3のユーザインターフェース内に第2の結果を含めることができる。
いくつかの実施例では、第2の結果が所定の種類の結果を含むかどうかに関する判定を行うことができる。所定の種類の結果は、表示ユニットの表示区域の過半未満である表示区域に関連付けられることができる。所定の種類の結果は、例えば、株価又は天気に関連する結果を含むことができる。他の実施例では、所定の種類の結果は異なり得ることを認識されたい。第2の結果が所定の種類の結果を含むと判定したことに応じて、表示ユニット上の第2のユーザインターフェース内に第2の結果の一部分を表示することができる。第2のユーザインターフェースは表示ユニットの表示区域の過半未満を占有することができる。これらの実施例では、たとえ、ブロック736において、表示されたコンテンツがメディアコンテンツを含まないと判定されても、第2のユーザインターフェース内に第2の結果の部分を表示することができる。
図8Q〜図8Sはブロック734〜738の例示の実施例を示す。本実施例では、図8Qに示されるように、表示されたコンテンツは第3のユーザインターフェース826を最初に含むことができる。第3のユーザインターフェース826は以前のユーザ要求からの以前の結果を含むことができる。具体的には、第3のユーザインターフェース826は、以前に要求されたメディア検索クエリからのメディアアイテム844を含む。図8Rに示されるように、第3のユーザインターフェース826が表示されている間に、デジタルアシスタントを(例えば、ブロック704において)呼び出すことができる。サンプリングされた音声データ内のユーザ発言は、「Luke Wilson主演の映画を教えてください」を含むことができる。表示ユニット上にユーザ発言のテキスト表現846を表示することができる。本実施例では、ユーザ意図を、LukeWilson主演の映画のメディア検索クエリを実行せよとの要求であると(例えば、ブロック710において)決定することができる。(例えば、ブロック734において)メディア検索クエリを実行し、第2の結果を取得することができる。具体的には、第2の結果は、Luke Wilson主演の映画に対応するメディアアイテム848を含むことができる。更に、ユーザ意図又は以前のユーザ意図に関連する追加の結果(例えば、メディアアイテム850)を取得することができる。これらの追加の結果は、ブロック544において説明された第2の結果と同様の仕方で取得することができる。
図8Q〜図8Sの本実施例では、表示されたコンテンツは第3のユーザインターフェース826のみを含み、それゆえ、表示されたコンテンツが電子デバイス上で再生中のメディアコンテンツを含まないと(例えば、ブロック736において)判定することができる。この判定に応じて、第3のユーザインターフェース826内に第2の結果を表示することができる。具体的には、図8Sに示されるように、第3のユーザインターフェース826内におけるメディアアイテム844の表示を第3のユーザインターフェース826内におけるメディアアイテム848の表示によって置換することができる。更に、第3のユーザインターフェース826内にメディアアイテム850を表示することができる。
本実施例において示されるように、メディアコンテンツが表示ユニット上に表示されていないと判定した後にのみ、第3のユーザインターフェース内に第2の結果を提示することができる。これは、ユーザの実際の意図が満足される可能性を高めるために、より大きな区域内により広範囲の結果が表示されることを可能にする。同時に、第3のユーザインターフェース内に第2の結果を提示する前にメディアコンテンツが表示ユニット上に表示されていないことを確実にすることによって、メディアコンテンツのユーザの消費は中断されない。
ブロック736を再び参照すると、表示されたコンテンツは、メディアデバイス上で再生中であるメディアコンテンツを含むことができる。これらの実施例では、表示されたコンテンツがメディアデバイス上で再生中のメディアコンテンツを含むとの判定を行うことができる。この判定に従って、ブロック740〜746のうちの1つ以上を実行することができる。
プロセス700のブロック740において、再生されているメディアコンテンツを一時停止させることができるかどうかに関する判定を行うことができる。一時停止させることができるメディアコンテンツの例としては、オンデマンド映画及びテレビ番組などの、オンデマンドメディアアイテムを挙げることができる。一時停止させることができないメディアコンテンツの例としては、放送若しくはストリーミングサービスのメディア番組、並びに生中継メディア番組(例えば、スポーツイベント、コンサートなど)を挙げることができる。それゆえ、オンデマンドメディアアイテムは放送又は生中継番組を含まなくてもよい。再生されているメディアコンテンツを一時停止させることができないとのブロック740における判定に従って、ブロック742を実行することができる。プロセス700のブロック742において、表示ユニット上に、第2の結果の一部分を有する第2のユーザインターフェースを表示することができる。ブロック742は、上述されたブロック536と同様であることができる。第2のユーザインターフェースは、メディアコンテンツが表示されている間に表示することができる。表示ユニット上における第2のユーザインターフェースによって占有される表示区域は、表示ユニット上におけるメディアコンテンツによって占有される表示区域よりも小さいものであることができる。再生されているメディアコンテンツを一時停止させることができるとの判定に従って、ブロック744〜746のうちの1つ以上を実行することができる。プロセス700のブロック744において、再生されているメディアコンテンツをメディアデバイス上で一時停止させることができる。プロセス700のブロック746において、第2の結果の一部分を有する第3のユーザインターフェースを表示することができる。第3のユーザインターフェースは、メディアコンテンツが一時停止されている間に表示することができる。
図8T〜図8Wはブロック740〜746の例示の実施例を示す。図8Tに示されるように、表示ユニット上に、メディアデバイス上で再生中のメディアコンテンツ802を表示することができる。メディアコンテンツ802を表示している間に、デジタルアシスタントを(例えば、ブロック704において)アクティブ化することができる。サンプリングされた音声データ内のユーザ発言は、「Luke Wilson主演の映画を教えてください」であることができる。表示ユニット上にユーザ発言のテキスト表現846を表示することができる。上述されたように、ユーザ意図を、Luke Wilson主演の映画のメディアアイテムを取得せよとの要求であると(例えば、ブロック710において)決定することができる。(例えば、ブロック734において)対応するメディア検索クエリを実行し、第2の結果を取得することができる。第2の結果は、Luke Wilson主演の映画のメディアアイテム848を含むことができる。メディアコンテンツ802を一時停止させることができないと(例えば、ブロック744において)判定される実施例では、メディアコンテンツ802が表示ユニット上に表示され続けている間に第2のユーザインターフェース818内にメディアアイテム848を表示することができる(例えば、図8U)。第2のユーザインターフェース818内にメディアアイテム848を表示することは、ユーザ意図を満足するためにメディアアイテム848が表示されている間に、メディアコンテンツ802がユーザ消費のために継続的に利用できることを可能にするために望ましくなり得る。これは、ユーザが、一時停止するか、又は再生し直すことができない、メディアコンテンツ802の任意の部分を見逃してしまうことを防止する。代替的に、メディアコンテンツ802を一時停止させることができると(例えば、ブロック744において)判定される実施例では、メディアデバイス上におけるメディアコンテンツ802の再生を一時停止させることができ、表示ユニット上の第3のユーザインターフェース826内にメディアアイテム848を表示することができる(例えば、図8S)。第3のユーザインターフェース826を表示することは、様々な代替的なユーザ意図に関連付けられたより広範囲のメディアアイテム(例えば、メディアアイテム850)が、要求されたメディアアイテム(例えば、メディアアイテム848)とともに表示されることを可能にするために望ましくなり得、これにより、ユーザの実際の意図が満足される可能性が高くなる。同時に、メディアコンテンツ802は、ユーザがメディアコンテンツ802の任意の部分を見逃さないように、一時停止される。メディアコンテンツ802を一時停止させることができるかどうかに基づいて、メディアアイテム848を表示するために用いられるユーザインターフェースを変更することによって、メディアコンテンツ802のユーザの消費の中断を低減させつつ、ユーザ発言に関連付けられたユーザ意図を包括的に達成することができる。これは全体的なユーザエクスペリエンスを高めることができる。
いくつかの実施例では、図8Vに示されるように、表示されたコンテンツは、メディアデバイス上で再生中のメディアコンテンツ802に加えて、第2のユーザインターフェース818を含むことができる。これらの実施例では、第2のユーザインターフェース818は、以前のユーザ要求(例えば、Reese Witherspoon主演のロマンチックコメディーの要求)に関連するメディアアイテム852を含むことができる。メディアコンテンツ802及び第2のユーザインターフェース818を表示している間に、デジタルアシスタントを(例えば、ブロック704において)呼び出すことができる。図8Wに示されるように、サンプリングされた音声データは、ユーザ発言「Luke Wilson主演の映画を教えてください」を含むことができる。表示ユニット上にユーザ発言のテキスト表現846を表示することができる。このユーザ発言に基づいて、ユーザ意図が、Luke Wilson主演の映画のメディアアイテムを取得せよとの要求であると(例えば、ブロック710において)決定することができる。(例えば、ブロック734において)対応するメディア検索クエリを実行し、第2の結果(例えば、メディアアイテム848)を取得することができる。これらの実施例では、第2のユーザインターフェース818内におけるメディアアイテム852の表示をメディアアイテム848の表示と置換することができる(例えば、図8U)。
図9は、様々な実施例に係る、メディアシステムのデジタルアシスタントと対話するためのプロセス900を示す。プロセス900は、デジタルアシスタントを実装する1つ以上の電子デバイスを用いて実行することができる。例えば、プロセス900は、上述された、システム100、メディアシステム128、メディアデバイス104、ユーザデバイス122、又はデジタルアシスタントシステム400のうちの1つ以上を用いて実行することができる。プロセス900内のいくつかの動作は組み合わせることができ、いくつかの動作の順序は変更することができ、いくつかの動作は省略することができることを理解されたい。
プロセス900のブロック902において、表示ユニット上にコンテンツを表示することができる。ブロック902は、上述されたブロック502と同様又は同一であることができる。いくつかの実施例では、表示されたコンテンツはメディアコンテンツ(例えば、映画、ビデオ、テレビ番組、ビデオゲームなど)を含むことができる。加えて、又は代替的に、表示されたコンテンツはユーザインターフェースを含むことができる。例えば、表示されたコンテンツは、1つ以上の例示的な自然言語要求を有する第1のユーザインターフェースを含むことができる(例えば、図6D〜図6Eに示されているとおりのもの)。他の実施例では、表示されたコンテンツは、以前のユーザ要求からの結果(例えば、以前に要求されたメディアアイテム)を有する第3のユーザインターフェース(例えば、第3のユーザインターフェース626)を含むことができる。第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有することができる。
プロセス900のブロック904において、ブロック902のコンテンツを表示している間に、ユーザ入力を検出することができる。ユーザ入力は、ブロック558において説明された第5のユーザ入力と同様又は同一であることができる。具体的には、ユーザ入力はメディアデバイスの遠隔制御装置上で検出することができる。例えば、ユーザ入力は、遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含むことができる。いくつかの実施例では、ユーザ入力は、メディアデバイスと異なる第2の電子デバイス(例えば、デバイス122)を介して検出することができる。第2の電子デバイスは、メディアデバイスを無線で制御するように構成することができる。ユーザ入力を検出したことに応じて、ブロック906〜914のうちの1つ以上を実行することができる。
プロセス900のブロック906において、表示ユニット上に仮想キーボードインターフェース(例えば、仮想キーボードインターフェース646)を表示することができる。ブロック906は、上述されたブロック562と同様又は同一であることができる。仮想キーボードインターフェースは、第1のユーザインターフェース又は第3のユーザインターフェースの少なくとも一部分上に重ね合わせることができる。更に、表示ユニット上に検索フィールド(例えば、検索フィールド644)を表示することができる。仮想キーボードインターフェースは、仮想キーボードインターフェースを介して受信されたユーザ入力が検索フィールド内へのテキスト記入を生じさせるように構成することができる。
プロセス900のブロック908において、第2の電子デバイス上に(例えば、デバイス122のタッチスクリーン346上に)選択可能なアフォーダンスを表示させることができる。第2の電子デバイスは、メディアデバイスの遠隔制御装置と異なるデバイスであることができる。アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介してメディアデバイスによって受信されることを可能にすることができる。例えば、アフォーダンスの選択は、第2の電子デバイス上に仮想キーボードインターフェース(例えば、仮想キーボードインターフェース646と同様のもの)を表示させることができる。第2の電子デバイスの仮想キーボードインターフェースへの入力は、対応するテキストを検索フィールド(例えば、検索フィールド644)内に記入させることができる。
プロセス900のブロック910において、第2の電子デバイスのキーボード(例えば、仮想キーボードインターフェース)を介してテキスト入力を受信することができる。具体的には、ユーザは第2の電子デバイスのキーボードを介してテキストを入力することができ、テキスト入力はメディアデバイスに伝送され、メディアデバイスによって受信されることができる。テキスト入力はユーザ要求を表現することができる。例えば、テキスト入力は「Jurassic Park」であることができ、これは、検索文字列「Jurassic Park」に関連付けられたメディアアイテムの検索を実行せよとの要求を表現することができる。
プロセス900のブロック912において、ユーザ要求を少なくとも部分的に満足する結果を取得することができる。例えば、テキスト入力を用いてメディア検索を実行することができ、対応するメディアアイテムを取得することができる。テキスト入力が「Jurassic Park」である特定の実施例では、タイトル「Jurassic Park」を有するか、又は映画「Jurassic Park」と共通の俳優若しくは監督を有するメディアアイテムを取得することができる。テキスト入力が「Reese Witherspoon」である別の実施例では、Reese Witherspoonが女優であるメディアアイテムを取得することができる。
プロセス900のブロック914において、表示ユニット上にユーザインターフェースを表示することができる。ユーザインターフェースは結果の少なくとも一部分を含むことができる。例えば、ユーザインターフェースは、ブロック912において実行されたメディア検索の結果として取得されたメディアアイテムを含むことができる。
プロセス500、700、及び900の特定のブロックは、以上において、デバイス又はシステム(例えば、メディアデバイス104、ユーザデバイス122、又はデジタルアシスタントシステム400)によって実行されるように説明されているが、いくつかの実施例では、ブロックを実行するために、1つを超えるデバイスを用いることができることを認識されたい。例えば、判定が行われるブロックでは、第1のデバイス(例えば、メディアデバイス104)が第2のデバイス(例えば、サーバシステム108)から判定を取得することができる。同様に、コンテンツ、オブジェクト、テキスト、又はユーザインターフェースが表示されるブロックでは、第1のデバイス(例えば、メディアデバイス104)が第2のデバイス(例えば、表示ユニット126)上にコンテンツ、オブジェクト、テキスト、又はユーザインターフェースを表示させることができる。
5.電子デバイス
いくつかの実施例に基づき、図10は、例えば、メディア再生の音声制御、及び仮想アシスタントの知識のリアルタイム更新を提供するための、説明されている様々な実施例の原理に従って構成された電子デバイス1000の機能ブロック図を示す。デバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてもよい。図10で説明する機能ブロックが、説明される様々な実施例の原理を実施するために、組み合わされ、又はサブブロックに分離され得ることが当業者に理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図10に示されるように、電子デバイス1000は、触知入力、ジェスチャ入力などの、ユーザ入力を受信するように構成された入力ユニット1003(例えば、遠隔制御装置124、又は同様のもの)と、音声データを受信するように構成された音声入力ユニット1004(例えば、マイクロフォン272、又は同様のもの)と、音声を出力するように構成されたスピーカユニット106(例えば、スピーカ268、又は同様のもの)と、ネットワークを介して外部デバイスから情報を送信及び受信するように構成された通信ユニット1007(例えば、通信サブシステム224、又は同様のもの)と、を含むことができる。いくつかの実施例では、電子デバイス1000は、メディア、インターフェース、及びその他のコンテンツを表示するように構成された表示ユニット1002(例えば、表示ユニット126、又は同様のもの)を任意選択的に含むことができる。電子デバイス1000は、入力ユニット1003、音声入力ユニット1004、スピーカユニット1006、通信ユニット1007、及び任意選択的に表示ユニット1002に結合された処理ユニット1008を更に含むことができる。いくつかの実施例では、処理ユニット1008は、表示可能化ユニット1010、検出ユニット1012、判定ユニット1014、サンプリングユニット1016、出力ユニット1018、実行ユニット1020、取得ユニット1022、及び切り換えユニット1024を含むことができる。
いくつかの実施形態によれば、処理ユニット1008は、表示ユニット(例えば、表示ユニット1002又は別個の表示ユニット)上にコンテンツを(例えば、表示可能化ユニット1010を用いて)表示するように構成される。処理ユニット1008は、ユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、ユーザ入力が第1の入力形式に対応するかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。処理ユニット1008は、ユーザ入力が第1の入力形式に対応するとの判定に従って、表示ユニット上に、複数の例示的な自然言語要求を(例えば、表示可能化ユニット1010)表示されるように更に構成される。複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連し、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる。
いくつかの実施例では、ユーザ入力は電子デバイスの遠隔制御装置上で検出される。いくつかの実施例では、第1の入力形式は、遠隔制御装置のボタンを押下し、ボタンを所定の期間以内に放すことを含む。いくつかの実施例では、複数の例示的な自然言語要求は表示ユニット上に第1のユーザインターフェースを介して表示され、第1のユーザインターフェースは、表示されたコンテンツ上に重ね合わせられる。いくつかの実施例では、表示されたコンテンツはメディアコンテンツを含み、メディアコンテンツは、複数の例示的な自然言語要求を表示している間に再生し続ける。
いくつかの実施例では、処理ユニット1008は、ユーザ入力が第1の入力形式に対応するとの判定に従って、表示ユニット上に、デジタルアシスタントが音声入力を処理していないことを指示する視覚的インジケータを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、ユーザ入力が第1の入力形式に対応すると判定すると、複数の例示的な自然言語要求は所定の時間の後に表示ユニット上に表示される。いくつかの実施例では、複数の例示的な自然言語要求の各々は所定の順序で異なる時間に別個に表示される。
いくつかの実施例では、処理ユニット1008は、例示的な自然言語要求の複数のリストを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成され、各リストは異なる時間に交代で表示される。
いくつかの実施例では、処理ユニット1008は、ユーザ入力が第1の入力形式に対応しないとの判定に従って、ユーザ入力が第2の入力形式に対応するかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。処理ユニット1008は、ユーザ入力が第2の入力形式に対応するとの判定に従って、音声データを(例えば、サンプリングユニット1016及び音声入力ユニット1004を用いて)サンプリングするように更に構成される。処理ユニット1008は、音声データがユーザ要求を包含するかどうか(例えば、判定ユニット1014を用いて)判定されるように更に構成される。処理ユニット1008は、音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを(例えば、実行ユニット1020を用いて)実行するように更に構成される。
いくつかの実施例では、第2の入力形式は、電子デバイスの遠隔制御装置のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくことを含む。
いくつかの実施例では、処理ユニット1008は、音声データがユーザ要求を包含しないとの判定に従って、表示ユニット上に、ユーザ意図の明確化の要求を(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、表示されたコンテンツはメディアコンテンツを含み、メディアコンテンツは、音声データをサンプリングしている間、及びタスクを実行している間に、電子デバイス上で再生し続ける。
いくつかの実施例では、処理ユニット1008は、(例えば、スピーカユニット1006を用いて)メディアコンテンツに関連付けられた音声を(例えば、出力ユニット1018を用いて)出力するように更に構成される。処理ユニット1008は、ユーザ入力が第2の入力形式に対応するとの判定に従って、音声の振幅を(例えば、出力ユニット1018を用いて)低減するように更に構成される。
いくつかの実施例では、タスクは、このタスクに関連する発語を電子デバイスから出力することなく実行される。いくつかの実施例では、音声データは、ユーザ入力を検出している間にサンプリングされる。いくつかの実施例では、音声データは、ユーザ入力を検出した後の所定の期間の間にサンプリングされる。
いくつかの実施例では、音声データは、電子デバイスの遠隔制御装置上の第1のマイクロフォン(例えば、音声入力ユニット1004)を介してサンプリングされる。処理ユニット1008は、音声データをサンプリングしている間に、遠隔制御装置上の第2のマイクロフォン(例えば、電子デバイス1000の第2の音声入力ユニット)を介して背景音声データを(例えば、サンプリングユニット1016及び音声入力ユニット1004を用いて)サンプリングするように更に構成される。処理ユニット1008は、背景音声データを用いて音声データ内の背景ノイズを(例えば、出力ユニット1018を用いて)除去するように更に構成される。
いくつかの実施例では、表示されたコンテンツに関連付けられた音声が音声信号を介して電子デバイスから出力される。処理ユニット1008は、音声信号を用いて音声データ内の背景ノイズを(例えば、出力ユニット1018を用いて)除去するように更に構成される。
いくつかの実施例では、処理ユニット1008は、ユーザ入力を検出したことに応じて、表示ユニット上に、ユーザに、発語要求を提供するように促す視覚キューを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、処理ユニット1008は、ユーザ要求を少なくとも部分的に満足する結果を(例えば、取得ユニット1022を用いて)取得するように更に構成される。処理ユニット1008は、表示ユニット上に第2のユーザインターフェースを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。第2のユーザインターフェースは結果の一部分を含み、コンテンツの少なくとも一部分は、第2のユーザインターフェースが表示されている間に表示され続け、表示ユニット上における第2のユーザインターフェースの表示区域は表示ユニット上におけるコンテンツの少なくとも一部分の表示区域よりも小さい。いくつかの実施例では、第2のユーザインターフェースは、表示されたコンテンツ上に重ね合わせられる。
いくつかの実施例では、結果の部分は1つ以上のメディアアイテムを含む。処理ユニット1008は、第2のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を(例えば、検出ユニット1012を用いて)受信するように更に構成される。処理ユニット1008は、表示ユニット上に、選択されたメディアアイテムに関連付けられたメディアコンテンツを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、処理ユニット1008は、第2のユーザインターフェースを表示している間に、第2のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第2のユーザ入力を検出したことに応じて、第2のユーザインターフェースを表示するのを(例えば、表示可能化ユニット1010を用いて)中止するように更に構成される。
いくつかの実施例では、第2のユーザ入力は電子デバイスの遠隔制御装置上で検出される。第2のユーザ入力は、遠隔制御装置のタッチ感知面上における第1の所定の運動パターンを含む。
いくつかの実施例では、処理ユニット1008は、第2のユーザインターフェースを表示している間に、第3のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースの表示を表示ユニット上における第3のユーザインターフェースの表示と(例えば、表示可能化ユニット1010を用いて)置換するように更に構成される。第3のユーザインターフェースは結果の少なくとも部分を含み、第3のユーザインターフェースは、表示ユニットの表示区域の少なくとも過半を占有する。
いくつかの実施例では、第3のユーザ入力は電子デバイスの遠隔制御装置上で検出され、第3のユーザ入力は遠隔制御装置のタッチ感知面上における第2の所定の運動パターンを含む。
いくつかの実施例では、処理ユニット1008は、第3のユーザ入力を検出したことに応じて、結果と異なる第2の結果を(例えば、取得ユニット1022を用いて)取得するように更に構成される。第2の結果はユーザ要求を少なくとも部分的に満足し、第3のユーザインターフェースは第2の結果の少なくとも一部分を含む。
いくつかの実施例では、第2の結果は、ユーザ入力を検出する前に受信されたユーザ要求に基づく。いくつかの実施例では、第3のユーザ入力が検出される間に第2のユーザインターフェースのフォーカスは結果の部分のアイテム上にあり、第2の結果はアイテムにコンテクスト上関連する。
いくつかの実施例では、表示されたコンテンツはメディアコンテンツを含む。処理ユニット1008は、第3のユーザ入力を検出したことに応じて、電子デバイス上におけるメディアコンテンツの再生を(例えば、実行ユニット1020を用いて)一時停止するように更に構成される。
いくつかの実施例では、結果の少なくとも部分は1つ以上のメディアアイテムを含む。処理ユニット1008は、第3のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を(例えば、検出ユニット1012を用いて)受信するように更に構成される。処理ユニット1008は、表示ユニット上に、メディアアイテムに関連付けられたメディアコンテンツを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、処理ユニット1008は、第3のユーザインターフェースを表示している間に、表示ユニット上における方向に関連付けられた第4のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第4のユーザ入力を検出したことに応じて、第3のユーザインターフェースのフォーカスを第1のアイテムから第3のユーザインターフェース上の第2のアイテムへ(例えば、切り換えユニット1024を用いて)切り換えるように更に構成される。第2のアイテムは第1のアイテムに対して上記の方向に位置付けられている。
いくつかの実施例では、処理ユニット1008は、第3のユーザインターフェースを表示している間に、第5のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第5のユーザ入力を検出したことに応じて、検索フィールドを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。処理ユニット1008は、表示ユニット上に仮想キーボードインターフェースを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成され、仮想キーボードインターフェースを介して受信された入力は検索フィールド内へのテキスト記入を生じさせる。
いくつかの実施例では、処理ユニット1008は、第3のユーザインターフェースを表示している間に、第6のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第6のユーザ入力を検出したことに応じて、第2の音声データを(例えば、サンプリングユニット1016及び音声入力ユニット1004を用いて)サンプリングするように更に構成される。第2の音声データは第2のユーザ要求を包含する。処理ユニット1008は、第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。処理ユニット1008は、第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、第3のユーザインターフェースを介して結果のサブセットを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、結果のサブセットは第3のユーザインターフェースの最上段に表示される。処理ユニット1008は、第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求でないとの判定に従って、第2のユーザ要求を少なくとも部分的に満足する第3の結果を(例えば、取得ユニット1018を用いて)取得するように更に構成される。処理ユニット1008は、第3のユーザインターフェースを介して第3の結果の一部分を(例えば、表示可能化ユニット101を用いて)表示するように更に構成される。いくつかの実施例では、第3の結果の部分は第3のユーザインターフェースの最上段に表示される。
いくつかの実施例では、処理ユニット1008は、ユーザ要求又は第2のユーザ要求を少なくとも部分的に満足する第4の結果を(例えば、取得ユニット1022を用いて)取得するように更に構成される。処理ユニット1008は、第3のユーザインターフェースを介して第4の結果の一部分を(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、第4の結果の部分は第3のユーザインターフェースの最上段の後の段に表示される。
いくつかの実施例では、第6のユーザ入力が検出される間に第3のユーザインターフェースのフォーカスは第3のユーザインターフェースの1つ以上のアイテム上にあり、第4の結果は1つ以上のアイテムにコンテクスト上関連する。
いくつかの実施例では、処理ユニット1008は、第3のユーザインターフェースを表示している間に、第7のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第7のユーザ入力を検出したことに応じて、第3のユーザインターフェースを表示するのを(例えば、表示可能化ユニット1010を用いて)中止するように更に構成される。
いくつかの実施例では、表示されたコンテンツはメディアコンテンツであり、第3のユーザ入力を検出したことに応じて、電子デバイス上におけるメディアコンテンツの再生は一時停止される。処理ユニット1008は、第7のユーザ入力を検出したことに応じて、電子デバイス上におけるメディアコンテンツの再生を(例えば、実行ユニット1020を用いて)再開するように更に構成される。いくつかの実施例では、第7のユーザ入力は、電子デバイスの遠隔制御装置のメニューボタンを押下することを含む。
いくつかの実施形態によれば、処理ユニット1008は、表示ユニット上にコンテンツを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。処理ユニット1008は、コンテンツを表示している間に、ユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、ユーザ入力を検出したことに応じて、表示ユニット上にユーザインターフェースを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。ユーザインターフェースは、表示されたコンテンツにコンテクスト上関連する複数の例示的な自然言語要求を含み、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することは、デジタルアシスタントにそれぞれのアクションを実行させる。
いくつかの実施例では、表示されたコンテンツはメディアコンテンツを含む。いくつかの実施例では、複数の例示的な自然言語要求は、メディアコンテンツに関連付けられた1つ以上の設定を変更せよとの自然言語要求を含む。いくつかの実施例では、メディアコンテンツは、ユーザインターフェースが表示されている間に再生し続ける。
いくつかの実施例では、処理ユニット1008は、メディアコンテンツに関連付けられた音声を(例えば、出力ユニット1018を用いて)出力するように更に構成される。ユーザ入力を検出したことに応じて音声の振幅は低減させられない。いくつかの実施例では、表示されたコンテンツはメインメニューユーザインターフェースを含む。
いくつかの実施例では、複数の例示的な自然言語要求は、デジタルアシスタントの複数の中核能力の各々に関連する例示的な自然言語要求を含む。いくつかの実施例では、表示されたコンテンツは、以前のユーザ要求に関連付けられた結果を有する第2のユーザインターフェースを含む。いくつかの実施例では、複数の例示的な自然言語要求は、結果を絞り込めとの自然言語要求を含む。いくつかの実施例では、ユーザインターフェースは、デジタルアシスタントを呼び出し、それと対話するためのテキストによる教示を含む。いくつかの実施例では、ユーザインターフェースは、デジタルアシスタントが音声入力を受信していないことを指示する視覚的インジケータを含む。いくつかの実施例では、ユーザインターフェースは、表示されたコンテンツ上に重ね合わせられる。
いくつかの実施例では、処理ユニット1008は、ユーザ入力を検出したことに応じて、ユーザインターフェースを目立たせるために、表示されたコンテンツの明るさを(例えば、表示可能化ユニット1010を用いて)低減するように更に構成される。
いくつかの実施例では、ユーザ入力は電子デバイスの遠隔制御装置上で検出される。いくつかの実施例では、ユーザ入力は、遠隔制御デバイスのボタンを押下し、ボタンを、ボタンを押下した後の所定の期間以内に放すことを含む。いくつかの実施例では、ボタンは、デジタルアシスタントを呼び出すように構成される。いくつかの実施例では、ユーザインターフェースは、仮想キーボードインターフェースを表示するためのテキストによる教示を含む。
いくつかの実施例では、処理ユニット1008は、ユーザインターフェースを表示した後に、第2のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第2のユーザ入力を検出したことに応じて、表示ユニット上に仮想キーボードインターフェースを(例えば、表示ユニット1012を用いて)表示するように更に構成される。
いくつかの実施例では、処理ユニット1008は、ユーザインターフェースのフォーカスをユーザインターフェース上の検索フィールドへ(例えば、表示可能化ユニット1010を用いて)変更するように更に構成される。いくつかの実施例では、検索フィールドは、仮想キーボードインターフェースを介してテキスト検索クエリを受信するように構成される。いくつかの実施例では、仮想キーボードインターフェースは、デジタルアシスタントと対話するために用いられることができない。いくつかの実施例では、第2のユーザ入力は、電子デバイスの遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含む。
いくつかの実施例では、複数の例示的な自然言語要求は、ユーザ入力を検出した後の所定の時間における表示である。いくつかの実施例では、処理ユニット1008は、複数の例示的な自然言語要求の各々を所定の順序で1つずつ(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。いくつかの実施例では、処理ユニット1008は、複数の例示的な自然言語要求のうちの以前に表示された例示的な自然言語要求の表示を複数の例示的な自然言語要求のうちの後続の例示的な自然言語要求と(例えば、表示可能化ユニット1010を用いて)置換するように更に構成される。
いくつかの実施例では、コンテンツは、1つ以上のアイテムを有する第2のユーザインターフェースを含む。ユーザ入力が検出された時に、第2のユーザインターフェースのフォーカスは1つ以上のアイテムのうちのアイテム上にある。複数の例示的な自然言語要求は1つ以上のアイテムのうちのアイテムにコンテクスト上関連する。
いくつかの実施形態によれば、処理ユニット1008は、表示ユニット上にコンテンツを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。処理ユニット1008は、ユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、ユーザ入力を検出したことに応じて、自然言語発言の1つ以上の提案例を(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。1つ以上の提案例は、表示されたコンテンツにコンテクスト上関連し、ユーザによって発言されると、デジタルアシスタントに、対応するアクションを実行させる。
いくつかの実施例では、処理ユニット1008は、第2のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第2のユーザ入力を検出したことに応じて、音声データを(例えば、サンプリングユニット1016を用いて)サンプリングするように更に構成される。処理ユニット1008は、サンプリングされた音声データが自然言語発言の1つ以上の提案例のうちの1つを包含するかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。処理ユニット1008は、サンプリングされた音声データが自然言語発言の1つ以上の提案例のうちの1つを包含するとの判定に従って、発言に対する対応するアクションを(例えば、実行ユニット1020を用いて)実行するように更に構成される。
いくつかの実施形態によれば、処理ユニット1008は、表示ユニット上にコンテンツを(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。処理ユニット1008は、コンテンツを表示している間に、ユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、ユーザ入力を検出したことに応じて、音声データを(例えば、サンプリングユニット1016を用いて)サンプリングするように更に構成される。音声データは、メディア検索要求を表現するユーザ発言を含む。処理ユニット1008は、メディア検索要求を満足する複数のメディアアイテムを(例えば、取得ユニット1022を用いて)取得するように更に構成される。処理ユニット1008は、表示ユニット上に、ユーザインターフェースを介して複数のメディアアイテムの少なくとも一部分を(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。
いくつかの実施例では、コンテンツは、複数のメディアアイテムの少なくとも一部分が表示されている間に表示ユニット上に表示され続ける。ユーザインターフェースによって占有される表示区域は、コンテンツによって占有される表示区域よりも小さい。
いくつかの実施例では、処理ユニット1008は、複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるとの判定に従って、複数のメディアアイテムの少なくとも一部分は複数のメディアアイテムを含む。
いくつかの実施例では、複数のメディアアイテム内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、複数のメディアアイテムの少なくとも一部分内のメディアアイテムの数は所定の数に等しい。
いくつかの実施例では、複数のメディアアイテムの各々は、メディア検索要求に関する関連性スコアに関連付けられ、複数のメディアアイテムの少なくとも一部分の関連性スコアは複数のメディアアイテムの間で最も高い。
いくつかの実施例では、複数のメディアアイテムの少なくとも一部分の各々は人気格付けに関連付けられ、複数のメディアアイテムの少なくとも一部分はユーザインターフェース内において人気格付けに基づいて配列される。
いくつかの実施例では、処理ユニット1008は、複数のメディアアイテムの少なくとも一部分を表示している間に、第2のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第2のユーザ入力を検出したことに応じて、ユーザインターフェースを、表示ユニットの表示区域の少なくとも過半を占有するように(例えば、表示可能化ユニット1010を用いて)拡大するように更に構成される。
いくつかの実施例では、処理ユニット1008は、第2のユーザ入力を検出したことに応じて、複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。処理ユニット1008は、複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるとの判定に従って、メディア検索要求を少なくとも部分的に満足する第2の複数のメディアアイテムを取得するように更に構成され、第2の複数のメディアアイテムはメディアアイテムの少なくとも一部分と異なる。処理ユニット1008は、拡大されたユーザインターフェースを介して、表示ユニット上に第2の複数のメディアアイテムを(例えば、表示可能化ユニット101を用いて)表示するように更に構成される。
いくつかの実施例では、処理ユニット1008は、メディア検索要求が、1つを超える検索パラメータを含むかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。メディア検索要求が、1つを超える検索パラメータを含むとの判定に従って、第2の複数のメディアアイテムは、拡大されたユーザインターフェース内において、メディア検索要求の1つを超える検索パラメータに従って整理される。
いくつかの実施例では、処理ユニット1008は、複数のメディアアイテム内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、拡大されたユーザインターフェースを介して複数のメディアアイテムの少なくとも第2の部分を(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。複数のメディアアイテムの少なくとも第2の部分は複数のメディアアイテムの少なくとも一部分と異なる。
いくつかの実施例では、複数のメディアアイテムの少なくとも第2の部分は2つ以上のメディア種別を含み、複数のメディアアイテムの少なくとも第2の部分は、拡大されたユーザインターフェース内において、2つ以上のメディア種別の各メディア種別に従って整理される。
いくつかの実施例では、処理ユニット1008は、第3のユーザ入力を(例えば、検出ユニット1012を用いて)検出するように更に構成される。処理ユニット1008は、第3のユーザ入力を検出したことに応じて、拡大されたユーザインターフェースに(例えば、表示可能化ユニット1010を用いて)スクロールさせるように更に構成される。処理ユニット1008は、拡大されたユーザインターフェースが、拡大されたユーザインターフェース上の所定の位置を越えてスクロールしたかどうかを(例えば、判定ユニット1014を用いて)判定するように更に構成される。処理ユニット1008は、拡大されたユーザインターフェースが、拡大されたユーザインターフェース上の所定の位置を越えてスクロールしたと判定したことに応じて、拡大されたユーザインターフェース上に複数のメディアアイテムの少なくとも第3の部分を(例えば、表示可能化ユニット1010を用いて)表示するように更に構成される。複数のメディアアイテムの少なくとも第3の部分は、拡大されたユーザインターフェース上において、第3の複数のメディアアイテムに関連付けられた1つ以上のメディアコンテンツプロバイダに従って整理される。
以上において図5A〜図5Iを参照して説明された動作は、任意選択的に、図1〜図3及び図4A〜図4Bに示される構成要素によって実施される。例えば、表示動作502、508〜514、520、524、530、536、546、556、560、562、576、582、588、592、検出動作504、538、542、550、558、566、570、判定動作506、516、522、526、528、574、578、サンプリング動作518、572、実行動作532、584、取得動作534、544、580、586、590、中止動作540、568、受信ユニット554、及び切り換え動作552、564は、オペレーティングシステム252、GUIモジュール256、アプリケーションモジュール262、デジタルアシスタントモジュール426、及びプロセッサ(単数又は複数)204、404のうちの1つ以上によって実施されてもよい。当業者にとって、他のプロセスが、図1〜図3及び図4A〜図4Bに示される構成要素に基づいてどのように実施されるのかは明らかであろう。
いくつかの実施例に基づき、図11は、例えば、メディア再生の音声制御、及び仮想アシスタントの知識のリアルタイム更新を提供するための、説明されている様々な実施例の原理に従って構成された電子デバイス1100の機能ブロック図を示す。デバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてもよい。図11で説明する機能ブロックが、説明される様々な実施例の原理を実施するために、組み合わされ、又はサブブロックに分離され得ることが当業者に理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図11に示されるように、電子デバイス1100は、触知入力、ジェスチャ入力などの、ユーザ入力を受信するように構成された入力ユニット1103(例えば、遠隔制御装置124、又は同様のもの)と、音声データを受信するように構成された音声入力ユニット1104(例えば、マイクロフォン272、又は同様のもの)と、音声を出力するように構成されたスピーカユニット116(例えば、スピーカ268、又は同様のもの)と、ネットワークを介して外部デバイスから情報を送信及び受信するように構成された通信ユニット1107(例えば、通信サブシステム224、又は同様のもの)と、を含むことができる。いくつかの実施例では、電子デバイス1100は、メディア、インターフェース、及びその他のコンテンツを表示するように構成された表示ユニット1102(例えば、表示ユニット126、又は同様のもの)を任意選択的に含むことができる。電子デバイス1100は、入力ユニット1103、音声入力ユニット1104、スピーカユニット1106、通信ユニット1107、及び任意選択的に表示ユニット1102に結合された処理ユニット1108を更に含むことができる。いくつかの実施例では、処理ユニット1108は、表示可能化ユニット1110、検出ユニット1112、判定ユニット1114、サンプリングユニット1116、出力ユニット1118、実行ユニット1120、取得ユニット1122、特定ユニット1124、及び伝送ユニット1126を含むことができる。
いくつかの実施形態によれば、処理ユニット1108は、表示ユニット(例えば、表示ユニット1102又は別個の表示ユニット)上にコンテンツを(例えば、表示可能化ユニット1110を用いて)表示するように構成される。処理ユニット1108は、コンテンツを表示している間に、ユーザ入力を(例えば、検出ユニット1112を用いて)検出するように更に構成される。処理ユニット1108は、ユーザ入力を検出したことに応じて、音声データを(例えば、サンプリングユニット1016及び音声入力ユニット1104を用いて)サンプリングするように更に構成される。音声データはユーザ発言を含む。処理ユニット1108は、ユーザ発言に対応するユーザ意図の決定を(例えば、取得ユニット1122を用いて)取得するように更に構成される。処理ユニット1108は、ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を(例えば、取得ユニット1122を用いて)取得するように更に構成される。処理ユニット1108は、ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、アプリケーションの状態又は設定を、ユーザ意図を満足するように(例えば、タスク実行ユニット1120を用いて)調整するように更に構成される。
いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、特定のメディアアイテムを再生せよとの要求を含む。アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することは、特定のメディアアイテムを再生することを含む。
いくつかの実施例では、表示されたコンテンツは、メディアアイテムを有するユーザインターフェースを含み、ユーザ発言は、再生されるべき特定のメディアアイテムを明示的に限定しない。処理ユニット1108は、ユーザインターフェースのフォーカスがメディアアイテム上にあるかどうかを(例えば、判定ユニット1114を用いて)判定するように更に構成される。処理ユニット1108は、ユーザインターフェースのフォーカスがメディアアイテム上にあるとの判定に従って、メディアアイテムを、再生されるべき特定のメディアアイテムとして(例えば、特定ユニット1124を用いて)特定するように更に構成される。
いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、電子デバイス上のアプリケーションを起動せよとの要求を含む。いくつかの実施例では、表示されたコンテンツは、電子デバイス上で再生中のメディアコンテンツを含み、状態又は設定は、電子デバイス上で再生されているメディアコンテンツに関連する。いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、電子デバイス上で再生中のメディアコンテンツを早送り又は巻き戻しせよとの要求を含む。いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、メディアコンテンツの特定の部分を再生するためにメディアコンテンツ内で前方又は後方へ飛び越せとの要求を含む。いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、電子デバイス上におけるメディアコンテンツの再生を一時停止せよとの要求を含む。いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、メディアコンテンツの字幕をオンにするか、又はオフにせよとの要求を含む。
いくつかの実施例では、表示されたコンテンツは、第1のメディアアイテム及び第2のメディアアイテムを有するユーザインターフェースを含む。
いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、ユーザインターフェースのフォーカスを第1のメディアアイテムから第2のメディアアイテムへ切り換えよとの要求を含む。アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することは、ユーザインターフェースのフォーカスを第1のメディアアイテムから第2のメディアアイテムへ切り換えることを含む。
いくつかの実施例では、表示されたコンテンツは、メディアデバイス上で再生中のメディアコンテンツを含む。ユーザ発言は、ユーザが、メディアコンテンツに関連付けられた音声の一部分が聞こえなかったことを指示する自然言語表現である。電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、ユーザが聞こえなかった音声の部分に対応するメディアコンテンツの一部分を再生し直せとの要求を含む。処理ユニット1108は、メディアコンテンツをメディアコンテンツの以前の部分まで所定の量だけ(例えば、タスク実行ユニット1120を用いて)巻き戻し、メディアコンテンツの再生を以前の部分から(例えば、タスク実行ユニット1120を用いて)再スタートするように更に構成される。
いくつかの実施例では、処理ユニット1108は、メディアコンテンツの再生を以前の部分から再スタートする前にクローズドキャプションを(例えば、タスク実行ユニット1120を用いて)オンにするように更に構成される。
いくつかの実施例では、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求は、メディアコンテンツに関連付けられた音声の音量を上げよとの要求を更に含む。アプリケーションの状態又は設定を調整することは、メディアコンテンツの再生を以前の部分から再スタートする前に、メディアコンテンツに関連付けられた音声の音量を上げることを更に含む。
いくつかの実施例では、メディアコンテンツに関連付けられた音声内の発語はテキストに変換される。アプリケーションの状態又は設定を調整することは、メディアコンテンツの再生を以前の部分から再スタートする間にテキストの一部分を表示することを更に含む。
いくつかの実施例では、処理ユニット1108は、ユーザ発言に関連付けられたユーザの感情の判定を(例えば、取得ユニット1122を用いて)取得するように更に構成される。ユーザ意図は、判定されたユーザの感情に基づいて決定される。
いくつかの実施例では、処理ユニット1108は、ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を(例えば、取得ユニット1122を用いて)取得するように更に構成される。処理ユニット1108は、ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、ユーザ意図を少なくとも部分的に満足する結果を(例えば、取得ユニット1122を用いて)取得し、表示ユニット上に、結果をテキスト形式で(例えば、表示可能化ユニット1110を用いて)表示するように更に構成される。
いくつかの実施例では、複数の所定の要求種別は、特定のロケーションにおける現在の時間の要求を含む。いくつかの実施例では、複数の所定の要求種別は、ジョークを提示せよとの要求を含む。いくつかの実施例では、複数の所定の要求種別は、電子デバイス上で再生されているメディアコンテンツに関する情報の要求を含む。いくつかの実施例では、テキスト形式の結果は、表示されたコンテンツ上に重ね合わせられる。いくつかの実施例では、表示されたコンテンツは、電子デバイス上で再生中のメディアコンテンツを含み、メディアコンテンツは、テキスト形式の結果が表示されている間に再生し続ける。
いくつかの実施例では、処理ユニット1108は、ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、第2のユーザ意図を少なくとも部分的に満足する結果を(例えば、取得ユニット1122を用いて)取得し、表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むかどうかを(例えば、判定ユニット1114を用いて)判定するように更に構成される。処理ユニット1108は、表示されたコンテンツがメディアコンテンツを含むとの判定に従って、メディアコンテンツが一時停止されることができるかどうかを(例えば、判定ユニット1114)判定するように更に構成される。処理ユニット1108は、メディアコンテンツが一時停止されることができないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第2のユーザインターフェースを(例えば、表示可能化ユニット1110)表示するように更に構成される。表示ユニット上における第2のユーザインターフェースによって占有される表示区域は、表示ユニット上におけるメディアコンテンツによって占有される表示区域よりも小さい。
いくつかの実施例では、ユーザ意図は特定のロケーションの天気予報の要求を含む。ユーザ意図は、スポーツチーム又は運動選手に関連付けられた情報の要求を含む。いくつかの実施例では、ユーザ意図はメディア検索クエリでなく、第2の結果は、ユーザ意図を少なくとも部分的に満足するメディアコンテンツを有する1つ以上のメディアアイテムを含む。いくつかの実施例では、第2の結果は、ユーザ意図を少なくとも部分的に満足する非メディアデータを更に含む。いくつかの実施例では、ユーザ意図はメディア検索クエリであり、第2の結果は、メディア検索クエリに対応する複数のメディアアイテムを含む。
いくつかの実施例では、処理ユニット1108は、表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを(例えば、表示可能化ユニット1110を用いて)表示するように更に構成され、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する。
いくつかの実施例では、表示コンテンツはメインメニューユーザインターフェースを含む。
いくつかの実施例では、表示されたコンテンツは、ユーザ入力を検出する前に受信された以前のユーザ要求に関連する以前の結果を有する第3のユーザインターフェースを含む。表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、第3のユーザインターフェース内における以前の結果の表示は第2の結果の表示と置換される。
いくつかの実施例では、処理ユニット1108は、表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むとの判定に従って、表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する第2のユーザインターフェースを含むかどうかを(例えば、判定ユニット1114を用いて)判定するように更に構成される。表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する第2のユーザインターフェースを含むとの判定に従って、以前の結果は第2の結果と置換される。
いくつかの実施例では、処理ユニット1108は、メディアコンテンツが一時停止されることができるとの判定に従って、電子デバイス上におけるメディアコンテンツの再生を(例えば、タスク実行ユニット1120を用いて)一時停止し、表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを(例えば、表示可能化ユニット1110を用いて)表示するように更に構成され、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する。
いくつかの実施例では、処理ユニット1108は、音声データを、自然言語処理を実行するためにサーバへ(例えば、伝送ユニット1126を用いて、及び通信ユニット1107を使用して)伝送し、サーバに、音声データがメディアアプリケーションに関連付けられていることを(例えば、伝送ユニット1126を用いて)指示するように更に構成される。指示は、自然言語処理をメディア関連のユーザ意図へ偏向させる。
いくつかの実施例では、処理ユニット1108は、音声データを、発語テキスト化処理を実行するためにサーバへ(例えば、伝送ユニット1126)伝送するように更に構成される。
いくつかの実施例では、処理ユニット1108は、サーバに、音声データがメディアアプリケーションに関連付けられていることを(例えば、伝送ユニット1126を用いて)指示するように更に構成される。指示は発語テキスト化処理をメディア関連のテキスト結果へ偏向させる。
いくつかの実施例では、処理ユニット1108は、ユーザ発言のテキスト表現を(例えば、取得ユニット1122を用いて)取得するように更に構成され、テキスト表現は、音声データをサンプリングする前に受信された以前のユーザ発言に基づく。
いくつかの実施例では、テキスト表現は、音声データをサンプリングする前に以前のユーザ発言が受信された時間に基づく。
いくつかの実施例では、処理ユニット1108は、ユーザ意図が、電子デバイスに関連付けられた複数の中核能力のうちの1つに対応しないとの判定を(例えば、取得ユニット1122を用いて)取得するように更に構成される。処理ユニット1108は、第2の電子デバイスに、ユーザ意図を満足することを助成するためのタスクを(例えば、タスク実行ユニット1120を用いて)実行させるように更に構成される。
いくつかの実施例では、処理ユニット1108は、ユーザ発言が曖昧な用語を含むかどうかの判定を(例えば、取得ユニット1122を用いて)取得するように更に構成される。処理ユニット1108は、ユーザ発言が曖昧な用語を含むとの判定を取得したことに応じて、曖昧な用語に基づいて2つ以上のユーザ意図の候補を(例えば、取得ユニット1122を用いて)取得し、表示ユニット上に2つ以上のユーザ意図の候補を(例えば、表示可能化ユニット1110を用いて)表示するように更に構成される。
いくつかの実施例では、処理ユニット1108は、2つ以上のユーザ意図の候補を表示している間に、2つ以上のユーザ意図の候補のうちの1つのユーザ選択を(例えば、検出ユニット1112を用いて)受信するように更に構成される。ユーザ意図はユーザ選択に基づいて決定される。
いくつかの実施例では、処理ユニット1108は、第2のユーザ入力を(例えば、検出ユニットを用いて)検出するように更に構成される。処理ユニット1108は、第2のユーザ入力を検出したことに応じて、第2の音声データを(例えば、サンプリングユニット1116を用いて)サンプリングするように更に構成される。第2の音声データは、ユーザ選択を表現する第2のユーザ発言を含む。
いくつかの実施例では、2つ以上の解釈は、2つ以上のユーザ意図の候補に関連付けられた発語を出力することなく表示される。
いくつかの実施形態によれば、処理ユニット1108は、表示ユニット(例えば、表示ユニット1102又は別個の表示ユニット)上にコンテンツを(例えば、表示可能化ユニット1110を用いて)表示するように更に構成される。処理ユニット1108は、コンテンツを表示している間に、ユーザ入力を(例えば、検出ユニット1112を用いて)検出するように更に構成される。処理ユニット1108は、ユーザ入力を検出したことに応じて、表示ユニット上に仮想キーボードインターフェースを(例えば、表示可能化ユニット1110を用いて)表示するように更に構成される。処理ユニット1108は、第2の電子デバイスのディスプレイ上に選択可能なアフォーダンスを(例えば、タスク実行ユニット1120を用いて)出現させるように更に構成される。アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介して電子デバイスによって(例えば、通信ユニット1107を使用して)受信されることを可能にする。
いくつかの実施例では、処理ユニット1108は、第2の電子デバイスのキーボードを介してテキスト入力を(例えば、検出ユニット1112を用いて)受信するように更に構成され、テキスト入力はユーザ要求を表現する。処理ユニット1108は、ユーザ要求を少なくとも部分的に満足する結果を(例えば、取得ユニット1122を用いて)取得するし、表示ユニット上にユーザインターフェースを(例えば、表示可能化ユニット1110を用いて)表示するように更に構成され、ユーザインターフェースは結果の少なくとも一部分を含む。
いくつかの実施例では、表示されたコンテンツは、複数の例示的な自然言語要求を有する第2のユーザインターフェースを含む。いくつかの実施例では、表示されたコンテンツはメディアコンテンツを含む。いくつかの実施例では、表示されたコンテンツは、以前のユーザ要求からの結果を有する第3のユーザインターフェースを含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する。いくつかの実施例では、仮想キーボードインターフェースは第3のユーザインターフェースの少なくとも一部分上に重ね合わせられる。いくつかの実施例では、ユーザ入力は電子デバイスの遠隔制御装置を介して検出され、遠隔制御装置と第2の電子デバイスとは異なるデバイスである。いくつかの実施例では、ユーザ入力は、遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含む。いくつかの実施例では、ユーザ入力は第2の電子デバイスを介して検出される。
以上において図7A〜図7C及び図9を参照して説明された動作は、任意選択的に、図1〜図3及び図4Aに示される構成要素によって実施される。以上において図7A〜図7C及び図9を参照して説明された動作は、任意選択的に、図1〜図3及び図4A〜図4Bに示される構成要素によって実施される。例えば、表示動作702、716、732、736、738、742、746、902、906、914、検出動作704、718、904、910、判定動作708、710、712、714、720、724、728、736、740、サンプリング動作706、実行動作722、726、744、908、取得動作730、734、912、及び切り換え動作552、564は、オペレーティングシステム252、352、GUIモジュール256、356、アプリケーションモジュール262、362、デジタルアシスタントモジュール426、及びプロセッサ(単数又は複数)204、304、404のうちの1つ以上によって実施されてもよい。当業者にとって、他のプロセスが、図1〜図3及び図4A〜図4Bに示される構成要素に基づいてどのように実施されるのかは明らかであろう。
いくつかの実施態様によると、コンピュータ可読記憶媒体(例えば、非一時的コンピュータ可読記憶媒体)が提供されており、このコンピュータ可読記憶媒体は、電子デバイスの1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶し、この1つ以上のプログラムは、本明細書に記載の方法のいずれかを行う命令を含む。
いくつかの実施態様によると、本明細書に記載のいずれかの方法を行うための手段を含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
いくつかの実施態様によると、本明細書に記載のいずれかの方法を行うよう構成された処理ユニットを含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
いくつかの実施態様によると、1つ以上のプロセッサ及び、1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリを含み、この1つ以上のプログラムは、本明細書に記載のいずれかの方法を行う命令を含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
例示的な方法、非一時的コンピュータ可読記憶媒体、システム、及び電子デバイスが以下の項目において説明される。
1.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
ユーザ入力を検出することと、
ユーザ入力が第1の入力形式に対応するかどうかを判定することと、
ユーザ入力が第1の入力形式に対応するとの判定に従って、
表示ユニット上に、複数の例示的な自然言語要求を表示することであって、複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連し、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる、ことと、
を含む方法。
2.ユーザ入力が電子デバイスの遠隔制御装置上において検出される、項目1に記載の方法。
3.第1の入力形式が、遠隔制御装置のボタンを押下し、ボタンを所定の期間以内に放すことを含む、項目2に記載の方法。
4.複数の例示的な自然言語要求が表示ユニット上に第1のユーザインターフェースを介して表示され、第1のユーザインターフェースは、表示されたコンテンツ上に重ね合わせられる、項目1から3のいずれか1つに記載の方法。
5.表示されたコンテンツがメディアコンテンツを含み、メディアコンテンツは、複数の例示的な自然言語要求を表示している間に再生し続ける、項目1から4のいずれか1つに記載の方法。
6.ユーザ入力が第1の入力形式に対応するとの判定に従って、表示ユニット上に、デジタルアシスタントが音声入力を処理していないことを指示する視覚的インジケータを表示することを更に含む、項目1から5のいずれか1つに記載の方法。
7.ユーザ入力が第1の入力形式に対応すると判定すると、複数の例示的な自然言語要求が所定の時間の後に表示ユニット上に表示される、項目1から6のいずれか1つに記載の方法。
8.複数の例示的な自然言語要求の各々が所定の順序で異なる時間に別個に表示される、項目1から7のいずれか1つに記載の方法。
9.複数の例示的な自然言語要求を表示することが、
例示的な自然言語要求の複数のリストを表示することであって、各リストは異なる時間に交代で表示される、ことを含む、項目1から8のいずれか1つに記載の方法。
10.
ユーザ入力が第1の入力形式に対応しないとの判定に従って、
ユーザ入力が第2の入力形式に対応するかどうかを判定することと、
ユーザ入力が第2の入力形式に対応するとの判定に従って、
音声データをサンプリングすることと、
音声データがユーザ要求を包含するかどうかを判定することと、
音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを実行することと、
を更に含む、項目1から9のいずれか1つに記載の方法。
11.第2の入力形式が、電子デバイスの遠隔制御装置のボタンを押下し、ボタンを所定の期間よりも長い間、押さえておくことを含む、項目10に記載の方法。
12.
音声データがユーザ要求を包含しないとの判定に従って、表示ユニット上に、ユーザ意図の明確化の要求を表示することを更に含む、項目10又は11に記載の方法。
13.表示されたコンテンツがメディアコンテンツを含み、メディアコンテンツは、音声データをサンプリングしている間、及びタスクを実行している間に、電子デバイス上で再生し続ける、項目10から12のいずれか1つに記載の方法。
14.
メディアコンテンツに関連付けられた音声を出力することと、
ユーザ入力が第2の入力形式に対応するとの判定に従って、音声の振幅を低減させることと、
を更に含む、項目13に記載の方法。
15.タスクが、このタスクに関連する発語を電子デバイスから出力することなく実行される、項目10から14のいずれか1つに記載の方法。
16.音声データが、ユーザ入力を検出している間にサンプリングされる、項目10から15のいずれか1つに記載の方法。
17.音声データが、ユーザ入力を検出した後の所定の期間の間にサンプリングされる、項目10から15のいずれか1つに記載の方法。
18.音声データが電子デバイスの遠隔制御装置上の第1のマイクロフォンを介してサンプリングされ、方法は、
音声データをサンプリングしている間に、遠隔制御装置上の第2のマイクロフォンを介して背景音声データをサンプリングすることと、
背景音声データを用いて音声データ内の背景ノイズを除去することと、
を更に含む、項目10から17のいずれか1つに記載の方法。
19.表示されたコンテンツに関連付けられた音声が音声信号を介して電子デバイスから出力され、方法は、
音声信号を用いて音声データ内の背景ノイズを除去すること、
を更に含む、項目10から18のいずれか1つに記載の方法。
20.
ユーザ入力を検出したことに応じて、表示ユニット上に、ユーザに、発語要求を提供するように促す視覚キューを表示することを更に含む、項目10から19のいずれか1つに記載の方法。
21.実行されるタスクが、
ユーザ要求を少なくとも部分的に満足する結果を取得することと、
表示ユニット上に第2のユーザインターフェースを表示することであって、第2のユーザインターフェースは結果の一部分を含み、コンテンツの少なくとも一部分が、第2のユーザインターフェースが表示されている間に表示され続け、表示ユニット上における第2のユーザインターフェースの表示区域は表示ユニット上におけるコンテンツの少なくとも一部分の表示区域よりも小さい、ことと、
を含む、項目10から20のいずれか1つに記載の方法。
22.第2のユーザインターフェースが、表示されたコンテンツ上に重ね合わせられる、項目21に記載の方法。
23.結果の部分が1つ以上のメディアアイテムを含み、方法は、
第2のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を受信することと、
表示ユニット上に、選択されたメディアアイテムに関連付けられたメディアコンテンツを表示することと、
を更に含む、項目21又は22に記載の方法。
24.
第2のユーザインターフェースを表示している間に、第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、第2のユーザインターフェースを表示するのを中止することと、
を更に含む、項目21又は22に記載の方法。
25.第2のユーザ入力が電子デバイスの遠隔制御装置上で検出され、第2のユーザ入力が遠隔制御装置のタッチ感知面上における第1の所定の運動パターンを含む、項目24に記載の方法。
26.
第2のユーザインターフェースを表示している間に、第3のユーザ入力を検出することと、
第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースの表示を表示ユニット上における第3のユーザインターフェースの表示と置換することであって、第3のユーザインターフェースは結果の少なくとも部分を含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する、ことと、
を更に含む、項目21又は22に記載の方法。
27.第3のユーザ入力が電子デバイスの遠隔制御装置上で検出され、第3のユーザ入力が遠隔制御装置のタッチ感知面上における第2の所定の運動パターンを含む、項目26に記載の方法。
28.
第3のユーザ入力の検出に応じて、
結果と異なる第2の結果を取得することであって、第2の結果はユーザ要求を少なくとも部分的に満足し、第3のユーザインターフェースが第2の結果の少なくとも一部分を含む、ことを更に含む、項目26又は27に記載の方法。
29.第2の結果が、ユーザ入力を検出する前に受信されたユーザ要求に基づく、項目28に記載の方法。
30.第3のユーザ入力が検出される間に第2のユーザインターフェースのフォーカスが結果の部分のアイテム上にあり、第2の結果がアイテムにコンテクスト上関連する、項目28又は29に記載の方法。
31.表示されたコンテンツがメディアコンテンツを含み、第3のユーザ入力を検出したことに応じて、電子デバイス上におけるメディアコンテンツの再生が一時停止される、項目26から30のいずれか1つに記載の方法。
32.結果の少なくとも部分が1つ以上のメディアアイテムを含み、方法は、
第3のユーザインターフェースを介して1つ以上のメディアアイテムのうちのメディアアイテムの選択を受信することと、
表示ユニット上に、メディアアイテムに関連付けられたメディアコンテンツを表示することと、
を更に含む、項目26から31のいずれか1つに記載の方法。
33.
第3のユーザインターフェースを表示している間に、表示ユニット上における方向に関連付けられた第4のユーザ入力を検出することと、
第4のユーザ入力を検出したことに応じて、
第3のユーザインターフェースのフォーカスを第1のアイテムから第3のユーザインターフェース上の第2のアイテムへ切り換えることであって、第2のアイテムは第1のアイテムに対して上記の方向に位置付けられている、ことと、
を更に含む、項目26から32のいずれか1つに記載の方法。
34.
第3のユーザインターフェースを表示している間に、第5のユーザ入力を検出することと、
第5のユーザ入力を検出したことに応じて、
検索フィールドを表示することと、
表示ユニット上に仮想キーボードインターフェースを表示することであって、仮想キーボードインターフェースを介して受信された入力は検索フィールド内へのテキスト記入を生じさせる、ことと、
を更に含む、項目26から33のいずれか1つに記載の方法。
35.
第3のユーザインターフェースを表示している間に、第6のユーザ入力を検出することと、
第6のユーザ入力を検出したことに応じて、
第2の音声データをサンプリングすることであって、第2の音声データは第2のユーザ要求を包含する、ことと、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを判定することと、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、
第3のユーザインターフェースを介して結果のサブセットを表示することと、
を更に含む、項目26から34のいずれか1つに記載の方法。
36.結果のサブセットが第3のユーザインターフェースの最上段に表示される、項目35に記載の方法。
37.
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求でないとの判定に従って、
第2のユーザ要求を少なくとも部分的に満足する第3の結果を取得することと、
第3のユーザインターフェースを介して第3の結果の一部分を表示することと、
を更に含む、項目35又は36に記載の方法。
38.第3の結果の部分が第3のユーザインターフェースの最上段に表示される、項目37に記載の方法。
39.
ユーザ要求又は第2のユーザ要求を少なくとも部分的に満足する第4の結果を取得することと、
第3のユーザインターフェースを介して第4の結果の一部分を表示することと、
を更に含む、項目35から38のいずれか1つに記載の方法。
40.第4の結果の部分が第3のユーザインターフェースの最上段の後の段に表示される、項目39に記載の方法。
41.第6のユーザ入力が検出される間に第3のユーザインターフェースのフォーカスが第3のユーザインターフェースの1つ以上のアイテム上にあり、第4の結果が1つ以上のアイテムにコンテクスト上関連する、項目39又は40に記載の方法。
42.
第3のユーザインターフェースを表示している間に、第7のユーザ入力を検出することと、
第7のユーザ入力を検出したことに応じて、第3のユーザインターフェースを表示するのを中止することと、
を更に含む、項目26から41のいずれか1つに記載の方法。
43.表示されたコンテンツがメディアコンテンツであり、第3のユーザ入力を検出したことに応じて電子デバイス上におけるメディアコンテンツの再生が一時停止され、第7のユーザ入力を検出したことに応じて電子デバイス上におけるメディアコンテンツの再生が再開される、項目42に記載の方法。
44.第7のユーザ入力が、電子デバイスの遠隔制御装置のメニューボタンを押下することを含む、項目42又は43に記載の方法。
45.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、
表示ユニット上にユーザインターフェースを表示することであって、ユーザインターフェースは、表示されたコンテンツにコンテクスト上関連する複数の例示的な自然言語要求を含み、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる、ことと、
を含む方法。
46.表示されたコンテンツがメディアコンテンツを含む、項目45に記載の方法。
47.複数の例示的な自然言語要求が、メディアコンテンツに関連付けられた1つ以上の設定を変更せよとの自然言語要求を含む、項目46に記載の方法。
48.メディアコンテンツが、ユーザインターフェースが表示されている間に再生し続ける、項目46又は47に記載の方法。
49.
メディアコンテンツに関連付けられた音声を出力することであって、ユーザ入力を検出したことに応じて音声の振幅が低減させられない、ことを更に含む、項目46から48のいずれか1つに記載の方法。
50.表示されたコンテンツがメインメニューユーザインターフェースを含む、項目45に記載の方法。
51.複数の例示的な自然言語要求が、デジタルアシスタントの複数の中核能力の各々に関連する例示的な自然言語要求を含む、項目50に記載の方法。
52.表示されたコンテンツが、以前のユーザ要求に関連付けられた結果を有する第2のユーザインターフェースを含む、項目45に記載の方法。
53.複数の例示的な自然言語要求が、結果を絞り込めとの自然言語要求を含む、項目52に記載の方法。
54.ユーザインターフェースが、デジタルアシスタントを呼び出し、それと対話するためのテキストによる教示を含む、項目45から53のいずれか1つに記載の方法。
55.ユーザインターフェースが、デジタルアシスタントが音声入力を受信していないことを指示する視覚的インジケータを含む、項目45から54のいずれか1つに記載の方法。
56.ユーザインターフェースが、表示されたコンテンツ上に重ね合わせられる、項目45から55のいずれか1つに記載の方法。
57.
ユーザ入力を検出したことに応じて、ユーザインターフェースを目立たせるために、表示されたコンテンツの明るさを低減させることを更に含む、項目45から56のいずれか1つに記載の方法。
58.ユーザ入力が電子デバイスの遠隔制御装置上において検出される、項目45から57のいずれか1つに記載の方法。
59.ユーザ入力が、遠隔制御デバイスのボタンを押下し、ボタンを、ボタンを押下した後の所定の期間以内に放すことを含む、項目58に記載の方法。
60.ボタンが、デジタルアシスタントを呼び出すように構成される、項目59に記載の方法。
61.ユーザインターフェースが、仮想キーボードインターフェースを表示するためのテキストによる教示を含む、項目45から60のいずれか1つに記載の方法。
62.
ユーザインターフェースを表示した後に、第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、表示ユニット上に仮想キーボードインターフェースを表示することと、
を更に含む、項目45から61のいずれか1つに記載の方法。
63.
ユーザインターフェースのフォーカスをユーザインターフェース上の検索フィールドへ変更することを更に含む、項目62に記載の方法。
64.検索フィールドが、仮想キーボードインターフェースを介してテキスト検索クエリを受信するように構成される、項目63に記載の方法。
65.仮想キーボードインターフェースが、デジタルアシスタントと対話するために用いられることができない、項目45から64のいずれか1つに記載の方法。
66.第2のユーザ入力が、電子デバイスの遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含む、項目45から65のいずれか1つに記載の方法。
67.複数の例示的な自然言語要求が、ユーザ入力を検出した後の所定の時間における表示である、項目45から66のいずれか1つに記載の方法。
68.複数の例示的な自然言語要求を表示することが、
複数の例示的な自然言語要求の各々を所定の順序で1つずつ表示することを更に含む、項目45から67のいずれか1つに記載の方法。
69.順次表示することが、
複数の例示的な自然言語要求のうちの以前に表示された例示的な自然言語要求の表示を複数の例示的な自然言語要求のうちの後続の例示的な自然言語要求と置換することを更に含む、項目68に記載の方法。
70.コンテンツが、1つ以上のアイテムを有する第2のユーザインターフェースを含み、ユーザ入力が検出された時に第2のユーザインターフェースのフォーカスが1つ以上のアイテムのうちのアイテム上にあり、複数の例示的な自然言語要求が1つ以上のアイテムのうちのアイテムにコンテクスト上関連する、項目45から69のいずれか1つに記載の方法。
71.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、
自然言語発言の1つ以上の提案例を表示することであって、1つ以上の提案例は、表示されたコンテンツにコンテクスト上関連し、ユーザによって発言されると、デジタルアシスタントに、対応するアクションを実行させる、ことと、
を含む方法。
72.
第2のユーザ入力を検出することと、
第2のユーザ入力の検出に応じて、
音声データをサンプリングすることと、
サンプリングされた音声データが自然言語発言の1つ以上の提案例のうちの1つを包含するかどうかを判定することと、
サンプリングされた音声データが自然言語発言の1つ以上の提案例のうちの1つを包含するとの判定に従って、発言に対する対応するアクションを実行することと、
を更に含む、項目71に記載の方法。
73.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、音声データをサンプリングすることであって、音声データはユーザ発言を含む、ことと、
ユーザ発言に対応するユーザ意図の決定を取得することと、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を取得することと、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することと、
を含む方法。
74.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、特定のメディアアイテムを再生せよとの要求を含み、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することが、特定のメディアアイテムを再生することを含む、項目73に記載の方法。
75.表示されたコンテンツが、メディアアイテムを有するユーザインターフェースを含み、ユーザ発言が、再生されるべき特定のメディアアイテムを明示的に限定せず、方法は、
ユーザインターフェースのフォーカスがメディアアイテム上にあるかどうかを判定することと、
ユーザインターフェースのフォーカスがメディアアイテム上にあるとの判定に従って、メディアアイテムを、再生されるべき特定のメディアアイテムとして特定することと、
を更に含む、項目74に記載の方法。
76.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、電子デバイス上のアプリケーションを起動せよとの要求を含む、項目73に記載の方法。
77.表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含み、状態又は設定が、電子デバイス上で再生されているメディアコンテンツに関連する、項目73に記載の方法。
78.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、電子デバイス上で再生中のメディアコンテンツを早送り又は巻き戻しせよとの要求を含む、項目77に記載の方法。
79.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、メディアコンテンツの特定の部分を再生するためにメディアコンテンツ内で前方又は後方へ飛び越せとの要求を含む、項目77に記載の方法。
80.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、電子デバイス上におけるメディアコンテンツの再生を一時停止せよとの要求を含む、項目77に記載の方法。
81.電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、メディアコンテンツの字幕をオンにするか、又はオフにせよとの要求を含む、項目77に記載の方法。
82.
表示されたコンテンツが、第1のメディアアイテム及び第2のメディアアイテムを有するユーザインターフェースを含み、
電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、ユーザインターフェースのフォーカスを第1のメディアアイテムから第2のメディアアイテムへ切り換えよとの要求を含み、
アプリケーションの状態又は設定を、ユーザ意図を満足するように調整することが、ユーザインターフェースのフォーカスを第1のメディアアイテムから第2のメディアアイテムへ切り換えることを含む、 項目73に記載の方法。
83.
表示されたコンテンツが、メディアデバイス上で再生中のメディアコンテンツを含み、
ユーザ発言が、ユーザが、メディアコンテンツに関連付けられた音声の一部分が聞こえなかったことを指示する自然言語表現であり、
電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、ユーザが聞こえなかった音声の部分に対応するメディアコンテンツの一部分を再生し直せとの要求を含み、
アプリケーションの状態又は設定を調整することが、
メディアコンテンツをメディアコンテンツの以前の部分まで所定の量だけ巻き戻すことと、
メディアコンテンツの再生を以前の部分から再スタートすることと、
を含む、項目73に記載の方法。
84.アプリケーションの状態又は設定を調整することが、
メディアコンテンツの再生を以前の部分から再スタートする前にクローズドキャプションをオンにすることを更に含む、項目83に記載の方法。
85.
電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求が、メディアコンテンツに関連付けられた音声の音量を上げよとの要求を更に含み、
アプリケーションの状態又は設定を調整することが、メディアコンテンツの再生を以前の部分から再スタートする前に、メディアコンテンツに関連付けられた音声の音量を上げることを更に含む、
項目83又は84に記載の方法。
86.
メディアコンテンツに関連付けられた音声内の発語がテキストに変換され、
アプリケーションの状態又は設定を調整することが、メディアコンテンツの再生を以前の部分から再スタートする間にテキストの一部分を表示することを更に含む、
項目83又は84に記載の方法。
87.ユーザ発言に対応するユーザ意図の決定を取得することが、
ユーザ発言に関連付けられたユーザの感情の判定を取得することであって、ユーザ意図は、判定されたユーザの感情に基づいて決定される、ことを更に含む、項目73から85のいずれか1つに記載の方法。
88.
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を取得することと、
ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する結果を取得することと、
表示ユニット上に、結果をテキスト形式で表示することと、
を更に含む、項目73から87のいずれか1つに記載の方法。
89.複数の所定の要求種別が、特定のロケーションにおける現在の時間の要求を含む、項目88に記載の方法。
90.複数の所定の要求種別が、ジョークを提示せよとの要求を含む、項目88に記載の方法。
91.複数の所定の要求種別が、電子デバイス上で再生されているメディアコンテンツに関する情報の要求を含む、項目88に記載の方法。
92.テキスト形式の結果が、表示されたコンテンツ上に重ね合わせられる、項目88から91のいずれか1つに記載の方法。
93.表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含み、メディアコンテンツは、テキスト形式の結果が表示されている間に再生し続ける、項目88から92のいずれか1つに記載の方法。
94.
ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する第2の結果を取得することと、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むかどうかを判定することと、
表示されたコンテンツがメディアコンテンツを含むとの判定に従って、
メディアコンテンツが一時停止されることができるかどうかを判定することと、
メディアコンテンツが一時停止されることができないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第2のユーザインターフェースを表示することであって、表示ユニット上における第2のユーザインターフェースによって占有される表示区域は、表示ユニット上におけるメディアコンテンツによって占有される表示区域よりも小さい、ことと、
を更に含む、項目88から93のいずれか1つに記載の方法。
95.ユーザ意図が特定のロケーションの天気予報の要求を含む、項目94に記載の方法。
96.ユーザ意図が、スポーツチーム又は運動選手に関連付けられた情報の要求を含む、項目94に記載の方法。
97.ユーザ意図がメディア検索クエリでなく、第2の結果が、ユーザ意図を少なくとも部分的に満足するメディアコンテンツを有する1つ以上のメディアアイテムを含む、項目94から96のいずれか1つに記載の方法。
98.第2の結果が、ユーザ意図を少なくとも部分的に満足する非メディアデータを更に含む、項目97に記載の方法。
99.ユーザ意図がメディア検索クエリであり、第2の結果が、メディア検索クエリに対応する複数のメディアアイテムを含む、項目94に記載の方法。
100.
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示することであって、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、ことを更に含む、項目94から99のいずれか1つに記載の方法。
101.表示コンテンツがメインメニューユーザインターフェースを含む、項目100に記載の方法。
102.
表示されたコンテンツが、ユーザ入力を検出する前に受信された以前のユーザ要求に関連する以前の結果を有する第3のユーザインターフェースを含み、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、第3のユーザインターフェース内における以前の結果の表示が第2の結果の表示と置換される、
項目100に記載の方法。
103.
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むとの判定に従って、
表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する第2のユーザインターフェースを含むかどうかを判定することであって、表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する第2のユーザインターフェースを含むとの判定に従って、以前の結果は第2の結果と置換される、ことを更に含む、項目94から102のいずれか1つに記載の方法。
104.
メディアコンテンツが一時停止されることができるとの判定に従って、
電子デバイス上におけるメディアコンテンツの再生を一時停止することと、
表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示することであって、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、ことと、
を更に含む、項目94から103のいずれか1つに記載の方法。
105.
音声データを、自然言語処理を実行するためにサーバへ伝送することと、
サーバに、音声データがメディアアプリケーションに関連付けられていることを指示することであって、指示することは、自然言語処理をメディア関連のユーザ意図へ偏向させる、ことと、
を更に含む、項目73から104のいずれか1つに記載の方法。
106.
音声データを、発語テキスト化処理を実行するためにサーバへ伝送することを更に含む、項目73から105のいずれか1つに記載の方法。
107.
サーバに、音声データがメディアアプリケーションに関連付けられていることを指示することであって、指示することは、発語テキスト化処理をメディア関連のテキスト結果へ偏向させる、ことを更に含む、項目106に記載の方法。
108.
ユーザ発言のテキスト表現を取得することであって、テキスト表現は、音声データをサンプリングする前に受信された以前のユーザ発言に基づく、ことを更に含む、項目106又は107に記載の方法。
109.テキスト表現が、音声データをサンプリングする前に以前のユーザ発言が受信された時間に基づく、項目108に記載の方法。
110.
ユーザ意図が、電子デバイスに関連付けられた複数の中核能力のうちの1つに対応しないとの判定を取得することと、
第2の電子デバイスに、ユーザ意図を満足することを助成するためのタスクを実行させることと、
を更に含む、項目73から109のいずれか1つに記載の方法。
111.ユーザ意図の決定を取得することが、
ユーザ発言が曖昧な用語を含むかどうかの判定を取得することと、
ユーザ発言が曖昧な用語を含むとの判定を取得したことに応じて、
曖昧な用語に基づいて2つ以上のユーザ意図の候補を取得することと、
表示ユニット上に2つ以上のユーザ意図の候補を表示することと、
を更に含む、項目73から110のいずれか1つに記載の方法。
112.
2つ以上のユーザ意図の候補を表示している間に、2つ以上のユーザ意図の候補のうちの1つのユーザ選択を受信することを更に含み、ユーザ意図が、ユーザ選択に基づいて決定される、項目111に記載の方法。
113.ユーザ選択を受信することが、
第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、第2の音声データをサンプリングすることであって、第2の音声データは、ユーザ選択を表現する第2のユーザ発言を含む、ことと、
を更に含む、項目112に記載の方法。
114.2つ以上の解釈が、2つ以上のユーザ意図の候補に関連付けられた発語を出力することなく表示される、項目111から113のいずれか1つに記載の方法。
115.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、音声データをサンプリングすることであって、音声データは、メディア検索要求を表現するユーザ発言を含む、ことと、
メディア検索要求を満足する複数のメディアアイテムを取得することと、
表示ユニット上に、ユーザインターフェースを介して複数のメディアアイテムの少なくとも一部分を表示することと、
を含む方法。
116.複数のメディアアイテムの少なくとも一部分が表示されている間に、コンテンツが表示ユニット上に表示され続け、ユーザインターフェースによって占有される表示区域が、コンテンツによって占有される表示区域よりも小さい、項目115に記載の方法。
117.
複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるかどうかを判定することを更に含み、複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるとの判定に従って、複数のメディアアイテムの少なくとも一部分が複数のメディアアイテムを含む、項目115又は116に記載の方法。
118.複数のメディアアイテム内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、複数のメディアアイテムの少なくとも一部分内のメディアアイテムの数が所定の数に等しい、項目117に記載の方法。
119.複数のメディアアイテムの各々が、メディア検索要求に関する関連性スコアに関連付けられ、複数のメディアアイテムの少なくとも一部分の関連性スコアが複数のメディアアイテムの間で最も高い、項目115から118のいずれか1つに記載の方法。
120.複数のメディアアイテムの少なくとも一部分の各々が人気格付けに関連付けられ、複数のメディアアイテムの少なくとも一部分がユーザインターフェース内において人気格付けに基づいて配列される、項目115から119のいずれか1つに記載の方法。
121.
複数のメディアアイテムの少なくとも一部分を表示している間に、第2のユーザ入力を検出することと、
第2のユーザ入力を検出したことに応じて、ユーザインターフェースを、表示ユニットの表示区域の少なくとも過半を占有するように拡大することと、
を更に含む、項目115から120のいずれか1つに記載の方法。
122.
第2のユーザ入力の検出に応じて、
複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるかどうかを判定することと、
複数のメディアアイテム内のメディアアイテムの数が所定の数以下であるとの判定に従って、
メディア検索要求を少なくとも部分的に満足する第2の複数のメディアアイテムを取得することであって、第2の複数のメディアアイテムはメディアアイテムの少なくとも一部分と異なる、ことと、
拡大されたユーザインターフェースを介して、表示ユニット上に第2の複数のメディアアイテムを表示することと、
を更に含む、項目121に記載の方法。
123.
メディア検索要求が、1つを超える検索パラメータを含むかどうかを判定することを更に含み、メディア検索要求が、1つを超える検索パラメータを含むとの判定に従って、第2の複数のメディアアイテムが、拡大されたユーザインターフェース内において、メディア検索要求の1つを超える検索パラメータに従って整理される、項目122に記載の方法。
124.
複数のメディアアイテム内のメディアアイテムの数が所定の数よりも大きいとの判定に従って、
拡大されたユーザインターフェースを介して複数のメディアアイテムの少なくとも第2の部分を表示することであって、複数のメディアアイテムの少なくとも第2の部分は複数のメディアアイテムの少なくとも一部分と異なる、ことを更に含む、項目122又は123に記載の方法。
125.複数のメディアアイテムの少なくとも第2の部分が2つ以上のメディア種別を含み、複数のメディアアイテムの少なくとも第2の部分が、拡大されたユーザインターフェース内において、2つ以上のメディア種別の各メディア種別に従って整理される、項目124に記載の方法。
126.
第3のユーザ入力を検出することと、
第3のユーザ入力を検出したことに応じて、拡大されたユーザインターフェースをスクロールさせることと、
拡大されたユーザインターフェースが、拡大されたユーザインターフェース上の所定の位置を越えてスクロールしたかどうかを判定することと、
拡大されたユーザインターフェースが、拡大されたユーザインターフェース上の所定の位置を越えてスクロールしたと判定したことに応じて、拡大されたユーザインターフェース上に複数のメディアアイテムの少なくとも第3の部分を表示することであって、複数のメディアアイテムの少なくとも第3の部分は、拡大されたユーザインターフェース上において、第3の複数のメディアアイテムに関連付けられた1つ以上のメディアコンテンツプロバイダに従って整理される、ことと、
を更に含む、項目122から125のいずれか1つに記載の方法。
127.メディアシステムのデジタルアシスタントを動作させるための方法であって、この方法は、
1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
表示ユニット上にコンテンツを表示することと、
コンテンツを表示している間に、ユーザ入力を検出することと、
ユーザ入力を検出したことに応じて、
表示ユニット上に仮想キーボードインターフェースを表示することと、
第2の電子デバイスのディスプレイ上に選択可能なアフォーダンスを出現させることであって、アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介して電子デバイスによって受信されることを可能にする、ことと、
を含む方法。
128.
第2の電子デバイスのキーボードを介してテキスト入力を受信することであって、テキスト入力はユーザ要求を表現する、ことと、
ユーザ要求を少なくとも部分的に満足する結果を取得することと、
表示ユニット上にユーザインターフェースを表示することであって、ユーザインターフェースは結果の少なくとも一部分を含む、ことと、
を更に含む、項目127に記載の方法。
129.表示されたコンテンツが、複数の例示的な自然言語要求を有する第2のユーザインターフェースを含む、項目127又は128に記載の方法。
130.表示されたコンテンツがメディアコンテンツを含む、項目129に記載の方法。
131.表示されたコンテンツが、以前のユーザ要求からの結果を有する第3のユーザインターフェースを含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する、項目127又は128に記載の方法。
132.仮想キーボードインターフェースが第3のユーザインターフェースの少なくとも一部分上に重ね合わせられる、項目131に記載の方法。
133.ユーザ入力が電子デバイスの遠隔制御装置を介して検出され、遠隔制御装置と第2の電子デバイスとは異なるデバイスである、項目127から132のいずれか1つに記載の方法。
134.ユーザ入力が、遠隔制御デバイスのタッチ感知面上における所定の運動パターンを含む、項目133に記載の方法。
135.ユーザ入力が第2の電子デバイスを介して検出される、項目127から132のいずれか1つに記載の方法。
136.項目1から135のいずれか1つに記載の方法を実行するコンピュータ実行可能命令を備える、非一時的コンピュータ可読記憶媒体。
137.
項目136に記載の非一時的コンピュータ可読記憶媒体と、
コンピュータ実行可能命令を実行するように構成されたプロセッサと、
を備えるシステム。
138.項目1から135のいずれか1つに記載の方法を実行する手段を備える装置。
139.電子デバイスであって、
ユーザ入力を受信するように構成された入力ユニットと、
入力ユニットに結合された処理ユニットと、
を備え、処理ユニットは、
表示ユニット上にコンテンツを表示し、
入力ユニットを介してユーザ入力を検出し、
ユーザ入力が第1の入力形式に対応するかどうかを判定し、
ユーザ入力が第1の入力形式に対応するとの判定に従って、
表示ユニット上に、複数の例示的な自然言語要求を表示する
ように構成され、複数の例示的な自然言語要求は、表示されたコンテンツにコンテクスト上関連し、複数の例示的な自然言語要求のうちの1つに対応するユーザ発言を受信することが、デジタルアシスタントにそれぞれのアクションを実行させる、電子デバイス。
140.処理ユニットに結合された音声入力ユニットを更に含み、処理ユニットは、
ユーザ入力が第1の入力形式に対応しないとの判定に従って、
ユーザ入力が第2の入力形式に対応するかどうかを判定し、
ユーザ入力が第2の入力形式に対応するとの判定に従って、
音声入力ユニットを用いて音声データをサンプリングし、
音声データがユーザ要求を包含するかどうかを判定し、
音声データがユーザ要求を包含するとの判定に従って、ユーザ要求を少なくとも部分的に満足するタスクを実行する
ように更に構成される、項目139に記載の電子デバイス。
141.処理ユニットが、
ユーザ要求を少なくとも部分的に満足する結果を取得し、
表示ユニット上に第2のユーザインターフェースを表示する
ように更に構成され、第2のユーザインターフェースは結果の一部分を含み、コンテンツの少なくとも一部分が、第2のユーザインターフェースが表示されている間に表示され続け、表示ユニット上における第2のユーザインターフェースの表示区域は表示ユニット上におけるコンテンツの少なくとも一部分の表示区域よりも小さい、項目139又は140に記載の電子デバイス。
142.処理ユニットが、
第2のユーザインターフェースを表示している間に、入力ユニットを介して第2のユーザ入力を検出し、
第2のユーザ入力を検出したことに応じて、第2のユーザインターフェースを表示するのを中止する
ように更に構成される、項目141に記載の電子デバイス。
143.処理ユニットが、
第2のユーザインターフェースを表示している間に、入力ユニットを介して第3のユーザ入力を検出し、
第3のユーザ入力を検出したことに応じて、第2のユーザインターフェースの表示を表示ユニット上における第3のユーザインターフェースの表示と置換する
ように更に構成され、第3のユーザインターフェースは結果の少なくとも部分を含み、第3のユーザインターフェースは表示ユニットの表示区域の少なくとも過半を占有する、項目141又は142に記載の電子デバイス。
144.処理ユニットが、
第3のユーザインターフェースを表示している間に、入力ユニットを介して、表示ユニット上における方向に関連付けられた第4のユーザ入力を検出し、
第4のユーザ入力を検出したことに応じて、
第3のユーザインターフェースのフォーカスを第1のアイテムから第3のユーザインターフェース上の第2のアイテムへ切り換える
ように更に構成され、第2のアイテムは第1のアイテムに対して上記の方向に位置付けられている、項目143に記載の電子デバイス。
145.処理ユニットが、
第3のユーザインターフェースを表示している間に、入力ユニットを介して第5のユーザ入力を検出し、
第5のユーザ入力を検出したことに応じて、
検索フィールドを表示し、
表示ユニット上に仮想キーボードインターフェースを表示する
ように更に構成され、仮想キーボードインターフェースを介して受信された入力は検索フィールド内へのテキスト記入を生じさせる、項目143又は144に記載の電子デバイス。
146.処理ユニットが、
第3のユーザインターフェースを表示している間に、入力ユニットを介して第6のユーザ入力を検出し、
第6のユーザ入力を検出したことに応じて、
第2の音声データであって、第2の音声データは第2のユーザ要求を包含する、第2の音声データをサンプリングし、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるかどうかを判定し、
第2のユーザ要求が、ユーザ要求の結果を絞り込めとの要求であるとの判定に従って、
第3のユーザインターフェースを介して結果のサブセットを表示する
ように更に構成される、項目143から145のいずれか1つに記載の電子デバイス。
147.電子デバイスであって、
ユーザ入力を受信するように構成された入力ユニットと、
音声データを受信するように構成された音声入力ユニットと、
入力ユニット及び音声入力ユニットに結合された処理ユニットと、を備え、処理ユニットは、
表示ユニット上にコンテンツを表示し、
コンテンツを表示している間に、入力ユニットを介してユーザ入力を検出し、
ユーザ入力を検出したことに応じて、音声入力ユニットを用いて音声データであって、サンプリングされた音声データはユーザ発言を含む、音声データをサンプリングし、
ユーザ発言に対応するユーザ意図の決定を取得し、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を取得し、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、アプリケーションの状態又は設定を、ユーザ意図を満足するように調整する
ように構成される、電子デバイス。
148.処理ユニットが、
ユーザ意図が、電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を取得し、
ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する結果を取得し、
表示ユニット上に、結果をテキスト形式で表示する
ように更に構成される、項目147に記載の電子デバイス。
149.処理ユニットが、
ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、
ユーザ意図を少なくとも部分的に満足する第2の結果を取得し、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含むかどうかを判定し、
表示されたコンテンツがメディアコンテンツを含むとの判定に従って、
メディアコンテンツが一時停止されることができるかどうかを判定し、
メディアコンテンツが一時停止されることができないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第2のユーザインターフェースを表示する
ように更に構成され、表示ユニット上における第2のユーザインターフェースによって占有される表示区域は、表示ユニット上におけるメディアコンテンツによって占有される表示区域よりも小さい、項目148に記載の電子デバイス。
150.処理ユニットが、
表示されたコンテンツが、電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示する
ように更に構成され、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、項目149に記載の電子デバイス。
151.処理ユニットが、
メディアコンテンツが一時停止されることができるとの判定に従って、
電子デバイス上におけるメディアコンテンツの再生を一時停止し、
表示ユニット上に、第2の結果の一部分を有する第3のユーザインターフェースを表示する
ように更に構成され、第3のユーザインターフェースは表示ユニットの表示区域の過半を占有する、項目149に記載の電子デバイス。
152.電子デバイスであって、
ユーザ入力を受信するように構成された入力ユニットと、
入力ユニットに結合された処理ユニットと、
を備え、処理ユニットは、
表示ユニット上にコンテンツを表示し、
コンテンツを表示している間に、入力ユニットを介してユーザ入力を検出し、
ユーザ入力を検出したことに応じて、
表示ユニット上に仮想キーボードインターフェースを表示し、
第2の電子デバイスのディスプレイ上に選択可能なアフォーダンスを出現させる
ように構成され、アフォーダンスの選択は、テキスト入力が第2の電子デバイスのキーボードを介して電子デバイスによって受信されることを可能にする、電子デバイス。
153.処理ユニットが、
第2の電子デバイスのキーボードを介してテキスト入力であって、テキスト入力はユーザ要求を表現する、テキスト入力を受信し、
ユーザ要求を少なくとも部分的に満足する結果を取得し、
表示ユニット上にユーザインターフェースを表示する
ように更に構成され、ユーザインターフェースは結果の少なくとも一部分を含む、項目152に記載の電子デバイス。
上述の説明は、様々な要素を説明するために「第1」、「第2」などの用語を使用しているが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のユーザ入力は第2のユーザ入力と称することができ、同様に、第2のユーザ入力は第1のユーザ入力と称することができるであろう。第1のユーザ入力及び第2のユーザ入力はどちらもユーザ入力であるが、それらは同じタッチではない。
本明細書で説明される様々な実施形態の説明で使用される用語法は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用されるとき、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図される。本明細書で使用される時に、用語「及び/又は」が、関連する列挙された項目のうちの1つ以上のすべての可能な任意の組み合わせを指し、かつこれを含むことをもまた理解されたい。更に、用語「includes(含む)」、「including(含む)」、「comprises(備える)」、及び/又は「comprising(備える)」は、本明細書で使用される場合、記述される特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらの群の存在若しくは追加を排除するものではないことが理解されるであろう。
用語「if(〜場合に)」は、文脈に応じて「when(〜ときに)」、「upon(〜ときに)」、「in response to determining(〜という判定に応じて)」、又は「in response to detecting(〜を検出したことに応じて)」を意味すると解釈することができる。同様に、句「if it is determined(〜と判定される場合に)」又は「if[a stated condition or event]is detected([述べられる条件又はイベント]が検出される場合に)」は、文脈に応じて「upon determining(〜と判定される時に)」、「in response to determining(〜との判定に応じて)」、「upon detecting[the stated condition or event]([述べられる条件又はイベント]の検出時に)」、又は「in response to detecting[the stated condition or event]([述べられる条件又はイベント]の検出に応じて)」を意味すると解釈することができる。
更に、上述の説明は、説明の目的上、特定の実施形態を参照して説明されている。しかし、上述の例示的説明は、網羅的であること、又は本発明を、開示されている寸分違わない形態に限定することを意図されてはいない。上述の教示を考慮すれば、多くの修正及び変形が可能である。実施形態は、技法の原理及びそれらの実際の適用を最もうまく説明するために選定され、説明された。これにより、他の当業者は、技法及び様々な実施形態を、企図される特定の用途に適した様々な修正を加えて最もうまく利用することが可能になる。
添付の図面を参照して本開示及び実施例が十分に説明されたが、様々な変更及び修正が当業者には明らかになるであろうということに留意されたい。このような変更及び修正は、請求項によって定義されるとおりの本開示及び実施例の範囲内に含まれるものと理解されるべきである。
加えて、本明細書において説明されている様々な実施例の任意のものにおいて、様々な態様は、特定のユーザのために個人化されることができる。連絡先、プリファレンス、ロケーション、お気に入りのメディア、及び同様のものを含むユーザデータは、音声コマンドを解釈し、本明細書において説明されている様々なデバイスとのユーザ対話を促進するために用いることができる。本明細書において説明されている様々なプロセスはまた、ユーザプリファレンス、連絡先、テキスト、使用履歴、プロファイルデータ、人口統計、又は同様のものに従って様々な他の仕方で変更することができる。加えて、このようなプリファレンス及び設定は、ユーザ対話(例えば、頻繁に発言されるコマンド、頻繁に選択されるアプリケーションなど)に基づいて経時的に更新することができる。様々なソースから入手可能であるユーザデータの収集及び利用を、ユーザへの、勧誘コンテンツ、又は彼らの興味を引くと思われる任意の他のコンテンツの配信を改善するために用いることができる。本開示は、場合によっては、この収集されたデータは、特定の人を一意的に識別するか、又はその人に連絡するか、若しくはその人のロケーションを特定するために用いることができる個人情報データを含み得ることを企図している。このような個人情報データは、人口統計学的データ、ロケーションベースのデータ、電話番号、電子メールアドレス、自宅住所、又は任意のその他の識別情報を含むことができる。
本開示は、本技術における、このような個人情報データの使用は、ユーザの利益のために使用することができると認識している。例えば、個人情報データは、よりユーザの興味を引く、的を絞ったコンテンツを配信するために用いられてもよい。したがって、このような個人情報データの使用は、配信されるコンテンツの意図的な制御を可能にする。更に、ユーザに利益をもたらす個人情報データの他の使用法も、本開示によって企図されている。
本開示は、このような個人情報データの収集、分析、開示、転送、記憶、又はその他の使用に関与する事業体は、しっかり確立されたプライバシポリシー及び/又はプライバシ慣行を遵守することを更に企図している。特に、このような事業体は、個人情報データを非公開且つ安全なものとして維持するための産業界又は行政の要求を満たすか又はそれらを超えると一般的に認識されているプライバシポリシー及び慣行を履行し、一貫して用いるべきである。例えば、ユーザからの個人情報は、その事業体の合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更に、そのような収集は、ユーザに告知して同意を受けた後にのみ実施するべきである。加えて、そのような事業体は、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシポリシー及び手順を遵守することを確実にするための、あらゆる必要な措置を講じるであろう。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施例も企図している。即ち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するためのハードウェア要素及び/又はソフトウェア要素を提供することができることを企図している。例えば、広告配信サービスの場合、本技術は、ユーザがサービスの登録中に個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成されることができる。別の実施例では、ユーザは、的を絞ったコンテンツ配信サービスのためにロケーション情報を提供しないことを選択することができる。更に別の例では、ユーザは、正確なロケーション情報を提供しないが、ロケーション地域情報の転送を許可することを選択することができる。
したがって、本開示は、1つ以上の様々な開示された実施例を実施するための個人情報データの使用を広範に網羅しているが、本開示は、それらの様々な実施例がまた、そのような個人情報データにアクセスすることを必要とせずに実施されることも可能であることも企図している。即ち、本技術の様々な実施例は、そのような個人情報データの全て又は一部分の欠如により、実施不可能となるものではない。例えば、ユーザに関連付けられたデバイスによって要求されるコンテンツなどの非個人情報データ若しくは必要最小限の個人情報、コンテンツ配信サービスが入手可能な他の非個人情報、又は公的に入手可能な情報に基づき嗜好を推測することによって、コンテンツを選択し、ユーザへ配信することができる。
アペンディクス
メディア検索及び再生のためのインテリジェント自動アシスタント
[関連出願の相互参照]
[0001]
本出願は、2015年9月8日に出願され、「Intelligent Automated Assistant for Media Search and Playback」と題する、米国特許仮出願第62/215,575号からの優先権を主張する。同出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
[0002]
本出願は、2015年12月8日に出願され、「Intelligent Automated Assistant in a Media Environment」と題する、米国特許出願第________号(代理人書類番号106842130800 (P25817US1))、2014年9月26日に出願され、「Intelligent Automated Assistant for TV User Interactions」と題する、米国特許出願第14/498,503号(代理人書類番号106842065100(P18133US1))、2014年9月26日に出願され、「Real−time Digital Assistant Knowledge Updates」と題する、米国特許出願第14/498,391号(106842097900(P22498US1))からの優先権を主張する。これらの出願はその全体が全ての目的のために本明細書において参照により組み込まれている。
[技術分野]
[0003]
本出願は、概して、インテリジェント自動アシスタントに関し、より詳細には、メディア検索及び再生のためのインテリジェント自動アシスタントに関する。
[背景技術]
[0004]
インテリジェント自動アシスタント(又はデジタルアシスタント)は、ユーザと電子デバイスとの間の直感的なインタフェースを提供することができる。これらのアシスタントは、ユーザが口頭形式及び/又はテキスト形式の自然言語を使用して、デバイス又はシステムと双方向作用することを可能にすることができる。例えば、ユーザは、自然言語形式の口頭ユーザ入力を電子デバイスに関連付けられた仮想アシスタントに提供することにより、電子デバイスのサービスにアクセスすることができる。仮想アシスタントは、ユーザの意図を推測しユーザの意図をタスクとして作動可能にするために、口頭ユーザ入力について自然言語処理を実行することができる。タスクは、次に、電子デバイスの1つ以上の機能を実行することにより、実行することができ、いくつかの実施例では、関連した出力を、ユーザに自然言語形式で返すことができる。
[0005]
ユーザのメディア消費に関係するタスクを支援するためには、メディア環境(例えば、テレビ、テレビセットトップボックス、ケーブルボックス、ゲーミングデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)にデジタルアシスタントを組み込むことが望まししいことがある。例えば、デジタルアシスタントを利用して、所望の消費メディアコンテンツを検索することができる。しかしながら、ユーザは、自身が消費したいと望む特定のメディアアイテムに関してはっきりしていないことがしばしばあり、新しくて興味深いコンテンツを発見するためにメディアアイテムをブラウズする、相当量の時間を費やすことがある。更に、既存の検索インタフェースは複雑で、ユーザフレンドリではないことがあり、それにより、所望の消費アイテムを最終的に選択する前にメディアアイテムのブラウジングにユーザが費やす時間が更に増えることがある。
[発明の概要]
[0006]
メディア環境においてデジタルアシスタントを動作させるためのシステム及びプロセスが開示される。例示的なプロセスでは、メディアアイテムの1次セットを、表示ユニット上に表示することができる。ユーザ入力を検出したことに応じて、オーディオ入力を受信することができる。オーディオ入力は、自然言語発語形態のメディアに関係する要求を包含することができる。メディアに関係する要求に対応する1次ユーザ意図を判定することができる。本プロセスは、1次ユーザ意図が、メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかを判定することができる。1次ユーザ意図が、メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することができる。第2の1次メディア検索クエリは、メディアに関係する要求及び1次メディア検索クエリに基づくことができる。第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得することができる。表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第2の1次セットの表示と入れ替えることができる。
[図面の簡単な説明]
[0007]
[図1] 種々の実施例に係る、デジタルアシスタントを実装するためのシステム及び環境を示すブロック図である。
[0008]
[図2] 種々の実施例に係る、メディアシステムのブロック図である。
[0009]
[図3] 種々の実施例に係る、例示的なユーザデバイスを示すブロック図である。
[0010]
[図4A] 種々の実施例に係る、デジタルアシスタントシステム又はそのサーバ部分を示すブロック図である。
[0011]
[図4B] 種々の実施例に係る、図4Aに示したデジタルアシスタントの機能を示す図である。
[0012]
[図4C] 種々の実施例に係る、オントロジの一部分を示す図である。
[0013]
[図5A] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5B] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5C] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5D] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[図5E] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセスを示す図である。
[0014]
[図6A] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6B] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6C] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6D] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6E] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6F] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6G] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6H] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6I] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6J] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[図6K] 種々の実施例に係る、図5A〜図5Eに示したプロセスの種々の段階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す図である。
[0015]
[図7] 種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるように構成された電子デバイスの機能ブロック図である。
[発明を実施するための形態]
[0016]
以下の実施例の説明では、実施することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができることを理解されたい。
[0017]
本開示は、メディア環境においてデジタルアシスタントを動作させるためのシステム及びプロセスに関する。1つの例示的なプロセスでは、自然言語形式のメディア検索要求を受信することができる。メディア検索要求に対応する1次ユーザ意図を判定することができる。1次ユーザ意図に従って、メディアアイテムの1次セットを取得することができる。プロセスは、1つ以上の以前のユーザ意図が存在するかどうかを判定することができ、この1つ以上の以前のユーザ意図は、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求に対応する。1つ以上の以前のユーザ意図が存在すると判定したことに応じて、1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定することができる。1つ以上の2次ユーザ意図は、メディアブラウジング履歴、関係する検索属性、及び複数のユーザ間で人気があるメディア属性などの種々の他の因子に基づくことができる。メディアアイテムの複数の2次セットを取得することができ、メディアアイテムの各2次セットは、1つ以上の2次ユーザ意図のうちのそれぞれの2次ユーザ意図に対応する。ユーザ選択のために、ユーザインタフェースを介して、取得したメディアアイテムの1次セット及びメディアアイテムの複数の2次セットを表示ユニット上に表示することができる。1次ユーザ意図及び2次ユーザ意図をインテリジェントに判定して、ユーザの実際の意図を予測する確率を増大させることができる。1次ユーザ意図及び2次ユーザ意図に基づいて種々のメディアアイテムを提供することによって、ユーザが、ユーザの興味を刺激するメディアアイテムをより見つけやすくすることができる。これは、メディアアイテムのブラウジングに費やした時間量を減少させ、続いて、メディアコンテンツの享受に費やす時間量を増大させることによって、ユーザエクスペリエンスを改善するために望ましいことがある。
1.システム及び環境
[0018]
図1は、種々の実施例に係る、デジタルアシスタントを動作させるための例示的なシステム100を示す。用語「デジタルアシスタント」、「仮想アシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、口頭形式及び/又はテキスト形式の自然言語入力を解釈してユーザ意図を推測し、推測したユーザ意図に基づきアクションを実行する任意の情報処理システムを指すことができる。例えば、推測されたユーザ意図に基づきアクションを実行するために、システムは、推測されたユーザ意図を実現するように設計されたステップ及びパラメータを含むタスクフローを特定すること、推測したユーザ意図からの特定の要求をタスクフローに入力すること、プログラム、方法、サービス、アプリケーションプログラミングインタフェース(API)などを呼び出すことによりタスクフローを実行すること、及び、ユーザへの出力応答をオーディオ(例えば、スピーチ)形式及び/又は視覚形式で生成することのうちの1つ以上を実行することができる。
[0019]
具体的には、デジタルアシスタントは、自然言語コマンド、要求、陳述、叙述、及び/又は照会の形で少なくとも部分的にユーザ要求を受け入れる能力を有することができる。典型的には、ユーザ要求はデジタルアシスタントによる情報回答又はタスクの実行のいずれかを求めることができる。ユーザ要求への満足な応答は、要求された情報回答の提供、要求されたタスクの実行、又はその2つの組み合わせとすることができる。例えば、ユーザはデジタルアシスタントに「パリは何時ですか?」などの質問をすることができる。デジタルアシスタントは、要求された情報を取り出し、「パリは午後4時00分です」と応答することができる。また、ユーザは、タスク、例えば、「Reese Witherspoonが主演した映画を探す」の実行を要求することができる。それに応じて、デジタルアシスタントは、要求された検索クエリを実行し、ユーザがそこから選択するために、関連する映画タイトルを表示することができる。要求されたタスクの実行中、デジタルアシスタントは、時により、長時間にわたって情報を複数回交換する連続的なダイアログにおいて、ユーザと対話することができる。情報又は種々のタスクの実行を要求するためにデジタルアシスタントと対話する方法は他にも数多く存在する。テキストによる応答を提供し、プログラムされたアクションを取ることに加えて、デジタルアシスタントは、他の視覚形式又はオーディオ形式の応答、例えば、言語、警報、音楽、イメージ、ビデオ、アニメーションなどを提供することもできる。更に、本明細書で説明するように、例示的なデジタルアシスタントは、メディアコンテンツ(テレビセットトップボックス)の再生を制御することができ、表示ユニット上にメディアコンテンツ又は他の情報を表示させることができる。
[0020]
図1に示したように、いくつかの実施例では、デジタルアシスタントは、クライアント−サーバモデルに従って実装することができる。デジタルアシスタントは、メディアデバイス104上で実行されるクライアント側部分102(以後、「DAクライアント102」)、及びサーバシステム108上で実行されるサーバ側部分106(以後「DAサーバ106」)を含むことができる。更に、いくつかの実施例では、クライアント側部分はまた、ユーザデバイス122上で実行することができる。DAクライアント102は1つ以上のネットワーク110を通じてDAサーバ106と通信することができる。DAクライアント102は、ユーザ対応入力及び出力処理、並びにDAサーバ106との通信などのクライアント側機能を提供することができる。DAサーバ106は、それぞれのデバイス(例えば、メディアデバイス104及びユーザデバイス122)上に各々常駐する任意の数のDAクライアント102のためのサーバ側機能を提供することができる。
[0021]
メディアデバイス104は、メディアコンテンツを管理及び制御するように構成された任意の好適な電子デバイスとすることができる。例えば、メディアデバイス104としては、ケーブルボックスデバイス、衛星ボックスデバイス、ビデオプレーヤデバイス、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲーミングシステム、DVDプレーヤ、Blu−ray Disc(登録商標)プレーヤ、そのようなデバイスの組み合わせなどの、テレビセットトップボックスを挙げることができる。図1に示すように、メディアデバイス104は、メディアシステム128の一部とすることができる。メディアデバイス104に加えて、メディアシステム128は、遠隔制御124及び表示ユニット126を含むことができる。メディアデバイス104は、表示ユニット126上にメディアコンテンツを表示することができる。表示ユニット126は、テレビのディスプレイ、モニタ、プロジェクタなどの、任意の種類のディスプレイとすることができる。いくつかの実施例では、メディアデバイス104は、オーディオシステム(例えば、オーディオ受信機)に接続することができ、スピーカ111(図示せず)は、表示ユニット126と統合する、又はそれとは別個のものとすることができる。他の実施例では、表示ユニット126、及びメディアデバイス104は、高度な処理機能及びネットワーク接続機能を有するスマートテレビなどの、単一のデバイス内に一体に組み込むことができる。そのような実施例では、メディアデバイス104の機能は、組み合わせたデバイス上のアプリケーションとして実行することができる。
[0022]
いくつかの実施例では、メディアデバイス104は、複数の種類及びソースのメディアコンテンツのためのメディアコントロールセンタとして機能することができる。例えば、メディアデバイス104は、ライブのテレビ(例えば、テレビ放送、衛星テレビ、又はケーブルTV)へのユーザのアクセスを可能にすることができる。そのように、メディアデバイス104は、ケーブルチューナ、衛星チューナなどを含むことができる。いくつかの実施例では、メディアデバイス104はまた、後でのタイムシフト視聴のためにTV番組を録画することができる。他の実施例では、メディアデバイス104は、ケーブル配信のオンデマンドのTV番組、ビデオ、及び音楽、並びにインターネット配信のTV番組、ビデオ、及び音楽など(例えば、種々の無料、有料、及びサブスクリプションベースのストリーミングサービスから)の、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、メディアデバイス104は、モバイルユーザデバイスからの写真を表示すること、結合された記憶デバイスからのビデオを再生すること、結合された音楽プレーヤからの音楽を再生することなどの、任意の他のソースからのメディアコンテンツの再生又は表示を可能にすることができる。メディアデバイス104はまた、所望により、本明細書で説明するメディア制御機能の様々な他の組み合わせを含むことができる。図2を参照して、メディアデバイス104について以下に詳細に説明する。
[0023]
ユーザデバイス122としては、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、ウェアラブル電子デバイス(例えば、デジタル眼鏡、リストバンド、腕時計、ブローチ、アームバンドなど)などの、任意の個人用電子デバイスを挙げることができる。図3を参照して、ユーザデバイス122について以下に詳細に説明する。
[0024]
いくつかの実施例では、ユーザは、ユーザデバイス122、遠隔制御124、又はメディアデバイス104内に統合されたインタフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を介して、メディアデバイス104と対話することができる。例えば、ユーザデバイス122及び/又は遠隔制御124において、デジタルアシスタントのためのメディアに関係するクエリ又はコマンドを含む発語入力を受信することができ、その発語入力を使用して、メディアに関係するタスクをメディアデバイス104上で実行することができる。同様に、ユーザデバイス122及び/又は遠隔制御124において(並びに、図示されていない他のデバイスから)、メディアデバイス104上でメディアを制御するための触覚コマンドを受信することができる。したがって、種々のやり方でメディアデバイス104の種々の機能を制御することができ、ユーザには、複数のデバイスからのメディアコンテンツを制御するための複数のオプションが与えられる。
[0025]
通信ネットワーク(単数又は複数)110の例としては、ローカルエリアネットワーク(LAN)及び、例えば、インターネットのようなワイドエリアネットワーク(WAN)を挙げることができる。通信ネットワーク(単数又は複数)110は、例えば、イーサネット(登録商標)、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Wi−Fi(登録商標)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi−MAX(登録商標)、又は任意の他の好適な通信プロトコルなどの、様々な有線又は無線プロトコルを含む、任意の周知のネットワークプロトコルを用いて実装することができる。
[0026]
DAサーバ106は、クライアント対応入出力(I/O)インタフェース112、1つ以上の処理モジュール114、データ及びモデル116、並びに外部サービスへのI/Oインタフェース118を含むことができる。クライアント対応I/Oインタフェース112は、DAサーバ106のためのクライアント対応入力及び出力処理を可能にすることができる。1つ以上の処理モジュール114は、データ及びモデル116を利用して、発語入力を処理し、自然言語入力に基づいてユーザの意図を判定することができる。更に、1つ以上の処理モジュール114は、推測されたユーザ意図に基づいてタスク実行を行うことができる。いくつかの実施例では、DAサーバ106は、タスク完了又は情報取得のために、電話サービス、カレンダサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビプログラムサービス、ストリーミングメディアサービス、メディア検索サービスなどの、外部サービス120と、ネットワーク(単数又は複数)110を介して通信することができる。外部サービスへのI/Oインタフェース118は、このような通信を可能にすることができる。
[0027]
サーバシステム108は、1つ以上のスタンドアロンデータ処理装置、又はコンピュータの分散型ネットワーク上に実装することができる。また、いくつかの実施例では、サーバシステム108は、サーバシステム108の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供するために、種々の仮想デバイス及び/又はサードパーティサービスプロバイダ(例えば、サードパーティクラウドサービスプロバイダ)のサービスを採用することができる。
[0028]
図1に示したデジタルアシスタントは、クライアント側部分(例えば、DAクライアント102)及びサーバ側部分(例えば、DAサーバ106)の両方を含むが、いくつかの実施例では、デジタルアシスタントの機能は、ユーザデバイス又はメディアデバイスにインストールされるスタンドアロンアプリケーションとして実装することができる。加えて、デジタルアシスタントのクライアント部分とサーバ部分との間の機能の分配は実装によって異なり得る。例えば、いくつかの実施例では、ユーザデバイス122又はメディアデバイス104上で実行されるDAクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、デジタルアシスタントの全ての他の機能をバックエンドサーバに委ねるシンクライアントとすることができる。
2.メディアシステム
[0029]
図2は、種々の実施例に係る、例示的なメディアシステム128のブロック図を示す。メディアシステム128は、表示ユニット126と遠隔制御124とスピーカ268とに通信可能に結合されたメディアデバイス104を含むことができる。メディアデバイス104は、遠隔制御124を介して、ユーザ入力を受信することができる。メディアデバイス104からのメディアコンテンツを、表示ユニット126上に表示することができる。
[0030]
本実施例では、図2に示したように、メディアデバイス104は、メモリインタフェース202、1つ以上のプロセッサ204、及び周辺機器インタフェース206を含むことができる。1つ以上の通信バス又は信号線によって、メディアデバイス104内の種々の構成要素を1つに結合することができる。メディアデバイス104は更に、周辺機器インタフェース206に結合される様々なサブシステム、及び周辺機器を含むことができる。サブシステム及び周辺機器は情報を収集し、及び/又はメディアデバイス104の種々の機能を可能にすることができる。
[0031]
例えば、メディアデバイス104は、通信サブシステム224を含むことができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができる、1つ以上の有線及び/又は無線通信サブシステム224を介して、通信機能を可能にすることができる。
[0032]
いくつかの実施例では、メディアデバイス104は、周辺機器インタフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は、オーディオ/ビデオ出力コントローラ270を含むことができる。オーディオ/ビデオ出力コントローラ270は、表示ユニット126及びスピーカ268に結合することができ、あるいは場合によっては、(例えば、オーディオ/ビデオポート、無線伝送などを介して)オーディオ及びビデオ出力を提供することができる。I/Oサブシステム240は、遠隔コントローラ242を更に含むことができる。遠隔コントローラ242は、(例えば、有線接続、Bluetooth(登録商標)、Wi−Fi(登録商標)などを介して)遠隔制御124と通信可能に結合することができる。
[0033]
遠隔制御124は、オーディオデータ(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン272触覚入力をキャプチャするためのボタン(単数又は複数)274、及び遠隔コントローラ242を介したメディアデバイス104との通信を可能するための送受信機276を含むことができる。更に、遠隔制御124は、触覚及び/若しくは触感の接触に基づくユーザからの入力を受け入れるタッチ感知面278、センサ、又はセンサのセットを含むことができる。タッチ感知面278及び遠隔コントローラ242は、タッチ感知面278上で接触(及び接触の任意の移動又は中断)を検出し、検出した接触(例えば、ジェスチャ、接触モーションなど)を、表示ユニット126上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換することができる。いくつかの実施例では、遠隔制御124はまた、キーボード、ジョイスティック、タッチパッドなどの、他の入力機構を含むことができる。遠隔制御124は、照明、ディスプレイ、スピーカなどの、出力機構を更に含むことができる。遠隔制御124で受信した入力(例えば、ユーザの発語、ボタン押下など)を、遠隔制御124を介してメディアデバイス104に通信することができる。I/Oサブシステム240はまた、他の入力コントローラ(単数又は複数)244を含むことができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御機器248に結合することができる。
[0034]
いくつかの実施例では、メディアデバイス104は、メモリ250に結合されたメモリインタフェース202を更に含むことができる。メモリ250としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又は全てを実行するための)を記憶するために使用することができる。他の実施例では、(例えば、本明細書で説明する様々なプロセスの一部分又は全部を実行するための)命令は、サーバシステム108の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム108の非一時的コンピュータ可読記憶媒体との間に分配することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0035]
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインタフェース(GUI)モジュール256、デバイス内メディアモジュール258、デバイス外メディアモジュール260、及びアプリケーションモジュール262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加デバイス、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を可能にすることができる。グラフィカルユーザインタフェースモジュール256は、グラフィカルユーザインタフェース処理を可能にすることができる。オンデバイスメディアモジュール258は、メディアデバイス104にローカルに記憶されたメディアコンテンツの再生及び記憶を可能にすることができる。オフデバイスメディアモジュール260は、(例えば、リモートサーバ上、ユーザデバイス122上など)外部ソースから取得された遠隔に記憶されたメディアコンテンツのストリーミング再生又はダウンロードを可能にすることができる。更に、オフデバイスメディアモジュール260は、ブロードキャスト及びケーブルコンテンツの受信(例えば、チャンネルの同調)を可能にすることができる。アプリケーションモジュール262は、電子メッセージング、ウェブブラウジング、メディア処理、ゲーム、並びに/又は他のプロセス及び機能などの、メディアに関係するアプリケーションの種々の機能を可能にすることができる。
[0036]
本明細書で説明するように、メモリ250はまた、例えば、デジタルアシスタントのクライアント側機能を提供するために、(例えば、デジタルアシスタントクライアントモジュール264内の)クライアント側デジタルアシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、設定データ、及び/又はユーザのメディア検索履歴、メディア視聴リスト、最近の視聴したリスト、お気に入りのメディアアイテムなどの他のデータ)も記憶することができる。また、ユーザデータ266は、デジタルアシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。
[0037]
種々の実施例では、デジタルアシスタントクライアントモジュール264は、メディアデバイス104の種々のユーザインタフェース(例えば、I/Oサブシステム240など)を通じて音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。デジタルアシスタントクライアントモジュール264はまた、オーディオ形態(例えば、発語出力)、視覚形態、及び/又は触覚形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記の2つ以上の組み合わせとして提供されてもよい。動作時、デジタルアシスタントクライアントモジュール264は、通信サブシステム224を用いてデジタルアシスタントサーバ(例えば、DAサーバ106)と通信することができる。
[0038]
いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話、及び/又は現在のユーザ入力に関連付けられるコンテキストを確立するために、種々のサブシステム及び周辺機器を利用して、メディアデバイス104に関係する追加情報、及びメディアデバイス104の周囲環境からの追加情報を収集することができる。そのようなコンテキストはまた、ユーザデバイス122からなどの、他のデバイスからの情報を含むことができる。いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力と共にコンテキスト情報又はそのサブセットをデジタルアシスタントサーバに提供することができる。デジタルアシスタントはまた、コンテキスト情報を使用して、ユーザへの出力をどのように準備し、配信するのかを判定することができる。更に、正確な発語認識をサポートするために、メディアデバイス104又はサーバシステム108によりコンテキスト情報を使用することができる。
[0039]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、別のオブジェクトとの距離、などの、センサ情報を含むことができる。コンテキスト情報は、メディアデバイス104の物理状態(例えば、デバイスの位置、デバイスの温度、電力レベルなど)に関連付けられた情報、又はメディアデバイス104のソフトウェア状態(例えば、実行中の処理、インストールされたアプリケーション、過去及び現在のネットワークアクティビティ、バックグラウンドサービス、エラーログ、リソース使用など)に関連付けられた情報を更に含むことができる。コンテキスト情報は、ユーザから受信した情報(例えば、発語入力)、ユーザにより要求された情報、及びユーザに提示される情報(例えば、メディアデバイスにより現在表示されている情報、又は以前に表示された情報)を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、ユーザデバイス122上に表示されたコンテンツ、ユーザデバイス122上で再生可能なコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報のうちのいずれかを、ユーザ入力と関連付けられたコンテキスト情報として、DAサーバ106に提供する(あるいは、メディアデバイス104自体で使用する)ことができる。
[0040]
いくつかの実施例では、デジタルアシスタントクライアントモジュール264は、DAサーバ106からの要求に応じて、メディアデバイス104上に記憶されている情報(例えば、ユーザデータ266)を選択的に提供することができる。それに加えて、又は代替として、発語認識及び/又はデジタルアシスタントの機能を実行する際に、その情報をメディアデバイス104自体で使用することができる。デジタルアシスタントクライアントモジュール264はまた、DAサーバ106による要求時に、自然言語ダイアログ又は他のユーザインタフェースを介して、ユーザからの追加入力も引き出すことができる。デジタルアシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成においてDAサーバ106を助けるために、追加入力をDAサーバ106に渡すことができる。
[0041]
種々の実施例では、メモリ250は、追加の命令又はより少数の命令を含むことができる。更に、メディアデバイス104の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
3.ユーザデバイス
[0042]
図3は、様々な実施例による、例示的なユーザデバイス122のブロック図を示す。ユーザデバイス122は、メモリインタフェース302、1つ以上のプロセッサ304、及び周辺機器インタフェース306を含むことができる。1つ以上の通信バス又は信号線によって、ユーザデバイス122内の種々の構成要素を1つに結合することができる。ユーザデバイス122は更に、周辺機器インタフェース306に結合される種々のセンサ、サブシステム、及び周辺機器を含むことができる。センサ、サブシステム、及び周辺機器は情報を収集し、及び/又はユーザデバイス122の種々の機能を可能にすることができる。
[0043]
例えば、ユーザデバイス122は、向き、光、及び近接度の検知機能を可能にするための動きセンサ310、光センサ312、及び近接センサ314を含むことができ、それらは、周辺機器インタフェース306に結合される。関連機能を促進するために、測位システム(例えば、GPS受信機)、温度センサ、生体センサ、ジャイロスコープ、コンパス、加速度計、などの、1つ以上の他のセンサ316も、周辺インタフェース306に接続することができる。
[0044]
いくつかの実施例では、カメラサブシステム320及び光学センサ322は、写真の撮影及びビデオクリップの録画などの、カメラ機能を促進するために利用することができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができる、1つ以上の有線及び/又は無線通信サブシステム324を介して、通信機能を可能にすることができる。オーディオサブシステム326は、スピーカ328及びマイクロフォン330に結合して、音声認識、音声複製、デジタル録音、及び電話機能などの、音声使用可能機能を促進することができる。
[0045]
いくつかの実施例では、ユーザデバイス122は、周辺機器インタフェース306に結合されたI/Oサブシステム340を更に含んでもよい。I/Oサブシステム340は、タッチスクリーンコントローラ342及び/又は他の入力コントローラ(単数又は複数)344を含むことができる。タッチスクリーンコントローラ342は、タッチスクリーン346に結合することができる。タッチスクリーン346及びタッチスクリーンコントローラ342は、例えば、容量性、抵抗性、赤外線、及び表面弾性波技術、近接センサアレイなどの複数のタッチ感知技術のうちのいずれかを使用して、接触、及びその移動若しくは中断を検出することができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス348に結合することができる。
[0046]
いくつかの実施例では、ユーザデバイス122は、メモリ350に結合されたメモリインタフェース302を更に含むことができる。メモリ350としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又は全てを実行するための)を記憶するために使用することができる。他の実施例では、(例えば、本明細書で説明する様々なプロセスの一部分又は全部を実行するための)命令は、サーバシステム108の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム108の非一時的コンピュータ可読記憶媒体との間に分配することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0047]
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインタフェース(GUI)モジュール356、センサ処理モジュール358、電話モジュール360、及びアプリケーションモジュール362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加デバイス、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進することができる。グラフィカルユーザインタフェースモジュール356は、グラフィカルユーザインタフェース処理を促進することができる。センサ処理モジュール358は、センサ関連の処理及び機能を促進することができる。電話モジュール360は、電話関連のプロセス及び機能を促進することができる。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング、並びに/又はその他のプロセス及び機能などの、ユーザアプリケーションの種々な機能を可能にすることができる。
[0048]
本明細書で説明するように、メモリ350はまた、例えば、デジタルアシスタントのクライアント側機能を提供するために、(例えば、デジタルアシスタントクライアントモジュール364内の)クライアント側デジタルアシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組の好みなどのその他のデータ)も記憶することができる。また、ユーザデータ366は、デジタルアシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。デジタルアシスタントクライアントモジュール364及びユーザデータ366は、図2を参照して上述したように、デジタルアシスタントクライアントモジュール264及びユーザデータ266とそれぞれ同様又は同一とすることができる。
[0049]
種々の実施例では、メモリ350は追加の命令又はより少数の命令を含むことができる。更に、ユーザデバイス122の様々な機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0050]
いくつかの実施例では、ユーザデバイス122は、メディアデバイス104の一態様を制御するように構成することができる。例えば、ユーザデバイス122は、遠隔制御(例えば、遠隔制御124として機能することができる。ユーザデバイス122を介して受信したユーザ入力を、(例えば、通信サブシステムを使用して)メディアデバイス104に送信して、対応するアクションをメディアデバイス104に実行させることができる。更に、ユーザデバイス122は、メディアデバイス104から命令を受信するように構成することができる。例えば、メディアデバイス104は、ユーザデバイス122にタスクをハンドオフして、それを実行し、ユーザデバイス122上にオブジェクト(例えば、選択可能なアフォーダンス)を表示させることができる。
[0051]
システム100及びメディアシステム128は、図1及び図2に示した構成要素及び構成には限定されず、ユーザデバイス122、メディアデバイス104、同様に、遠隔制御124は、図2及び図3に示した構成要素及び構成には限定されないことを理解されたい。システム100、メディアシステム128、ユーザデバイス122、メディアデバイス104、及び遠隔制御124は全て、種々な実施例に係る複数の構成において、より少数の又は他の構成要素を含むことができる。
4.デジタルアシスタントシステム
[0052]
図4Aは、種々の実施例に係る例示的なデジタルアシスタントシステム400のブロック図である。いくつかの実施例では、デジタルアシスタントシステム400はスタンドアロンコンピュータシステム上に実装することができる。いくつかの実施例では、デジタルアシスタントシステム400は複数のコンピュータにわたって分散され得る。いくつかの実施例では、デジタルアシスタントのモジュール及び機能のいくつかを、サーバ部分及びクライアント部分に分配することができ、この場合には、クライアント部分は1つ以上のユーザデバイス(例えば、デバイス104又は122)上に常駐し、例えば、図1に示したように、1つ以上のネットワークを通じてサーバ部分(例えば、サーバシステム108)と通信する。いくつかの実施例では、デジタルアシスタントシステム400は、図1に示したサーバシステム108(及び/又はDAサーバ106)の一実装形態である。デジタルアシスタントシステム400はデジタルアシスタントシステムの単なる一実施例にすぎず、デジタルアシスタントシステム400は、図示されているよりも多数又は少数の構成要素を有してもよく、2つ以上の構成要素を組み合わせてもよく、又は構成要素の異なる構成又は配置を有することができることに留意されたい。図4Aに示した種々の構成要素は、1つ以上の信号処理及び/若しくは特定用途向け集積回路を含む、ハードウェア、1つ以上のプロセッサによって実行されるソフトウェア命令、ファームウェア、又はそれらの組み合わせの形態で実装することができる。
[0053]
デジタルアシスタントシステム400は、メモリ402、1つ以上のプロセッサ404、入力/出力(I/O)インタフェース406、及びネットワーク通信インタフェース408を含むことができる。これらの構成要素は1本以上の通信バス又は信号線410を介して、互いに通信することができる。
[0054]
いくつかの実施例では、メモリ402は、高速ランダムアクセスメモリ並びに/又は不揮発性コンピュータ可読記憶媒体(例えば、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、若しくは他の不揮発性固体メモリデバイス)など、非一時的コンピュータ可読媒体を含むことができる。
[0055]
いくつかの実施例では、I/Oインタフェース406は、ディスプレイ、キーボード、タッチスクリーン、及びマイクロフォンなどの、デジタルアシスタントシステム400のI/Oデバイス416をユーザインタフェースモジュール422に結合することができる。I/Oインタフェース406は、ユーザインタフェースモジュール422と協働して、ユーザ入力(例えば、音声入力、キーボード入力、タッチ入力など)を受信し、それらを適宜に処理する。いくつかの実施例では、例えば、デジタルアシスタントがスタンドアロンユーザデバイス上に実装される時には、デジタルアシスタントシステム400は、図2又は図3におけるデバイス104又は122に関してそれぞれ説明されている構成要素並びにI/O通信インタフェースのうちのいずれかを含むことができる。いくつかの実施例では、デジタルアシスタントシステム400はデジタルアシスタント実装形態のサーバ部分を表すことができ、ユーザデバイス(例えば、デバイス104又は122)上に常駐するクライアント側部分を通じてユーザと対話することができる。
[0056]
いくつかの実施例では、ネットワーク通信インタフェース408は、有線通信ポート(単数又は複数)412及び/又は無線送受信回路414を含むことができる。有線通信ポート(単数又は複数)は、1つ以上の有線インタフェース、例えば、イーサネット、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)などを介して通信信号を受信及び送信することができる。無線回路414は、通常、通信ネットワーク及び他の通信デバイスを起点/終点として、RF信号及び/又は光信号を受信及び送信することができる。無線通信は、GSM(登録商標)、EDGE、CDMA、TDMA、Bluetooth(登録商標)、Wi−Fi(登録商標)、VoIP、Wi−MAX(登録商標)、あるいは任意のその他の好適な通信プロトコルなどの、複数の通信規格、プロトコル及び技術のうちの任意のものを使用することができる。ネットワーク通信インタフェース408は、インターネット、イントラネットなどのネットワーク、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)などの無線ネットワーク、及び/又はメトロポリタンエリアネットワーク(Metropolitan Area Network、MAN)を用いた、デジタルアシスタントシステム400と他のデバイスとの間の通信を可能にすることができる。
[0057]
いくつかの実施例では、メモリ402、又はメモリ402のコンピュータ可読記憶媒体は、オペレーティングシステム418、通信モジュール420、ユーザインタフェースモジュール422、1つ以上のアプリケーション424、1つ以上のアプリケーション424、及びデジタルアシスタントモジュール426の全て又はサブセットを含むプログラム、モジュール、命令、及びデータ構造を記憶することができる。詳細には、メモリ402又はメモリ402のコンピュータ可読記憶媒体は、以下で説明するプロセス800を実行する命令を記憶することができる。1つ以上のプロセッサ404はこれらのプログラム、モジュール、命令を実行し、データ構造から/へと、読み出し/書き込みを実行することができる。
[0058]
オペレーティングシステム418(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、iOS(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorksなどの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶装置制御、電力管理など)を制御及び管理するための様々なソフトウェア構成要素及び/又はドライバを含むことができ、種々のハードウェア、ファームウェア、及びソフトウェア構成要素間の通信を可能にする。
[0059]
通信モジュール420は、ネットワーク通信インタフェース408上でのデジタルアシスタントシステム400と他のデバイスとの間の通信を可能にする。例えば、通信モジュール420は、電子デバイス(例えば、104、122)の通信サブシステム(例えば、224、324)と通信することができる。通信モジュール420はまた、無線回路414及び/又は有線通信ポート412により受信されたデータを処理するための種々の構成要素も含むことができる。
[0060]
ユーザインタフェースモジュール422はI/Oインタフェース406を介して(例えば、キーボード、タッチスクリーン、ポインティング装置、コントローラ、及び/又はマイクロフォンから)ユーザからのコマンド及び/又は入力を受信し、ディスプレイ上にユーザインタフェースオブジェクトを生成することができる。ユーザインタフェースモジュール422はまた、I/Oインタフェース406を介して(例えば、ディスプレイ、オーディオチャネル、スピーカ、タッチパッドなどを通じて)、ユーザへの出力(例えば、発語、音声、アニメーション、テキスト、アイコン、振動、触覚フィードバック、光など)も準備及び配信することができる。
[0061]
アプリケーション424は、1つ以上のプロセッサ404により実行されるように構成されたプログラム及び/又はモジュールを含むことができる。例えば、デジタルアシスタントシステム400がスタンドアロンユーザデバイス上に実装される場合には、アプリケーション424は、ゲーム、カレンダアプリケーション、ナビゲーションアプリケーション、又は電子メールアプリケーションなどのユーザアプリケーションを含むことができる。デジタルアシスタントシステム400がサーバ上に実装される場合には、アプリケーション424は、例えば、リソース管理アプリケーション、診断アプリケーション、又はスケジューリングアプリケーションを含むことができる。
[0062]
メモリ402はまた、デジタルアシスタントモジュール426(又はデジタルアシスタントのサーバ部分)も記憶することができる。いくつかの実施例では、デジタルアシスタントモジュール426は、以下のサブモジュール、又はそれらのサブセット若しくはスーパーセットを含む。I/O処理モジュール428、発語テキスト化(speech-to-text、STT)処理モジュール430、自然言語処理モジュール432、ダイアログフロー処理モジュール434、タスクフロー処理モジュール436、サービス処理モジュール438、及び発語合成モジュール440を含むことができる。これらのモジュールの各々は、デジタルアシスタント426の以下のシステムあるいはデータ及びモデルのうちの1つ以上、又はそれらのサブセット若しくはスーパーセットへのアクセスを有する。即ち、オントロジ460、語彙索引444、ユーザデータ448、タスクフローモデル454、サービスモデル456、及び自動発語認識(automatic speech recognition、ASR)431である。
[0063]
いくつかの実施例では、デジタルアシスタントは、デジタルアシスタントモジュール426中に実装される処理モジュール、データ及びモデルを使用して、発語入力をテキストに変換すること、ユーザから受信した、自然言語入力で表されたユーザの意図を特定すること、(例えば、単語、ゲーム、意図などの曖昧性を回避することによって)ユーザの意図を完全に推測するために必要な情報をアクティブに引き出し、取得すること、推測された意図を達成するためのタスクフローを判定すること、及び推測された意図を達成するタスクフローを実行することのうちの少なくともいくつかを実行することができる。
[0064]
いくつかの実施例では、図4Bに示すように、I/O処理モジュール428は、ユーザ入力(例えば、発語入力)を取得するために、及びユーザ入力への応答を(例えば、発語出力として)提供するために、図4AにおけるI/Oデバイス416を通じてユーザと対話するか、又は、図4Aにおけるネットワーク通信インタフェース408を通じて電子デバイス(例えば、デバイス104又は122)と対話することができる。I/O処理モジュール428は、ユーザ入力と共に、又はその受信の直後に、ユーザ入力に関連付けられるコンテキスト情報を電子デバイスから任意選択的に取得することができる。コンテキスト情報は、ユーザ入力に関連するユーザ固有のデータ、語彙、及び/又は設定を含むことができる。いくつかの実施例では、コンテキスト情報はまた、ユーザ要求の受信時におけるデバイスのソフトウェア及びハードウェア状態、並びに/又はユーザ要求の受信時におけるユーザの周囲環境に関する情報も含む。いくつかの実施例では、I/O処理モジュール428はまた、ユーザ要求について、ユーザに補足質問を送信し、ユーザから回答を受信することができる。ユーザ要求をI/O処理モジュール428により受信し、ユーザ要求が発語入力を包含することができる時には、I/O処理モジュール428は、発語テキスト化変換のために、発語入力をSTT処理モジュール430(又は発語レコナイザ)へ転送することができる。
[0065]
STT処理モジュール430は、1つ以上のASRシステム(例えば、ASRシステム431)を含むことができる。1つ以上のASRシステムは、I/O処理モジュール428を介して受信した発語入力を処理して、認識結果を生成することができる。各ASRシステムは、フロントエンド発語プリプロセッサを含むことができる。フロントエンド発語プリプロセッサは、発語入力から代表的な特徴を抽出することができる。例えば、フロントエンド発語プリプロセッサは、発語入力を代表的な多次元ベクトルの列として特徴付けるスペクトル特徴を抽出するために、発語入力に対してフーリエ変換を実行することができる。更に、各ASRシステムは、1つ以上の発語認識モデル(例えば、音響モデル及び/又は言語モデル)を含むことができ、1つ以上の音声認識エンジンを実装することができる。発語認識モデルの実施例は、隠れマルコフモデル、混合ガウスモデル、ディープニューラルネットワークモデル、nグラム言語モデル、及び他の統計モデルを含むことができる。発語認識エンジンの実施例は、動的時間伸縮ベースのエンジン及び重み付き有限状態トランスデューサ(WFST)ベースのエンジンを含むことができる。フロントエンド発語プリプロセッサの抽出された代表的な特徴を処理して、中間認識結果(例えば、音素、音素文字列及びサブワード)を生成し、最終的には、テキスト認識結果(例えば、単語、単語文字列、又はトークンの列)を生成するために、1つ以上の発語認識モデル及び1つ以上の発語認識エンジンを使用ことができる。いくつかの実施例では、認識結果を生成するために、サードパーティサービスによって、又は電子デバイス(例えば、デバイス104又は122)上で発語入力を少なくとも部分的に処理することができる。STT処理モジュール430がテキスト文字列(例えば、単語、単語の列、又はトークンの列)を包含する認識結果を生成すると、意図の推定のために、その認識結果を自然言語処理モジュール432に渡すことができる。
[0066]
いくつかの実施例では、1つ以上のASRシステムの1つ以上の言語モデルは、メディアに関係する結果に向かってバイアスするように構成することができる。1つの実施例では、メディアに関係するテキストのコーパスを使用して、1つ以上の言語モデルをトレーニングすることができる。別の実施例では、ASRシステムは、メディアに関係する認識結果のほうを選ぶように構成することができる。いくつかの実施例では、1つ以上のASRシステムは、静的言語モデル及び動的言語モデルを含むことができる。静的言語モデルは、一般的なテキストのコーパスを使用してトレーニングすることができ、動的言語モデルは、ユーザ固有のテキストを使用してトレーニングすることができる。例えば、ユーザから受信した以前の発語入力に対応するテキストを使用して、動的言語モデルを生成することができる。いくつかの実施例では、1つ以上のASRシステムは、静的言語モデル及び/又は動的言語モデルに基づいて認識結果を生成するように構成することができる。更に、いくつかの実施例では、1つ以上のASRシステムは、より最近に受信された以前の発語入力に対応する認識結果のほうを選ぶように構成することができる。
[0067]
発語テキスト化処理についての追加の詳細が、2011年9月20日に出願された、「Consolidating Speech Recognition Results」についての米国実用特許出願第13/236,942号に記載されている。同出願の開示全体は本明細書において参照により組み込まれている。
[0068]
いくつかの実施例では、STT処理モジュール430は、認識可能な単語の語彙を含むことができ、及び/又は、音標アルファベット変換モジュール431を介してそれにアクセスすることができる。各語彙語は、1つ以上の発語認識音標アルファベットで表される単語の発音候補と関連付けることができる。詳細には、認識可能な単語の語彙は、複数の発音候補に関連付けられた単語を含むことができる。例えば、語彙は、発音候補
[図1]
に関連付けられた単語「トマト」を含むことができる。更に、ユーザからの以前の発語入力に基づいて、語彙語を、カスタム発音候補と関連付けることができる。そのようなカスタム発音候補を、STT処理モジュール430に記憶することができて、デバイス上のユーザのプロファイルを介して、特定のユーザと関連付けることができる。いくつかの実施例では、単語の綴り並びに1つ以上の言語規則及び/又は音標規則に基づいて、単語の発音候補を判定することができる。いくつかの実施例では、例えば、既知の正規発音に基づいて、発音候補を手動で生成することができる。
[0069]
いくつかの実施例では、発音候補の一般性に基づいて、発音候補をランク付けされることができる。例えば、発音候補
[図2]
よりも高くランク付けすることができるが、これは、発音候補
[図3]
が(例えば、全ユーザのうち、特定の地理的領域のユーザについて、又は、任意の他の適切なユーザのサブセットについて)より一般的に使用される発音だからである。いくつかの実施例では、発音候補が、ユーザに関連付けられたカスタム発音候補であるかどうかに基づいて、その発音候補をランク付けすることができる。例えば、カスタム発音候補を、正規発音候補よりも高くランク付けすることができる。このことは、正規発音から逸脱して独特の発音を有する固有名詞を認識するために有用であり得る。いくつかの実施例では、発音候補を出身地、国籍又は民族性などの1つ以上の発語特性と関連付けることができる。例えば、発音候補
[図4]
が米国と関連付けることができるのに対し、発音候補
[図5]
は英国と関連付けることができる。更に、発音候補のランクは、デバイス上のユーザのプロファイルに記憶されたユーザの1つ以上の特性(例えば、出身地、国籍、民族など)に基づくことができる。例えば、ユーザのプロファイルから、ユーザが米国に関連付けられていることを判定することができる。ユーザが米国に関連付けられていることに基づいて、(米国に関連付けられた)発音候補
[図6]
を、(英国に関連付けられた)発音候補
[図7]
よりも高くランク付けすることができる。いくつかの実施例では、ランク付けされた発音候補のうちの1つを、予測された発音(例えば、最も可能性が高い発音)として選択することができる。
[0070]
発語入力を受信すると、STT処理モジュール430を使用して、発語入力に対応する音素を(例えば、音響モデルを使用して)判定し、次いで、音素と一致する単語を(例えば、言語モデルを使用して)判定しようと試みることができる。例えば、STT処理モジュール430は、発語入力の一部分に対応する音素の列
[図8]
を最初に特定することができた場合、語彙インデックス444に基づいて、この音素の列が単語「トマト」に対応すると判定することができる。
[0071]
いくつかの実施例では、STT処理モジュール430は、近似マッチング技術を使用して、発言内の単語を判定することができる。したがって、例えば、STT処理モジュール430は、特定の音素の列が、単語「トマト」の候補音素の列のうちの1つではない場合でも、音素の列
[図9]
が単語「トマト」に対応すると判定することができる。
[0072]
デジタルアシスタントの自然言語処理モジュール432(「自然言語プロセッサ」)は、STT処理モジュール430により生成された単語又はトークンの列(「トークン列」)を獲得し、トークン列を、デジタルアシスタントにより認識される1つ以上の「実施可能な意図」に関連付けようと試みることができる。「実施可能な意図」は、デジタルアシスタントにより実行することができるタスクを表すことができ、タスクフローモデル454内に実装される、関連付けられたタスクフローを有することができる。関連付けられたタスクフローは、タスクを実行するためにデジタルアシスタントが取る一連のプログラムされたアクション及びステップとすることができる。デジタルアシスタントの能力の範囲は、タスクフローモデル454内に実装され、記憶されているタスクフローの数及び種類に依存し、又は、換言すれば、デジタルアシスタントが認識する実施可能な意図の数及び種類に依存することができる。しかし、デジタルアシスタントの有効性もまた、自然言語で表現されたユーザ要求から正しい「実施可能な意図(単数又は複数)」を推定するアシスタントの能力に依存することができる。
[0073]
いくつかの実施例では、STT処理モジュール430から取得される単語又はトークン列に加えて、自然言語処理モジュール432はまた、例えば、I/O処理モジュール428から、ユーザ要求に関連付けられるコンテキスト情報も受信することができる。自然言語処理モジュール432は、任意選択的に、コンテキスト情報を使用して、STT処理モジュール430から受信したトークン列内に包含されている情報を明らかにし、補完し、及び/又は更に定義することができる。コンテキスト情報は、例えば、ユーザ設定、ユーザデバイスのハードウェア及び/又はソフトウェア状態、ユーザ要求の前、最中、若しくは直後に集められたセンサ情報、デジタルアシスタントとユーザとの間の以前の対話(例えば、ダイアログ)などを含むことができる。本明細書で説明するように、コンテキスト情報は動的であり得、かつ時間、場所、ダイアログの内容及び他の因子によって変化することができる。
[0074]
いくつかの実施例では、自然言語処理はオントロジ460に基づくことができる。オントロジ460は、多数のノードを包含する階層構造とすることができ、各ノードは、「実施可能な意図」又は他の「属性」のうちの1つ以上に関連する「実施可能な意図」又は「属性」のいずれかを表す。上述したように、「実施可能な意図」は、デジタルアシスタントが実行する能力を有する、即ち、それは「実施可能」である、又は作用を及ぼされ得るタスクを表すことができる。「属性」は、実施可能な意図、又は別の属性の下位態様に関連付けられるパラメータを表すことができる。オントロジ460内の実施可能な意図ノードと属性ノードとの間のリンクは、属性ノードにより表されるパラメータが、実施可能な意図ノードにより表されるタスクにどのくらい関係するのかを定義することができる。
[0075]
いくつかの実施例では、オントロジ460は実施可能な意図ノード及び属性ノードで構成することができる。オントロジ460内において、各実施可能な意図ノードは、直接又は1つ以上の中間属性ノードを介して、1つ以上の属性ノードにリンクすることができる。同様に、各属性ノードは、直接又は1つ以上の中間属性ノードを介して、1つ以上の実施可能な意図ノードにンクすることができる。例えば、図4Cに示すように、オントロジ460は「メディア」ノード(即ち、実施可能な意図ノード)を含むことができる。属性ノード「俳優(単数又は複数)」、「メディアジャンル」及び「メディアタイトル」を、それぞれ、実施可能な意図ノード(即ち、「メディア検索」ノード)に直接リンクすることができる。更に、属性ノード「名前」、「年齢」、「ウルマースケールランキング」及び「国籍」は、属性ノード「俳優」のサブノードであり得る。
[0076]
別の実施例では、図4Cに示すように、オントロジ460はまた、「天気」ノード(即ち、別の実施可能な意図ノード)も含むことができる。属性ノード「日付/時間」及び「場所」は、それぞれ、「天気検索」ノードにリンクすることができる。いくつかの実施例では、1つ以上の属性ノードは、2つ以上の実施可能な意図に関連し得ることを認識されたい。これらの実施例では、1つ以上の属性ノードは、オントロジ460中の2つ以上の実施可能な意図に対応するそれぞれのノードにリンクすることができる。
[0077]
実施可能な意図ノードは、そのリンクされた属性ノードと共に、時として「ドメイン」として説明することができる。本説明では、各ドメインは、それぞれの実施可能な意図に関連付けることができ、特定の実施可能な意図に関連付けられたノードのグループ(及びノード間の関係)を指すことができる。例えば、図4Cに示したオントロジ460は、オントロジ460内のメディアメディアドメイン462の例及び464天気ドメインの例を含むことができる。メディアドメイン462は、実施可能な意図ノード「メディア検索」と、属性ノード「俳優(単数又は複数)」、「メディアジャンル」及び「メディアのタイトル」を含むことができる。天気ドメイン464は、実施可能な意図ノード「天気検索」、及び属性ノード「場所」及び「日付/時間」が含むことができる。いくつかの実施例では、オントロジ460は多くのドメインで構成することができる。各ドメインは、1つ以上の他のドメインと、1つ以上の属性ノードを共有することができる。
[0078]
図4Cは、オントロジ460内の2つの例示的なドメインを示しているが、他のドメインとして、例えば、「アスリート」、「株式」、「方向」、「メディア設定」、「スポーツチーム」、及び「時間」並びに「ジョークを言う(tell joke)」などを挙げることができる。「アスリート」ドメインは、「アスリート情報検索」という実施可能な意図ノードと関連付けることができ、「アスリートの名前」、「アスリートのチーム」及び「アスリートの成績」などの属性ノードを更に含み得る。
[0079]
いくつかの実施例では、オントロジ460は、デジタルアシスタントが理解し、作用を及ぼすことができる全てのドメイン(したがって実施可能な意図)を含むことができる。いくつかの実施例では、オントロジ460は、ドメイン若しくはノード全体を追加又は除去すること、又はオントロジ460内のノード間の関係を変更することなどによって、修正することができる。
[0080]
いくつかの実施例では、オントロジ460内の各ノードは、そのノードによって表される属性又は実施可能な意図に関連する単語及び/又はフレーズのセットに関連付けることができる。各ノードに関連付けられる単語及び/又はフレーズのそれぞれのセットは、そのノードに関連付けられるいわゆる「語彙」とすることができる。各ノードに関連付けられる単語及び/又はフレーズのそれぞれのセットは、ノードによって表される属性又は実施可能な意図に関連して語彙索引444内に記憶することができる。例えば、図4Cに戻ると、「俳優」の属性についてのノードに関連付けられる語彙は、「Aリスト」、「Reese Witherspoon」、「Arnold Schwarzenegger」、「Brad Pitt」などの単語を含むことができる。別の例として、「天気検索」という実施可能な意図のノードに関連付けられる語彙は、「天気」、「どんな様子か」、「予報」などの単語及びフレーズを含むことができる。語彙索引444は異なる言語の単語及びフレーズを任意選択的に含むことができる。
[0081]
自然言語処理モジュール432は、STT処理モジュール430からトークン列(例えば、テキスト文字列)を受信し、トークン列内の単語がどのノードを暗示しているのかを判定することができる。いくつかの実施例では、トークン列内の単語又はフレーズが(語彙索引444を介して)オントロジ460内の1つ以上のノードに関連付けられていることが分かった場合、その単語又はフレーズが、それらのノードを「トリガする」又は「アクティブ化する」ことができる。アクティブ化されたノードの量及び/又は相対的重要度に基づき、自然言語処理モジュール432は、ユーザがデジタルアシスタントに実行させようと意図したタスクとして、実施可能な意図のうちの1つを選択することができる。いくつかの実施例では、最も多く「トリガされた」ノードを有するドメインを選択することができる。いくつかの実施例では、最も高い信頼値を有するドメインを(例えば、その種々のトリガされたノードの相対的重要度に基づいて)選択することができる。いくつかの実施例では、トリガされたノードの数及び重要度の組み合わせに基づいて、ドメインを選択することができる。いくつかの実施例では、ノードを選択する際には、デジタルアシスタントはユーザからの同様の要求を以前に正確に解釈したかどうかなどの追加の因子も考慮される。
[0082]
ユーザデータ448は、ユーザ固有語彙、ユーザ設定、ユーザアドレス、ユーザの既定言語及び第二言語、ユーザの連絡先リスト、並びに各ユーザに関するその他の短期的若しくは長期的情報などの、ユーザ固有の情報を含むことができる。いくつかの実施例では、自然言語処理モジュール432は、ユーザ入力内に包含されている情報を補完してユーザ意図を更に明確にするために、ユーザ固有の情報を使用することができる。例えば、ユーザ要求「今週の天気はどんなか」に対して、自然言語処理モジュール432は、ユーザの要求時にユーザがいる場所を明示的に提供するようにユーザに要求するのではなく、ユーザデータ448にアクセスしてそのような情報を判定することができる。
[0083]
トークン文字列に基づくオントロジ検索のその他の詳細が、2008年12月22日出願の「Method and Apparatus for Searching Using an Active Ontology」に対する米国実用特許出願第12/341,743号に記載されている。同出願の開示全体は本明細書において参照により組み込まれている。
[0084]
いくつかの実施例では、自然言語処理モジュール432が、ユーザ要求に基づいて、実施可能な意図(又はドメイン)を特定すると、自然言語処理モジュール432は、特定された実施可能な意図を表すように、構造化されたクエリを生成することができる。いくつかの実施例では、構造化されたクエリは、実施可能な意図に関するドメイン内の1つ以上のノードのためのパラメータを含むことができ、パラメータの少なくともいくつかにはユーザ要求内で指定された特定の情報及び要求事項が追加される。例えば、ユーザは、「このTVシリーズの他のシーズンを見つけて」と言ってもよい。この場合には、自然言語処理モジュール432は、ユーザ入力に基づいて、実施可能な意図を「メディア検索」であると正確に特定することができる。オントロジによれば、「メディア」ドメインのための構造化されたクエリは、{メディア俳優}、{メディアジャンル}、{メディアタイトル}などのようなパラメータを含み得る。いくつかの実施例では、発語入力、及びSTT処理モジュール430を使用して発語入力から導き出されたテキストに基づいて、自然言語処理モジュール432は、レストラン予約ドメインについての部分的な構造化されたクエリを生成することができ、部分的な構造化されたクエリは、パラメータ{メディアジャンル=テレビシリーズ}を含む。しかし、本例では、ユーザの発言は、ドメインに関連付けられる構造化されたクエリを完成するために十分な情報を包含していない。したがって、{メディアのタイトル}などの他の必要パラメータは、現在利用可能な情報に基づいては、構造化されたクエリ内に指定されないことがある。いくつかの実施では、自然言語処理モジュール432は、構造化されたクエリのいくつかのパラメータに、受信したコンテキスト情報を追加することができる。例えば、TVシリーズ「Mad Men」が、メディアデバイス上で現在再生していることがある。このコンテキスト情報に基づいて、自然言語処理モジュール432は、構造化されたクエリの{メディアのタイトル}パラメータに、「Mad Men」を追加することができる。
[0085]
いくつかの実施例では、自然言語処理モジュール432は、(任意の完成したパラメータを含む)生成した構造化されたクエリをタスクフロー処理モジュール436(「タスクフロープロセッサ」)に渡すことができる。タスクフロー処理モジュール436は、自然言語処理モジュール432から、構造化されたクエリを受信し、必要ならば、構造化されたクエリを完成させ、ユーザの最終的な要求を「完了する」ために必要とされるアクションを実行するように構成することができる。いくつかの実施例では、これらのタスクを完成させるために必要な種々の手順を、タスクフローモデル454内で行うことができる。いくつかの実施例では、タスクフローモデル454は、ユーザから追加情報を取得するための手順、及び実施可能な意図に関連付けられるアクションを実行するためのタスクフローを含むことができる。
[0086]
上述したように、構造化されたクエリを完成させるために、タスクフロー処理モジュール436は、追加情報を取得し、及び/又は潜在的に曖昧な発言の曖昧性を回避するために、ユーザとの追加のダイアログを開始することが時により必要になることがある。このような対話が必要となる場合には、タスクフロー処理モジュール436は、ユーザとのダイアログに携わるためにタスクフロー処理モジュール434を呼び出すことができる。いくつかの実施例では、ダイアログフロー処理モジュール434は、どのように(及び/又はいつ)ユーザに追加情報を求めるべきかを判定し、ユーザ応答を受信し、これらを処理する。I/O処理モジュール428を通じてユーザに質問を提供することができ、ユーザから回答を受信することができる。いくつかの実施例では、ダイアログフロー処理モジュール434はオーディオ出力及び/又は視覚出力を介してユーザにダイアログ出力を提示することができ、口頭の又は物理的な(例えば、クリック)応答を介してユーザから入力を受信することができる。例えば、ユーザは「パリの天気は?」と質問することができる。タスクフロー処理モジュール436がダイアログフロー処理モジュール434を呼び出して、ドメイン「天気検索」に関連付けられた構造化されたクエリの「場所」情報を判定すると、ダイアログフロー処理モジュール434は、「どのパリ?」などの質問を生成して、ユーザに渡すことができる。更に、ダイアログフロー処理モジュール434は、ユーザ選択のために、「パリ、テキサス」及び「パリ、フランス」に関連付けられたアフォーダンスを提示させることができる。ユーザから応答を受信すると、ダイアログフロー処理モジュール434は、次いで、構造化されたクエリに、欠けている情報を追加するか、又は構造化されたクエリから欠けている情報を完成させるために、その情報をタスクフロー処理モジュール436に渡すことができる。
[0087]
タスクフロー処理モジュール436が、実施可能な意図のための構造化されたクエリを完成すると、タスクフロー処理モジュール436は、実施可能な意図に関連付けられる最終的なタスクの実行に進むことができる。それに応じて、タスクフロー処理モジュール436は、構造化されたクエリ内に包含されている具体的なパラメータに応じて、タスクフローモデル454内のステップ及び命令を実行することができる。例えば、「メディア検索」の実施可能な意図のためのタスクフローモデルは、関連するメディアアイテムを取得するためにメディア検索クエリを実行するステップ及び命令を含むことができる。例えば、{メディア検索、メディアジャンル=TVシリーズ、メディアのタイトル=Mad Men}などの構造化されたクエリを使用して、タスクフロー処理モジュール436は、(1)関連するメディアアイテムを取得するために、メディアデータベースを使用してメディア検索クエリを実行するステップと、(2)関連性及び/又は人気に従って、取得したメディアアイテムをランク付けするステップと、(3)関連性及び/又は人気に従ってソートされたメディアアイテムを表示するステップとを実行することができる。
[0088]
いくつかの実施例では、タスクフロー処理モジュール436は、ユーザ入力で要求されたタスクを完了するために、又はユーザ入力で要求された情報の回答を提供するために、サービス処理モジュール438(「サービス処理モジュール」)の支援を採用することができる。例えば、サービス処理モジュール438は、タスクフロー処理モジュール436の代わりに、メディア検索を実行するように、天気情報を取り出すように、他のユーザデバイス上にインストールされたアプリケーションを呼び出す又はそれと対話するように、並びに、サードパーティサービス(例えば、ソーシャルネットワーキングウェブサイト、メディアレビューウェブサイト、メディアサブスクリプションサービスなど)を呼び出す又はそれと対話するように作用することができる。いくつかの実施例は、各サービスによって必要とされるプロトコル及びAPIは、サービスモデル456の中のそれぞれのサービスモデルによって指定され得る。サービス処理モジュール438は、サービスのための適当なサービスモデルにアクセスし、サービスモデルに係るサービスによって必要とされるプロトコル及びAPIに従ってサービスの要求を生成することができる。
[0089]
例えば、サードパーティーメディア検索サービスは、メディア検索を行うために必要なパラメータ、及び必要なパラメータの値をメディア検索サービスに通信するためのAPIを指定するサービスモデルを提出することができる。タスクフロー処理モジュール436により要求されると、サービス処理モジュール438は、メディア検索サービスとのネットワーク接続を確立し、メディア検索サービスのAPIに従ったフォーマットで、メディア検索の必要なパラメータ(例えば、メディア俳優、メディアジャンル、メディアタイトル)をオンライン予約インタフェースに送信することができる。
[0090]
いくつかの実施例では、ユーザの意図を推定して明確にし、ユーザ意図を更に明らかにして絞り込むための情報を入手し、ユーザの意図を達成するべく応答(即ち、ユーザへの出力又はタスクの完了)を最終的に生成するために、自然言語処理モジュール432、ダイアログフロー処理モジュール434、及びタスクフロー処理モジュール436を集合的かつ反復的に使用することができる。生成した応答は、ユーザの意図を少なくとも部分的に達成する、発語入力へのダイアログ応答とすることができる。更に、いくつかの実施例では、生成した応答を、発語出力として出力することができる。これらの実施例では、生成した応答を、発語合成モジュール440(例えば、発語合成器)に送信することができ、そこで、生成した応答を処理して、発語形態のダイアログ応答を合成することができる。更に他の実施例では、生成した応答は、発語入力のユーザ要求を満たすことに関連するデータコンテンツとすることができる。
[0091]
発語合成モジュール440は、ユーザに提示するために、発語出力を合成するように構成することができる。発語合成モジュール440は、デジタルアシスタントにより提供されたテキストに基づいて、発語出力を合成する。例えば、生成されたダイアログ応答は、テキスト文字列の形態とすることができる。発語合成モジュール440は、テキスト文字列を可聴の発語出力に変換することができる。発語合成モジュール440は、テキストから発語出力を生成するために、波形接続合成、単位選択合成、ダイフォン合成、分野限定合成、フォルマント合成、調音合成、隠れマルコフモデル(HMM)ベースの合成、及びサイン波合成を含むが、これらには限定されない任意の適切な音声合成技法を使用することができる。いくつかの実施例では、発語合成モジュール440は、単語に対応する音素文字列に基づいて、個々の単語を合成するように構成することができる。例えば、音素文字列は、生成したダイアログ応答中の単語に関連付けることができる。音素文字列は、単語に関連付けられたメタデータ中に記憶することができる。発語合成モジュール440は、メタデータ中の音素文字列を直接処理して、発語形態の単語を合成するように構成されることができる。
[0092]
いくつかの実施例では、発語合成モジュール440の使用の代わりに(又は、それに加えて)、リモートデバイス(例えば、サーバシステム108)上で発語の合成を実行することができ、合成した発語を、ユーザへの出力のために、ユーザデバイスに送信することができる。例えば、これは、デジタルアシスタントのための出力がサーバシステムにおいて生成される、いくつかの実装形態で起こり得る。また、サーバシステムは概して、ユーザデバイスよりも多くの処理電力又はリソースを有するので、クライアント側合成を用いた実用的な出力よりも高い品質発語出力を取得することが可能であり得る。
[0093]
デジタルアシスタントに関する追加の詳細は、その開示全体が参照により本明細書に組み込まれる、2011年1月10日出願の「Intelligent Automated Assistant」と題された米国実用特許出願第12/987,982号、2011年9月30日出願の「Generating and Processing Data Items That Represent Tasks to Perform」と題された米国実用特許出願第13/251,088号に記載されている。
4.メディア環境においてデジタルアシスタントを動作させるためのプロセス
[0094]
図5A〜図5Eは、種々の実施例に係る、メディアシステムのデジタルアシスタントを動作させるためのプロセス500を示す。プロセス500は、デジタルアシスタントを実装する1つ以上の電子デバイスを使用して実行することができる。例えば、プロセス500は、上述のシステム100、メディアシステム128、メディアデバイス104、ユーザデバイス122、又はデジタルアシスタントシステム400のうちの1つ以上を使用して実行することができる。図6A〜図6Kは、種々の実施例に係る、プロセス500の種階における、メディアデバイスにより表示ユニット上に表示されるスクリーンショットを示す。図5A〜図5E及び図6A〜図6Kを同時に参照して、以下にプロセス500を説明する。プロセス500のいくつかの動作を組み合わせることができ、いくつかの動作の順序を変更することができ、いくつかの動作を省略することができる。
[0095]
プロセス500のブロック502で、図6Aを参照すると、表示ユニット上にメディアアイテムの1次セット604を表示することができる。各メディアアイテムは、特定のメディアコンテンツ(例えば、映画、ビデオ、テレビショー/シリーズ、ビデオゲームなど)に対応することができる。以前に受信したメディア検索要求に応じて、メディアアイテムの1次セット604を表示することができる。いくつかの実施例では、以前に受信したメディア検索要求は、デジタルアシスタントとの口頭対話であり得る。他の実施例では、以前に受信したメディア検索要求は、メディアデバイスのキーボードインタフェースを介して受信したデジタルアシスタントとのテキスト対話であり得る。
[0096]
以前に受信したメディア検索要求に従って1次メディア検索クエリを実行することによって、メディアアイテムの1次セット604を取得することができる。いくつかの実施例では、1次メディア検索クエリは、以前に受信したメディア検索要求中で定義された1つ以上のパラメータ値に基づく構造化された検索であり得る。これらの実施例では、メディアアイテムの1次セット604の各メディアアイテムは、以前に受信したメディア検索要求中で定義された1つ以上のパラメータ値と一致する1つ以上のパラメータ値を含むことができる。他の実施例では、1次メディア検索クエリは、以前に受信したメディア検索要求のテキスト入力文字列に基づく文字列検索であり得る。これらの実施例では、メディアアイテムの1次セット604の各メディアアイテムは、以前に受信したメディア検索要求のテキスト入力文字列と一致するテキストと関連付けることができる。
[0097]
メディアアイテム604は、以前に受信したメディア検索要求に対応する共通の属性又はパラメータ値を共有することができる。図6Aに示した本実施例では、以前に受信したメディア検索要求は、直近10年間のアクション映画の要求であり得る。以前に受信したメディア検索要求を満たすメディアアイテムの1次セット604を取得することができる。この例では、メディアアイテムの1次セット604は、「The Amazing Spider Man 2」、「Furious 7」及び「Iron Man 3」など、直近10年間に公開されたアクション映画を含むことができる。メディアアイテムの1次セット612に関連して、以前に受信したメディア検索要求に対応する属性又はパラメータ値について説明するテキスト612を表示することができる。
[0098]
図6Aに示すように、ユーザインタフェース602を介して、メディアアイテムの1次セット604を表示することができる。ユーザインタフェース602は、ユーザが、ユーザインタフェース602のメディアアイテム間をナビゲートし、消費のための特定のメディアアイテムを選択することを可能化するように構成することができる。いくつかの実施例では、メディアアイテムの1次セット604と共に、1つ以上のメディアアイテムの2次セット606をユーザインタフェース602に表示することができる。常にメディアアイテムの2次セットが表示されるわけでないことを認識されたい。いくつかの実施例では、ユーザインタフェース602は、表示ユニットの少なくとも大部分の表示範囲を占めることができる。他の実施例では、表示ユニットは、ユーザインタフェース602を表示しながら、メディアデバイス上で再生しているメディアコンテンツ(図示せず)を表示することができる。これらの実施例では、表示ユニット上でユーザインタフェース602が占める表示範囲は、表示ユニット上でメディアコンテンツが占める表示範囲よりも小さくなり得る。更に、これらの実施例では、ユーザインタフェース602は、メディアアイテムの2次セット606を含ないことがある。詳細には、ユーザインタフェース602を介して表示されるメディアアイテムのみが、メディアアイテムの1次セット604であり得る。
[0099]
メディアアイテムの1次セット604及びメディアアイテムの2次セット606の表示された各メディアアイテムは、メディアタイプ、メディアタイトル、俳優、メディアのキャラクター、監督、メディアの公開日、メディアの所要時間、メディアのクオリティレーティング、メディアの人気率などのようなパラメータのパラメータ値と関連付けることができる。いくつかの実施例では、ユーザインタフェース602を介して、各メディアアイテムの1つ以上のパラメータ値を、各メディアアイテムに隣接して、又はその上にテキストとして表示することができる。
[0100]
本実施例では、1つ以上のメディアアイテムの2次セット606は、メディアアイテムの1次セット604に基づくことができる。詳細には、1つ以上のメディアアイテムの2次セット606は、共通の属性又はパラメータ値をメディアアイテムの1次セット604と共有することができる。図6Aに示すように、メディアアイテムの2次セット608はアクション映画であり得、メディアアイテムの2次セット610は、外国のアクション映画であり得る。したがって、この実施例では、メディアアイテムの1次セット604及び2次セット606は全て、アクション映画のメディアジャンルに関係することができる。他の実施例では、メディアアイテムの2次セット606は、以前のメディア検索要求、あるいは人気がある流行のメディアアイテム及びカテゴリーなどの他の情報から導き出されるパラメータ値に基づき得ることを認識されたい。
[0101]
プロセス500のブロック504で、ユーザ入力を検出することができる。ブロック502でメディアアイテムの1次セット604を表示する間に、ユーザ入力を検出することができる。いくつかの実施例では、メディアデバイスの遠隔制御(例えば、遠隔制御124)上で、ユーザ入力を検出することができる。詳細には、ユーザ入力は、ボタン(例えば、ボタン274)の押下など、遠隔制御とのユーザ対話、又は、遠隔制御のタッチ感知面(例えば、タッチ感知面278)の接触とすることができる。いくつかの実施例では、メディアデバイスと対話するように構成された第2の電子デバイス(例えば、デバイス122)を介して、ユーザ入力を検出することができる。ユーザ入力は、メディアデバイスのデジタルアシスタントの呼び出しと関連付けることができる。ユーザ入力を検出したことに応じて、ブロック506〜510のうちの1つ以上を実行することができる。
[0102]
プロセス500のブロック506で、オーディオ入力を受信することができる。オーディオ入力は、メディアに関係する要求を包含することができる。例えば、ブロック504でユーザ入力を検出したことに応じて、メディアデバイスのマイクロフォン(例えば、マイクロフォン272)を介して、オーディオ入力をサンプリングすることができる。サンプリングしたオーディオ入力は、ユーザ発言の形態のメディアに関係する要求を含むことができる。いくつかの実施例では、メディアアイテムの1次セット604の少なくとも一部分を表示している間に、メディアに関係する要求を包含するオーディオ入力を受信することができる。メディアに関係する要求は、自然言語形式とすることができる。いくつかの実施例では、メディアに関係する要求は曖昧であることがあり、要求を満たすために必要な情報の全てが明示的に定義されているわけではない。例えば、メディアに関係する要求は、「Jack Ryan」とすることができる。この実施例では、要求は、キャラクターJack Ryanに関する映画の新しいメディア検索要求であるか、又はキャラクターJack Ryanに基づいて現在表示されているメディアアイテムをフィルタリング要求であるかを、明示的には特定しない。
[0103]
いくつかの実施例では、メディアに関係する要求は、1つ以上の曖昧な用語を含むことがある。例えば、メディアに関係する要求は、「良いものはどれ?」とすることができる。この実施例では、メディアに関係する要求は、メディアアイテム(例えば、メディアアイテムの1次セット604及び/又は2次セット606)を指すことを意図する曖昧な用語「もの」が表示されていることを含む。更に、この実施例では、メディアに関係する要求は、曖昧な用語(例えば「良い」)を使用して、メディアアイテムのパラメータ値(例えば、ユーザ評価又は評論家評価)を定義する。
[0104]
メディアに関係する要求は、メディアアイテムに関連付けられた1つ以上のパラメータ値を定義することができる。メディアに関係する要求において定義することができるパラメータ値の例として、メディアタイプ、メディアタイトル、俳優、メディアのキャラクター、メディアの監督、メディアの公開日、メディアの所要時間、メディアのクオリティレーティング、メディアの人気率などを挙げられる。
[0105]
いくつかの実施例では、メディアに関係する要求は、メディア検索要求であり得る。いくつかの実施例では、メディアに関係する要求は、1次メディア検索クエリを訂正するという要求であり得る。他の実施例では、メディアに関係する要求は、ユーザインタフェース602上の表示されたメディアアイテム間をナビゲートするという要求であり得る。更に他の実施例では、メディアに関係する要求は、メディアデバイスのアプリケーションの状態又は設定を調整するという要求であり得る。
[0106]
本実施例では、オーディオ入力でメディアに関係する要求を受信するが、他の実施例では、メディアに関係する要求をテキスト入力として受信することができることを了解されたい。詳細には、オーディオ入力の代わりに、ブロック506で、キーボードインタフェースを介して、メディアに関係する要求を包含するテキスト入力を受信することができる。テキスト入力としてメディアに関係する要求を受信する実施例では、ブロック508を実行する必要はないことを認識されたい。そうではなく、ブロック510で、テキスト入力から1次ユーザ意図を直接判定することができる。
[0107]
プロセス500のブロック508で、メディアに関係する要求のテキスト表現を判定することができる。例えば、ブロック506で受信したオーディオ入力に対して発語テキスト化(STT)処理を実行することによって、テキスト表現を判定することができる。詳細には、STT処理モジュール(例えば、STT処理モジュール430)を使用して、オーディオ入力を処理して、オーディオ入力中のメディアに関係する要求をテキスト表現へと変換することができる。テキスト表現は、対応するテキスト文字列を表すトークン文字列とするができる。いくつかの実施例では、表示ユニット上に、テキスト表現を表示することができる。詳細には、ブロック506でオーディオ入力を受信している間に、リアルタイムでテキスト表現を表示することができる。
[0108]
STT処理中に1つ以上の言語モデルを使用して、テキスト表現を判定することができる。いくつかの実施例では、メディアに関係するテキスト結果に向かってSTT処理をバイアスさせることができる。具体的には、テキスト表現を判定するために使用される1つ以上の言語モデルを、メディアに関係するテキスト結果に向かってバイアスさせることができる。例えば、メディアに関係するテキストのコーパスを使用して、1つ以上の言語モデルをトレーニングすることができる。それに加えて、又は代替として、バイアスは、メディアに関係する候補テキスト結果をより重く重み付けすることによって実装することができる。このようにすると、バイアスしない場合よりも、バイアスをした場合に、メディアに関係する候補テキスト結果を高く評価することができる。バイアスは、メディアに関係する要求におけるメディアに関係する単語又はフレーズ(例えば、映画の名前、映画の俳優など)に対するSTT処理の精度を増大させるためには望ましいことがある。例えば、テキストの典型的なコーパスで、「Jurassic Park」、「Arnold Schwarzenegger」及び「Shrek」など、ある特定のメディアに関係する単語又はフレーズを稀に発見することができ、したがって、メディアに関係するテキスト結果に向かってバイアスすることなく、STT処理中に正常に認識されないことがある。
[0109]
上述したように、ブロック502で表示したメディアアイテムに関連付けられたテキスト(例えば、メディアアイテムの1次セット604、及びメディアアイテムの2次セット606)を、ユーザインタフェース602を介して表示することができる。テキストは、ユーザインタフェース602の各メディアアイテムの1つ以上の属性又はパラメータ値について説明することができる。例えば、メディアアイテムの1次セット604は、映画「Iron Man 3」に対応するメディアアイテムを含むことができる。この実施例では、表示したテキストは、タイトル「Iron Man 3」、俳優「Robert Downey Jr」及び「Gwyneth Paltrow」、並びに監督「Shane Black」を含むことができる。いくつかの実施例では、表示されたメディアアイテムに関連付けられた表示されたテキストを使用して、カスタム言語モデルを生成することができる。次いで、カスタム言語モデルを使用してSTT処理を実行して、テキスト表現を判定することができる。詳細には、テキスト表現を判定する時に、カスタム言語モデルからの候補テキスト結果に、他の言語モデルからの候補テキスト結果と比較して、より大きな重みを与えることができる。いくつかの実施例では、メディアアイテムの1次セット604及びメディアアイテムの2次セット606に関連付けられた全ての属性又はパラメータ値が、表示ユニット上にテキストとして表示されるわけではないことを認識されたい。また、これらの実施例では、表示ユニット上に表示されていないメディアアイテムの1次セット604及びメディアアイテムの2次セット606の属性又はパラメータ値のテキストを使用して、カスタム言語モデルを生成することができる。
[0110]
いくつかの実施例では、テキスト表現を使用して、予測テキストを判定することができる。例えば、テキスト表現中の単語の列に基づいて1つ以上の後続の単語を予測するために、言語モデルを使用することができる。オーディオ入力を受信している間に、予測テキストを判定することができる。更に、テキスト表現と共に、予測テキストを表示ユニット上に表示することができる。詳細には、ブロック506でオーディオ入力を受信している間に、リアルタイムで予測テキストを表示することができる。
[0111]
オーディオ入力のエンドポイントの検出に基づいて、予測テキストが、ユーザにより受け入れられ得る。いくつかの実施例では、ブロック504のユーザ入力が検出されなくなると、エンドポイントを検出することができる。他の実施例では、オーディオ入力の1つ以上のオーディオ特徴が所定の評価基準を満たさなくなった後、所定の継続期間において、エンドポイントを検出することができる。予測テキストの表示後にオーディオ入力のエンドポイントが検出されるどうかについて、判定を生成することができる。予測テキストの表示後にオーディオ入力のエンドポイントが検出されたという判定に従って、予測テキストがユーザにより受け入れられると判定することができる。詳細には、ブロック510で、テキスト表現及び受け入れられた予測テキストを使用して、1次ユーザ意図を判定することができる。
[0112]
いくつかの実施例では、テキスト表現を判定するために使用される1つ以上の言語モデルは、複数の言語におけるメディアに関係する用語を認識するように構成することができる。詳細には、メディアに関係する用語(例えば、メディアタイトル、俳優の名前など)は、様々な言語にわたって固有の翻訳を有することがある。例えば、俳優「Arnold Schwarzenegger」は、中国語では
[図10]
に対応し、ヒンズー語では
[図11]
に対応する。種々の言語におけるメディアに関係するテキストのコーパスを使用して、テキスト表現を判定するために使用される1つ以上の言語モデルをトレーニングすることができる。したがって、1つ以上の言語モデルは、種々の言語におけるメディアに関係する用語の対応する翻訳を認識するように構成することができる。
[0113]
プロセス500のブロック510で、メディアに関係する要求に対応する1次ユーザ意図を判定することができる。テキスト表現に対して自然言語処理を実行することによって、1次ユーザ意図を判定することができる。詳細には、自然言語処理モジュール(例えば、自然言語処理モジュール432)を使用して、テキスト表現をパース及び処理して、メディアに関係する要求に対応する複数の候補ユーザ意図を判定することができる。確率に従って候補ユーザ意図をランク付けすることができ、最も高い確率を有する候補ユーザ意図を1次ユーザ意図であると判定することができる。
[0114]
1次ユーザ意図を判定することは、テキスト表現に関連付けられた、関連するドメイン又は実施可能な意図を判定することを含むことができる。いくつかの実施例では、ブロック510で、メディアに関係する要求に関連付けられたメディアのタイプを判定することができ、メディアに関係する要求に関連付けられた判定されたメディアタイプに基づいて、関連するドメイン又は実施可能な意図を判定することができる。例えば、メディアに関係する要求「James Bond」に基づいて、メディアタイプは、「映画/テレビショー」であると判定することができ、対応する実施可能な意図又はドメインは、「映画/テレビショーを見つける」であると判定することができる。この実施例では、メディアに関係する要求は、メディアのタイプ「映画/テレビショー」に従って、「James Bond」のメディア検索を実行することによって達成することができる。具体的には、メディアのキャラクター「James Bond」について、映画及びテレビのデータベースを検索して、メディアに関係する要求を達成することができる。他の実施例では、メディアに関係する要求「Taylor Swift」に基づいて、メディアのタイプは、「音楽」であると判定することができ、対応する実施可能な意図又はドメインは、「音楽を見つける」であると判定することができる。この実施例では、メディアに関係する要求は、歌手「Taylor Swift」についての音楽データベースを検索すること(例えば、iTunes(登録商標)音楽サービス上で検索を実行すること)によって達成することができる。
[0115]
いくつかの実施例では、1次ユーザ意図を判定するための自然言語処理を、メディアに関係するユーザ意図に向かってバイアスさせることができる。詳細には、自然言語処理モジュールは、オントロジ内のメディアに関係するノードをトリガするメディアに関係する語及びフレーズ(例えば、メディアタイトル、メディアジャンル、俳優、MPAAフィルム−レーティングラベルなど)を特定するようにトレーニングすることができる。例えば、自然言語処理モジュールは、映画のタイトルとして、テキスト表現のフレーズ「Jurassic Park」を特定することができ、その結果、メディアアイテムを検索するという実施可能な意図に関連付けられたオントロジ内の「メディア検索」ノードをトリガすることができる。いくつかの実施例では、オントロジ内のノードをメディアに関係するノードの所定のセットに限定することによって、バイアスを実施することができる。例えば、メディアに関係するノードのセットは、メディアデバイスのアプリケーションに関連付けられたノードであり得る。更に、いくつかの実施例では、メディアに関係していない候補ユーザ意図よりも重くメディアに関係する候補ユーザ意図を重み付けすることによって、バイアスを実施することができる。
[0116]
いくつかの実施例では、1次ユーザ意図は、別個のデバイス(例えば、DAサーバ106)から取得することができる。詳細には、自然言語処理を実行するために、オーディオデータを別個のデバイスに送信することができる。これらの実施例では、メディアデバイスは、(例えば、サンプリングされたオーディオデータと共に別個のデバイスに送信されるデータを介して)サンプリングされたオーディオデータがメディアアプリケーションと関連付けられた別個のデバイスを示すことができる。このように示すことにより、メディアに関係するユーザ意図に向かって自然言語処理をバイアスすることができる。
[0117]
自然言語処理モジュールは、種々の言語及び領域において、メディアに関係する用語の意味を特定するように更にトレーニングことができる。例えば、自然言語処理モジュールは、「Arnold Schwarzenegger」、
[図12]
全てが、同じ俳優を指すことを認識することができる。更に、映画のタイトルは、異なる言語及び領域にわたって変わることがある。例えば、米国の映画「Live Free or Die Hard」は、英国において「Die Hard 4.0」というタイトルである。別の例では、米国の映画「Top Gun」は、イスラエルでは「Love in the Skies」というタイトルである。したがって、自然言語処理モジュールは、英語の「Top Gun」とヘブライ語の「Love in the Skies」は共に、同じ映画を指すことを識別するように構成することができる。
[0118]
いくつかの実施例では、自然言語処理モジュールは、メディアに関係する要求中の曖昧な用語に基づいて、意図されたパラメータ値を特定するように構成することができる。詳細には、自然言語処理モジュールは、曖昧な用語と1つ以上のパラメータ値との間の接続強度(例えば、関連性、顕著性、意味上の類似性など)を判定することができる。曖昧な用語に対して最も強い接続を有するパラメータ値を、意図されたパラメータ値であると判定することができる。例えば、メディアに関係する要求は、「良いものを見せて」とすることができる。用語「良い」は、特定のパラメータ値を明示的には定義しないので曖昧とすることができる。この例では、用語「良い」に対する接続強度に基づいて、自然言語処理モジュールは、「良い」が、所定の値よりも高い平均的なユーザの評価のパラメータ値を指すと判定することができる。
[0119]
いくつかの実施例では、1次ユーザ意図を判定する前に、仮のユーザ意図を判定することができる。仮のユーザ意図は、ブロック506で受信した(オーディオ全体入力でなく)オーディオ入力の一部分を使用して、実施可能な意図又はドメインを判定することを含むことができる。仮のユーザ意図を判定するためのプロセスは、1次ユーザ意図を判定することよりもロバストではなく、したがって、より高速であり得る。これにより、オーディオ入力を依然として受信している間に、仮のユーザ意図を判定することを可能にすることができる。仮のユーザ意図を判定することは、メディアに関係する要求を満たすために必要なデータをプリフェッチすることを可能化し、それにより、デジタルアシスタントの応答時間を低減することができる。例えば、メディアに関係する要求は、「午後7時には何がある?(What's on at 7PM?)」とすることができる。この要求の第1の部分「...時には何がある(What's on...))」に基づいて、仮のユーザ意図が「チャンネルプログラミングの検索」であると判定することができる。この仮のユーザ意図に基づいて、この仮のユーザ意図を満たすために必要なデータを特定することができる。詳細には、ユーザが利用可能なチャンネルを判定するためには、ユーザのサブスクリプション情報が必要となると判定することができる。次いで、それらのチャンネルに対応するプログラミングを判定することができる。デジタルアシスタントは最初に、必要なデータがメディアシステム又はデジタルアシスタントサーバに既に記憶されているどうかを判定することができる。仮のユーザ意図の判定時に、メディアシステム又はデジタルアシスタントサーバにデータが記憶されているという判定に従って、1次ユーザ意図を判定している間にデータを取り出すことができる。仮のユーザ意図の判定時に、メディアシステム又はデジタルアシスタント上にデータが記憶されていないという判定に従って、1次ユーザ意図を判定している間に、必要なデータを取得することができる。例えば、デジタルアシスタントは、ユーザの操作なしに、ユーザのサブスクリプションサービスプロバイダと自動的に通信し、ユーザが利用可能なチャンネルを取り出すことができる。
[0120]
図5Aに示したように、プロセス500のブロック510は、ブロック512〜518のうちの1つ以上を含むことができる。プロセス500のブロック512で、1次ユーザ意図は、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかについて、判定を行うことができる。換言すると、ブロック510で、ブロック506のメディアに関係する要求が、依然に受信したメディア検索要求を絞り込む要求であるかどうかを判定することができる。いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1次メディア検索クエリを絞り込むユーザ意図に対応する所定の単語又はフレーズを含むかどうかを判定することを含むことができる。所定の単語又はフレーズは、複数の絞り込み用語のうちの1つを含むことができる。例えば、所定の単語又はフレーズは、メディア検索要求よりも前に受信した以前のメディア検索要求を絞り込む明示的な要求を示すことができる。更に、いくつかの実施例では、メディアに関係する要求中の所定の単語又はフレーズの位置(例えば、メディアに関係する要求の文頭にあるか、中間にあるか、又は文末にあるか)に基づいて、判定を行うことができる。
[0121]
図6B〜図6Cに示した例では、メディアに関係する要求は、「Jack Ryanに関するもののみ(Just the ones with Jack Ryan)」とすることができる。このメディアに関係する要求に対応するテキスト表現612を自然言語処理中にパースして、メディアに関係する要求が1次メディア検索クエリを絞り込むユーザ意図に対応する所定の単語又はフレーズを含むかどうかを判定することができる。1次メディア検索クエリを絞り込むユーザ意図に対応する所定の単語又はフレーズの例として、「のみ(just)」、「だけ(only)」、「でフィルタリングする(filter by)」、「するもの(which ones)」などを挙げるができる。この実施例では、メディアに関係する要求の文頭に位置する所定の単語「のみ(just)」に基づいて、1次ユーザ意図が、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えると判定することができる。具体的には、1次ユーザ意図がキャラクターJack Ryanに関するメディアアイテムだけを含めるために、直近10年間に公開されたアクション映画の検索を絞り込むことであると判定することができる。1次ユーザ意図は、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかについて判定するために、他の技術を実施できることを認識されたい。更に、1次ユーザ意図は、ブロック506のメディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求に対応する1つ以上の以前のユーザ意図に基づくことができる。
[0122]
1次ユーザ意図が、メディアアイテムの1次セット604に対応する1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、ブロック520〜534のうちの1つ以上を実行することができる。
[0123]
プロセス500のブロック520で、1次ユーザ意図を満たすために、メディアアイテムの第2の1次セット612を取得することができる。ブロック520は、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することを含むことができる。第2の1次メディア検索クエリは、メディアに関係する要求(例えば、「Jack Ryanに関するもののみ」)及び1次メディア検索クエリ(例えば、「直近10年間のアクション映画」)に基づくことができる。具体的には、第2の1次メディア検索クエリは、パラメータ値のセットを含むことができる。パラメータ値のセットは、メディアに関係する要求中で定義された1つ以上のパラメータ値、及び1次メディア検索クエリの1つ以上のパラメータ値を含むことができる。例えば、第2の1次メディア検索クエリは、メディアタイプが「映画」であり、メディアジャンルが「アクション」であり、公開日が「直近10年」であり、メディアのキャラクターが「Jack Ryan」であるメディアアイテムを検索するクエリとすることができる。代替的には、第2の1次メディア検索クエリは、メディアアイテムの1次セット604をフィルタングし、メディアのキャラクターが「Jack Ryan」であるメディアアイテムのセット604内のメディアアイテムだけを特定するというクエリとすることできる。第2の1次メディア検索クエリは、1次ユーザ意図に基づいて、自然言語処理モジュール(例えば、自然言語処理モジュール432)により生成することができる。
[0124]
ブロック520は、メディアアイテムの第2の1次セット612を取得するために、第2の1次メディア検索クエリを実行することを更に含むことができる。第2の1次メディア検索クエリは、第2の1次メディア検索クエリのパラメータ値要件を満たすメディアアイテムについて、1つ以上のメディアデータベースを検索することによって実行することができる。メディアアイテムの第2の1次セットの各メディアアイテムは、パラメータ値のセットと関連付けることができる。パラメータ値のセットは、1次メディア検索クエリ中の1つ以上のパラメータ値、及びブロック506のメディアに関係する要求中で定義された1つ以上のパラメータ値を含むことができる。更に、メディアアイテムの第2の1次セット612の各メディアアイテムは、関連性スコアと関連付けることができる。関連性スコアは、メディアアイテムが1次ユーザ意図を満たす尤度を示すことができる。例えば、より高い関連性スコアは、メディアアイテムが1次ユーザ意図を満たすより高い尤度を示すことができる。第2の1次メディア検索クエリは、タスクフロー処理モジュール(例えば、タスクフロー処理モジュール436)により実行することができる。
[0125]
以前に受信した(例えば、キーボードインタフェースを介して受信した)メディア検索要求に基づいて文字列検索を実行することによって、メディアアイテムの1次セット604を取得する実施例では、メディアに関係する要求中で定義されたパラメータ値要件(例えば、「Jack Ryan」)を満たすメディアアイテムについて、メディアアイテムの1次セット604を検索することによって、第2の1次メディア検索クエリを実行することができる。詳細には、最初に、メディアアイテムの1次セット604に関連付けられたパラメータ値を取得することができる。次いで、取得したパラメータ値を使用し、かつ、メディアに関係する要求中で定義されたパラメータ値に基づいて、構造化された検索を実行することによって、メディアアイテムの第2の1次セット612を取得することができる。
[0126]
プロセス500のブロック522で、表示ユニット上に、ユーザインタフェース602を介してメディアアイテムの第2の1次セット612を表示することができる。詳細には、図6Cに示したように、表示ユニット上のメディアアイテムの1次セット604の表示を、メディアアイテムの第2の1次セット612の表示と入れ替えることができる。各メディアアイテムに関連付けられた関連性スコアに従って、メディアアイテムの第2の1次セット612を表示することができる。例えば、図6Cを参照すると、ユーザインタフェース602上の左から右へと関連性スコアの高い順にメディアアイテムの第2の1次セット612を配列することができる。
[0127]
プロセス500のブロック524で、メディアアイテムの追加セットを取得することができる。1次ユーザ意図に関係し得る代替ユーザオプションを提供するために、メディアアイテムの追加セットを取得することができる。図5Bに示したように、ブロック524は、ブロック526〜532を含むことができる。
[0128]
プロセス500のブロック526で、メディアアイテムの第2の1次セット612に関連付けられたパラメータ値のコアセットを特定することができる。パラメータ値のコアセットは、第2の1次メディア検索クエリ中のパラメータ値のセットから特定することができる。詳細には、パラメータ値のセット中の顕著でないパラメータ値を特定し、それを無視することができる。顕著でないパラメータ値を無視した後のパラメータ値のセットの残りのパラメータ値を、パラメータ値のコアセットとして特定することができる。顕著でないパラメータ値は、例えば、メディアの公開日の範囲、メディアタイプ、メディアの供給元、メディアのクオリティレーティング、無料又は有料のメディア、ライブ又はオンデマンドのメディアなどのような所定のパラメータ値であることができる。パラメータ値のコアセットは、パラメータ値のセットよりも少数のパラメータ値を有することができる。
[0129]
図6Cの実施例では、第2の1次メディア検索クエリ中のパラメータ値のセットは、パラメータ値「アクション映画」、「直近10年間」及び「Jack Ryan」を含む。この実施例では、パラメータ値「直近10年間」を、顕著でないパラメータ値(例えば、メディアの公開データ範囲)として特定し、除外することができる。したがって、残りのパラメータ値「アクション映画」及び「Jack Ryan」を、パラメータ値のコアセットとして特定することができる。
[0130]
プロセス500のブロック528で、1つ以上の追加のパラメータ値を特定することができる。ユーザのメディア消費興味を反映する可能性がある情報に基づいて、1つ以上の追加のパラメータ値を特定することができる。例えば、ユーザのメディア選択履歴、ユーザのメディア検索履歴又はユーザのウォッチリストのメディアアイテムに基づいて、1つ以上の追加のパラメータ値を特定することができる。それに加えて、又は代替として、メディアデバイスのユーザの間で現在最も人気があるメディアアイテムのパラメータ値を示すことができる、複数のユーザのメディア選択履歴に基づいて、1つ以上の追加のパラメータ値を特定することができる。いくつかの実施例では、1つ以上の追加のパラメータ値を特定する方法は、ブロック560で説明した他の関連するパラメータ値を判定する方法と同様とすることができる。
[0131]
図6Cの実施例に戻ると、Ben Affleckが主演したアクション映画は、メディアデバイスのユーザの間で人気があると判定することができる。更に、Ben Affleckが主演した映画をユーザが最近検索又は選択したと判定することができる。したがって、この実施例では、「Ben Affleck」は、1つ以上の追加のパラメータ値のうちのパラメータ値として特定することができる。
[0132]
プロセス500のブロック530で、1つ以上の追加のメディア検索クエリを生成することができる。追加のメディア検索クエリは、ブロック526で特定したパラメータ値のコアセットに基づくことができる。更に、追加のメディア検索クエリは、ブロック528で特定した1つ以上の追加のパラメータ値に基づくことができる。例えば、図6Cでは、1つ以上の追加のメディア検索クエリは、Jack Ryanに関するアクション映画(パラメータ値のコアセット)の検索と、Ben Affleckが主演したアクション映画(ブロック528で特定した追加のパラメータ値)の検索とを含むことができる。
[0133]
ブロック526〜530は、自然言語処理モジュール(例えば、自然言語処理モジュール432)により実行することができる。詳細には、自然言語処理モジュールは、(ブロック526で)パラメータ値のコアセットを特定し、(ブロック528で)1つ以上の追加のメディア検索クエリを特定して、1つ以上の追加のユーザ意図を判定することができる。自然言語処理モジュールは、次いで、1つ以上の追加のユーザ意図に基づいて、1つ以上の追加のメディア検索クエリ(例えば、図4Bを参照して上述した構造化されたクエリ)を生成することができる。
[0134]
プロセス500のブロック532で、ブロック530の1つ以上の追加のメディア検索クエリを実行することができる。例えば、追加のメディア検索クエリを満たすメディアアイテムについて、1つ以上のメディアデータベースを検索することによって、1つ以上の追加のメディア検索クエリを実行することができる。使用するメディアデータベースは、検索するメディアタイプに基づくことができる。例えば、音楽に関するメディア検索クエリには、音楽データベースを使用することができ、音楽/テレビショーに関するメディア検索クエリには、映画/テレビショーデータベースを使用することができる。したがって、ブロック530の1つ以上の追加のメディア検索クエリの実行から、1つ以上のメディアアイテムの追加セット614を取得することができる。具体的には、図6Cでは、Jack Ryanに関するアクション映画の検索から、メディアアイテムの追加セット616(例えば、映画「Patriot Games」、「Clear and Present Danger」など)取得することができ、Ben Affleckが主演したアクション映画の検索から、メディアアイテムの追加セット618(例えば、映画「The Sum of All Fears」、「Daredevil」など)を取得することができる。ブロック532は、タスクフロー処理モジュール(例えば、タスクフロー処理モジュール436)により実行することができる。
[0135]
上述したブロック524のいくつかの態様は、ブロック546又は562に同様に当てはめることができる。
[0136]
プロセス500のブロック534で、表示ユニット上に1つ以上のメディアアイテムの追加セットを表示することができる。例えば、図6Cに示したように、ユーザインタフェース602を介して、メディアアイテムの追加セット616及び618を表示することができる。メディアアイテムの追加セット616及び618は、ユーザの興味を引く可能性がある追加のオプションをユーザに提供する役割を果たすことができる。これは、ユーザが、別の検索を要求することなく、消費のためのメディアアイテムを発見及び選択するという尤度を増大させるために望ましいことがあり、それにより、ブラウジング時間を低減し、ユーザエクスペリエンスを向上させることができる。
[0137]
メディアアイテムのセットを表示するやり方は、それぞれのユーザ意図がユーザの実際の意図に対応するという尤度を反映することができる。例えば、図6Cに示したように、メディアアイテムの第2の1次セットは、1次ユーザ意図(実際のユーザ意図を反映する可能性が最も高いユーザ意図)に関連付けられ、ユーザインタフェース602の最上行に表示される。1つ以上のメディアアイテムの追加セット616及び618は、追加のユーザ意図(実際のユーザ意図を反映する可能性が低いユーザ意図)に関連付けられ、最上行よりも下の、ユーザインタフェース602の1つ以上の後続行に表示される。更に、メディアアイテムの追加セット616に関連付けられた追加のユーザ意図は、メディアアイテム618の追加セットに関連付けられた追加のユーザ意図よりも、実際のユーザ意図を反映する可能性が高くなり得る。したがって、この実施例では、メディアアイテムの追加セット618は、メディアアイテムの追加セット616よりも下の行に表示され得る。本実施例では、メディアアイテムのセットは行に表示されるが、他の実施例では、他の表示構成を実施できることを認識されたい。
[0138]
ブロック512を再び参照すると、1次ユーザ意図が1次メディア検索クエリを絞り込むユーザ意図を備えないという判定に従って、ブロック514〜518又は536〜548のうちの1つ以上を実行することができる。
[0139]
プロセス500のブロック514で、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を備えるかどうかについて、判定を行うことができる。いくつかの実施例では、メディアに関係する要求中の明示的な単語又はフレーズに基づいて、判定を行うことができる。具体的には、新たなメディア検索クエリを実行するユーザ意図に対応する単語又はフレーズをディアに関係する要求が含むかどうかを判定することができる。単語又はフレーズは、「見せて(Show me)」、「見つけて(Find)」、「検索して(Search for)」、「に関する他の映画(Other movies with)」などの所定の単語とすることができる。更に、いくつかの実施例では、メディアに関係する要求中の所定の単語又はフレーズの位置(例えば、メディアに関係する要求の文頭、中間、又は文末)に基づいて、判定を行うことができる。特定の実施例では、メディアに関係する要求は、「Jack Ryanの映画をいくつか見せて(Show me some Jack Ryan movies)」とすることができる。メディアに関係する要求の文頭にある単語「見せて(Show me)」に基づいて、1次ユーザ意図が、Jack Ryanに関する映画についての新たなメディア検索クエリを実行するものであると判定することができる。
[0140]
ユーザ意図を示している明示的な単語又はフレーズ(例えば、「見せて(Show me)」、「見つけて(Find)」、「検索して(Search for)」など)がない場合には、ブロック514の判定は、1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズに基づくことができる。例えば、図6Dに示したように、メディアに関係する要求は、「Jack Ryan」とすることができる。この実施例では、メディアに関係する要求は、ユーザ意図が1次メディア検索クエリを絞り込む、又は新たな検索を実行するものであるかどうかの明示的な指示を含まない。しかしながら、デジタルアシスタントは、「Jack Ryan」が、1つ以上のメディアアイテムのパラメータ値に対応すると認識することができる。具体的には、「Jack Ryan」は、いくつかの電子書籍及び映画に関連付けられたメディアのキャラクターであると判定することができる。これらのパラメータ値に基づいて、1次ユーザ意図は、キャラクターJack Ryanに関する電子書籍及び映画についての新たなメディア検索クエリを実行するものであると判定することができる。1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズの他の例として、「Tom Cruise」、「Jurassic Park」、「Spy movies」、「Sean Connery」、「Cartoons」、「Frozen」などを挙げることができる。
[0141]
1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を備えるという判定に従って、ブロック536〜548のうちの1つ以上を実行することができる。プロセス500のブロック536で、1次ユーザ意図に従って、メディアアイテムの第3の1次セットを取得することができる。ブロック536は、ブロック520と同様とすることができる。詳細には、ブロック536は、メディアに関係する要求に基づいて第3の1次メディア検索クエリを生成することを含むことができる。第3の1次メディア検索クエリは、新たなメディア検索クエリを実行する1次ユーザ意図に対応することができる。具体的には、第2の1次メディア検索クエリは、メディアに関係する要求中で定義された1つ以上のパラメータ値を含むことができる。例えば、図6Dを参照すると、生成した第3の1次メディア検索クエリは、メディアのキャラクター「Jack Ryan」に関するメディアアイテムを検索するクエリとすることができる。
[0142]
ブロック536は、メディアアイテムの第3の1次セット620を取得するために、第3の1次メディア検索クエリを実行することを更に含むことができる。第3の1次メディア検索クエリは、第3の1次メディア検索クエリのパラメータ値要件を満たすメディアアイテムについて、1つ以上のメディアデータベースを検索することによって実行することができる。メディアアイテムの第3の1次セット620の各メディアアイテムは、メディアに関係する要求中で定義された1つ以上のパラメータ値を含むことができる。具体的には、本実施例では、メディアアイテムの第3の1次セット620の各メディアアイテムは、メディアのキャラクターとして「Jack Ryan」を含むことができる。
[0143]
いくつかの実施例では、メディアに関係する要求に関連付けられたメディアタイプに従って、第3の1次メディア検索クエリを実行することができる。上述したように、1次ユーザ意図を判定している間に、ブロック510で、メディアに関係する要求に関連付けられたメディアタイプを判定することができる。第3の1次メディア検索クエリを実行するために使用されるアプリケーション又はデータベースは、判定したメディアタイプに固有であり得る。1つの実施例では、メディアタイプが音楽であると判定した場合には、例えば、映画データベースではなく、音楽検索アプリケーション及び/又は音楽データベース(例えば、iTunes(登録商標)storeアプリケーション)を使用して、第3の1次メディア検索クエリを実行することができる。
[0144]
いくつかの実施例では、メディアに関係する要求は、2つ以上のメディアタイプと関連付けることができる。例えば、メディアに関係する要求「Frozen」は、映画/テレビショー、音楽(例えば、サウンドトラック)及び電子書籍などのいくつかのメディアタイプ)と関連付けることができる。第3の1次メディア検索クエリを実行すると、1つ以上のメディアデータベースから、種々のメディアタイプに関連付けられた複数のメディアアイテムを取得することができる。各メディアアイテムは、関連性スコアと関連付けることができる。関連性スコアは、第3の1次メディア検索クエリに関してそれぞれのメディアアイテムがどれくらい関連するかについて示すことができる。更に、関連性スコアは、候補メディアアイテムが取得されたメディアデータベースに固有であり得る。いくつかの実施例では、異なるデータベースからのメディアアイテムを同じ基準に基づいて比較するために、複数の候補メディアアイテムの正規化されたランク付けを実行することができる。詳細には、1つ以上のメディアデータベースにわたって関連性スコアを正規化することができ、正規化した関連性スコアを使用して、候補メディアアイテムの正規化されたランク付けを実行することができる。例えば、汎用的なメディア検索アプリケーション又はデータベース(例えば、Apple(登録商標)OS X又はiOS(商標)のスポットライト)を使用して、第3の1次メディア検索クエリを実行することができる。汎用的なメディア検索アプリケーション又はデータベースは、デジタルアシスタントの外部のサービスとすることができる。汎用的なメディア検索アプリケーション又はデータベースを使用して、種々のソース又はデータベース(例えば、iTunes(登録商標)store、App store、iBook(登録商標)、ユーザのデバイスに記憶されたメディアアイテムなど)から関連するメディアアイテムを取得することができ、正規化された関連性スコアに基づいて、関連するメディアアイテムをランク付けすることができる。次いで、ユーザが選択するために、ブロック540での正規化されたランク付けに従って、メディアアイテムを順序付けし、表示することができる。
[0145]
メディアアイテムの第3の1次セットを取得するために使用された1つ以上のデータベースは、種々のソースから導き出された情報を含むことができる。いくつかの実施例では、1つ以上のデータベースは、1つ以上のメディア批評家のレビューからの情報を含むことができる。メディア批評家のレビューは、例えば、プロのメディア批評家、ジャーナリスト、ブロガー、ソーシャルメディアサービスのユーザなどが書くことができる。例示的な実施例では、1つ以上のメディア批評家レビューは、「Bullitt」、「The Bourne Identity」又は「Fast Five」のような映画について説明するために、「カーチェイス」などのフレーズを含むことがある。1つ以上のメディア批評家のレビューから、パラメータ値としてフレーズ「カーチェイス」を抽出することができ、このパラメータ値は、メディアデータベースのこれらの映画のうちの1つ以上と関連付けることができる。したがって、メディアに関係する要求「良いカーチェイスに関する映画を見せて」については、生成された対応する第3の1次メディア検索クエリは、パラメータ値「カーチェイス」に関する映画の検索とすることができる。したがって、1つ以上のデータベースを検索すると、「Bullitt」、「The Bourne Identity」又は「Fast Five」などの候補メディアアイテムを取得することができる。
[0146]
他の実施例では、1つ以上のデータベースは、種々の映画、ビデオ又はテレビショーのクローズドキャプションから導き出された情報を含むことができる。詳細には、クローズドキャプションに基づいて、1つ以上のパラメータ値を抽出することができる。例えば、「Bullitt」、「The Bourne Identity」又は「Fast Five」などの映画のクローズドキャプションは、カーチェイスに関連付けられた音を示す、キャプション[タイヤスクリーミング(Tire screeching)]のいくつかの例を含むことができる。このキャプションに基づいて、これら映画のうちの1つ以上がメディアデータベース中のパラメータ値「カーチェイス」と関連付けられ得る。したがって、第3の1次メディア検索クエリを実行した時に、このパラメータ値に関連付けられる候補メディアアイテム(例えば、「Bullitt」、「The Bourne Identity」、「Fast Five」など)を特定することができる。
[0147]
いくつかの実施例では、メディアに関係する要求は、ユーザインタフェース602がその上にフォーカスしたメディアアイテムに基づくメディア検索要求であり得る。例えば、ブロック506で、メディアに関係する要求を受信している間、メディアアイテム611上にユーザインタフェース602のカーソル609が位置することがある。メディアに関係する要求が、メディアアイテム611と類似するメディアアイテムの代替セットを取得する要求であるかどうかについて、判定を行うことができる。1つの例では、メディアに関係する要求は、「これにもっと似ているもの(More like this)」であり得る。この例では、カーソル609の位置のコンテキストに基づいて、「これ(this)」はメディアアイテム611を指すと判定することができる。したがって、メディアに関係する要求が、メディアアイテム611と類似するメディアアイテムの代替セットを取得するという要求であると判定することができる。メディアに関係する要求が、メディアアイテム611と類似するメディアアイテムの代替セットを取得するという要求である判定したことに応じて、ブロック536で、メディアアイテムの第3の1次セットを取得することができ、メディアアイテムの第3の1次セットの各メディアアイテムは、メディアアイテム611の1つ以上のパラメータ値を含む。例えば、1つの例では、メディアアイテム611は、外国のアクション映画「Crouching Tiger,Hidden Dragon」であり得る。この例では、取得したメディアアイテムの第3の1次セットは、この映画の1つ以上のパラメータ値を共有するメディアアイテムを含むことができる。詳細には、取得したメディアアイテムの第3の1次セットは、例えば、Ang Leeが監督した映画を含むことができ、武術シーンを含むことができ、あるいはChow Yun−Fat、Michelle Yeoh又はZhang Ziyiが主演していてもよい。
[0148]
上述したブロック536のいくつかの態様は、ブロック520、524、546、562又は566に同様に当てはめることができる。
[0149]
プロセス500のブロック538で、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得することができるかどうかについて、判定を行うことができる。ブロック536で第3の1次メディア検索クエリを実行すると、検索クエリから取得される(又は、取得可能である)メディアアイテムの数を判定することができる。取得されるメディアアイテムの数が1つ以上の場合、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できると判定することができる。例えば、メディアに関係する要求「Jack Ryan」についての第3の1次メディア検索クエリは、少なくとも映画「Patriot Games」及び「Clear and Present Danger」を戻すことができる。したがって、この実施例では、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できると判定することができる。第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるという判定に従って、ブロック540を実行することができる。以下の説明で明白になるように、ブロック536で実行した第3の1次メディア検索クエリについて、少なくとも1つのメディアアイテムが取得されることを保証するために、ブロック538での判定が望ましいことがある。これにより、メディア検索要求について、メディアアイテムが1つも表示されない状況を防止することができ、別のメディア検索要求を提供しなければならないユーザの手間を省くことができ、ユーザエクスペリエンスが改善する。
[0150]
プロセス500のブロック540で、表示ユニット上に、ユーザインタフェース602を介してメディアアイテムの第3の1次セット620を表示することができる。詳細には、図6Eに示したように、表示ユニット上のメディアアイテムの1次セット604の表示を、メディアアイテムの第3の1次セット620の表示と入れ替えることができる。ブロック540は、ブロック522と同様とすることができる。各メディアアイテムに関連付けられた関連性スコアに従って、メディアアイテムの第3の1次セット620を表示することができる。例えば、図6Eを参照すると、ユーザインタフェース602上の左から右へと関連性スコアの高い順にメディアアイテムの第3の1次セット612を配列することができる。
[0151]
ブロック538を再び参照すると、いくつかの実施例では、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できないと判定することがある。例えば、STT処理によるメディアに関係する要求又は対応するテキスト表現は、誤ったパラメータ値、又はユーザが実際に意図するものとは異なるパラメータ値を定義することがある。1つのそのような例では、図6Fに示すように、メディアに関係する要求は、「Jackie Chan及びChris Rucker(Jackie Chan and Chris Rucker)」であり得る。この例では、このメディアに関係する要求に対応する第3の1次メディア検索クエリを実行することでは、メディアアイテムが取得されないことがあり、したがって、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できないと判定することができる。他の例では、メディアに関係する要求は、「Jackie Chan」及び「Spiderman」、又は「写実的な暴力(Graphic violence)」及び「小児に適した(suitable for young children)」など、両立しないパラメータを定義することがある。第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できないという判定に従って、ブロック542〜548を実行して、ユーザの実際の意図を満たす可能性がある代替結果をユーザに提示することができる。
[0152]
プロセス500のブロック542で、第3の1次メディア検索クエリの最も妥当性が低いパラメータ値を特定することができる。詳細には、パラメータ値を有するメディアアイテムの人気、以前のメディア検索要求におけるパラメータ値の出現頻度、又はメディアアイテムの母集団におけるパラメータ値の出現頻度などの因子に基づいて、第3の1次メディア検索クエリ中の各パラメータ値の顕著性スコアを判定することができる。最も妥当性が低いパラメータ値を、顕著性スコアが最も低いパラメータ値として特定することができる。例えば、パラメータ値「Jackie Chan」と「Chris Rucker」との間では、Chris Ruckerはフットボール選手であるが、Jackie Chanは人気俳優であるので、パラメータ値「Chris Rucker」は、より低い顕著性スコアを有し得る。したがって、Jackie Chanは、Chris Ruckerよりも多数のメディアアイテム及び以前のメディア検索クエリと関連付けることができる。したがって、この例では、パラメータ値「Chris Rucker」は、最も妥当性の低いパラメータ値であると判定することができる。
[0153]
プロセス500のブロック544で、1つ以上の代替パラメータ値を特定することができる。特定された最も妥当性の低いパラメータ値に基づいて、1つ以上の代替パラメータ値を判定することができる。例えば、データ構造中の特定された最も妥当性の低いパラメータ値と複数のメディアに関係するパラメータ値との間で、ファジー文字列マッチングを実行することができる。詳細には、所定のしきい値内の編集距離が最も短いデータ構造中のパラメータ値を、代替パラメータ値であると判定することができる。例えば、パラメータ値「Chris Rucker」のファジー文字列マッチングに基づいて、パラメータ値「Chris Tucker」は、データ構造中の複数のメディアに関係するパラメータ値の中で編集距離が最も短いと判定することができる。したがって、この例では、パラメータ値「Chris Tucker」を、代替パラメータ値であると判定することができる。
[0154]
それに加えて、又は代替として、第3の1次メディア検索クエリ中の他のパラメータ値(例えば、最も妥当性の低いパラメータ値以外のパラメータ値)に基づいて、1つ以上の代替パラメータ値を判定することができる。詳細には、第3の1次メディア検索クエリ中の他のパラメータ値に密接に関係するパラメータ値を判定することができる。例えば、「アクション映画」及び「武術」などのパラメータ値は、「アクション映画」及び「武術」のパラメータ値を同じく有する、「Jackie Chan」が主演した複数のメディアアイテムの存在に基づいて、パラメータ値「Jackie Chan」に密接に関係していると判定することができる。
[0155]
プロセス500のブロック546で、1次ユーザ意図を満たすために、メディアアイテムの第4の1次セットを取得することができる。ブロック546は、ブロック520と同様とすることができる。詳細には、1つ以上の代替1次メディア検索クエリを生成することができる。ブロック544で判定された1つ以上の代替パラメータ値を使用して、1つ以上の代替1次検索クエリを生成することができる。例えば、メディアに関係する要求が「Jackie Chan及びChris Rucker」であり、代替パラメータ値が「Chris Tucker」であると判定される図6F〜図6Gにおいて、代替1次検索クエリは、パラメータ値「Jackie Chan」及び「Chris Tucker」用いたメディアアイテムの検索とすることができる。したがって、この実施例では、最も妥当性の低いパラメータ値を、ユーザの実際の意図を反映する可能性がより高い代替パラメータ値により置換することができる。次いで、1つ以上の代替1次メディア検索クエリを実行して、メディアアイテムの第4の1次セット628を取得することができる。パラメータ値「Jackie Chan」及び「Chris Tucker」を用いてメディアアイテムを検索する本実施例では、メディアアイテムの第4の1次セット628は、「Rush Hour」、「Rush Hour 2」又は「Rush Hour 3」などの映画を含むことができる。
[0156]
プロセス500のブロック548で、表示ユニット上に、ユーザインタフェース602を介してメディアアイテムの第4の1次セット628を表示することができる。ブロック548は、ブロック522と同様とすることができる。詳細には、図6Gに示したように、表示ユニット上のメディアアイテムの1次セット604の表示を、メディアアイテムの第4の2次セット628の表示と入れ替えることができる。
[0157]
プロセス500のブロック550で、1つ以上の以前のユーザ意図が存在するかどうかについて、判定を行うことができる。1つ以上の以前のユーザ意図は、ブロック506のメディアに関係する要求よりも前に受信した、1つ以上の以前のメディアに関係する要求に対応することができる。以前のメディアに関係する要求の例は、ブロック502の1次メディア検索クエリ及びメディアアイテムの1次セット604に対応する、以前に受信したメディアに関係する要求を含むことができる。メディアデバイス(例えば、メディアデバイス104)又はサーバ(例えば、DAサーバ106)に記憶された以前のユーザ意図の履歴の分析に基づいて、判定を行うことができる。いくつかの実施例では、1つ以上の以前のユーザ意図が存在するかどうかの判定時には、関連する時間フレーム内の以前のユーザ意図のみを考慮に入れる。関連する時間フレームは、ブロック506のメディアに関係する要求の受信時よりも前の所定の時間フレームを指すことができる。他の実施例では、関連する時間フレームは、デジタルアシスタントとの対話型セッションに基づくことができる。詳細には、ブロック506のメディアに関係する要求は、メディアに関係する要求のシーケンスを含むデジタルアシスタントとの対話型セッションの一部であり得る。これらの実施例では、関連する時間フレームは、対話型セッションの開始時から、対話型セッションの終了時までであり得る。対話型セッションが、ブロック506のメディアに関係する要求よりも前に受信した1つ以上の以前のメディアに関係する要求を包含するかどうかについて、判定を行うことができる。対話型セッションが1つ以上の以前のメディアに関係する要求を包含する場合、1つ以上の以前のユーザ意図が存在すると判定することができる。したがって、1つ以上の以前のユーザ意図及び1次ユーザ意図を、デジタルアシスタントとの同じ対話型セッションと関連付けることができる。反対に、対話型セッションが1つ以上の以前のメディアに関係する要求を包含しない場合、1つ以上の以前のユーザ意図が存在しないと判定することができる。1つ以上の以前のユーザ意図が存在すると判定したことに応じて、ブロック552を実行することができる。代替的には、1つ以上の以前のユーザ意図が存在しないと判定したことに応じて、ブロック560を実行することができる。
[0158]
プロセス500のブロック552で、1つ以上の2次ユーザ意図を特定することができる。ブロック510の1次ユーザ意図とブロック550で存在すると判定された1つ以上の以前のユーザ意図とに基づいて、1つ以上の2次ユーザ意図を判定することができる。具体的には、1つ以上の2次ユーザ意図は、1次ユーザ意図と1つ以上の以前のユーザ意図との組み合わせを含むことができる。いくつかの実施例では、メディアデバイス上の、ユーザのメディアに関係する要求履歴に基づいて、1つ以上の以前のユーザ意図を判定することができる。
[0159]
図6D〜図6Eの実施例に戻ると、1次ユーザ意図は、キャラクター「Jack Ryan」に関するメディアアイテムを検索する意図であり得る。1つの例では、第1の以前のユーザ意図は、過去10年間のアクション映画を検索するという意図であり得る。更に、第2の以前のユーザ意図は、Ben Affleckが主演したメディアアイテムを検索するという意図であり得る。したがって、2次ユーザ意図は、これらのユーザ意図のうちの2つ以上の組み合わせでとすることができる。詳細には、1つの2次ユーザ意図は、1次ユーザ意図と第1の以前のユーザ意図との組み合わせ(例えば、過去10年間のJack Ryanに関するアクション映画を検索するユーザ意図)であることができる。別の2次ユーザ意図は、第1の以前のユーザ意図と第2の以前のユーザ意図との組み合わせ(例えば、直近10年間のBen Affleckが主演したアクション映画を検索するユーザ意図)であることができる。ブロック552は、メディアデバイスの自然言語処理モジュール(例えば、自然言語処理モジュール432)を使用して実行することができる。図5Dに示したように、ブロック552は、ブロック554〜560を含むことができる。
[0160]
プロセス500のブロック554で、1つ以上の以前のユーザ意図の中の誤ったユーザ意図を特定することがある。詳細には、1つ以上の以前のユーザ意図を分析して、任意の誤ったユーザ意図が含まれるかどうかを判定するために分析することができる。後続の以前のユーザ意図により誤っていると明示的に又は暗黙に示された場合に、以前のユーザ意図を誤っていると判定することができる。例えば、1つ以上の以前のユーザ意図は、以前のメディアに関係する要求の後続のシーケンスに対応するユーザ意図を含むことができる。
[A]「いくつかのJames Bondの映画を見せて。(Show me some James Bond movies.)」
[B]「Daniel Smithに関するもののみ。(Just the ones with Daniel Smith.)」
[C]「いいえ、私は、Daniel Craigと言いました。(No, I meant Daniel Craig.)」
この例では、「いいえ、私は、...と言いました(No, I meant ...)」という明示的なフレーズに基づいて、要求[C]に関連付けられた以前のユーザ意図を、要求[B]に関連付けられた以前のユーザ意図に訂正するとい意図であると判定することができる。したがって、この例では、要求[C]に先行する要求[B]に関連付けられた以前のユーザ意図を誤っていると判定することができる。他の実施例では、要求[C]は、要求[B]が誤っていると暗黙に示すことができることを了解されたい。例えば、要求[C]は、代替的には、単に「Daniel Craig」とすることができる。文字列「Daniel Smith」に対する「Daniel Craig」の類似性と、パラメータ値「Daniel Smith」と対比した「Daniel Craig」に関連付けられた向上した関連性とに基づいて、要求[C]に関連付けられた以前のユーザ意図を、要求[B]に関連付けられた以前のユーザ意図に訂正するという意図であると判定することができる。
[0161]
他の実施例では、以前のユーザ意図と矛盾するメディアアイテムのユーザ選択に基づいて、以前のユーザ意図を誤っていると判定することができる。例えば、以前の要求は、「Russell Simmonsが製作したビデオを見せて」とすることができる。この以前の要求に応じて、Russell Simmonsが製作したビデオを含むメディアアイテムの1次セットを、ユーザ選択のために表示済みであることがある。更に、以前の要求に関連するメディアアイテムの追加セットを、メディアアイテムの1次セットと共に表示済みであることがある。この例では、「Russell Simmons」ではなく「Richard Simmons」が製作したメディアアイテムの追加セット中のメディアアイテムをユーザが選択したと判定することができる。このメディアアイテムのユーザ選択が、Russell Simmonsが製作したビデオを検索するという以前のユーザ意図と矛盾していることに基づいて、以前のユーザ意図が誤っていると判定することができる。換言すると、正しいユーザ意図は、「Russell Simmons」ではなく「Richard Simmons」が製作したビデオの検索であるはずであると判定することができる。
[0162]
1つ以上の以前のユーザ意図が誤った以前のユーザ意図を含むという判定に従って、1つ以上の2次ユーザ意図を判定するために、この誤った以前のユーザ意図を使用することはできない。詳細には、誤った以前のユーザ意図は、除外され得、したがって、1つ以上の2次ユーザ意図を判定するためのブロック556でユーザ意図の組み合わせを生成するためには使用されないことがある。ただし、いくつかの実施例では、ユーザ意図の組み合わせを生成し、1つ以上の2次ユーザ意図を判定するために、訂正したユーザ意図を使用することができる。例えば、上述したそれぞれの例では、「Daniel Craig」に関連付けられた訂正後の以前のユーザ意図(例えば、Daniel Craigに関するJames Bondの映画の検索)」と「Richard Simmons」に関連付けられた訂正後の以前のユーザ意図(例えば、Richard Simmonsが製作したビデオの検索)とを使用して、1つ以上の2次ユーザ意図を判定することができる。
[0163]
プロセス500のブロック556で、1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、複数のユーザ意図の組み合わせを生成することができる。例示的な実施例では、メディアデバイスは、メディアに関係する要求の後続のシーケンスを受信済みであることがあり、1次ユーザ意図は要求[G]に関連付けられ、1つ以上の以前のユーザ意図は、要求[D]〜[F]に関連付けられる。
[D]「Keanu Reevesが主演した映画(Movies starring Keanu Reeves.)」
[E]「写実的な暴力を包含しているショー(Shows containing graphic violence.)」
[F]「小児に適した映画(Movies suitable for young children)」
[G]「アニメ(Cartoons.)」
この実施例では、複数のユーザ意図の組み合わせは、1次ユーザ意図と、要求[G]から[D]に関連付けられる1つ以上の以前のユーザ意図との任意の組み合わせを含むことができる。1つの例示的なユーザ意図の組み合わせは、写実的な暴力に関する、Keanu Reevesが主演した映画(例えば、要求[D]及び[E]に基づく組み合わせ)の検索とすることができる。別の例示的なユーザ意図の組み合わせは、小児に適したアニメ映画(例えば、要求[F]及び[G]に基づく組み合わせ)の検索とすることができる。
[0164]
プロセス500のブロック558で、両立しないユーザ意図を除外することができる。詳細には、両立しないユーザ意図の組み合わせを特定することができ、特定した両立しないユーザ意図の組み合わせに基づいて、1つ以上の2次ユーザ意図を判定しないことができる。いくつかの実施例では、両立しないユーザ意図の組み合わせは、任意のメディアアイテムに対応しないユーザ意図の組み合わせであり得る。具体的には、各ユーザ意図の組み合わせについて、対応するメディア検索を実行することができる。特定のメディア検索について、メディアアイテムが取得されない場合、対応するユーザ意図の組み合わせを、両立しないユーザ意図の組み合わせであると判定することができる。例えば、ユーザ意図の組み合わせは、上述した要求[E]及び[F]に基づくことができる。この例では、写実的な暴力を包含する、子どもに適した映画の対応するメディア検索を実行することができる。ただし、メディア検索は、いかなるメディアアイテムももたらさないことがある。したがって、この例では、要求[E]及び[F]に基づくユーザ意図の組み合わせを、両立しないユーザ意図の組み合わせであると判定することができる。他の実施例では、両立しないユーザ意図の組み合わせを判定するために、異なる所定の閾値を確立することができることを了解されたい。例えば、メディアアイテムの所定の数よりも多数には対応しないユーザ意図の組み合わせを、両立しないと判定することができる。
[0165]
他の実施例では、ユーザ意図の組み合わせに関連付けられたパラメータ値に基づいて、両立しないユーザ意図の組み合わせを判定することができる。詳細には、ある特定のパラメータ値を、両立しないと予め定めることができる。例えば、パラメータ値「写実的な暴力(graphic violence)」を、パラメータ値「小児に適した(suitable for young children)」と両立しないと予め定めることができる。したがって、両立しないと予め定めた2つ以上のパラメータ値を包含するユーザ意図の組み合わせを、両立しないユーザ意図の組み合わせであると判定することができる。更に、ある特定のパラメータが特異値を要求することを予め定めることができる。例えば、「メディアタイトル」、「メディアタイプ」及び「アメリカ映画協会(Motion Picture Association of America)フィルムレーティング」のパラメータをそれぞれ、ユーザ意図の組み合わせ中の1つ以下のパラメータ値と関連付けることができる。詳細には、映画を検索する第1のユーザ意図と楽曲を検索する第2のユーザ意図との組み合わせは、両立しない組み合わせとなる。したがって、ユーザ意図の組み合わせは、特異値を必要とすると予め定められたパラメータについて2つ以上のパラメータ値を包含する場合、両立しないと判定することができる。ブロック552で1つ以上の2次ユーザ意図を判定するために、両立しないユーザ意図の組み合わせを使用しないように、両立しないユーザ意図の組み合わせを除外することができる。詳細には、1つ以上の2次ユーザ意図は、いかなる両立しないユーザ意図の組み合わせも含まないことがある。両立しないユーザ意図の組み合わせを考慮から除外することは、ユーザ選択のために表示されるメディアアイテムの関連性を増大させるために望ましいことがある。
[0166]
両立しないと判定されなかった残りのユーザ意図の組み合わせに基づいて、1つ以上の2次ユーザ意図を判定することができる。詳細には、残りのユーザ意図の各組み合わせのユーザ意図をマージして、1つ以上の2次ユーザ意図を生成することができる。更に、残りのユーザ意図の組み合わせの各々を、少なくとも1つのメディアアイテム(又は、少なくとも所定の数のメディアアイテム)と関連付けることができる。いくつかの実施例では、1つ以上の2次意図は、1つ以上の残りのユーザ意図の組み合わせを含むことができる。
[0167]
上述した要求[D]〜[G]に関する例に戻ると、1つ以上の2次ユーザ意図のうちの1つの2次ユーザ意図は、1次ユーザ意図の組み合わせ(例えば、要求[G]に関連付けられた1次ユーザ意図)、及び1つ以上の以前のユーザ意図のうちの1つの以前のユーザ意図(例えば、要求[F]に関連付けられた以前のユーザ意図)を含むことができる。例えば、2次ユーザ意図は、小児に適したアニメ映画についてのメディア検索とすることができる。更に、1つ以上の2次ユーザ意図のうちの1つ2次ユーザ意図は、1つ以上の以前のユーザ意図の2つ以上の以前のユーザ意図の組み合わせ(例えば、要求[D]及び[E]に関連付けられた以前のユーザ意図)を含むことができる。例えば、2次ユーザ意図は、Keanu Reevesが主演した写実的な暴力に関する映画についてのメディア検索とすることができる。
[0168]
プロセス500のブロック560で、他の関連するパラメータ値に基づいて、1つ以上の2次ユーザ意図を生成することができる。ブロック552で判定した1つ以上の2次意図に加えて、又はそれに代えて、ブロック560で、1つ以上の2次ユーザ意図を判定することができる。他の関連するパラメータ値は、メディアデバイス上のユーザのメディア検索履歴以外の情報に基づき得る。詳細には、他の関連するパラメータ値を判定するために使用される情報は、ユーザのメディアの興味及び傾向を反映することができ、したがって、ユーザの実際の意図を合理的に予測することができる。
[0169]
いくつかの実施例では、他の関連するパラメータ値は、メディアデバイス上のユーザのメディア選択履歴に基づき得る。詳細には、他の関連するパラメータ値は、消費のためにユーザが以前に選択した(例えば、ブロック506でメディアに関係する要求を受信するよりも前に選択した)メディアアイテムに関連付けられたパラメータ値を含むことができる。いくつかの実施例では、他の関連するパラメータ値は、メディアデバイス上のユーザのウォッチリストに基づき得る。メディアのウォッチリストは、ユーザが興味と持っている、又は近い将来消費したいと望むメディアアイテムのユーザ定義リストとすることができる。したがって、ユーザの選択履歴又はユーザメディアのウォッチリストに関連付けられたパラメータ値は、ユーザのメディアの興味又は傾向を反映することができる。いくつかの実施例では、他の関連するパラメータは、メディアデバイスの外部のデバイス上のユーザのメディア検索履歴に基づき得る。詳細には、外部のメディアデバイス(例えば、ユーザデバイス122)上で実行されたメディアに関係する検索の履歴を、その外部のメディアデバイスから取得することができる。これらのメディアに関係する検索は、ウェブ検索、iTunes(登録商標)store検索、デバイス上のローカルメディアファイル検索などであり得る。したがって、他の関連するパラメータ値は、外部のメディアデバイスのメディアに関係する検索履歴から導き出されるパラメータ値を含むことができる。
[0170]
いくつかの実施例では、他の関連するパラメータ値は、ユーザインタフェースがその上にフォーカスしたメディアアイテムに基づき得る。例えば、図6Aを参照すると、ブロック506で、メディアに関係する要求を受信する間、カーソル609は、メディアアイテム611の上にあり得る。したがって、ブロック506で、メディアに関係する要求を受信する間、ユーザインタフェース602のフォーカスは、メディアアイテム611の上にあると判定することができる。この実施例では、他の関連するパラメータ値は、メディアアイテム611にコンテキストで関係し得る。具体的には、他の関連するパラメータ値は、メディアアイテム611の1つ以上のパラメータ値を含むことができる。いくつかの実施例では、他の関連するパラメータ値は、ブロック506でメディアに関係する要求を受信する間、表示ユニット上に表示されたメディアアイテムに関連付けられたテキストに基づき得る。例えば、図6Aでは、ブロック506でメディアに関係する要求を受信する間、メディアアイテムの1次セット604及びメディアアイテムの2次セット606に関連付けられた複数のテキストを、表示ユニット上に表示することができる。複数のテキストは、関連付けられたメディアアイテムのパラメータ値を記述することができる。したがって、他の関連するパラメータ値は、複数のテキストが記述する1つ以上のパラメータ値を含むことができる。
[0171]
メディアデバイスは、内部又は外部の他の情報を使用して、他の関連するパラメータ値を判定することができる。例えば、いくつかの実施例では、ブロック528で特定した追加のパラメータ値と同様に、他の関連するパラメータ値を判定することができる。
[0172]
ブロック552及び560の1つ以上の2次ユーザ意図の各々について、ランキングスコアを判定することができる。ランキングスコアは、2次ユーザ意図がユーザの実際のユーザ意図に対応する尤度を表すことができる。いくつかの実施例では、より高いランキングスコアは、それぞれの2次ユーザ意図が実際のユーザ意図に対応する、より高い尤度を表すことができる。以下で説明するように、1つ以上の2次ユーザ意図を導き出すために使用される同様の情報に基づいて、ランキングスコアを判定することができる。
[0173]
いくつかの実施例では、ユーザ又は複数のユーザのメディアに関係する要求の履歴(例えば、メディア検索履歴)に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定することができる。詳細には、メディアに関係する要求及び1つ以上の以前のメディアに関係する要求の各々が受信された時刻及び順序に基づいて、ランキングスコアを判定することができる。より最近受信したメディア検索要求に基づく2次ユーザ意図は、より早く受信したメディアに関係する要求に基づく2次ユーザ意図よりもより高いランキングスコアを有する可能性がより高い。例えば、要求[D]〜[G]の上記で説明した例では、要求[G]を、最も早くに受信したメディアに関係する要求とすることでき、要求[D]を、最も早くに受信したメディアに関係する要求とすることができる。この例では、要求[G]に基づく2次ユーザ意図は、要求[D]に基づく2次ユーザ意図によりも高いランキングスコアをする可能性が高くなる。
[0174]
更に、ランキングスコアは、ユーザ又は複数のユーザのメディアに関係する要求の履歴におけるパラメータ値の出現頻度に基づき得る。例えば、パラメータ値「Keanu Reeves」が、ユーザのメディアに関係する要求の履歴又は複数のユーザのメディアに関係する要求の履歴において、パラメータ値「写実的な暴力(graphic violence)」よりも頻繁に出現する場合、パラメータ値「Keanu Reeves」を包含する2次ユーザ意図は、パラメータ値「写実的な暴力(graphic violence)」を包含する2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。
[0175]
いくつかの実施例では、ユーザ又は複数のユーザの選択履歴に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定することができる。ユーザ選択履歴は、消費のためにユーザ又は複数のユーザが以前に選択したメディアアイテムのリストを含むことができる。1つ以上の以前に選択されたメディアアイテムのパラメータ値を含む2次ユーザ意図は、任意の以前に選択されたメディアアイテムのパラメータ値を含まない2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。更に、より最近選択されたメディアアイテムのパラメータ値を含む2次ユーザ意図は、より早くに選択されたメディアアイテムのパラメータ値を含む2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。更に、以前に選択されたメディアアイテムのうちより高い頻度で生じるパラメータ値を有する2次ユーザ意図は、以前に選択されたメディアアイテムのうちより低い頻度で生じるパラメータ値を有する2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。
[0176]
いくつかの実施例では、ユーザ又は複数のユーザのメディアウォッチリストに基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定することができる。例えば、メディアウォッチリスト上の1つ以上のメディアアイテムパラメータ値を含む2次ユーザ意図は、メディアウォッチリスト上の任意のメディアアイテムのパラメータ値を含まない2次ユーザ意図よりも高いランキングスコアを有する可能性が高くなり得る。
[0177]
プロセス500のブロック562で、1つ以上のメディアアイテムの2次セットを取得することができる。ブロック562は、ブロック520と同様とすることができる。詳細には、ブロック552及び/又は560の1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成することができる。1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得することができる。例えば、図6Eを再び参照すると、直近10年間のJack Ryanに関するアクション映画についての第1の2次メディア検索クエリを生成し、それを実行して、メディアアイテムの2次セット624を取得することができる。更に、直近10年間のBen Affleckが主演したアクション映画についての第2の2次メディア検索クエリを生成し、それを実行して、メディアアイテムの2次セット626を取得することができる。
[0178]
プロセス500のブロック564で、表示ユニット上に1つ以上のメディアアイテムの2次セットを表示することができる。ブロック564は、ブロック534と同様とすることができる。図6Eに示すように、ユーザインタフェース602の最上行に、メディアアイテムの第3の1次セット620を表示することができる。最上行よりも下の、ユーザインタフェース602の後続の行に、メディアアイテムの2次セット624及び626を表示することができる。後続の行の各行は、ブロック552及び/又は560の1つ以上の2次ユーザ意図の2次ユーザ意図に対応することができる。
[0179]
メディアアイテムの1つ以上の2次セットは、対応する1つ以上の2次ユーザ意図のランキングスコアに従って表示することができる。詳細には、ランキングスコアがより高い2次ユーザ意図に対応するメディアアイテムの2次セットは、ランキングスコアがより低い2次ユーザ意図に対応するメディアアイテムの2次セットよりも目立つように(例えば、最上行に近いより高い行に)表示することができる。
[0180]
ブロック510を再び参照すると、1次ユーザ意図が新たなメディア検索クエリを実行するユーザ意図を備えないという判定に従って、ブロック516〜518のうちの1つ以上を実行することができる。プロセス500のブロック516で、1次ユーザ意図は、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるかどうかについて、判定を行うことができる。この判定は、1次メディア検索クエリの一部分を訂正するユーザ意図を示す明示的な単語又はフレーズに基づいて行うことができる。具体的には、メディアに関係する要求が、1次メディア検索クエリの一部分を訂正するユーザ意図を示す所定の単語又はフレーズを含むかどうかを判定することができる。例えば、図6H〜図6Iを参照すると、メディアに関係する要求は、「いいえ、アドベンチャー映画と言いました(No, I meant adventure movies)」とすることができる。この実施例では、明示的なフレーズ「いいえ、私は...と言いました(No, I meant ...)」がメディアに関係する要求の文頭に出現していることに基づいて、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えると判定することができる。具体的には、1次メディア検索クエリを直近10年間のアクション映画の検索から、直近10年間のアドベンチャー映画の検索に1次ユーザ意図を訂正するユーザ意図であると判定することができる。1次メディア検索クエリの一部分を訂正するユーザ意図を示す所定の単語又はフレーズの他の例として、「いいえ(no)」、「ではない(not)、「私は、言いました(I mean)」、「間違っている(wrong)]を挙げることができる。
[0181]
他の実施例では、ブロック516での判定は、メディアに関係する要求中のパラメータ値と1次メディア検索クエリ中のパラメータ値との類似性に基づいて行うことができる。例えば、1つの実施例では、1次メディア検索クエリに関連付けられた以前に受信したメディアに関係する要求は、「Jackie Chan及びChris Rucker(Jackie Chan and Chris Rucker)」であり得、メディアに関係する要求は、「Chris Tucker」であり得る。パラメータ値「Chris Rucker」と「Chris Tucker」との間の判定された編集距離が所定の値以下であることに基づいて、1次ユーザ意図が、1次メディア検索クエリ中のパラメータ値「Chris Rucker」を「Chris Tucker」に訂正するユーザ意図を備えると判定することができる。それに加えて、又は代替として、「Chris Rucker」及び「Chris Tucker」を表す音素の列を比較することができる。「Chris Rucker」を表す音素の列が、「Chris Tucker」を表す音素の列と実質的に同様であることに基づいて、1次ユーザ意図が、1次メディア検索クエリ中の「Chris Rucker」を「Chris Tucker」に訂正するユーザ意図を備えると判定することができる。
[0182]
更に、パラメータ値「Jackie Chan」に関して、パラメータ値「Chris Rucker」の顕著性をパラメータ値「Chris Tucker」の顕著性と比較することができる。詳細には、パラメータ値「Jackie Chan」を使用してメディア検索を実行し、Jackie Chanに関係するメディアアイテムのセットを特定することができる。「Jackie Chan」に関して、「Chris Rucker」及び「Chris Tucker」の顕著性は、2つのパラメータ値の各々に関連付けられるJackie Chanに関係するメディアアイテムのセットの中のメディアアイテムの数に基づくことができる。例えば、「Chris Tucker」は、「Chris Rucker」よりも「Jackie Chan」に関係するメディアアイテムのセットの中の著しく多くのメディアアイテムに関連付けられていると判定することができる。したがって、「Jackie Chan」に関して、「「Chris Tucker」の顕著性は、Chris Rucker」の顕著性よりも著しく高いと判定することができる。この比較された顕著性に基づいて、1次ユーザ意図が、1次メディア検索クエリ中の「Chris Rucker」を訂正するユーザ意図を備えると判定することができる。
[0183]
1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、メディアに関係する要求に関連付けられた1つ以上の2次ユーザ意図を判定する時に(例えば、ブロック552)、1次メディア検索クエリに関連付けられた以前のユーザ意図を考慮から除外することができる。例えば、1つ以上の2次ユーザ意図の判定時、「Jackie Chan及びChris Rucker」の以前に受信したメディアに関係する要求に関連付けられた以前のユーザ意図を考慮から除外することができる。代わりに、1つ以上の2次ユーザ意図の判定時に、訂正したメディアに関係する要求「Jackie Chan及びChris Tucker」に関連付けられた以前のユーザ意図を考慮することができる。
[0184]
更に、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、ブロック566〜568のうちの1つ以上を実行することができる。プロセス500のブロック566で、メディアアイテムの第5の1次セットを取得することができる。ブロック566は、ブロック520と同様とすることができる。詳細には、1次ユーザ意図に対応する第5の1次メディア検索クエリを生成することができる。第5の1次メディア検索クエリは、メディアに関係する要求及び1次メディア検索クエリに基づくことができる。具体的には、第5の1次メディア検索クエリを生成する、メディアに関係する要求に従って、1次メディア検索クエリの一部分を訂正することができる。1次メディア検索クエリが、「Jackie Chan」及び「Chris Rucker」が主演したメディアアイテムを検索することであり、メディアに関係する要求が、「Chris Tucker」である例に戻ると、「Jackie Chan」及び「Chris Tucker」が主演したメディアアイテムを検索する第5の1次メディア検索クエリを生成するように、1次メディア検索クエリを訂正することができる。次いで、第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得することができる。
[0185]
プロセス500のブロック568で、ユーザインタフェース(例えば、ユーザインタフェース602)を介して、メディアアイテムの第5の1次セットを表示ユニット上に表示することができる。詳細には、メディアアイテムの1次セット(例えば、メディアアイテムの1次セット604)の表示を、第5のメディアアイテムの1次セットの表示と入れ替えることができる。ブロック540は、ブロック522と同様とすることができる。更に、いくつかの実施例では、ユーザに追加のオプションを提供するために、ブロック550〜564を実行して、メディアアイテムの第5の1次セットと共にメディアアイテムの1つ以上の2次セットを取得し、表示することができる。
[0186]
ブロック510を再び参照すると、1次ユーザ意図が1次メディア検索クエリの一部分を訂正するユーザ意図を備えないという判定に従って、ブロック518を実行することができる。プロセス500のブロック518で、1次ユーザ意図は、表示ユニット上に表示されたユーザインタフェース(例えば、ユーザインタフェース602)のフォーカスを変更するユーザ意図を備えるかどうかについて、判定を行うことができる。ユーザインタフェースは、複数のメディアアイテムを含むことができる。いくつかの実施例では、ユーザインタフェースのフォーカスを変更するユーザ意図に対応するメディアに関係する要求中の明示的な単語又はフレーズに基づいて、ブロック518での判定を行うことができる。1つの例では、メディアに関係する要求は、「The Dark Knightに進む(Go to The Dark Knight)」であり得る。この例では、「...に進む(Go to ...)」というフレーズが、ユーザインタフェースのフォーカスを変更するユーザ意図に対応する所定のフレーズであると判定することができる。ユーザインタフェースのフォーカスを変更するユーザ意図に対応する所定の単語又はフレーズの他の例として、「選択する(Select)」、「へ移動する(Move to)」、「へジャンプする(Jump to)」、「再生する(Play)」、「購入する(Buy)」などを挙げることができる。所定の単語又はフレーズに基づいて、1次ユーザ意図が、ユーザインタフェースのフォーカスを変更するユーザ意図を備えると判定することができる。
[0187]
他の実施例では、ブロック518での判定は、ユーザインタフェースに表示されるメディアアイテムに対応するテキストに基づいて、暗黙に行うことができる。例えば、図6Aを参照すると、メディアアイテム604及び606は、メディアアイテム604及び606の1つ以上のパラメータ値について説明するテキストと関連付けることができる。詳細には、テキストは、メディアタイトル、俳優、公開日などのような、メディアアイテム604及び606のパラメータ値について説明することができる。上述したように、このテキストの少なくとも一部分を、それぞれのメディアアイテムに関して、ユーザインタフェース602上に表示することができる。メディアアイテム604及び606の1つ以上のパラメータ値について説明するこのテキストに基づいて、ブロック518での判定を行うことができる。本実施例では、メディアアイテム613は、映画「The Dark Knight」とすることができ、テキストは、メディアアイテム613に関連付けられたメディアタイトル「The Dark Knight」を含むことができる。メディアに関係する要求中で定義されるパラメータ値「The Dark Knight」が、メディアアイテム613に関連付けられたテキストのメディアタイトル「The Dark Knight」と一致するという判定に基づいて、1次ユーザ意図が、ユーザインタフェース602のフォーカスを、メディアアイテム611からメディアアイテム613に変更するユーザ意図を備えると判定することができる。いくつかの実施例では、表示されたテキストは、ユーザインタフェース602を介して表示されたメディアアイテムの全てのパラメータ値を含むわけではないことを認識されたい。これらの実施例では、また、ブロック518での判定は、表示されたテキストでは説明されていない表示されたメディアアイテムのパラメータ値に基づくことができる。
[0188]
1次ユーザ意図が、ユーザインタフェースのフォーカスを変更するユーザ意図を備えるという判定に従って、ブロック570を実行することができる。プロセス500のブロック570で、ユーザインタフェースのフォーカスを、第1のメディアアイテムから第2のメディアアイテムに変更することができる。例えば、図6Kを参照すると、ユーザインタフェース602のカーソル609の位置を、メディアアイテム611からメディアアイテム613に変更することができる。いくつかの実施例では、ユーザインタフェース602のフォーカスを変更することは、メディアアイテムを選択することを含むことができる。例えば、ブロック570で、メディアアイテム613を選択することができる。メディアアイテム613を選択することにより、メディアアイテム613に関連付けられた情報(例えば、映画プレビュー情報)を表示させることができる。それに加えて、又は代替として、メディアアイテム613を選択することにより、メディアアイテム613に関連付けられたメディアコンテンツを、メディアデバイス上で再生させ、表示ユニット上に表示させることができる。
[0189]
プロセス500のある特定のブロックは、デバイス又はシステム(例えば、メディアデバイス104、ユーザデバイス122又はデジタルアシスタントシステム400)により実行されるものとして上述しているが、いくつかの実施例では、これらのブロックを実行するために、2つ以上のデバイスを使用できることを認識されたい。例えば、判定を行うブロックで、第1のデバイス(例えば、メディアデバイス104)は、第2のデバイス(例えば、サーバシステム108)から判定を取得することができる。したがって、いくつかの実施例では、判定することは、判定を取得することを指すことができる。同様に、コンテンツ、オブジェクト、テキスト又はユーザインタフェースを表示するブロックで、第1のデバイス(例えば、メディアデバイス104)は、コンテンツ、オブジェクト、テキスト又はユーザインタフェースを、第2のデバイス(例えば、表示ユニット126)上に表示させることができる。したがって、いくつかの実施例では、表示することは、表示させることを指すことができる。
[0190]
更にまた、いくつかの実施例では、ユーザインタフェースに表示されるアイテム(例えば、メディアアイテム、テキスト、オブジェクト、グラフィクスなど)は、ユーザインタフェース中に含まれるが、ユーザからは直ぐには見えないアイテムを指すことができる。例えば、ユーザインタフェースに表示されるアイテムは、ユーザインタフェースの好適な領域までスクロールすることによって、ユーザから見えるようにすることができる。
5.電子デバイス
[0191]
いくつかの実施例に従って、図7は、例えば、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するように、説明する様々な実施例の原理に従って構成された電子デバイス700の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図7で説明する機能ブロックを組み合わせる、又はサブブロックに分離することができることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0192]
図7に示すように、電子デバイス700は、触覚入力、ジェスチャ入力及びテキスト入力などのユーザ入力を受信するように構成された入力ユニット703(例えば、遠隔制御124など)、オーディオデータを受信するように構成されたオーディオ受信ユニット704(例えば、マイクロフォン272など)、オーディオを出力するように構成されたスピーカユニット706(例えば、スピーカ268など)、並びに、ネットワークを介して外部のデバイスから情報を送受信するように構成された通信ユニット707(例えば、通信サブシステム224など)を含むことができる。いくつかの実施例では、電子デバイス700は、任意選択的に、メディア、インタフェース及び他のコンテンツを表示するように構成された表示ユニット702(例えば、表示ユニット126など)を含むことができる。いくつかの実施例では、表示ユニット702は電子デバイス700の外部にあってもよい。電子デバイス700は、入力ユニット703、オーディオ受信ユニット704、スピーカユニット706、通信ユニット707及び任意選択的に表示ユニット702に結合された、処理ユニット708を更に含むことができる。いくつかの実施例では、処理ユニット708は、表示可能化ユニット710、検出ユニット712、判定ユニット714、オーディオ受信可能化ユニット716、取得ユニット718、特定ユニット720、受信ユニット722、除外ユニット724、及び生成ユニット726を含むことができる。
[0193]
いくつかの実施形態によれば、処理ユニット708は、(例えば、表示ユニット702又は別の表示ユニットを用いて)表示ユニット上に、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1次セットを表示するように構成される。処理ユニット708は、(例えば、検出ユニット712を用いて)ユーザ入力を検出するように更に構成される。処理ユニット708は、ユーザ入力を検出したことに応じて、(例えば、オーディオ受信可能化ユニット716を用いて)オーディオ受信ユニット704で、オーディオ入力を受信するように更に構成される。オーディオ入力は、自然言語発語形態のメディアに関係する要求を包含する。処理ユニット708は、(例えば、判定ユニット714を用いて)メディアに関係する要求に対応する1次ユーザ意図を判定するように更に構成される。処理ユニット708は、1次ユーザ意図は、(例えば、判定ユニット714を用いて)メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるかどうかについて、判定を行うことができる。処理ユニット708は、1次ユーザ意図が1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、(例えば、取得ユニット718を用いて)メディアに関係する要求及び1次メディア検索クエリに基づいて、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成し、(例えば、取得ユニット720を用いて)第2の1次メディア検索クエリを実行してメディアアイテムの第2の1次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第2の1次セットの表示と入れ替えるように更に構成される。
[0194]
いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1次メディア検索クエリを絞り込むユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む。
[0195]
いくつかの実施例では、第2の1次メディア検索クエリは、メディアに関係する要求中で定義された1つ以上のパラメータ値、及び1次メディア検索クエリの1つ以上のパラメータ値を含む。いくつか実施例では、メディアアイテムの1次セットに基づいて、メディアアイテムの第2の1次セットを取得することができる。
[0196]
いくつかの実施例では、第2の1次メディア検索クエリは、パラメータ値のセットを含む。処理ユニット708は、(例えば、特定ユニット720を用いて)パラメータ値のセットから、パラメータ値のセットよりも少数のパラメータ値を有するパラメータ値のコアセットを特定するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)パラメータ値のコアセットに基づいて、1つ以上の追加のメディア検索クエリを生成するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の追加のメディア検索クエリを実行して、メディアアイテムの1つ以上の追加セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1つ以上の追加セットを表示ユニット上に表示するように更に構成される。
[0197]
いくつかの実施例では、処理ユニット708は、(例えば、特定ユニット720を用いて)複数のユーザのメディア選択履歴に基づいて、1つ以上の追加のパラメータ値を特定するように更に構成される。1つ以上の追加のメディア検索クエリは、1つ以上の追加のパラメータ値を使用して生成される。
[0198]
いくつかの実施例では、メディアアイテムの第2の1次セットは、表示ユニット上のユーザインタフェースの最上行に表示され、メディアアイテムの1つ以上の追加セットは、表示ユニット上のユーザインタフェースの1つ以上の後続の行に表示される。
[0199]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、(例えば、判定ユニット714を用いて)1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を備えるかどうかを判定するように更に構成される。処理ユニット708は、1次ユーザ意図が新たなメディア検索クエリを実行するユーザ意図を備えるという判定に従って、(例えば、取得ユニット718を用いて)メディアに関係する要求に基づいて、1次ユーザ意図に対応する第3の1次メディア検索クエリを生成し、(例えば、判定ユニット714を用いて)第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得することができるかどうか判定するように更に構成される。処理ユニット708は、第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得することができるという判定に従って、(例えば、取得ユニット718を用いて)第3の1次メディア検索クエリを実行して第3のメディアアイテムの1次セットを取得し、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、第3のメディアアイテムの1次セットの表示と入れ替えるように更に構成される。
[0200]
いくつかの実施例では、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、新たなメディア検索クエリを実行するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを更に含む。いくつかの実施例では、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズを含むかどうかを判定することを更に含む。
[0201]
いくつかの実施例では、処理ユニット708は、(例えば、取得ユニット718を用いて)複数のメディアタイプを備える複数の候補メディアアイテムの正規化されたランク付けを実行することを含めて、第3の1次メディア検索クエリを実行するように更に構成される。
[0202]
いくつかの実施例では、1次ユーザ意図を判定することは、メディアに関係する要求に関連付けられたメディアタイプを判定することを含み、判定したメディアタイプに従って、第3の1次メディア検索クエリを実行する。
[0203]
いくつかの実施例では、第3の1次メディア検索クエリを実行することは、パラメータ値に関連付けられる候補メディアアイテムを特定することを含み、このパラメータ値は、特定された候補メディアアイテムの1つ以上のメディア批評家のレビュー中に含まれる。
[0204]
いくつかの実施例では、第3の1次メディア検索クエリを実行することは、パラメータ値に関連付けられる候補メディアアイテムを特定することを含み、このパラメータ値は、特定された候補メディアアイテムのクローズドキャプション情報から導き出される。
[0205]
いくつかの実施例では、処理ユニット708は、第3の1次メディア検索クエリに対応するメディアアイテムがないという判定に従って、(例えば、特定ユニット720を用いて)第3の1次メディア検索クエリの最も妥当性の低いパラメータ値を特定するように更に構成される。処理ユニット708は、特定した最も妥当性の低いパラメータ値に基づいて、(例えば、判定ユニット714を用いて)1つ以上の代替パラメータ値を判定するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の代替パラメータ値を使用して1つ以上の代替1次メディア検索クエリを実行して、メディアアイテムの第4の1次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第4の1次セットの表示と入れ替えるように更に構成される。
[0206]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、1次メディア検索クエリを絞り込むユーザ意図を備えないという判定に従って、(例えば、判定ユニット714を用いて)1つ以上の2次ユーザ意図に基づいて、1次ユーザ意図及び1つ以上の以前のユーザ意図を判定するように更に構成され、1つ以上の以前のユーザ意図は、メディアに関係する要求のよりも前に受信した1つ以上の以前のメディアに関係する要求に対応する。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1つ以上の2次セットを表示ユニット上に表示するように更に構成される。
[0207]
いくつかの実施例では、1つ以上の以前のメディアに関係する要求は、メディアアイテムの1次セットに対応する以前のメディアに関係する要求を含む。
[0208]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)1次ユーザ意図と1つ以上の以前のユーザ意図との1つ以上の組み合わせを判定するように更に構成され、1つ以上の組み合わせの各々は、少なくとも1つのメディアアイテムと関連付けられ、1つ以上の2次意図は、1つ以上の組み合わせを備える。
[0209]
いくつかの実施例では、1つ以上の以前のユーザ意図及び1次ユーザ意図は、デジタルアシスタントとの同一の対話型セッションと関連付けられる。いくつかの実施例では、1つ以上の電子デバイス上のユーザのメディア検索履歴に基づいて、1つ以上の2次ユーザ意図を生成する。いくつかの実施例では、1つ以上の電子デバイス上のユーザのメディア選択履歴、メディア選択履歴に基づいて、1つ以上の2次ユーザ意図を生成する。
[0210]
いくつかの実施例では、処理ユニット708は、(例えば、受信ユニット722を用いて)第2の電子デバイスから(例えば、通信ユニットを介して)メディア検索履歴を受信するように更に構成される。第2の電子デバイスから受信したメディア検索履歴に基づいて、1つ以上の2次ユーザ意図を生成する。
[0211]
1つ以上の電子デバイス上のユーザのメディアウォッチリストに基づいて、1つ以上の2次ユーザ意図を生成する。いくつかの実施例では、オーディオ入力を受信している間に、表示ユニット上に複数のテキストを表示し、その複数のテキストは、オーディオ入力を受信している間に表示ユニット上に表示された複数のメディアアイテムと関連付けられ、表示した複数のテキストに基づいて、1つ以上の2次ユーザ意図を生成する。
[0212]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定するように更に構成され、1つ以上の2次ユーザ意図の各々についてのランキングスコアに従って、メディアアイテムの1つ以上の2次セットを表示する。
[0213]
いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、メディアに関係する要求及び1つ以上の以前のメディアに関係する要求の各々を受信した時刻に基づく。いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、1つ以上の電子デバイス上のユーザのメディア検索履歴に基づく。いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、1つ以上の電子デバイス上のユーザのメディア選択履歴に基づく。いくつかの実施例では、1つ以上の2次ユーザ意図の各々についてのランキングスコアは、1つ以上の電子デバイス上のユーザのメディアウォッチリストに基づく。
[0214]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含まないという判定に従って、(例えば、判定ユニット714を用いて)1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を備えるかどうかを判定するように更に構成される。処理ユニット708は、1次ユーザ意図が1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、(例えば、取得ユニット718を用いて)メディアに関係する要求及び1次メディア検索クエリ要求に基づいて、1次ユーザ意図に対応する第5の1次メディア検索クエリを生成するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)表示ユニット上のメディアアイテムの1次セットの表示を、メディアアイテムの第5の1次セットの表示と入れ替えるように更に構成される。
[0215]
いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することは、メディアに関係する要求が、1次メディア検索クエリの一部分を訂正するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む。いくつかの実施例では、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することは、メディアに関係する要求の一部分を表す音素の列が、1次メディア検索クエリに対応する以前のメディアに関係する要求の一部分を表す音素の列と実質的に類似しているかどうかを判定することを含む。
[0216]
いくつかの実施例では、第5の1次メディア検索クエリを生成することは、訂正されない1次メディア検索クエリの一部分に関連付けられたメディアアイテムのセットを特定することを含み、訂正されない1次メディア検索クエリの一部分に関連付けられたメディアアイテムのセットの1つ以上のパラメータ値に基づいて、第5の1次メディア検索クエリを生成する。
[0217]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が1次メディア検索クエリの一部分を訂正するユーザ意図を備えるという判定に従って、(例えば、除外ユニット724を用いて)メディアに関係する要求に対応する2次ユーザ意図の判定時に、1次メディア検索クエリを考慮から除外するように更に構成される。
[0218]
いくつかの実施例では、処理ユニット708は、1次ユーザ意図が、1次メディア検索クエリの一部分を訂正するユーザ意図を含まないという判定に従って、(例えば、判定ユニット714を用いて)1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるかどうかを判定するように更に構成され、ユーザインタフェースは、複数のメディアアイテムを含む。処理ユニット708は、1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるという判定に従って、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースのフォーカスを、複数のメディアアイテムのうちの第1のメディアアイテムから複数のメディアアイテムのうちの第2のメディアアイテムに変更するように更に構成される。
[0219]
いくつかの実施例では、1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるかどうか判定することは、メディアに関係する要求が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む。
[0220]
いくつかの実施例では、ユーザインタフェースは、ユーザインタフェース中の複数のメディアアイテムに対応する複数のテキストを含み、1次ユーザ意図が、表示ユニット上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を備えるかどうかの判定は、これらの複数のテキストに基づく。
[0221]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)メディアに関係する要求のテキスト表現を判定し、(例えば、表示可能化ユニット710を用いて)そのテキスト表現を表示ユニット上に表示するように更に構成される。いくつかの実施例では、1つ以上の言語モデルを使用して、テキスト表現を判定する。いくつかの実施例では、メディアに関係するテキスト結果に向かって1つ以上の言語モデルをバイアスさせる。いくつかの実施例では、1つ以上の言語モデルは、複数の言語におけるメディアに関係するテキストを認識するように構成される。
[0222]
いくつかの実施例では、複数のメディアアイテムに関連付けられた複数のメディアアイテム及びテキストが表示ユニット上に表示される。処理ユニット708は、(例えば、生成ユニット726を用いて)複数のメディアアイテムに関連付けられたテキストを使用して第2の言語モデルを生成するように更に構成され、この第2の言語モデルを使用してテキスト表現を判定する。
[0223]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)テキスト表現を使用して予測テキストを判定し、(例えば、表示可能化ユニット710を用いて)テキスト表現の予測テキストを表示ユニット上に表示するように更に構成される。
[0224]
いくつかの実施例では、オーディオ入力を受信している間に、表示ユニット上に表示したテキストに基づいて、予測テキストを判定する。
[0225]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)オーディオ入力のエンドポイントが予測テキストの表示後に検出されたかどうかを判定するように更に構成され、オーディオ入力のエンドポイントが、予測テキストの表示後に検出されたという判定に従って、テキスト表現及び予測テキストを使用して、1次ユーザ意図を判定する。
[0226]
いくつかの実施例では、処理ユニット708は、オーディオ入力を受信している間に、(例えば、判定ユニット714を用いて)オーディオ入力の受信した部分に基づいて仮のユーザ意図を判定し、(例えば、特定ユニット720を用いて)仮のユーザ意図を満たすために必要なデータを特定し、(例えば、判定ユニット714を用いて)仮のユーザ意図の判定時に、そのデータが1つ以上の電子デバイス上に記憶されているかどうかを判定し、仮のユーザ意図の判定時にそのデータが1つ以上の電子デバイス上に記憶されていないという判定に従って、(例えば、取得ユニット718を用いて)データを取得するように更に構成される。
[0227]
いくつかの実施形態によれば、処理ユニット708は、(例えば、入力ユニット703又はオーディオ受信ユニット704で、受信ユニット722又はオーディオ受信可能化ユニット716を使用して)ユーザから、自然言語発語形態のメディア検索要求を受信するように構成される。処理ユニット708は、(例えば、判定ユニット714を用いて)メディア検索要求に対応する1次ユーザ意図を判定するように更に構成され、その1次ユーザ意図に従って、メディアアイテムの1次セットを取得する。処理ユニット708は、(例えば、判定ユニット714を用いて)1つ以上の以前のユーザ意図が存在するかどうかを判定するように構成され、1つ以上の以前のユーザ意図は、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求に対応する。処理ユニット708は、1つ以上の以前のユーザ意図が存在すると判定したことに応じて、(例えば、判定ユニット714を用いて)1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定するように更に構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)メディアアイテムの複数の2次セットを取得するように更に構成され、メディアアイテムの各2次セットは、1つ以上の2次ユーザ意図のそれぞれの2次ユーザ意図に対応する。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1次セット及びメディアアイテムの複数の2次セットを表示するように更に構成される。
[0228]
いくつかの実施例では、1次ユーザ意図を判定することは、メディア検索要求が、メディア検索要求よりも前に受信した以前のメディア検索要求を絞り込む明示的な要求を包含するかどうかを判定することを更に含み、メディア検索要求が、以前のメディア検索要求を絞り込む明示的な要求を包含するという判定に従って。メディア検索要求及び1つ以上の以前のユーザ意図のうちの少なくとも1つから、1次ユーザ意図を判定する。
[0229]
いくつかの実施例では、メディア検索要求が以前のメディア検索要求を絞り込む明示的な要求を包含しないと判定したことに応じて、メディア検索要求から、1次ユーザ意図を判定する。
[0230]
いくつかの実施例では、メディア検索要求は、デジタルアシスタントとの対話型セッションの一部である。1つ以上の以前のユーザ意図が存在するかどうかを判定することは、対話型セッションが、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求を含むかどうかを判定することを更に含み、1つ以上の以前のメディア検索要求は、1つ以上の以前のユーザ意図に対応する。対話型セッションが、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求を包含するという判定に従って、その1つ以上の以前のユーザ意図の判定を行う。対話型セッションが、メディア検索要求よりも前に受信した1つ以上の以前のメディア検索要求を包含しないという判定に従って、1つ以上の以前のユーザ意図が存在しないという判定を行う。
[0231]
いくつかの実施例では、処理ユニット708は、1つ以上の以前のメディアユーザ意図が存在しないと判定したことに応じて、(例えば、表示可能化ユニット710を用いて)メディアアイテムの1次セットを表示するように更に構成される。
[0232]
いくつかの実施例では、1つ以上の2次ユーザ意図の2次ユーザ意図は、1次ユーザ意図と1つ以上の以前のユーザ意図の以前のユーザ意図との組み合わせを含む。
[0233]
いくつかの実施例では、1つ以上の2次ユーザ意図の2次ユーザ意図は、1つ以上の以前のユーザ意図の第1の以前のユーザ意図と1つ以上の以前のユーザ意図の第2の以前のユーザ意図との組み合わせを含む。
[0234]
いくつかの実施例では、1つ以上の2次ユーザ意図を判定することは、1次ユーザ意図と1つ以上の以前のユーザ意図との複数の組み合わせを生成することを更に含む。
[0235]
いくつかの実施例では、1つ以上の2次ユーザ意図を判定することは、複数の組み合わせが、マージできない組み合わせを含むかどうかを判定することを更に含む。複数の組み合わせが、マージできないユーザ意図の組み合わせを含むという判定に従って、1つ以上の2次ユーザ意図は、マージできない組み合わせを含めない。
[0236]
いくつかの実施例では、マージできない組み合わせは、特異値を必要とするパラメータについての2つ以上の値を含む。
[0237]
いくつかの実施例では、1つ以上の2次ユーザ意図を判定することは、1つ以上の以前のユーザ意図が誤ったユーザ意図を含むかどうか判定することを更に含む。1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むという判定に従って。1つ以上の2次ユーザ意図は、誤ったユーザ意図に基づかない。
[0238]
いくつかの実施例では、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むかどうかを判定することは、1つ以上の以前のユーザ意図が、1つ以上の以前のユーザ意図の第4のユーザ意図を訂正する第3のユーザ意図を含むかどうか判定することを含む。1つ以上の以前のユーザ意図が、1つ以上の以前のユーザ意図の第4のユーザ意図と訂正する第3のユーザ意図を含むという判定に従って、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むという判定を行う。第4のユーザ意図は、誤ったユーザ意図であると判定される。
[0239]
いくつかの実施例では、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むかどうか判定することは、1つ以上の以前のユーザ意図が、第5のユーザ意図と矛盾するメディアアイテムのユーザ選択に関連付けられた第5のユーザ意図を含むかどうかを判定することを含む。1つ以上の以前のユーザ意図が、誤ったユーザ意図を訂正する第3のユーザ意図を含むという判定に従って、1つ以上の以前のユーザ意図が、誤ったユーザ意図を含むという判定を行い、第5のユーザ意図が誤ったユーザ意図であると判定される。
[0240]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)複数の含み合わせが、所定の数よりも少数のメディアアイテムに関連付けられる複数の組み合わせを含むかどうかを判定するように更に構成される。複数の組み合わせが、所定の数よりも少数のメディアアイテムに関連付けられる組み合わせをむという判定に従って、1つ以上の2次ユーザ意図は、所定の数よりも少数のメディアアイテムに関連付けられる組み合わせを含まない。
[0241]
いくつかの実施例では、処理ユニット708は、(例えば、判定ユニット714を用いて)1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定するように更に構成され、1つ以上の2次ユーザ意図の各々についてのランキングスコアに従って、メディアアイテムの複数の2次セットを表示する。
[0242]
いくつかの実施例では、メディア検索要求及び1つ以上の以前のメディア検索要求を受信した順序に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定する。いくつかの実施例では、ユーザが以前に選択したメディアを備えるユーザの選択履歴に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定する。いくつかの実施例では、ユーザのメディア検索履歴に基づいて、1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定する。
[0243]
いくつかの実施例では、メディアアイテムの1次セットは、ユーザインタフェースの最上行に表示され、メディアアイテムの複数の2次セットは、最上行よりも下のユーザインタフェースの後続の行に表示され、後続の行の各行は、1つ以上の2次ユーザ意図のそれぞれの2次ユーザ意図に対応する。
[0244]
いくつかの実施例では、後続の行は、1つ以上の2次ユーザ意図のそれぞれのランキングスコアに従って順序付けられる。
[0245]
いくつかの実施形態によれば、処理ユニット708は、(例えば、入力ユニット703又はオーディオ受信ユニット704で、受信ユニット722又はオーディオ受信可能化ユニット716を用いて)第1のメディア検索要求を受信するように構成される。処理ユニット708は、(例えば、取得ユニット718を用いて)メディア検索要求を満たすメディアアイテムの第1のセットを取得するように更に構成される。処理ユニット708は、(例えば、表示可能化ユニットを用いて)ユーザインタフェースを介して、メディアアイテムの第1のセットを表示ユニット上に表示するように更に構成される。メディアアイテムの第1のセットの少なくとも一部分を表示している間、処理ユニット708は、(例えば、入力ユニット703又はオーディオ受信ユニット704で、受信ユニット722又はオーディオ受信可能化ユニット716を用いて)第2のメディア検索要求を受信し、(例えば、取得ユニット718)第2のメディア検索要求が第1のメディア検索要求を絞り込む要求であるかどうかの判定を取得するように更に構成される。処理ユニット708は、第2のメディア検索要求が、第1のメディア検索要求を絞り込む要求であるという判定を取得したことに応じて、(例えば、取得718を用いて)第2のメディア検索要求を満たす、複数のメディアアイテムのサブセットである、メディアアイテムの第2のセットを取得し、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、表示ユニット上のメディアアイテムの第1のセットの少なくとも一部分の表示を、メディアアイテムの第2のセットの少なくとも一部分の表示と入れ替えるように更に構成される。
[0246]
いくつかの実施例では、メディアアイテムの第2のセットの各メディアアイテムは、第1のメディア検索要求の1つ以上のパラメータ値及び第2のメディア検索要求の1つ以上のパラメータ値に関連付けられる。
[0247]
いくつかの実施例では、処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの第1のセットを表示している間、及びメディアアイテムの第2のセットの少なくとも一部分を表示している間、表示ユニット上のメディアコンテンツを表示するように更に構成される。
[0248]
いくつかの実施例では、ユーザインタフェースは、表示ユニットの少なくとも大部分の表示範囲を占めることができる。処理ユニット708は、(例えば、取得ユニット718)第2のメディア検索要求を少なくとも部分的に満たすメディアアイテムの第3のセットを取得するように更に構成され、メディアアイテムの第2のセットとメディアアイテムの第3のセットとは異なる。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、メディアアイテムの第3のセットの少なくとも一部分を表示ユニット上に表示するように更に構成される。
[0249]
いくつかの実施例では、メディアアイテムの第3のセットの各メディアアイテムは、第1のメディア検索要求又は第2のメディア検索要求中で定義された少なくとも1つのパラメータ値に関連付けられる。いくつかの実施例では、メディアアイテムの第2のセットの少なくとも一部分は、ユーザインタフェースの最上行に表示され、メディアアイテムの第3のセットの少なくとも一部分は、ユーザインタフェース上の1つ以上の後続の行に表示される。
[0250]
いくつかの実施例では、第2のメディア検索要求の受信時、ユーザインタフェースのフォーカスは、メディアアイテムのうちの第1のセットのメディアアイテム上にあり、メディアアイテムの第3のセットは、メディアアイテムの第1のセットのメディアアイテムにコンテキストで関係する。
[0251]
いくつかの実施例では、第2のメディア検索要求が、メディア検索要求を絞り込む要求であるかどうかの判定を取得することは、第2のメディア検索要求が、複数の絞り込み用語のうちの1つを包含するかどうかの判定を取得することを含む。
[0252]
いくつかの実施例では、第2のメディア検索要求は、自然言語形式である。いくつかの実施例では、第2のメディア検索要求は、曖昧な用語を使用して、パラメータ値を定義する。
[0253]
いくつかの実施例では、処理ユニット708は、(例えば、特定ユニット720を用いて)自然言語処理を使用して、曖昧な用語とパラメータ値との間の接続強度に基づいてパラメータ値を特定するように更に構成される。
[0254]
いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、クオリティレーティングに関連付けられ、第2のメディア検索要求は、クオリティレーティングに関連付けられたパラメータ値を定義する。いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、所要時間に関連付けられ、第2のメディア検索要求は、所要時間に関連付けられたパラメータ値を定義する。
[0255]
いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、人気率に関連付けられ、第2のメディア検索要求は、人気率に関連付けられたパラメータ値を定義する。
[0256]
いくつかの実施例では、メディアアイテムの第1のセットの各メディアアイテムは、公開日に関連付けられ、第2のメディア検索要求は、公開日に関連付けられたパラメータ値を定義する。
[0257]
いくつかの実施例では、処理ユニット708は、第2のメディア検索要求が、第1のメディア検索要求を絞り込む要求であるという判定を取得したことに応じて、(例えば、取得ユニット718を用いて)第2のメディア検索要求を満たすメディアアイテムの第4のセットを取得し、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、表示ユニット上のメディアアイテムの第1のセットの少なくとも一部分の表示を、メディアアイテムの第1のセットとは異なる、メディアアイテムの第4のセットの少なくとも一部分の表示と入れ替えるように更に構成される。
[0258]
いくつかの実施例では、メディアアイテムの第4のセットの各メディアアイテムは、第2のメディア検索要求中で定義された1つ以上のパラメータ値に関連付けられる。
[0259]
いくつかの実施例では、処理ユニット708は、(例えば、表示可能化ユニット710を用いて)メディアアイテムの第1のセットを表示している間、及びメディアアイテムの第4のセットの少なくとも一部分を表示している間、表示ユニット上のメディアコンテンツを表示するように更に構成される。
[0260]
いくつかの実施例では、ユーザインタフェースは、表示ユニットの少なくとも大部分の表示範囲を占めることができる。処理ユニット708は、(例えば、取得ユニット718を用いて)メディアアイテムの第5のセットを取得するように更に構成され、メディアアイテムの第5のセットの各メディアアイテムは、第1のメディア検索要求中で定義された1つ以上のパラメータ及び第2のメディア検索要求中で定義された1つ以上のパラメータに関連付けられる。処理ユニット708は、(例えば、表示可能化ユニット710を用いて)ユーザインタフェースを介して、メディアアイテムの第5のセットを表示ユニット上に表示するように更に構成される。
[0261]
いくつかの実施例では、第2のメディア検索要求の受信時、ユーザインタフェースのフォーカスは、メディアアイテムの第2のセットの第2のメディアアイテム上にあり、第5のメディアアイテムのうちの1つ以上のメディアアイテムは、メディアアイテムの第1のセットの第2のメディアアイテムに関連付けられるパラメータ値を含む。
[0262]
いくつかの実施例では、ユーザインタフェースのフォーカスは、第2のメディア検索要求の検出時、メディアアイテムの第1のセットのうちの第3のメディアアイテム上にある。処理ユニット708は、第2のメディア検索要求が、第1のメディア検索要求を絞り込む要求ではないという判定を取得したことに応じて、(例えば、取得ユニット718を用いて)第2のメディア検索要求が、メディアアイテムの第1のセットのうちの第3のメディアアイテムに類似するメディアアイテムの代替セットを取得する要求であるかどうかの判定を取得するように更に構成される。処理ユニット708は、第2のメディア検索要求が、メディアアイテムの第1のセットのうちの第3のメディアアイテムに類似するメディアアイテムの代替セットを取得する要求であるという判定を取得したことに応じて、(例えば、取得ユニット718を用いて)メディアアイテムの第6のセットであって、メディアアイテムの第6のセットの各メディアアイテムは、第3のメディアアイテムの1つ以上のパラメータ値に関連付けられる、メディアアイテムの第6のセットを取得し、(例えば、表示可能化ユニット710を用いて)、ユーザインタフェースを介して、メディアアイテムの第6のセットを表示ユニット上に表示するように更に構成される。
[0263]
いくつかの実施例では、第1のメディア検索要求に基づいて文字列検索を実行することによって、メディアアイテムの第1のセットを取得し、第2のメディア検索要求中で定義された1つ以上のパラメータ値に基づいて構造化された検索を実行することによって、メディアアイテムの第2のセットを取得する。
[0264]
いくつかの実施例では、キーボードインタフェースを介して、第1のメディア検索要求を受信し、自然言語発語形式の第2のメディア検索要求を受信する。いくつかの実施例では、構造化された検索は、メディアアイテムの第1のセットを使用して実行される。
[0265]
図5A〜図5Eを参照した上述した動作は、任意選択的に、図1〜図3、図4A及び図4Bに示した構成要素により実装される。例えば、表示動作502、522、534、540、548、564、568、検出動作504、判定動作508、510、538、544、550、552、560、取得動作520、524、536、546、562、566、特定動作526、528、542、554、除外動作558、及び生成動作530、556は、オペレーティングシステム252、GUIモジュール256、アプリケーションモジュール262、I/O処理モジュール428、STT処理モジュール430、自然言語処理モジュール432、タスクフロー処理モジュール436、サービス処理モジュール438、又はプロセッサ(単数又は複数)204、404のうちの1つ以上により実施することができる。当業者には、他の処理が図1〜図3及び図4A〜図4Bに示した構成要素に基づいてどのように実装されるかは明らかであるだろう。
[0266]
いくつかの実施態様によると、コンピュータ可読記憶媒体(例えば、永続的コンピュータ可読記憶媒体)が提供されており、このコンピュータ可読記憶媒体は、電子デバイスの1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶し、この1つ以上のプログラムは、本明細書に記載の方法のいずれかを行う命令を含む。
[0267]
いくつかの実施態様によると、本明細書に記載のいずれかの方法を行う手段を含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
[0268]
いくつかの実施態様によると、本明細書に記載のいずれかの方法を行うよう構成された処理ユニットを含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
[0269]
いくつかの実施態様によると、1つ以上のプロセッサ及び、1つ以上のプロセッサによって実行される1つ以上のプログラムを記憶するメモリを含み、この1つ以上のプログラムは、本明細書に記載のいずれかの方法を行う命令を含む電子デバイス(例えば、ポータブル電子デバイス)が提供されている。
[0270]
上述の説明では、様々な要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1のユーザ入力を、第2のユーザ入力と称することがあり、同様に、第2のユーザ入力を、第1のユーザ入力と称することがある。
[0271]
本明細書で説明される様々な実施形態の説明で使用される用語は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用される時、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図されている。本明細書で使用される時に、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上の任意の全ての可能な組み合わせを指し、かつこれを含むことをもまた理解されたい。用語「includes(含む)、「including(含む)」、「comprises(含む)」及び/又は「comprising(含む)」は、本明細書で使用される時、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらの群、の存在又は追加を除外しないことが更に理解されるであろう。
[0272]
用語「if(〜場合に)」は、文脈に応じて「when(〜時に)」、「upon(〜すると)」、「in response to determining(〜という判定に応じて)」、又は「in response to detecting(〜を検出したことに応じて)」を意味すると解釈することができる。同様に、句「if it is determined(〜と判定される場合に)」又は「if[a stated condition or event] is detected([述べられる条件又はイベント]が検出される場合に)」は、文脈に応じて「upon determining(〜と判定される時に)」、「in response to determining(〜との判定に応じて)」、「upon detecting[the stated condition or event]([述べられる条件又はイベント]の検出時に)」、又は「in response to detecting[the stated condition or event]([述べられる条件又はイベント]の検出に応じて)」を意味すると解釈することができる。
[0273]
更に、上述の説明は、説明の目的上、特定の実施形態を参照して説明されている。しかしながら、上記の例示的な論考は、網羅的であること、又は本発明を、開示される厳密な形態に限定することを意図するものではない。上記の教示を鑑みて、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最も良好に説明するために、選択及び説明されたものである。それにより、他の当業者は、想到される具体的な用途に適するような様々な修正を使用して、本技術及び様々な実施形態を最も良好に利用することが可能となる。
[0274]
添付図面を参照して、本開示及び実施例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。このような変更及び修正は、特許請求の範囲によって定義されるとおりの本開示及び実施例の範囲内に含まれるものと理解されるべきである。
[0275]
加えて、本明細書で説明した様々な実施例のいずれでも、様々な態様は、特定のユーザのために個人専用にすることができる。連絡先、好み、位置、お気に入りのメディアなどを含むユーザデータは、音声コマンドを解釈して本明細書で説明した様々なデバイスとのユーザ対話を促進するために使用することができる。本明細書で説明した様々なプロセスはまた、ユーザの好み、連絡先、テキスト、使用履歴、プロフィールデータ、人口統計などに従って、様々な他の方法で変更することができる。加えて、そのような好み及び設定は、ユーザ対話(例えば、頻繁に発言されたコマンド、頻繁に選択されたアプリケーションなど)に基づいて、経時的に更新することができる。様々なソースから使用可能なユーザデータの収集及び利用は、ユーザが興味があり得る招待者だけのコンテンツ又は任意の他のコンテンツのユーザへの配信を改善するために使用することができる。本開示は、いくつかの場合では、この収集されたデータが、特定の個人を一意に識別する又は連絡するため若しくは位置を特定するために使用することができる、個人情報データを含むことができることを意図している。そのような個人情報データとしては、人口統計データ、位置に基づくデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
[0276]
本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データは、ユーザがより興味がある的を絞ったコンテンツを配信するために使用することができる。したがって、そのような個人情報データの使用は、配信されるコンテンツの計算された制御を可能にする。更に、ユーザを利する個人情報データに関するその他の使用もまた、本開示により意図されている。
[0277]
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又はその他の使用に応答するエンティティは、確固たるプライバシーのポリシー及び/又はプライバシー慣行に従うであろうことを更に意図している。具体的には、そのようなエンティティは、個人情報データを秘密で安全に維持するために、産業若しくは政府の要求を満たす又は上回るとして一般的に認識される、プライバシーのポリシー及び慣行を実施及び一貫して使用しなければならない。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザに告知して同意を得た後にのみ実施するべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーのポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるであろう。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
[0278]
上述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する例も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、広告配信サービスの場合において、この技術は、ユーザが、サービスの登録中、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成することができる。別の実施例では、ユーザは、ターゲットコンテンツ配信サービスに位置情報を提供しないように選択することができる。更に別の実施例では、ユーザは、精密な位置情報を提供しないが、位置区域情報の伝送を許可するように選択することができる。
[0279]
それゆえ、本開示は、1つ以上の様々な開示された実施例を実施するための個人情報データの使用を、広範に網羅するものであるが、本開示は、それらの様々な実施例がまた、そのような個人情報データにアクセスすることを必要とせずに実施することも可能である点も、また想到する。すなわち、本技術の様々な実施例は、そのような個人情報データの全て又は一部分の欠如により、実施不可能となるものではない。例えば、コンテンツは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、コンテンツ配信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて好みを推測することにより、選択してユーザに配信することができる。

[書類名]特許請求の範囲
[請求項1]
メディアシステムのデジタルアシスタントを動作させる命令を記憶する非一時的コンピュータ可読媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
メディアアイテムの1次セットをディスプレイ上に表示させ、
ユーザ入力を検出したことに応じて、自然言語発語形式のメディアに関係する要求を包含するオーディオ入力を受信させ、
前記メディアに関係する要求に対応する1次ユーザ意図を判定させ、
前記1次ユーザ意図が、前記メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリに基づいて、前記1次ユーザ意図に対応する第2の1次メディア検索クエリを生成させ、
前記第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第2の1次セットの表示と入れ替えさせる、
非一時的コンピュータ可読媒体。
[請求項2]
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することは、
前記メディアに関係する要求が、前記1次メディア検索クエリを絞り込むユーザ意図に対応する単語又はフレーズを含むかどうかを判定すること
を含む、請求項1に記載の非一時的コンピュータ可読媒体。
[請求項3]
前記第2の1次メディア検索クエリが、前記メディアに関係する要求中で定義された1つ以上のパラメータ値、及び前記1次メディア検索クエリの1つ以上のパラメータ値を含む、請求項1に記載の非一時的コンピュータ可読媒体。
[請求項4]
前記第2の1次メディア検索クエリが、パラメータ値のセットを含み、前記命令が、前記1つ以上のプロセッサに、更に
前記パラメータ値のセットから、パラメータ値のコアセットであって、前記パラメータ値のコアセットが、前記パラメータ値のセットよりも少数のパラメータ値を有する、パラメータ値のコアセットを特定させ、
前記パラメータ値のコアセットに基づいて、1つ以上の追加のメディア検索クエリを生成させ、
前記1つ以上の追加のメディア検索クエリを実行して、メディアアイテムの1つ以上の追加セットを取得させ、
前記メディアアイテムの1つ以上の追加セットを、前記ディスプレイ上に表示させる、
請求項1に記載の非一時的コンピュータ可読媒体。
[請求項5]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むという判定に従って、
前記メディアに関係する要求に基づいて、前記1次ユーザ意図に対応する第3の1次メディア検索クエリを生成させ、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるかどうかを判定させ、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるという判定に従って、
前記第3の1次メディア検索クエリを実行して、メディアアイテムの第3の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第3の1次セットの表示と入れ替えさせる、
請求項1に記載の非一時的コンピュータ可読媒体。
[請求項6]
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することは、
前記メディアに関係する要求が、1つ以上のメディアアイテムのパラメータ値に対応する単語又はフレーズを含むかどうかを判定することを更に含む、請求項5に記載の非一時的コンピュータ可読媒体。
[請求項7]
前記第3の1次メディア検索クエリを実行することが、パラメータ値に関連付けられる候補メディアアイテムを特定することを含み、前記パラメータ値は、前記特定された候補メディアアイテムの1つ以上のメディア批評家のレビュー中に含まれる、請求項5に記載の非一時的コンピュータ可読媒体。
[請求項8]
前記命令は、前記1つ以上のプロセッサに、更に、
前記第3の1次メディア検索クエリに対応するメディアアイテムがないという判定に従って、
前記第3の1次メディア検索クエリの最も妥当性の低いパラメータ値を特定させ、
前記特定した最も妥当性の低いパラメータ値に基づいて、1つ以上の代替パラメータ値を判定させ、
1つ以上の代替パラメータ値を使用して、1つ以上の代替1次メディア検索クエリを実行して、メディアアイテムの第4の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第4の1次セットの表示と入れ替えさせる、
請求項5に記載の非一時的コンピュータ可読媒体。
[請求項9]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図及び1つ以上の以前のユーザ意図であって、前記1つ以上の以前のユーザ意図が、前記メディアに関係する要求よりも前に受信した1つ以上の以前のメディアに関係する要求に対応する、1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定させ、
前記1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成させ、
前記1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得させ、
前記メディアアイテムの1つ以上の2次セットを、前記ディスプレイ上に表示させる、
請求項5に記載の非一時的コンピュータ可読媒体。
[請求項10]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図と前記1つ以上の以前のユーザ意図との1つ以上の組み合わせを判定させ、前記1つ以上の組み合わせの各々が、少なくとも1つのメディアアイテムと関連付けられ、前記1つ以上の2次意図が、前記1つ以上の組み合わせを含む、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項11]
前記命令は、前記1つ以上のプロセッサに、更に、
第2の電子デバイスから、メディア検索履歴を受信させ、前記第2の電子デバイスから受信した前記メディア検索履歴に基づいて、1つ以上の2次ユーザ意図を生成させる、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項12]
前記オーディオ入力を受信している間に、前記ディスプレイ上に複数のテキストを表示し、
前記複数のテキストが、前記オーディオ入力を受信している間に前記ディスプレイ上に表示した複数のメディアアイテムに関連付けられ、
前記表示した複数のテキストに基づいて、前記1つ以上の2次ユーザ意図を生成する、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項13]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1つ以上の2次ユーザ意図の各々についてのランキングスコアを判定させ、前記1つ以上の2次ユーザ意図の各々についての前記ランキングスコアに従って、前記メディアアイテムの1つ以上の2次セットを表示する、
請求項9に記載の非一時的コンピュータ可読媒体。
[請求項14]
前記1つ以上の2次ユーザ意図の各々についての前記ランキングスコアが、前記メディアに関係する要求及び前記1つ以上の以前のメディアに関係する要求の各々を受信した時刻に基づく、請求項13に記載の非一時的コンピュータ可読媒体。
[請求項15]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリ要求に基づいて、前記1次ユーザ意図に対応する第5の1次メディア検索クエリを生成させ、
前記第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第5の1次セットの表示と入れ替えさせる、
請求項5に記載の非一時的コンピュータ可読媒体。
[請求項16]
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することは、
前記メディアに関係する要求の一部分を表す音素の列が、前記1次メディア検索クエリに対応する以前のメディアに関係する要求の一部分を表す音素の列と実質的に類似しているかどうかを判定することを含む、請求項15に記載の非一時的コンピュータ可読媒体。
[請求項17]
前記第5の1次メディア検索クエリを生成することは、
訂正されない前記1次メディア検索クエリの一部分に関連付けられたメディアアイテムのセットを特定することを含み、訂正されない前記ディア検索クエリの前記一部分に関連付けられた前記メディアアイテムのセットの1つ以上のパラメータ値に基づいて、前記第5の1次メディア検索クエリを生成する、
請求項15に記載の非一時的コンピュータ可読媒体。
[請求項18]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むという判定に従って、
前記メディアに関係する要求に対応する2次ユーザ意図の判定時に、前記1次メディア検索クエリを考慮から除外させる、
請求項15に記載の非一時的コンピュータ可読媒体。
[請求項19]
前記命令は、前記1つ以上のプロセッサに、更に、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースであって、前記ユーザインタフェースが、複数のメディアアイテムを含む、ユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むという判定に従って、前記ユーザインタフェースのフォーカスを、前記複数のメディアアイテムのうちの第1のメディアアイテムから前記複数のメディアアイテムのうちの第2のメディアアイテムに変更させる、
請求項15に記載の非一時的コンピュータ可読媒体。
[請求項20]
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうか判定することは、
前記メディアに関係する要求が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図に対応する単語又はフレーズを含むかどうかを判定することを含む、請求項19に記載の非一時的コンピュータ可読媒体。
[請求項21]
前記ユーザインタフェースが、前記ユーザインタフェース中の前記複数のメディアアイテムに対応する複数のテキストを含み、前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうかの前記判定は、前記複数のテキストに基づく、請求項19に記載の非一時的コンピュータ可読媒体。
[請求項22]
前記命令は、前記1つ以上のプロセッサに、更に、
前記オーディオ入力を受信している間に、
前記オーディオ入力の受信部分に基づいて、仮のユーザ意図を判定させ、
前記仮のユーザ意図を満たすのに必要なデータを特定させ、
前記仮のユーザ意図の判定時に、前記データが、前記メディアシステム上に記憶されているかどうかを判定させ、
前記仮のユーザ意図の判定時に、前記メディアシステム上に前記データが記憶されていないという判定に従って、前記データを取得させる、
請求項1に記載の非一時的コンピュータ可読媒体。
[請求項23]
メディアシステムのデジタルアシスタントを動作させる方法であって、
1つ以上のプロセッサ及びメモリを含む1つ以上の電子デバイスにおいて、
メディアアイテムの1次セットをディスプレイ上に表示することと、
ユーザ入力を検出したことに応じて、自然言語発語形式のメディアに関係する要求を包含するオーディオ入力を受信することと、
前記メディアに関係する要求に対応する1次ユーザ意図を判定すること、
前記1次ユーザ意図が、前記メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定することと、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリに基づいて、前記1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することと、
前記第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得することと、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第2の1次セットの表示と入れ替えることと、
を含む方法。
[請求項24]
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むかどうかを判定することと、
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含むという判定に従って、
前記メディアに関係する要求に基づいて、前記1次ユーザ意図に対応する第3の1次メディア検索クエリを生成することと、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるかどうかを判定することと、
前記第3の1次メディア検索クエリに対応する少なくとも1つのメディアアイテムを取得できるという判定に従って、
前記第3の1次メディア検索クエリを実行して、メディアアイテムの第3の1次セットを取得することと、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第3の1次セットの表示と入れ替えることと、
を更に含む、請求項23に記載の方法。
[請求項25]
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含まないという判定に従って、
前記1次ユーザ意図及び1つ以上の以前のユーザ意図に基づいて、1つ以上の2次ユーザ意図を判定することであって、前記1つ以上の以前のユーザ意図が、前記メディアに関係する要求よりも前に受信した1つ以上の以前のメディアに関係する要求に対応する、1つ以上の2次ユーザ意図を判定することと、
前記1つ以上の2次ユーザ意図に対応する1つ以上の2次メディア検索クエリを生成することと、
前記1つ以上の2次メディア検索クエリを実行して、メディアアイテムの1つ以上の2次セットを取得することと、
前記メディアアイテムの1つ以上の2次セットを、前記ディスプレイ上に表示することと、
を更に含む、請求項24に記載の方法。
[請求項26]
前記1次ユーザ意図と前記1つ以上の以前のユーザ意図との1つ以上の組み合わせを判定することであって、前記1つ以上の組み合わせの各々が、少なくとも1つのメディアアイテムと関連付けられ、前記1つ以上の2次意図が、前記1つ以上の組み合わせを含む、1つ以上の組み合わせを判定することを更に含む、請求項25に記載の方法。
[請求項27]
前記1次ユーザ意図が、新たなメディア検索クエリを実行するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むかどうかを判定することと、
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリ要求に基づいて、前記1次ユーザ意図に対応する第5の1次メディア検索クエリを生成することと、
前記第5の1次メディア検索クエリを実行して、メディアアイテムの第5の1次セットを取得することと、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第5の1次セットの表示と入れ替えることと、
を更に含む、請求項24に記載の方法。
[請求項28]
前記1次ユーザ意図が、前記1次メディア検索クエリの一部分を訂正するユーザ意図を含まないという判定に従って、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むかどうかを判定することであって、前記ユーザインタフェースが、複数のメディアアイテムを含む、ことと、
前記1次ユーザ意図が、前記ディスプレイ上に表示されたユーザインタフェースのフォーカスを変更するユーザ意図を含むという判定に従って、前記複数のメディアアイテムのうちの第1のメディアアイテムから、前記複数のメディアアイテムのうちの第2のメディアアイテムに前記ユーザインタフェースのフォーカスを変更することと、
を含む、請求項27に記載の方法。
[請求項29]
メディアシステムのデジタルアシスタントを動作させるための電子デバイスであって、
1つ以上のプロセッサと、
命令を記憶するメモリと、
を備え、前記命令は、前記プロセッサによって実行されると、前記1つ以上のプロセッサに、
メディアアイテムの1次セットをディスプレイ上に表示させ、
ユーザ入力を検出したことに応じて、自然言語発語形式のメディアに関係する要求を包含するオーディオ入力を受信させ、
前記メディアに関係する要求に対応する1次ユーザ意図を判定させ、
前記1次ユーザ意図が、前記メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を含むかどうかを判定させ、
前記1次ユーザ意図が、前記1次メディア検索クエリを絞り込むユーザ意図を含むという判定に従って、
前記メディアに関係する要求及び前記1次メディア検索クエリに基づいて、前記1次ユーザ意図に対応する第2の1次メディア検索クエリを生成させ、
前記第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得させ、
前記メディアアイテムの1次セットの表示を、前記メディアアイテムの第2の1次セットの表示と入れ替えさせる、
電子デバイス。

[書類名] 要約書
[要約]
メディア環境においてデジタルアシスタントを動作させるためのシステム及びプロセスが開示される。例示的なプロセスでは、メディアアイテムの1次セットを表示することができる。メディアに関係する要求を包含するオーディオ入力を受信することができる。メディアに関係する要求に対応する1次ユーザ意図を判定することができる。1次ユーザ意図が、メディアアイテムの1次セットに対応する1次メディア検索クエリを絞り込むユーザ意図を備えるという判定に従って、1次ユーザ意図に対応する第2の1次メディア検索クエリを生成することができる。第2の1次メディア検索クエリは、メディアに関係する要求及び1次メディア検索クエリに基づくことができる。第2の1次メディア検索クエリを実行して、メディアアイテムの第2の1次セットを取得することができる。メディアアイテムの1次セットの表示を、メディアアイテムの第2の1次セットの表示と入れ替えることができる。

[書類名] 図面
[図1]
[図2]
[図3]
[図4A]
[図4B]
[図4C]
[図5A]
[図5B]
[図5C]
[図5D]
[図5E]
[図6A]
[図6B]
[図6C]
[図6D]
[図6E]
[図6F]
[図6G]
[図6H]
[図6I]
[図6J]
[図6K]
[図7]
TVユーザ対話のためのインテリジェント自動アシスタント
[関連出願の相互参照]
[0001]
本出願は、2014年6月30日付けで出願された「INTELLIGENT AUTOMATED ASSISTANT FOR TV USER INTERACTIONS」と題する米国特許仮出願第62/019,312号、及び2014年9月26日付けで出願された「INTELLIGENT AUTOMATED ASSISTANT FOR TV USER INTERACTIONS」と題する米国特許出願第14/498,503号に基づく優先権を主張し、これらの出願は、あらゆる目的のためにその全体が参照として本明細書に組み込まれる。
[0002]
本出願はまた、同時係属中の、2014年6月30日付けで出願された「REAL−TIME DIGITAL ASSISTANT KNOWLEDGE UPDATES」と題する米国特許出願第62/019,292号(代理人書類番号106843097900(P22498USP1))に関し、この出願は、その全体が参照として本明細書に組み込まれる。
[技術分野]
[0003]
本出願は、概して、テレビユーザ対話を制御することに関し、より詳細には、テレビユーザ対話を制御するために、仮想アシスタントに対する発語を処理することに関する。
[背景技術]
[0004]
インテリジェント自動アシスタント(又は仮想アシスタント)は、ユーザと電子デバイスとの間の直観的なインタフェースを提供する。これらのアシスタントは、ユーザが、口頭形態及び/又はテキスト形態の自然言語を使用してデバイス又はシステムと対話することを可能にすることができる。例えば、ユーザは、電子デバイスと関連付けられた仮想アシスタントに、自然言語形態の口頭ユーザ入力を提供することによって、電子デバイスのサービスにアクセスすることができる。仮想アシスタントは、ユーザの意図を推測し、ユーザの意図をタスクへと操作できるようにするために、口頭ユーザ入力に対して自然言語処理を実行することができる。次いで、電子デバイスの1つ以上の機能を実行することによってタスクを実行することができ、いくつかの実施例では、関連する出力を自然言語形態でユーザに戻すことができる。
[0005]
携帯電話(例えば、スマートフォン)、タブレットコンピュータなどが、仮想アシスタント制御から恩恵を受ける一方で、多くの他のユーザデバイスには、そのような便利な制御機構がない。例えば、メディア制御デバイス(例えば、テレビ、テレビセットトップボックス、ケーブルボックス、ゲームデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)とのユーザ対話の学習は、複雑で難しいことがある。更に、そのようなデバイス(例えば、オーバージエアTV、サブスクリプションTVサービス、ストリーミングビデオサービス、ケーブルオンデマンドビデオサービス、ウェブベースのビデオサービスなど)を介して利用可能なソースが増えると、一部のユーザには、消費する所望のメディアコンテンツを発見することが煩雑で、面倒でさえあり得る。その結果、多くのメディア制御デバイスは、ユーザエクスペリエンスを低下させ、多くのユーザを失望させることがある。
[発明の概要]
[0006]
仮想アシスタントを使用してテレビ対話を制御するためのシステム及びプロセスを開示する。1つの実施例では、ユーザからの発語入力を受信することができる。その発語入力に基づいて、メディアコンテンツを判定することができる。第1のサイズを有する第1のユーザインタフェースを表示することができ、第1のユーザインタフェースは、メディアコンテンツに選択可能なリンクを含むことができる。選択可能なリンクのうちの1つの選択を受信することができる。その選択に応じて、第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースを表示することができ、第2のユーザインタフェースは、その選択と関連付けられたメディアコンテンツを備える。
[0007]
別の実施例では、第1のディスプレイを有する第1のデバイスにおいて、ユーザからの発語入力を受信することができる。第1のディスプレイ上に表示されたコンテンツに基づいて、この発語入力のユーザの意図を判定することができる。そのユーザ意図に基づいて、メディアコンテンツを判定することができる。第2のディスプレイと関連付けられた第2のデバイス上で、このメディアコンテンツを再生することができる。
[0008]
別の実施例では、ユーザからの発語入力を受信することができ、その発語入力は、テレビディスプレイ上に表示されたコンテンツと関連付けられたクエリを含むことができる。テレビディスプレイ上に表示されたコンテンツのうちの1つ以上とメディアコンテンツの閲覧履歴とに基づいて、クエリのユーザ意図を判定することができる。判定したユーザ意図に基づいて、クエリの結果を表示することができる。
[0009]
別の実施例では、ディスプレイ上にメディアコンテンツを表示することができる。ユーザからの入力を受信することができる。メディアコンテンツ及び/又はメディアコンテンツの閲覧履歴に基づいて、仮想アシスタントクエリを判定することができる。推薦された仮想アシスタントクエリをディスプレイ上に表示することができる。
[図面の簡単な説明]
[0010]
[図1] 仮想アシスタントを使用してテレビユーザ対話を制御するための例示的なシステムを示す図である。
[0011]
[図2] 種々の実施例に係る、例示的なユーザデバイスのブロック図である。
[0012]
[図3] テレビユーザ対話を制御するためのシステムにおける例示的なメディア制御デバイスのブロック図である。
[0013]
[図4A] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[図4C] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[図4D] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[図4E] 動画コンテンツ上の例示的な発語入力インタフェースを示す図である。
[0014]
[図5] 動画コンテンツ上の例示的なメディアコンテンツインタフェースを示す。
[0015]
[図6A] 動画コンテンツ上の例示的なメディア詳細インタフェースを示す図である。
[図6B] 動画コンテンツ上の例示的なメディア詳細インタフェースを示す図である。
[0016]
[図7A] 例示的なメディア遷移インタフェースを示す図である。
[図7B] 例示的なメディア遷移インタフェースを示す図である。
[0017]
[図8A] メニューコンテンツ上の例示的な発語入力インタフェースを示す図である。
[図8B] メニューコンテンツ上の例示的な発語入力インタフェースを示す図である。
[0018]
[図9] メニューコンテンツ上の例示的な仮想アシスタント結果インタフェースを示す図である。
[0019]
[図10] 仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連付けられた情報を表示するための例示的なプロセスを示す図である。
[0020]
[図11] モバイルユーザデバイス上の例示的なテレビメディアコンテンツを示す図である。
[0021]
[図12] 仮想アシスタントを使用した例示的なテレビ制御を示す図である。
[0022]
[図13] モバイルユーザデバイス上の例示的な写真及び動画コンテンツを示す図である。
[0023]
[図14] 仮想アシスタントを使用した例示的なメディア表示制御を示す図である。
[0024]
[図15] モバイルユーザデバイス及びメディア表示デバイス上の結果を備える例示的な仮想アシスタント対話を示す図である。
[0025]
[図16] メディア表示デバイス及びモバイルユーザデバイス上のメディア結果を備える例示的な仮想アシスタント対話を示す図である。
[0026]
[図17] 近接度に基づく例示的なメディアデバイス制御を示す図である。
[0027]
[図18] 仮想アシスタント及び複数のユーザデバイスを使用してテレビ対話を制御するための例示的なプロセスを示す図である。
[0028]
[図19] 動画バックグラウンドコンテンツに関する仮想アシスタントクエリを備える例示的な発語入力インタフェースを示す図である。
[0029]
[図20] 動画コンテンツ上の例示的な情報仮想アシスタント応答を示す図である。
[0030]
[図21] 動画バックグラウンドコンテンツと関連付けられたメディアコンテンツについての仮想アシスタントクエリを備える例示的な発語入力インタフェースを示す図である。
[0031]
[図22] 選択可能なメディアコンテンツを備える例示的な仮想アシスタント応答インタフェースを示す図である。
[0032]
[図23A] プログラムメニューの例示的なページを示す図である。
[図23B] プログラムメニューの例示的なページを示す図である。
[0033]
[図24] カテゴリーに分けられた例示的なメディアメニューを示す図である。
[0034]
[図25] ディスプレイ上の示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用して、テレビ対話を制御するための例示的なプロセスを示す図である。
[0035]
[図26] 動画バックグラウンドコンテンツに基づく仮想アシスタントクエリ推薦を備える例示的なインタフェースを示す図である。
[0036]
[図27] 推薦されたクエリの選択を確認するための例示的なインタフェースを示す図である。
[0037]
[図28A]選択されたクエリに基づく例示的な仮想アシスタント回答インタフェースを示す図である。
[図28B]選択されたクエリに基づく例示的な仮想アシスタント回答インタフェースを示す図である。
[0038]
[図29] メディアコンテンツ通知、及びその通知に基づく仮想アシスタントクエリ推薦を備える例示的なインタフェースを示す図である。
[0039]
[図30] メディア制御デバイス上で再生可能な例示的な写真及び動画コンテンツを備えるモバイルユーザデバイスを示す図である。
[0040]
[図31] 再生可能なユーザデバイスコンテンツに基づき、かつ、別個のディスプレイ上に表示される動画コンテンツに基づく仮想アシスタントクエリ推薦を備える例示的なモバイルユーザデバイスインタフェースを示す図である
[0041]
[図32] 別個のユーザデバイスからの再生可能なコンテンツに基づく仮想アシスタントクエリ推薦を備える例示的なインタフェースを示す図である。
[0042]
[図33] メディアコンテンツを制御するための仮想アシスタント対話を推薦するための例示的なプロセスを示す図である。
[0043]
[図34] 種々の実施例に係る、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連情報を表示するように構成される電子デバイスの機能ブロック図を示す図である。
[0044]
[図35] 種々の実施例に係る、仮想アシスタントと複数のユーザデバイスとを使用してテレビ対話を制御するように構成される電子デバイスの機能ブロック図を示す図である。
[0045]
[図36] 種々の実施例に係る、ディスプレイ上に表示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用してテレビ対話を制御するように構成される電子デバイスの機能ブロック図を示す図である。
[0046]
[図37] 種々の実施例に係る、メディアコンテンツを制御するための仮想アシスタント対話を推薦するように構成された電子デバイスの機能ブロック図を示す図である。
[発明を実施するための形態]
[0047]
以下の実施例の説明では、実践することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができる点を理解されたい。
[0048]
これは、仮想アシスタントを使用してテレビユーザ対話を制御するためのシステム及びプロセスに関する。1つの実施例では、テレビディスプレイ上に表示されるコンテンツを制御するテレビセットトップボックスなどのメディア制御デバイスと対話するために、仮想アシスタントを使用することができる。仮想アシスタントのための発語入力を受信するために、マイクロフォンを備えるモバイルユーザデバイス又は遠隔制御を使用することができる。発語入力からユーザの意図を判定することができ、仮想アシスタントは、接続されたテレビ上でメディアを再生させること、及びテレビセットトップボックス又は同様のデバイスの任意の他の機能を制御すること(例えば、ビデオ録画を管理すること、メディアコンテンツ検索すること、メニューをナビゲートすることなど)を含む、ユーザの意図に従ったタスクを実行することができる。
[0049]
仮想アシスタント対話は、接続されたテレビ又は他のディスプレイ上に表示することができる。1つの実施例では、ユーザから受信した発語入力に基づいて、メディアコンテンツを判定することができる。判定したメディアコンテンツへの選択可能なリンクを含む、第1の小さいサイズの第1のユーザインタフェースを表示することができる。メディアリンクの選択を受信した後、その選択と関連付けられたメディアコンテンツを含む、第2のより大きなサイズの第2のユーザインタフェースを表示することができる。他の実施例では、仮想アシスタント対話を伝達するため使用されるインタフェースは、所望の情報を伝達しながら、占有スペースを最小量にするように拡大又は縮小することができる。
[0050]
いくつかの実施例では、複数のディスプレイと関連付けられた複数のデバイスを使用して、発語入力からユーザ意図を判定するだけでなく、種々のやり方でユーザに情報を伝達することができる。例えば、第1のディスプレイを有する第1のデバイスにおいて、ユーザからの発語入力を受信することができる。第1のディスプレイ上に表示されたコンテンツに基づいて、発語入力からユーザの意図を判定することができる。そのユーザ意図に基づいて、メディアコンテンツを判定することができ、第2のディスプレイと関連付けられた第2のデバイス上で、そのメディアコンテンツを再生することができる。
[0051]
また、発語入力からユーザ意図を判定するために、テレビディスプレイコンテンツをコンテキスト入力として使用することもできる。例えば、ユーザから、テレビディスプレイ上に表示されたコンテンツと関連付けられたクエリを含む発語入力を受信することができる。テレビディスプレイ上に表示されたコンテンツ、並びにテレビディスプレイ上のメディアコンテンツの閲覧履歴に基づいて、クエリのユーザ意図を判定する(例えば、再生中のTV番組におけるキャラクターに基づいてクエリの曖昧性を回避する)ことができる。次いで、判定したユーザ意図に基づいて、クエリの結果を表示することができる。
[0052]
いくつかの実施例では、仮想アシスタントクエリ推薦をユーザに提供することができる(例えば、利用可能なコマンドをユーザに知らせる、面白いコンテンツを推薦する、など)。例えば、ディスプレイ上にメディアコンテンツを表示することができ、ユーザから、仮想アシスタントクエリ推薦を要求する入力を受信することができる。ディスプレイ上に表示されたメディアコンテンツとディスプレイ上に表示されたメディアコンテンツの閲覧履歴とに基づいて、仮想アシスタントクエリーズ推薦を判定することができる(例えば、再生中のTV番組に関するクエリを推薦する)。次いで、推薦された仮想アシスタントクエリをディスプレイ上に表示することができる。
[0053]
本明細書で論じる種々の実施例に従って、仮想アシスタントを使用してテレビユーザ対話を制御すると、効率的で楽しいユーザエクスペリエンスを提供することができる。自然言語クエリ又はコマンドを受信することが可能な仮想アシスタントを使用すると、メディア制御デバイスとのユーザ対話を直観的かつ単純にすることができる。所望に応じて、コンテンツを再生することに基づく有意味なクエリ推薦を含めて、利用可能な機能をユーザに推薦することができ、これは、ユーザが制御能力を学習するのに役立ち得る。更に、直観的な口頭コマンドを使用すると、利用可能なメディアに簡単にアクセスできるようにすることができる。ただし、本明細書で論じる種々の実施例によれば、更に多くの他の利点を達成できることを理解されたい。
[0054]
図1は、仮想アシスタントを使用してテレビユーザ対話を制御するための例示的なシステム100を示す。本明細書で論じるようにテレビユーザ対話を制御することは、1つの種類のディスプレイ技術に基づいたメディアの制御の一例にすぎず、参照のために使用されるものであり、本明細書で論じる概念を使用して、一般的には種々のデバイス及び関連付けられたディスプレイ(例えば、モニタ、ラップトップディスプレイ、デスクトップコンピュータディスプレイ、モバイルユーザデバイスディスプレイ、プロジェクタディスプレイなど)のいずれかの上などで、任意のメディアコンテンツ対話を制御できることを理解されたい。したがって、用語「テレビ」は、種々のデバイスのうちのいずれかと関連付けられる任意の種類のディスプレイを指すことができる。更に、用語「仮想アシスタント」、「デジタルアシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、口頭及び/又はテキスト形式の自然言語入力を解釈してユーザ意図を推測し、推測されたユーザ意図に基づきアクションを実行する任意の情報処理システムを指すことができる。例えば、推定されたユーザ意図に基づいてアクションを行うために、システムは、以下のうちの1つ以上を実行することができる。すなわち、推定されたユーザ意図を果たすように設計されるステップ及びパラメータを有するタスクフローを識別すること、推定されたユーザ意図から具体的な要求をタスクフローに入力すること、プログラム、方法、サービス、APIなどを呼び出すことによりタスクフローを実行すること、並びにユーザへの出力応答を聴覚形態(例えば、口頭形態)及び/又は視覚形態で生成することである。
[0055]
仮想アシスタントは、自然言語コマンド、要求、陳述、叙述、及び/又は照会の形で少なくとも部分的にユーザ要求を受け入れることができる。典型的には、ユーザ要求は、(例えば、特定の媒体を表示させる)仮想アシスタントによる、情報回答又はタスクの実行のいずれかを要求する。ユーザの要求に対する満足な応答は、要求された情報回答を提供すること、要求されたタスクを実行すること、又はその2つの組み合わせを含むことができる。例えば、ユーザは仮想アシスタントに「私は今どこにいますか?」などの質問をすることができる。ユーザの現在の場所に基づき、仮想アシスタントは、「あなたはセントラルパーク内にいます」と回答することができる。ユーザはまた、例えば、「今日午後4時に母に電話することを私に思い出させてください」と、タスクの実行を要求することができる。それに応じて、仮想アシスタントは要求を確認し、次に、ユーザの電子スケジュール内に適当なリマインダ項目を作成することができる。要求されたタスクの実行中、仮想アシスタントは、時には、長時間にわたって情報を複数回交換する連続的なダイアログにおいて、ユーザと対話することができる。情報又は種々のタスクの実行を要求するために仮想アシスタントと対話するやり方は他にも数多く存在する。言葉による応答を提供し、プログラムされたアクションを取ることに加えて、仮想アシスタント、他の視覚形態又はオーディオ形態の応答を(例えば、テキスト、アラート、音楽、動画、アニメーションなどとして)提供することもできる。更に、本明細書で説明するように、例示的な仮想アシスタントは、メディアコンテンツの再生を制御する(例えば、テレビで動画を再生する)ことができ、ディスプレイ上に情報を表示させることができる。
[0056]
仮想アシスタントの1つの例が、その開示全体が参照により本明細書に組み込まれる2011年1月10日付で出願された「Intelligent Automated Assistant」についての本願出願人の米国実用特許出願第12/987,982号に記載されている。
[0057]
図1に示したように、いくつかの実施例では、クライアント−サーバモデルに従って、仮想アシスタントを実装することができる。仮想アシスタントは、ユーザデバイス102上で実行されるクライアント側部分と、サーバシステム110上で実行されるサーバ側部分とを含むことができる。また、遠隔制御106と連携して、テレビセットトップボックス104上でクライアント側部分を実行することができる。ユーザデバイス102は、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、ウェアラブル電子デバイス(例えば、デジタルグラス、リストバンド、腕時計、ブローチ、アームバンドなど)のような任意の電子デバイスを含むことができる。テレビセットトップボックス104は、ケーブルボックス、衛星ボックス、ビデオプレーヤ、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲームシステム、DVDプレーヤ、Blu−ray(登録商標)ディスクプレーヤ、そのようなデバイスの組み合わせなどのような任意のメディア制御デバイスを含むことができる。有線接続又は無線接続を介して、ディスプレイ112及びスピーカ111にテレビセットトップボックス104を接続することができる。(スピーカ111を有する、又は有しない)ディスプレイ112は、テレビディスプレイ、モニタ、プロジェクタなどのような任意の種類のディスプレイとすることができる。いくつかの実施例では、テレビセットトップボックス104は、オーディオシステム(例えば、オーディオ受信器)に接続することができ、スピーカ111は、ディスプレイ112とは別個とすることができる。他の実施例では、ディスプレイ112と、スピーカ111と、テレビセットトップボックス104とを、高度な処理能力及びネットワーク接続能力をもつ、スマートテレビなどの単一のデバイスに一緒に組み込むことができる。そのような実施例では、複合デバイス上のアプリケーションとしてテレビセットトップボックス104の機能を実行することができる。
[0058]
いくつかの実施例では、テレビセットトップボックス104は、メディアコンテンツの複数の種類及びソースについてのメディア制御センターとして機能することができる。例えば、テレビセットトップボックス104は、生放送のテレビ(例えば、オーバージエアテレビ、衛星テレビ、又はケーブルテレビ)へのユーザアクセスを可能にすることができる。したがって、テレビセットトップボックス104は、ケーブルチューナ、衛星チューナなどを含むことができる。いくつかの実施例では、テレビセットトップボックス104はまた、後でタイムシフト視聴するためにテレビプログラムを録画することができる。他の実施例では、テレビセットトップボックス104は、(例えば、種々の無料の、有料の、及びサブスクリプションベースのストリーミングサービスから)ケーブル配信されるオンデマンドのテレビ番組、動画及び音楽、並びにインターネット配信されるテレビ番組、動画及び音楽など、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、テレビセットトップボックス104は、モバイルユーザデバイスから写真を表示すること、結合された記憶デバイスから動画を再生すること、結合された音楽プレーヤから音楽を再生することなど、任意の他のソースからのメディアコンテンツの再生又は表示を可能にすることができる。また、テレビセットトップボックス104はまた、所望に応じて、本明細書で論じるメディア制御特徴部の種々の他の組み合わせを含むことができる。
[0059]
ユーザデバイス102及びテレビセットトップボックス104は、1つ以上のネットワーク108を介してサーバシステム110と通信することができ、1つ以上のネットワーク108は、インターネット、イントラネット、又は任意の他の有線若しくは無線のパブリック若しくはプライベートネットワークを含むことができる。更に、ユーザデバイス102は、ネットワーク108を介して、又は、任意の他の有線通信機構又は無線通信機構(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、無線周波数、赤外線伝送など)により直接、テレビセットトップボックス104と通信することができる。例示したように、遠隔制御106は、ネットワーク108を介することを含めて、有線接続、又は任意の種類の無線通信(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、無線周波数、赤外線伝送など)などの任意の種類の通信を使用して、テレビセットトップボックス104と通信することができる。いくつかの実施例では、ユーザは、ユーザデバイス102、遠隔制御106、又はテレビセットトップボックス104内に組み込まれるインタフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を介して、テレビセットトップボックス104と対話することができる。例えば、ユーザデバイス102及び/又は遠隔制御106において、仮想アシスタントのためのメディアに関係するクエリ又はコマンドを含む発語入力を受信することができ、その発語入力を使用して、メディアに関係するタスクをテレビセットトップボックス104上で実行させることができる。同様に、ユーザデバイス102及び/又は遠隔制御106において(並びに、図示されていない他のデバイスから)、テレビセットトップボックス104上でメディアを制御するための触覚コマンドを受信することができる。したがって、種々のやり方でテレビセットトップボックス104の種々の機能を制御することができ、ユーザには、複数のデバイスからのメディアコンテンツを制御するための複数のオプションが与えられる。
[0060]
遠隔制御106を用いてユーザデバイス102及び/又はテレビセットトップボックス104上で実行される例示的な仮想アシスタントのクライアント側部分は、ユーザ対応入力及び出力処理及びサーバシステム110との通信など、クライアント側機能を提供することができる。サーバシステム110は、それぞれのユーザデバイス102又はそれぞれのテレビセットトップボックス104上に常駐している任意の数のクライアントに、サーバ側機能を提供することができる。
[0061]
サーバシステム110は、クライアント対応I/Oインタフェース122と、1つ以上の処理モジュール118と、データ及びモデルストレージ120と、外部サービスへのI/Oインタフェース116とを含むことができる1つ以上の仮想アシスタントサーバ114を含むことができる。クライアント対応I/Oインタフェース122は、仮想アシスタントサーバ114のためのクライアント対応入力及び出力処理を可能にすることができる。1つ以上の処理モジュール118は、自然言語入力に基づいてユーザの意図を判断するために、データ及びモデルストレージ120を利用することができ、推定されたユーザ意図に基づいてタスク実行を行うことができる。いくつかの実施例では、仮想アシスタントサーバ114は、タスク完了又は情報収集のためにネットワーク(単数又は複数)108を介して、電話サービス、カレンダーサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビプログラムサービス、ストリーミングメディアサービスなどの外部サービス124と通信することができる。外部サービスへのI/Oインタフェース116は、このような通信を可能にすることができる。
[0062]
サーバシステム110は、1つ以上のスタンドアロンデータ処理デバイス、又はコンピュータの分散型ネットワーク上に実装することができる。また、いくつかの実施例では、サーバシステム110は、サーバシステム110の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供するために、種々の仮想デバイス及び/又はサードパーティサービスプロバイダ(例えば、サードパーティクラウドサービスプロバイダ)のサービスを採用することができる。
[0063]
仮想アシスタントの機能は、クライアント側部分とサーバ側部分の双方を含むものとして図1に示されているが、いくつかの実施例では、ユーザデバイス、テレビセットトップボックス、スマートテレビなどにインストールされたスタンドアロンアプリケーションとして、アシスタントの機能(又は、一般的には、発語認識及びメディア制御)を実装することができる。更に、異なる実施例にでは、仮想アシスタントのクライアント部分とサーバ部分との間の機能の分配を変動させることができる。例えば、いくつかの実施例では、ユーザデバイス102又はテレビセットトップボックス104上で実行されるクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、バックエンドサーバに仮想アシスタントの全ての他の機能を委ねるシンクライアントとすることができる。
[0064]
図2は、種々の実施例に係る、例示的なユーザデバイス102のブロック図を示す。ユーザデバイス102は、メモリインタフェース202、1つ以上のプロセッサ204、及び周辺機器インタフェース206を含むことができる。1つ以上の通信バス又は信号線によって、ユーザデバイス102内の種々の構成要素を1つに結合することができる。ユーザデバイス102は、周辺機器インタフェース206に結合される種々のセンサ、サブシステム、及び周辺デバイスを更に含むことができる。センサ、サブシステム、及び周辺デバイスは情報を収集し、及び/又はユーザデバイス102の種々の機能を可能にすることができる。
[0065]
例えば、ユーザデバイス102は、向き、光、及び近接度の検知機能を可能にするための動きセンサ210、光センサ212、及び近接センサ214を含むことができ、それらは、周辺機器インタフェース206に結合される。また、関係する機能を可能にするために、測位システム(例えば、GPS受信機)、温度センサ、生体測定センサ、ジャイロスコープ、コンパス、加速度計、及び同様のものなどの、1つ以上の他のセンサ216を周辺機器インタフェース206に接続することができる。
[0066]
いくつかの実施例では、カメラサブシステム220及び光学センサ222を利用して、写真の撮影及びビデオクリップの録画などの、カメラ機能を可能にすることができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができ、1つ以上の有線及び/又は無線通信サブシステム224を介して、通信機能を可能にすることができる。音声認識機能、音声複製機能、デジタル録音機能、及び電話機能などの音声対応機能を可能にするために、オーディオサブシステム226をスピーカ228及びマイクロフォン230に結合することができる。
[0067]
いくつかの実施例では、ユーザデバイス102は、周辺機器インタフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は、タッチスクリーンコントローラ242及び/又は他の入力コントローラ(単数又は複数)244を含むことができる。タッチスクリーンコントローラ242は、タッチスクリーン246に結合することができる。タッチスクリーン246及びタッチスクリーンコントローラ242は、例えば、容量性、抵抗性、赤外線、表面弾性波技術、近接センサアレイなどの複数のタッチ感知技術のうちのいずれかを用いて、接触及びその移動又は中断を検出することができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなど、他の入力/制御デバイス248に結合することができる。
[0068]
いくつかの実施例では、ユーザデバイス102は、メモリ250に結合されたメモリインタフェース202を更に含むことができる。メモリ250は、任意の、電子、磁気、光学、電磁、赤外若しくは半導体システム、装置若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読み出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R若しくはDVD−RWなどのポータブル光ディスク、又はコンパクトフラッシュカード、セキュアなデジタルカード、USBメモリデバイス、メモリースティックなどのフラッシュメモリなどを含むことができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体を使用して、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行することができる他のシステムなどの、命令実行システム、装置、若しくはデバイスによって、又はそれらと共に使用するための(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令を記憶することができる。他の実施例では、(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令は、サーバシステム110の非一時的コンピュータ可読記憶媒体上に記憶されても、あるいはメモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体とに分割してもよい。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0069]
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインタフェースモジュール256、センサ処理モジュール258、電話モジュール260、及びアプリケーション262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加のデバイス、1つ以上のコンピュータ及び/又は1つ以上のサーバとの通信を可能にすることができる。グラフィカルユーザインタフェースモジュール256はグラフィックユーザインタフェース処理を可能にすることができる。センサ処理モジュール258はセンサに関係する処理及び機能を可能にすることができる。電話モジュール260は電話に関係するプロセス及び機能を可能にすることができる。アプリケーションモジュール262は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング及び/又はその他のプロセス及び機能などの、ユーザアプリケーションの種々の機能性を可能にすることができる。
[0070]
本明細書で説明するように、メモリ250はまた、例えば仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール264内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビプログラムの好みなど)も記憶することができる。また、ユーザデータ266は、仮想アシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。
[0071]
種々の実施例では、仮想アシスタントクライアントモジュール264は、ユーザデバイス102の種々のユーザインタフェース(例えば、I/Oサブシステム240、オーディオサブシステム226など)を通じて音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントトクライアントモジュール264はまた、オーディオ(例えば、発語出力)形態、視覚形態、及び/又は触覚形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール264は、通信サブシステム224を用いて仮想アシスタントサーバと通信することができる。
[0072]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話及び/又は現在のユーザ入力と関連付けられたコンテキストを確立するために、種々のセンサ、サブシステム及び周辺デバイスを利用してユーザデバイス102の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、テレビセットトップボックス104からの情報など、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力と共にコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、コンテキスト情報を使用して、ユーザへの出力をどのように準備し、配信するのかを判定することができる。更に、正確な発語認識をサポートするために、ユーザデバイス102又はサーバシステム110によりコンテキスト情報を使用することができる。
[0073]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、周囲環境の画像又は動画、他のオブジェクトまでの距離などの、センサ情報を含むことができる。コンテキスト情報は、ユーザデバイス102の物理状態(例えば、デバイスの向き、デバイスの位置、デバイスの温度、電力レベル、速度、加速度、モーションパターン、セルラー信号強度など)、又はユーザデバイス102のソフトウェア状態(例えば、実行中の処理、インストールされているプログラム、過去及び現在のネットワークアクティビティ、バックグラウンドサービス、エラーログ、リソース使用など)と関連付けられた情報を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザと関連付けられた他のデバイスの状態と関連付けられた情報(例えば、テレビセットトップボックス104により表示されたメディアコンテンツ、テレビセットトップボックス104が利用可能なメディアコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報のうちのいずれかを、ユーザ入力と関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供することができる(あるいは、ユーザデバイス102自体で使用することができる)。
[0074]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、仮想アシスタントサーバ114からの要求に応じて、ユーザデバイス102に記憶された情報(例えば、ユーザデータ266)を選択的に提供することができる(あるいは、発語認識及び/又は仮想アシスタント機能を実行する際にユーザデバイス102自体で使用することができる)。仮想アシスタントクライアントモジュール264はまた、仮想アシスタントサーバ114による要求時に、自然言語ダイアログ又は他のユーザインタフェースを介して、ユーザからの追加入力も引き出すことができる。仮想アシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0075]
種々の実施例では、メモリ250は追加の命令又はより少数の命令を含むことができる。更に、ユーザデバイス102の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装され得る。
[0076]
図3は、テレビユーザ対話を制御するためのシステム300における例示的なテレビセットトップボックス104のブロック図である。システム300は、システム100の要素のサブセットを含むことができる。いくつかの実施例では、システム300は、ある特定の機能のみを実行することができ、他の機能を実行するために、システム100の他の要素と一緒に機能することができる。例えば、システム300の要素は、サーバシステム110と対話することなく、ある特定のメディア制御機能(例えば、ローカルに記憶されたメディアの再生、録画機能、チャンネル同調など)を処理することができ、システム300は、システム100のサーバシステム110及び他の要素と連携して、他のメディア制御機能(例えば、遠隔に記憶されたメディアの再生、メディアコンテンツのダウンロード、ある特定の仮想アシスタントクエリの処理など)を処理することができる。他の実施例では、システム300の要素は、ネットワークを介して外部サービス124にアクセスすることを含む、より大きいシステム100の機能を実行することができる。種々の他の方法で、ローカルデバイスとリモートサーバデバイスとで機能を分配してもよいことを理解されたい。
[0077]
図3に示すように、1つの実施例では、テレビセットトップボックス104は、メモリインタフェース302、1つ以上のプロセッサ304、及び周辺機器インタフェース306を含むことができる。1つ以上の通信バス又は信号線によって、テレビセットトップボックス104内の種々の構成要素を1つに結合することができる。テレビセットトップボックス104は、周辺機器インタフェース306に結合される種々のセンサ、サブシステム、及び周辺デバイスを更に含むことができる。サブシステム、及び周辺デバイスは情報を収集し、及び/又はテレビセットトップボックス104の種々の機能を可能にすることができる。
[0078]
例えば、テレビセットトップボックス104は、通信サブシステム324を含むことができる。種々の通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含むことができ、1つ以上の有線及び/又は無線通信サブシステム324を介して、通信機能を可能にすることができる。
[0079]
いくつかの実施例では、テレビセットトップボックス104は、周辺機器インタフェース306に結合されたI/Oサブシステム340を更に含むことができる。I/Oサブシステム340は、オーディオ/動画出力コントローラ370を含むことができる。オーディオ/動画出力コントローラ370は、ディスプレイ112及びスピーカ111に結合され得、あるいは場合によっては、(例えば、オーディオ/動画ポート、無線伝送などを介して)オーディオ及び動画出力を提供することができる。I/Oサブシステム340は、遠隔コントローラ342を更に含むことができる。遠隔コントローラ342を、(例えば、有線接続、Bluetooth(登録商標)、Wi−Fi(登録商標)などを介して)遠隔制御106に通信可能に結合することができる。遠隔制御106は、オーディオ入力(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン372と、触覚入力をキャプチャするためのボタン(単数又は複数)374と、遠隔コントローラ342を介したテレビセットトップボックス104との通信を可能にするための送受信機376とを含むことができる。遠隔制御106はまた、キーボード、ジョイスティック、タッチパッドなどのような他の入力機構を含むことができる。遠隔制御106は、光、ディスプレイ、スピーカなどのような出力機構を更に含むことができる。遠隔制御106において受信した入力(例えば、ユーザ発語、ボタンの押下など)を、遠隔コントローラ342を介してテレビセットトップボックス104に通信することができる。I/Oサブシステム340は、他の入力コントローラ(単数又は複数)344を更に含むことができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなど、他の入力/制御デバイス348に結合することができる。
[0080]
いくつかの実施例では、テレビセットトップボックス104は、メモリ350に結合されたメモリインタフェース302を更に含むことができる。メモリ350は、任意の、電子、磁気、光学、電磁、赤外若しくは半導体システム、装置若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読み出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R若しくはDVD−RWなどのポータブル光ディスク、又はコンパクトフラッシュカード、セキュアなデジタルカード、USBメモリデバイス、メモリースティックなどのフラッシュメモリなどを含むことができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体を使用して、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行することができる他のシステムなどの、命令実行システム、装置、若しくはデバイスによって、又はそれらと共に使用するため(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令を記憶することができる。他の実施例では、(例えば、本明細書で説明する種々のプロセスの一部分又は全部を実行する)命令は、サーバシステム110の非一時的コンピュータ可読記憶媒体上に記憶されても、あるいはメモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体とに分割してもよい。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0081]
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインタフェースモジュール356、オンデバイスメディアモジュール358、オフデバイスメディアモジュール360、及びアプリケーション362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加のデバイス、1つ以上のコンピュータ及び/又は1つ以上のサーバとの通信を可能にすることができる。グラフィカルユーザインタフェースモジュール356はグラフィックユーザインタフェース処理を可能にすることができる。オンデバイスメディアモジュール358は、テレビセットトップボックス104上にローカルに記憶されたメディアコンテンツ、及びローカルに利用可能な他のメディアコンテンツの記憶及び再生(例えば、ケーブルチャンネルの同調)を可能にすることができる。オフデバイスメディアモジュール360は、(例えば、リモートサーバ上、ユーザデバイス102上などに)遠隔に記憶されたメディアコンテンツのストリーミング再生又はダウンロードを可能にすることができる。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ゲーム、及び/又は他のプロセス及び機能などの、ユーザアプリケーションの種々の機能性を可能にすることができる。
[0082]
本明細書で説明するように、メモリ350はまた、例えば仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール364内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビプログラムの好みなど)も記憶することができる。また、ユーザデータ366は、仮想アシスタントをサポートする、又は任意の他のアプリケーションについての発語認識を実行する際に使用することができる。
[0083]
種々の実施例では、仮想アシスタントクライアントモジュール364は、テレビセットトップボックス104の種々のユーザインタフェース(例えば、I/Oサブシステム340など)を通じて音声入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントクライアントモジュール364はまた、オーディオ形態(例えば、発語出力)、視覚形態、及び/又は触覚形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール364は、通信サブシステム324を用いて仮想アシスタントサーバと通信することができる。
[0084]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザ、現在のユーザ対話及び/又は現在のユーザ入力と関連付けられたコンテキストを確立するために、種々のセンサ、サブシステム及び周辺デバイスを利用してテレビセットトップボックス104の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、ユーザデバイス102からの情報など、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザの意図の推測を助けるために、ユーザ入力と共にコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、コンテキスト情報を使用して、ユーザへの出力をどのように準備し、配信するのかを判定することができる。更に、正確な発語認識をサポートするために、テレビセットトップボックス104又はサーバシステム110によりコンテキスト情報を使用することができる。
[0085]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、他のオブジェクトまでの距離などの、センサ情報を含むことができる。コンテキスト情報は、テレビセットトップボックス104の物理状態(例えば、デバイスの位置、デバイスの温度、電力レベルなど)、又はテレビセットトップボックス104のソフトウェア状態(例えば、実行中の処理、インストールされているプログラム、過去及び現在のネットワークアクティビティ、バックグラウンドサービス、エラーログ、リソース使用など)と関連付けられた情報を更に含むことができる。コンテキスト情報は、接続されたデバイス、又はユーザと関連付けられた他のデバイスの状態と関連付けられた情報(例えば、ユーザデバイス102により表示されたコンテンツ、ユーザデバイス102上の再生可能なコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報のうちのいずれかを、ユーザ入力と関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供することができる(あるいは、テレビセットトップボックス104自体で使用することができる)。
[0086]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、仮想アシスタントサーバ114からの要求に応じて、テレビセットトップボックス104に記憶された情報(例えば、ユーザデータ366)を選択的に提供することができる(あるいは、発語認識及び/又は仮想アシスタント機能を実行する際にテレビセットトップボックス104自体で使用することができる)。仮想アシスタントクライアントモジュール364はまた、仮想アシスタントサーバ114による要求時に、自然言語ダイアログ又は他のユーザインタフェースを介して、ユーザからの追加入力も引き出すことができる。仮想アシスタントクライアントモジュール364は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0087]
種々の実施例では、メモリ350は追加の命令又はより少数の命令を含むことができる。更に、テレビセットトップボックス104の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0088]
システム100及びシステム300は、図1及び図3に示した構成要素及び構成には限定されず、同様に、ユーザデバイス102、テレビセットトップボックス104及び遠隔制御106は、図2及び図3に示した構成要素及び構成には限定されないことを理解されたい。システム100、システム300、ユーザデバイス102、テレビセットトップボックス104及び遠隔制御106は全て、種々の実施例に係る複数の構成において、より少数のあるいは他の構成要素を含むことができる。
[0089]
本開示全体にわたって、「システム」に言及した場合、システム100、システム300、又はシステム100若しくはシステム300のいずれかの1つ以上の要素を含むことができる。例えば、本明細書で言及する典型的なシステムは、少なくとも、遠隔制御106及び/又はユーザデバイス102からユーザ入力を受信するテレビセットトップボックス104を含むことができる。
[0090]
図4A〜図4Eは、ユーザに発語入力情報を伝達するためにディスプレイ(ディスプレイ112など)上に表示することができる例示的な発語入力インタフェース484を示す。1つの実施例では、発語入力インタフェース484を動画480上に表示することができ、動画480は、任意の動画像又は休止した動画を含むことができる。例えば、動画480は、生放送のテレビ、再生動画、ストリーミング映画、録画プログラムの再生などを含むことができる。発語入力インタフェース484は、動画480のユーザ閲覧と著しく干渉しないように、最小量のスペースを占めるように構成され得る。
[0091]
1つの実施例では、コマンド又はクエリを含んでいる発語入力をリッスンする(又は、後続の処理のために発語入力の記録を開始する、若しくは発語入力のリアルタイム処理を開始する)ために、仮想アシスタントをトリガーすることができる。例えば、ユーザが、遠隔制御106上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の仮想ボタンを押すこと、ユーザが、常時リッスンデバイスにより認識可能なトリガーフレーズを発すること(例えば、コマンドのリッスンを開始するように「Hey Assistant」と発すること)、ユーザが、センサにより検出可能なジェスチャを行うこと(例えば、カメラの前で合図すること)などの指示を含む、種々のやり方でリッスンをトリガーすることができる。別の実施例では、ユーザは、リッスンを開始するために、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができる。更に他の実施例では、ユーザは、クエリ又はコマンドを発語しながら、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができ、終了時にボタンを離すことができる。同様に、ユーザからの発語入力の受信を開始するために、種々の他の指示を受信することができる。
[0092]
発語入力をリッスンする指示を受信したことに応じて、発語入力インタフェース484を表示することができる。図4Aは、ディスプレイ112の下部分から上向きに拡張する通知エリア482を示す。発語入力をリッスンする指示を受信すると、通知エリア482に発語入力インタフェース484を表示することができ、図示のように、ディスプレイ112の閲覧エリアの下縁部から上向きにスライドするようにそのインタフェースをアニメーション化することができる。図4Bは、上向きにスライドして現れた後の発語入力インタフェース484を示す。発語入力インタフェース484は、動画480とのと干渉を回避するために、ディスプレイ112下部において最小量のスペースを占めるように構成することができる。発語入力をリッスンする指示を受信したことに応じて、準備完了確認486を表示することができる。準備完了確認486は、図示のようなマイクロフォンのシンボルを含むことができ、あるいは、システム(例えば、システム100の1つ以上の要素)がユーザからの発語入力をキャプチャする準備ができていることを伝達する任意の他の画像、アイコン、アニメーション又はシンボルを含むことができる。
[0093]
ユーザが発語し始めると、システムが発語入力をキャプチャしていることを確認するために、図4Cに示したリッスン確認487を表示することができる。いくつかの実施例では、発語入力を受信したこと(例えば、発語をキャプチャしたこと)に応じて、リッスン確認487を表示することができる。他の実施例では、所定の時間(例えば、500ミリ秒、1秒、3秒など)にわたって準備完了確認486を表示することができ、その後に、リッスン確認487を表示することができる。リッスン確認487は、図示のような波形シンボルを含むことができ、あるいは、ユーザ発語に応じて動く(例えば、周波数を変える)アクティブな波形アニメーションを含むことができる。他の実施例では、リッスン確認487は、任意の他の画像、アイコン、アニメーション、又はシステムがユーザからの発語入力をキャプチャしていることを伝達するシンボルを含むことができる。
[0094]
(例えば、休止、クエリの終わりを示す発語解釈、又は任意の他のエンドポイント検出法に基づいて)ユーザが発語し終えたことを検出すると、システムが発語入力のキャプチャを完了し、発語入力を処理していること(例えば、発語入力の解釈、ユーザ意図の判定、及び/又は関連付けられたタスクの実行)を確認するために、図4Dに示した処理確認488を表示することができる。処理確認488は、図示のような砂時計のシンボルを含むことができ、あるいは、キャプチャした発語入力をシステムが処理していることを伝達する任意の他の画像、アイコン、アニメーション又はシンボルを含むことができる。別の実施例では、処理確認488は、回転している円、又は円の周りを動く色のついた/光る点のアニメーションを含むことができる。
[0095]
キャプチャした発語入力をテキストとして解釈した後(又は、発語入力をテキストに正常に変換したことに応じて)、システムが発語入力を受信し解釈したことを確認するために、図4Eに示したコマンド受信確認490及び/又は音声表記492を表示することができる。音声表記492は、受信した発語入力(例えば、「現在、どんなスポーツイベントが放送されているか?」)の音声表記を含むことができる。いくつかの実施例では、ディスプレイ112の下部から、音声表記492をスライドアップさせるようにアニメーション化することができ、図4Eに示した位置に、しばらくの間(例えば、数秒)表示することができ、次いで、(例えば、あたかもテキストがスクロールアップして、最終的にビューから消えるかのように)音声表記を発語入力インタフェース484の上部までスライドアップさせてビューから消すことができる。他の実施例では、音声表記を表示しないことがあり、ユーザのコマンド又はクエリを処理することができ、音声表記を表示することなく、関連付けられたタスクを実行することができる(例えば、単純なチャンネルの変更は、ユーザの発語の音声表記を表示することなく、直ぐに実行することができる)。
[0096]
他の実施例では、ユーザが発語するにつれて、発語の音声表記をリアルタイムで実行することができる。単語を音声表記しながら、発語入力インタフェース484に単語を表示することができる。例えば、リッスン確認487の横に単語を表示することができる。ユーザが発語し終えた後に、コマンド受信確認490を一時的に表示し、その後、ユーザのコマンドと関連付けられたタスクを実行することができる。
[0097]
更に、他の実施例では、コマンド受信確認490は、受信して理解したコマンドに関する情報を伝達することができる。例えば、別のチャンネルに変えるという単純な要求の場合、チャンネルを変えた時に、(例えば、数秒間にわたって)コマンド受信確認490としてそのチャンネルと関連付けられたロゴ又は番号を一時的に表示することができる。別の実施例では、動画(例えば、動画480)を休止するという要求の場合、コマンド受信確認490として、休止シンボル(例えば、2本の垂直方向の平行なバー)を表示することができる。休止シンボルは、例えば、ユーザが別のアクションを実行する(例えば再生を再開する再生コマンドを出す)まで、ディスプレイ上に残ることができる。同様に、任意の他のコマンドについて、シンボル、ロゴ、アニメーションなど(例えば、巻戻し、早送り、停止、再生などのためのシンボル)表示することができる。したがって、コマンド受信確認490を使用して、コマンド固有の情報を伝達することができる。
[0098]
いくつかの実施例では、ユーザクエリ又はコマンドの受信後、発語入力インタフェース484を隠すことができる。例えば、発語入力インタフェース484は、ディスプレイ112の下部から消えるまで、下向きにスライドするようにアニメーション化され得る。更なる情報をユーザに表示する必要がない場合には、発語入力インタフェース484を非表示にすることができる。例えば、一般的な又は簡単なコマンド(例えば、チャンネル10に変更、スポーツチャンネルに変更、再生、休止、早送り、巻戻しなど)の場合、コマンドの受信を確認した後直ちに発語入力インタフェース484を非表示にすることができ、関連付けられたタスク(単数又は複数)を直ちに実行することができる。本明細書の種々の実施例は、ディスプレイの下部又は上縁部にあるインタフェースを例示し、それについて説明しているが、ディスプレイの周りの他の場所に、種々のインタフェースのうちのいずれかを配置できることを了解されたい。例えば、発語入力インタフェース484は、ディスプレイ112の側縁部から、ディスプレイ112の中心、ディスプレイ112の隅角部などに出現することができる。同様に、本明細書で説明する種々の他のインタフェースの実施例は、ディスプレイ上の種々の異なる場所に、種々の異なる向きで配列することができる。更に、本明細書で説明する種々のインタフェースは、不透明であるものとして示されているが、種々のインタフェースのうちのいずれかは、透明とすることができ、あるいは場合によっては、画像(ぼやけた画像又は画像全体)を、インタフェースを介して閲覧できるようにする(例えば、下にあるメディアコンテンツを完全に不明瞭にすることなく、メディアコンテンツ上にインタフェースコンテンツを重ねる)ことができる。
[0099]
他の実施例では、発語入力インタフェース484内に、又は異なるインタフェースに、クエリの結果を表示することができる。図5は、動画480上の例示的なメディアコンテンツインタフェース510を示し、図4Eの音声表記されたクエリの例示的な結果が表示されている。いくつかの実施例では、仮想アシスタントクエリの結果は、テキストコンテンツの代わりに、又はそれに加えてメディアコンテンツを含むことができる。例えば、仮想アシスタントクエリの結果は、テレビプログラム、動画、音楽などを含むことができる。いくつかの結果は、再生のために直ちに利用可能なメディアを含むことができる一方で、他の結果は、購入などのために利用可能であり得るメディアを含むことができる。
[0100]
図示のとおり、メディアコンテンツインタフェース510は、発語入力インタフェース484よりも大きいサイズとすることができる。1つの実施例では、発語入力インタフェース484は、発語入力情報に適応するようにより小さい第1のサイズのものとすることができ、メディアコンテンツインタフェース510は、クエリ結果に適応するようにより大きい第2のサイズとすることができ、メディアコンテンツインタフェース510は、テキスト、静止画像像及び動画像を含むことができる。このようにすると、仮想アシスタント情報を伝達するためのインタフェースのサイズは、伝達されるコンテンツに応じた縮尺にすることができ、それにより、スクリーンの面積への侵入が制限される(例えば、動画480などの他のコンテンツの遮蔽が最小限に抑えられる)。
[0101]
例示したように、メディアコンテンツインタフェース510は、(仮想アシスタントクエリの結果として)選択可能な動画リンク512、選択可能なテキストリンク514、及び追加のコンテンツリンク513を含むことができる。いくつかの実施例では、遠隔制御(例えば、遠隔制御106)を使用して、フォーカス、カーソルなどを特定の要素にナビゲートし、それを選択することによって、リンクを選択することができる。他の実施例では、仮想アシスタントへの音声コマンド(例えば、そのサッカーの試合を視聴する、バスケットボールの試合に関する詳細を表示する、など)を使用して、リンクを選択することができる。選択可能な動画リンク512は、静止画像又は動画像を含むことができ、関連付けられた動画を再生させるために選択可能であり得る。1つの実施例では、選択可能な動画リンク512は、関連付けられた動画コンテンツの再生動画を含むことができる。別の実施例では、選択可能な動画リンク512は、テレビチャンネルのライブフィードを含むことができる。例えば、選択可能な動画リンク512は、テレビで現在放送されているスポーツイベントに関する仮想アシスタントクエリの結果として、スポーツチャネルのサッカーの試合のライブフィードを含むことができる。選択可能な動画リンク512はまた、任意の他の動画、アニメーション、画像など(例えば、三角形の再生シンボル)を含むことができる。更に、リンク512は、映画、テレビ番組、スポーツイベント、音楽などのような、任意の種類のメディアコンテンツにリンクすることができる。
[0102]
選択可能なテキストリンク514は、選択可能な動画リンク512と関連付けられたテキストコンテンツを含むことができ、あるいは、仮想アシスタントクエリの結果のテキストレプリゼンテーションを含むことができる。1つの実施例では、選択可能なテキストリンク514は、仮想アシスタントクエリの結果として生じるメディアの記述を含むことができる。例えば、選択可能なテキストリンク514は、テレビプログラムの名前、映画のタイトル、スポーツイベントの記述、テレビチャンネルの名前又は番号などを含むことができる。1つの実施例では、テキストリンク514の選択は、関連付けられたメディアコンテンツを再生することができる。別の例では、テキストリンク514の選択は、メディアコンテンツ又は他の仮想アシスタントクエリ結果に関する追加の詳細を提供することができる。追加のコンテンツリンク513は、仮想アシスタントクエリの追加の結果にリンクし、それを表示させることができる。
[0103]
ある特定のメディアコンテンツの実施例が図5に示されているが、メディアコンテンツについての仮想アシスタントクエリの結果として、任意の種類のメディアコンテンツを含んでもよいことを了解されたい。例えば、仮想アシスタントの結果として戻され得るメディアコンテンツとして、動画、テレビプログラム、音楽、テレビチャンネルなどを挙げることができる。更に、いくつかの実施例では、ユーザが検索若しくはクエリの結果、又は表示されたメディアオプションをフィルタリングすることを可能にするために、本明細書のインタフェースのうちのいずれかに、カテゴリーフィルタを提供することができる。例えば、結果を種類(例えば、映画、音楽アルバム、書籍、テレビ番組など)によってフィルタリングするために、選択可能なフィルタを提供することができる。他の実施例では、選択可能なフィルタは、ジャンル記述子又はコンテンツ記述子(例えば、コメディ、インタビュー、特定のプログラムなど)を含むことができる。更に他の実施例では、選択可能なフィルタは、時(例えば、今週、先週、昨年など)を含むことができる。表示されたコンテンツに関連するカテゴリーに基づいて、ユーザが結果をフィルタリングする(例えば、メディア結果が種々の種類を有する場合に、種類によってフィルタリングする、メディア結果が種々のジャンルを有する場合にはジャンルによってフィルタリングする、メディア結果が種々の時を有する場合には時によってフィルタリングする、など)ことを可能にするために、本明細書で説明する種々のインタフェースのうちのいずれかにフィルタを提供することができることを了解されたい。
[0104]
他の実施例では、メディアコンテンツインタフェース510は、メディアコンテンツ結果に加えて、クエリのパラフレーズを含むことができる。例えば、メディアコンテンツ結果の上方に(選択可能な動画リンク512及び選択可能なテキストリンク514の上方に)、ユーザのクエリのパラフレーズを表示することができる。図5の実施例では、ユーザのクエリのそのようなパラフレーズは、「現在、いくつかのスポーツイベント放送されている」を含むことができる。同様に、メディアコンテンツ結果を紹介する他のテキストを表示することができる。
[0105]
いくつかの実施例では、インタフェース510を含む任意のインタフェースを表示した後、ユーザは、新しいクエリ(以前のクエリに関係していることも、関係していないこともある)を用いた追加の発語入力のキャプチャを開始することができる。ユーザクエリは、動画リンク512を選択するコマンドなど、インタフェース要素に対して作用するコマンドを含むことができる。別の実施例では、ユーザの発語は、表示されたメニュー情報、再生動画(例えば、動画480)など、表示されたコンテンツと関連付けられたクエリを含むことができる。表示された情報(例えば、表示テキスト)、及び/又は表示されたコンテンツと関連付けられたメタデータ(例えば、再生動画と関連付けられたメタデータ)に基づいて、そのようなクエリに対する応答を判定することができる。例えば、ユーザは、インタフェース(例えば、インタフェース510)に表示されたメディア結果に関して質問することができ、そのメディアと関連付けられたメタデータを検索して、回答又は結果を提供することができる。次いで、別のインタフェースに又は同じインタフェース内に(例えば、本明細書で論じるインタフェースのうちのいずれかに)、そのような回答又は結果を提供することができる。
[0106]
上述のように、1つの実施例では、テキストリンク514の選択に応じて、メディアコンテンツに関する追加の詳細を表示することができる。図6A及び図6Bは、テキストリンク514の選択後の、動画480上の例示的なメディア詳細インタフェース618を示す。1つの実施例では、追加詳細情報を提供する際に、図6Aのインタフェース拡張遷移616により例示されるように、メディアコンテンツインタフェース510をメディア詳細インタフェース618へと拡張することができる。詳細には、図6Aに示すように、選択されたコンテンツのサイズを拡張することができ、スクリーンの面積のうちのより多くを占めるようにディスプレイ112上でインタフェースを上向きに拡張することによって、追加のテキスト情報を提供することができる。ユーザが所望する追加の詳細情報に適応するように、インタフェースを拡張することができる。このようにすると、インタフェースのサイズは、ユーザが所望するコンテンツ量に伴う縮尺にすることができ、それにより、所望のコンテンツを依然として伝達しながら、スクリーンの面積への侵入が最小限に抑えられる。
[0107]
図6Bは、完全に拡張した後の詳細インタフェース618を示す。図示のとおり、詳細インタフェース618は、所望の詳細情報に適応するように、メディアコンテンツインタフェース510又は発語入力インタフェース484のいずれかよりも大きいサイズのものとすることができる。詳細インタフェース618は、メディアコンテンツ又は仮想アシスタントクエリの別の結果と関連付けられた種々の詳細情報を含む、詳細なメディア情報622を含むことができる。詳細なメディア情報622は、プログラムのタイトル、プログラムの記述、プログラムの放送時間、チャンネル、エピソード概要、映画の記述、俳優の名前、キャラクターの名前、スポーツイベントの参加者、プロデューサーの名前、ディレクターの名前、又は仮想アシスタントクエリの結果と関連付けられた任意の他の詳細情報を含むことができる。
[0108]
1つの実施例では、詳細インタフェース618は、選択可能な動画リンク620(又は、メディアコンテンツを再生するための別のリンク)を含むことができ、選択可能な動画リンク620は、対応する選択可能な動画リンク512のより大きいバージョンを含むことができる。したがって、選択可能な動画リンク620は、静止画像又は動画像を含むことができ、関連付けられた動画を再生させるために選択可能であり得る。選択可能な動画リンク620は、関連付けられた動画コンテンツの再生動画、テレビチャンネルのライブフィード(例えば、スポーツチャンネルでのサッカーの試合のライブフィード)などを含むことができる。選択可能な動画リンク620はまた、任意の他の動画、アニメーション、画像など(例えば、三角形の再生シンボル)を含むことができる。
[0109]
上述のように、動画リンク620又は動画リンク512などの動画リンクの選択に応じて、動画を再生することができる。図7A及び図7Bは、動画リンク(又は動画コンテンツを再生するための他のコマンド)の選択に応じて表示することができる例示的なメディア遷移インタフェースを示す。例示したように、動画480を動画726と入れ替えることができる。1つの実施例では、図7Aのインタフェース拡張遷移724により示すように、動画480の上に重なる又はそれを覆うように動画726を拡張することができる。遷移の結果は、図7Bの拡張されたメディアインタフェース728を含むことができる。他のインタフェースの場合と同様に、拡張されたメディアインタフェース728のサイズは、ユーザに所望の情報を提供するのに十分であり得、ここでは、ディスプレイ112全体に拡張することを含む。したがって、所望の情報が、ディスプレイ全体にわたる再生メディアコンテンツを含むことができるので、拡張されたメディアインタフェース728は、任意の他のインタフェースよりも、大きくすることができる。図示されていないが、いくつかの実施例では、動画726上に(例えば、スクリーンの下部に沿って)、記述情報を一時的に重ねることができる。そのような記述情報は、関連付けられたプログラム、動画、チャンネルなどの名前を含むことができる。次いで、(例えば、数秒後に)記述情報をビューから非表示にすることができる。
[0110]
図8A〜図8Bは、ユーザに発語入力情報を伝達するためにディスプレイ112上に表示することができる例示的な発語入力インタフェース836を示す。1つの実施例では、メニュー830上に発語入力インタフェース836を表示することができる。メニュー830は、種々のメディアオプション832を含むことができ、同様に、任意の他の種類のメニュー(例えば、コンテンツメニュー、カテゴリーメニュー、コントロールメニュー、セットアップメニュー、プログラムメニューなど)上に発語入力インタフェース836を表示することができる。1つの実施例では、発語入力インタフェース836は、ディスプレイ112のスクリーンの面積のうち比較的大きな量を占めるように構成され得る。例えば、発語入力インタフェース836は、上記で論じた発語入力インタフェース484よりも大きくすることができる。1つの実施例では、バックグラウンドコンテンツに基づいて、使用される発語入力インタフェース(例えば、より小さいインタフェース484又はより大きいインタフェース836のいずれか)のサイズを判定することができる。バックグラウンドコンテンツが動画像を含む時には、例えば、小さい発語入力インタフェース(例えば、インタフェース484)を表示することができる。一方、バックグラウンドコンテンツが静止画像(例えば、休止された動画)又はメニューを含む時には、例えば、大きい発語入力インタフェース(例えば、インタフェース836)を表示することができる。このようにすると、ユーザが動画コンテンツを視聴している場合には、より小さい発語入力インタフェースを表示することができ、スクリーンの面積に対する侵入が最小限に抑えられるが、ユーザが、メニューをナビゲートしている場合、又は休止された動画又は他の静止画像を閲覧している場合には、より大きい発語入力インタフェースを表示し、追加の面積を占めることによって、より多くの情報を伝達する、あるいは、より重大な効果を有することができる。同様に、バックグラウンドコンテンツに基づいて、本明細書で論じる他のインタフェースを異なるようにサイズ設定することができる。
[0111]
上記で論じたように、仮想アシスタントは、コマンド又はクエリを含んでいる発語入力を聞き取る(又は、後続の処理のために発語入力の記録を開始する、若しくは発語入力のリアルタイム処理を開始する)ようにトリガーされ得る。例えば、ユーザが、遠隔制御106上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の物理ボタンを押すこと、ユーザが、ユーザデバイス102上の仮想ボタンを押すこと、ユーザが、常時リッスンデバイスにより認識可能なトリガーフレーズを発すること(例えば、コマンドのリッスンを開始するように「Hey Assistant」と発すること)、ユーザが、センサにより検出可能なジェスチャを行うこと(例えば、カメラの前で合図すること)などの指示を含む、種々のやり方でリッスンをトリガーすることができる。別の実施例では、ユーザは、リッスンを開始するために、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができる。更に他の実施例では、ユーザは、クエリ又はコマンドを発語しながら、遠隔制御106又はユーザデバイス102上の物理ボタンを押し続けることができ、終了時にボタンを離すことができる。同様に、ユーザからの発語入力の受信を開始するために、種々の他の指示を受信することができる。
[0112]
発語入力をリッスンする指示を受信したことに応じて、メニュー830の上に発語入力インタフェース836を表示することができる。図8Aは、ディスプレイ112の下部分から上向きに拡張する大きな通知エリア834を示す。発語入力をリッスンする指示を受信すると、大きい通知エリア834に発語入力インタフェース836を表示することができ、図示のように、ディスプレイ112の閲覧エリアの下縁部から上向きにスライドするようにそのインタフェースをアニメーション化することができる。いくつかの実施例では、(例えば、発語入力をリッスンする指示を受信したことに応じて)重なっているインタフェースが表示されるので、バックグラウンドメニュー、休止された動画、静止画像又は他のバックグラウンドコンテンツを、z方向に(あたかも、更にディスプレイ112に入るように)縮小する、及び/又は逆方向に移動させることができる。バックグラウンドインタフェース縮小遷移831及び関連付けられた内向き矢印は、どのようにバックグラウンドコンテンツ(例えば、メニュー830)を縮小する(表示されたメニュー、画像、テキストなどを小さくする)ことができるかについて説明する。これにより、新しいフォアグラウンドインタフェース(例えば、インタフェース836)の邪魔にならないところに、バックグラウンドコンテンツユーザから離れて移動するように見える視覚的効果を提供することができる。図8Bは、縮小された(小さくなった)バージョンのメニュー830を含む、縮小されたバックグラウンドインタフェース833を示す。図示のとおり、(枠線を含むことができる)縮小されたバックグラウンドインタフェース833は、フォアグラウンドインタフェース836に焦点を譲りながらも、ユーザから遠くに現れることができる。重複しているインタフェースが表示されるので、本明細書で論じる他の実施例のうちのいずれかにおける(バックグラウンド動画コンテンツを含む)バックグラウンドコンテンツを同様に、z方向に縮小する及び/又は逆方向に移動させることができる。
[0113]
図8Bは、上向きにスライドさせて現れた後の発語入力インタフェース836を示す。上記で論じたように、発語入力を受信している間、種々の確認を表示することができる。ここでは図示されていないが、発語入力インタフェース836は、図4B、図4C及び図4Dをそれぞれ参照して上記で論じた発語入力インタフェース484と同様に、より大きいバージョンの準備完了確認486、リッスン確認487及び/又は処理確認488を同様に表示することができる。
[0114]
図8Bに示すように、システムが発語入力を受信し解釈したことを確認するために、コマンド受信確認838を(上記で論じたより小さいサイズのコマンド受信確認490の場合と同様に)表示することができる。また、音声表記840を表示することができ、音声表記840は、受信した発語入力の音声表記(例えば、「ニューヨークの天気は?」)を含むことができる。いくつかの実施例では、ディスプレイ112の下部から、音声表記840をスライドアップさせるようにアニメーション化することができ、図8Bに示した位置に、しばらくの間(例えば、数秒)表示することができ、次いで、(例えば、あたかもテキストスクロールアップし、最終的にビューから消えるかのように)音声表記を発語入力インタフェース836の上部までスライドアップさせてビューから消すことができる。他の実施例では、音声表記を表示しないことがあり、ユーザのコマンド又はクエリを処理することができ、音声表記を表示することなく、関連付けられたタスクを実行することができる。
[0115]
他の実施例では、ユーザが発語するにつれて、発語の音声表記をリアルタイムで実行することができる。単語を音声表記しながら、発語入力インタフェース836に単語を表示することができる。例えば、上記で論じたリッスン確認487のより大きなバージョンの横に単語を表示することができる。ユーザが発語し終えた後に、コマンド受信確認838を一時的に表示し、その後、ユーザのコマンドと関連付けられたタスクを実行することができる。
[0116]
更に、他の実施例では、コマンド受信確認838は、受信して理解したコマンドに関する情報を伝達することができる。例えば、特定のチャンネルに同調させるという単純な要求の場合、チャンネルを同調させた時に、(例えば、数秒間にわたって)コマンド受信確認838としてそのチャンネルと関連付けられたロゴ又は番号を一時的に表示することができる。別の実施例では、表示されたメニュー項目(例えば、メディアオプション832のうちの1つ)を選択するという要求の場合、コマンド受信確認838として、選択されたメニュー項目と関連付けられた画像を表示することができる。したがって、コマンド受信確認838を使用して、コマンド固有の情報を伝達することができる。
[0117]
いくつかの実施例では、ユーザクエリ又はコマンドの受信後、発語入力インタフェース836を非表示にすることができる。例えば、発語入力インタフェース836は、ディスプレイ112の下部から消えるまで、下向きにスライドするようにアニメーション化することができる。更なる情報をユーザに表示する必要がない場合には、発語入力インタフェース836を非表示にすることができる。例えば、一般的な又は簡単なコマンド(例えば、チャンネル10に変更、スポーツチャンネルに変更、その映画の再生など)の場合、コマンドの受信を確認した後直ちに発語入力インタフェース836を隠すことができ、関連付けられたタスク(単数又は複数)を直ちに実行することができる。
[0118]
他の実施例では、発語入力インタフェース836内に、又は異なるインタフェースに、クエリの結果を表示することができる。図9は、図8Bの音声表記されたクエリの例示的な結果を備える例示的なメニュー830上の(詳細には、縮小されたバックグラウンドインタフェース833上の)仮想アシスタント結果インタフェース942を示している。いくつかの実施例では、仮想アシスタントクエリの結果は、テキスト回答944などのテキスト回答を含むことができる。仮想アシスタントクエリの結果はまた、選択可能な動画リンク946及び購入リンク948と関連付けられたコンテンツなど、ユーザのクエリに対処するメディアコンテンツを含むことができる。詳細には、この実施例では、ユーザは、ニューヨークの特定の場所についての気象情報を尋ねることができる。仮想アシスタントは、ユーザのクエリに直接答える(例えば、良い天気に見えることを示し、温度情報を提供する)テキスト回答944を提供することができる。テキスト回答944の代わりに、又はそれに加えて、仮想アシスタントは、購入リンク948及び関連付けられたテキストと共に、選択可能な動画リンク946を提供することができる。また、リンク946及び948と関連付けられたメディアは、ユーザのクエリに対する応答を提供することができる。ここで、リンク946及び948と関連付けられたメディアは、特定の場所における気象情報の10分間クリップ(詳細には、天気予報チャンネルと呼ばれるテレビチャンネルから、ニューヨークの5日間予報)を含むことができる。
[0119]
1つの実施例では、ユーザのクエリに対処するクリップは、(録画又はストリーミングサービスから利用可能であり得る)以前に放送されたコンテンツの時間キュー部分を含むことができる。仮想アシスタントは、1つの実施例では、発語入力と関連付けられたユーザ意図に基づいて、利用可能なメディアコンテンツに関する詳細情報を検索することによって、(例えば、ストリーミングコンテンツに関する詳細なタイミング情報又は詳細情報と共に、録画された放送についてのメタデータを含む)そのようなコンテンツを識別することができる。いくつかの実施例では、ユーザは、ある特定のコンテンツへのアクセスを有しないことがあり、あるいは、ある特定のコンテンツについてのサブスクリプションを有しないことがある。そのような場合、購入リンク948などを介して、コンテンツの購入を勧めることができる。購入リンク948又は動画リンク946を選択すると、自動的に、コンテンツの費用をユーザアカウントから回収する、あるいは、コンテンツの費用をユーザアカウントに課金することができる。
[0120]
図10は、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連付けられた情報を表示するための例示的なプロセス1000を示す。ブロック1002で、ユーザからの発語入力を受信することができる。例えば、システム100のユーザデバイス102又は遠隔制御106で、発語入力を受信することができる。いくつかの実施例では、発語入力(あるいは発語入力の一部又は全部のデータ表現)は、サーバシステム110及び/又はテレビセットトップボックス104に送信され、そこで受信され得る。ユーザが発語入力の受信を開始したことに応じて、ディスプレイ(ディスプレイ112など)上に種々の通知を表示することができる。例えば、図4A〜図4Eを参照して上記で論じたように、準備完了確認、リッスン確認、処理確認及び/又はコマンド受信確認を表示することができる。更に、受信したユーザ発語入力を音声表記することができ、音声表記を表示することができる。
[0121]
再び図10のプロセス1000を参照すると、ブロック1004で、発語入力に基づいて、メディアコンテンツを判定することができる。例えば、(例えば、利用可能なメディアコンテンツを検索することなどによって)仮想アシスタントにおいてダイレクトされたユーザクエリに対処するメディアコンテンツを判定することができる。例えば、図4Eの音声表記492(「現在、どんなスポーツイベントが放送されているか?」)に関係するメディアコンテンツを判定することができる。そのようなメディアコンテンツは、ユーザが閲覧するために利用可能な1つ以上のテレビチャンネル上に表示されているライブスポーツイベントを含むことができる。
[0122]
ブロック1006で、選択可能なメディアリンクを備える第1のサイズの第1のユーザインタフェースを表示することができる。例えば、図5に示すように、選択可能な動画リンク512と選択可能なテキストリンク514とを備えるメディアコンテンツインタフェース510を、ディスプレイ112上に表示することができる。上記で論じたように、メディアコンテンツインタフェース510は、バックグラウンド動画コンテンツと干渉することを回避するために、より小さいサイズとすることができる。
[0123]
ブロック1008で、リンクうちの1つの選択を受信することができる。例えば、リンク512及び/又はリンク514のうちの1つの選択を受信することができる。ブロック1010で、その選択と関連付けられたメディアコンテンツを備えるより大きい第2のサイズの第2のユーザインタフェースを表示することができる。図6Bに示すように、例えば、選択可能な動画リンク620と詳細なメディア情報622とを備える詳細インタフェース618を、ディスプレイ112上に表示することができる。上記で論じたように、詳細インタフェース618は、所望の追加の詳細なメディア情報を伝達するために、より大きいサイズのものとすることができる。同様に、図7Bに示すように、動画リンク620を選択すると、動画726を備える拡張されたメディアインタフェース728を表示することができる。上記で論じたように、拡張されたメディアインタフェース728は、所望のメディアコンテンツを依然としてユーザに提供するために、より大きいサイズのものとすることができる。このようにすると、本明細書で論じる種々のインタフェースを、場合によっては制限されたスクリーンの面積を占めながら、(より大きいサイズのインタフェースに拡張すること、又はより小さいサイズのインタフェースまで縮小することを含めて)所望のコンテンツに適応するようにサイズ設定することができる。したがって、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連付けられた情報を表示するために、プロセス1000を使用することができる。
[0124]
別の実施例では、バックグラウンド動画コンテンツ上ではなく、コントロールメニュー上により大きいサイズインタフェースを表示することができる。例えば、図8Bに示すように、メニュー830上に発語入力インタフェース836を表示することができ、図9に示すように、メニュー830上にアシスタント結果インタフェース942を表示することができる一方で、図5に示すように、動画480上により小さいメディアコンテンツインタフェース510を表示することができる。このようにすると、インタフェースのサイズ(例えば、インタフェースが占めるスクリーンの面積の量)を、少なくとも部分的にバックグラウンドコンテンツの種類によって判定することができる。
[0125]
図11は、ユーザデバイス102上の例示的なテレビメディアコンテンツを示し、ユーザデバイス102は、タッチスクリーン246(又は別のディスプレイ)を備える、携帯電話、タブレットコンピュータ、遠隔制御などを含むことができる。図11は、複数のテレビプログラム1152を備えるTVリストを含むインタフェース1150を示す。インタフェース1150は、テレビ制御アプリケーション、テレビコンテンツリストアプリケーション、インターネットアプリケーションなどのような、ユーザデバイス102上の特定のアプリケーションに対応することができる。いくつかの実施例では、ユーザデバイス102上に(例えば、タッチスクリーン246上に)表示されたコンテンツを使用して、そのコンテンツに関係する発語入力からユーザ意図を判定することができ、そのユーザ意図を使用して、別のデバイス及びディスプレイ上で(例えば、テレビセットトップボックス104、並びにディスプレイ112及び/又はスピーカ111上で)コンテンツを再生又は表示させることができる。例えば、ユーザデバイス102上のインタフェース1150に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避すし、発語入力からユーザ意図を判定でき、次いで、判定したユーザ意図を使用して、テレビセットトップボックス104を介して、メディアを再生又は表示することができる。
[0126]
図12は、仮想アシスタントを使用した例示的なテレビ制御を示す。図12は、インタフェース1254を示し、インタフェース1254は、アシスタントとユーザとの間の会話型ダイアログとしてフォーマットされた仮想アシスタントインタフェースを含むことができる。例えば、インタフェース1254は、ユーザに要求を行うようにプロンプトを出すアシスタントグリーティング1256を含むことができる。次いで、音声表記されたユーザ発語1258など、その後受信したユーザ発語を音声表記することができ、会話のやり取りが表示される。いくつかの実施例では、インタフェース1254は、発語入力の受信を開始するトリガー(ボタン押下、キーフレーズなどのようなトリガー)に応じて、ユーザデバイス102上に現れることができる。
[0127]
1つの実施例では、テレビセットトップボックス104を介して(例えばディスプレイ112及びスピーカ111上で)コンテンツを再生するというユーザ要求は、ユーザデバイス102上の表示されたものへの曖昧な参照を含むことができる。例えば、音声表記されたユーザ発語1258は、「その」サッカーの試合への参照を含む(「そのサッカーの試合をつけて。」)。所望される特定のサッカーの試合は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ユーザデバイス102上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。1つの実施例では、ユーザが要求を行う前に(例えば、インタフェース1254がタッチスクリーン246上に現れる前に)ユーザデバイス102に表示されたコンテンツを使用して、(以前のクエリ及び結果など、インタフェース1254内に現れているコンテンツができるように)ユーザ意図を判定することができる。例示した実施例では、図11のインタフェース1150に表示されたコンテンツを使用して、「その」サッカーの試合をつけるというコマンドから、ユーザ意図を判定することができる。テレビプログラム1152のTVリストは、種々の異なるプログラムを含み、それらのうちの1つのタイトルが、チャンネル5で放送されている「サッカー」である。サッカーのリストが現れていることを使用して、「その」サッカーの試合と発したことから、ユーザの意図を判定することができる。詳細には、「その」サッカーの試合へのユーザの参照を、インタフェース1150のTVリストに現れているサッカープログラムと解釈することができる。したがって、仮想アシスタントは、(例えば、テレビセットトップボックス104を、適切なチャンネルに同調させ、その試合を表示させることによって)ユーザが望んだその特定のサッカーの試合を再生させることができる。
[0128]
他の実施例では、ユーザは、種々の他のやり方で、インタフェース1150に表示されたテレビプログラム(例えば、チャンネル8の番組、ニュース、ドラマ番組、広告、第1の番組など)を参照することができ、表示されたコンテンツに基づいて、ユーザ意図を同様に判定することができる。表示されたコンテンツと関連付けられたメタデータ(例えば、TVプログラムの記述)、ファジーマッチング技術、シノニムマッチングなどを、ユーザ意図を判定するために、表示されたコンテンツと併せて更に使用することができることを了解されたい。例えば、「広告」を表示するという要求からユーザ意図を判定するために、(例えば、シノニム及び/又はファジーマッチング技術を使用して)記述「テレビショッピング」に用語「広告」はマッチングすることができる。同様に、ユーザ意図を判定する際に、特定のTVプログラムの記述を分析することができる。例えば、用語「法律」は、法廷ドラマの詳細な説明において識別され得、インタフェース1150に表示されたコンテンツと関連付けられた詳細な記述に基づいて、「法律」番組を視聴するというユーザ要求から、ユーザ意図を判定することができる。したがって、表示されたコンテンツ及びそれと関連付けられたデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。
[0129]
図13は、ユーザデバイス102上の例示的な写真及び動画コンテンツを示し、ユーザデバイス102は、タッチスクリーン246(又は別のディスプレイ)を備える、携帯電話、タブレットコンピュータ、遠隔制御などを含むことができる。図13は、写真及び動画のリストを含むインタフェース1360を示す。インタフェース1360は、メディアコンテンツアプリケーション、ファイルナビゲーションアプリケーション、ストレージアプリケーション、遠隔ストレージ管理アプリケーション、カメラアプリケーションなどのような、ユーザデバイス102上の特定のアプリケーションに対応することができる。図示のとおり、インタフェース1360は、動画1362、フォトアルバム1364(例えば、複数の写真のグループ)、及び写真1366を含むことができる。図11及び図12を参照して上記で論じたように、ユーザデバイス102に表示されたコンテンツを使用して、そのコンテンツに関係する発語入力からユーザ意図を判定することができる。次いで、ユーザ意図を使用して、別のデバイス及びディスプレイ(例えば、テレビセットトップボックス104、並びにディスプレイ112及び/又はスピーカ111上に)上にコンテンツを再生又は表示させることができる。例えば、ユーザデバイス102上のインタフェース1360に表示されたコンテンツを使用して、にユーザ要求の曖昧性を回避し、発語入力からユーザ意図を判定することができ、次いで、判定したユーザ意図を使用して、テレビセットトップボックス104を介して、メディアを再生又は表示することができる。
[0130]
図14は、仮想アシスタントを使用した例示的なメディア表示制御を示す。図14は、インタフェース1254を示し、インタフェース1254は、アシスタントとユーザとの間の会話型ダイアログとしてフォーマットされた仮想アシスタントインタフェースを含むことができる。図示のとおり、インタフェース1254は、ユーザに要求を行うようにプロンプトを出すアシスタントグリーティング1256を含むことができる。次いで、図14の実施例によって示すようにダイアログ内にユーザ発語を音声表記することができる。いくつかの実施例では、インタフェース1254は、発語入力の受信を開始するトリガー(ボタン押下、キーフレーズなどのようなトリガー)に応じて、ユーザデバイス102上に現れることができる。
[0131]
1つの実施例では、テレビセットトップボックス104を介して(例えばディスプレイ112及びスピーカ111上で)メディアコンテンツを再生する、又はメディアを表示するというユーザ要求は、ユーザデバイス102上の表示されたものへの曖昧な参照を含むことができる。例えば、音声表記されたユーザ発語1468は、「その」動画への参照(「その動画を表示する。」)を含む。参照される特定の動画は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ユーザデバイス102上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。1つの実施例では、ユーザが要求を行う前に(例えば、インタフェース1254がタッチスクリーン246上に現れる前に)ユーザデバイス120に表示されたコンテンツを使用して、(以前のクエリ及び結果など、インタフェース1254内に現れているコンテンツができるように)ユーザ意図を判定することができる。ユーザ発語1468の実施例では、図13のインタフェース1360に表示されたコンテンツを使用して、「その」動画を表示するというコマンドから、ユーザ意図を判定することができる。インタフェース1360における写真及び動画のリストは、動画1362、フォトアルバム1354及び写真1366を含む、種々の異なる写真及び動画を含む。インタフェース1360に動画が1つしか現れていないので(例えば、動画1362)、インタフェース1360に動画1362が現れていることを使用して、「その」動画と発したことからユーザの意図を判定することができる。詳細には、「その」動画へのユーザの参照を、インタフェース1360に現れている動画1362(タイトル「卒業式の動画」)と解釈することができる。したがって、仮想アシスタントは、(例えば、ユーザデバイス102又は遠隔ストレージからテレビセットトップボックス104に動画1362を送信させ、再生を開始させることによって)動画1362を再生させることができる。
[0132]
別の実施例では、音声表記されたユーザ発語1470は、「その」アルバムへの参照(「そのアルバムのスライドショーを再生して。」)を含む。参照される特定のアルバムは、発語入力のみからでは不明瞭であることがある。ユーザデバイス102上に表示されたコンテンツを再び使用して、ユーザ要求の曖昧性を回避することができる。詳細には、図13のインタフェース1360に表示されたコンテンツを使用して、「その」アルバムのスライドショーを再生するというコマンドから、ユーザ意図を判定することができる。インタフェース1360における写真及び動画のリストは、フォトアルバム1354を含む。インタフェース1360にフォトアルバム1364が現れていることを使用して、「その」アルバムと発したことから、ユーザの意図を判定することができる。詳細には、「その」アルバムへのユーザの参照を、インタフェース1360に現れているフォトアルバム1364(タイトル「卒業式のアルバム」)と解釈することができる。したがって、ユーザ発語1470に応じて、仮想アシスタントは、(例えば、フォトアルバム1364の写真をユーザデバイス102又は遠隔ストレージからテレビセットトップボックス104に送信させ、写真のスライドショーを開始させることによって)フォトアルバム1364からの写真を含むスライドショーを表示させることができる。
[0133]
更に別の実施例では、音声表記されたユーザ発語1472は、「最新の」写真への参照(「キッチンのテレビに最新の写真を表示して。」)を含む。参照される特定の写真は、発語入力のみからでは不明瞭であることがある。ユーザデバイス102上に表示されたコンテンツを再び使用して、ユーザ要求の曖昧性を回避することができる。詳細には、図13のインタフェース1360に表示されたコンテンツを使用して、「最新の」写真を表示するというコマンドから、ユーザ意図を判定することができる。インタフェース1360における写真及び動画のリストは、2つの個別の写真1366を含む。インタフェース1360に写真1366が現れていること(特に、インタフェース内における写真1366の出現順序)を使用して、「最新の」写真と発したことから、ユーザの意図を判定することができる。詳細には、「最新の」写真へのユーザの参照と、インタフェース1360の下部に現れている写真1366(2014年6月21日付け)と解釈することができる。したがって、ユーザ発語1472に応じて、仮想アシスタントは、(例えば、最新の写真1366をユーザデバイス102又は遠隔ストレージからテレビセットトップボックス104に送信させ、写真表示させることによって)最新の写真1366をインタフェース1360に表示させることができる。
[0134]
他の実施例では、ユーザは、種々の他のやり方で、インタフェース1360に表示されたメディアコンテンツ(例えば、最新の2枚の写真、全ての動画ニュース、全ての写真、卒業式のアルバム、卒業式の動画、6月21日以降の写真など)を参照することができ、表示されたコンテンツに基づいて、ユーザ意図を同様に判定することができる。表示されたコンテンツと関連付けられたメタデータ(例えば、タイムスタンプ、場所、情報、タイトル、説明など)、ファジーマッチング技術、シノニムマッチングなどを、ユーザ意図を判定するために、表示されたコンテンツと併せて更に使用することができることを了解されたい。したがって、表示されたコンテンツ及びそれと関連付けられたデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。
[0135]
ユーザ意図を判定する際に、任意のアプリケーションの任意のアプリケーションインタフェースにおける任意の種類の表示されたコンテンツを使用することができることを了解されたい。例えば、発語入力において、インターネットブラウザアプリケーションにおいてウェブページ上に表示された画像を参照することができ、表示されたウェブページコンテンツを分析して、所望の画像を識別することができる。同様に、タイトル、ジャンル、アーティスト、バンド名などによる発語入力において、音楽アプリケーションにおける音楽のリストの音楽トラックを参照することができ、音楽アプリケーションにおける表示されたコンテンツ(及びいくつかの実施例では、関連メタデータ)を使用して、発語入力からユーザ意図を判定することができる。次いで、上記で論じたように、判定したユーザ意図を使用して、テレビセットトップボックス104など、別のデバイスを介して、メディアを表示又は再生させることができる。
[0136]
いくつかの実施例では、メディア制御を許可することができるかどうかを判定する、表示のために利用可能なメディアコンテンツを判定する、アクセス許可を判定するなどのために、ユーザ識別、ユーザ認証及び/又はデバイス認証を採用することができる。例えば、例えばテレビセットトップボックス104上でメディアを制御するために、特定のユーザデバイス(例えば、ユーザデバイス102)が認証されているかどうかを判定することができる。登録、ペアリング、信用判定、パスコード、秘密の質問、システム設定などに基づいて、ユーザデバイスを認証することができる。特定のユーザデバイスが認証されていると判定したことに応じて、テレビセットトップボックス104を制御するための試行を許可することができる(例えば、要求側デバイスがメディアを制御することを認証されていると判定したことに応じて、メディアコンテンツを再生することができる)。対照的に、認証されていないデバイスからのメディア制御コマンド又は要求を無視することができ、及び/又は、そのようなデバイスのユーザに、特定のテレビセットトップボックス104を制御する際に使用するために、それらのデバイスを登録するようにプロンプトを出すことができる。
[0137]
別の実施例では、特定のユーザを識別することができ、そのユーザと関連付けられた個人情報を使用して、要求のユーザ意図を判定することができる。例えば、ユーザの声紋を使用する音声認識によるなど、発語入力に基づいて、ユーザを識別することができる。いくつかの実施例では、ユーザは特定のフレーズを発し、そのフレーズを音声認識のために分析することができる。他の実施例では、仮想アシスタントにダイレクトされた発語入力要求を、音声認識を使用して分析して、話者を識別することができる。また、(例えば、ユーザの個人用デバイス102上の)発語入力サンプルのソースに基づいて、ユーザを識別することができる。また、パスワード、パスコード、メニュー選択などに基づいて、ユーザを識別することができる。次いで、識別されたユーザの個人情報に基づいて、ユーザから受信した発語入力を解釈することができる。例えば、ユーザから以前の要求、ユーザが所有するメディアコンテンツ、ユーザのデバイスに記憶されたメディアコンテンツ、ユーザの好み、ユーザ設定、ユーザの人口統計(例えば、話されている言語など)、ユーザプロファイル情報、ユーザ支払方法、又は特定の識別されたユーザと関連付けられた種々の他の個人情報に基づいて、発語入力のユーザ意図を判定することができる。例えば、個人情報に基づいて、お気に入りリストを参照する発語入力などの曖昧性を回避することができ、ユーザの個人的なお気に入りリストを識別することができる。ユーザと関連付けられた写真、動画及び番組(例えば、個人用のユーザデバイスに記憶された写真など)を正確に識別するために、ユーザ識別に基づいて、同様に、「私」の写真、「私」の動画、「私」の番組などを参照する発語入力の曖昧性を回避することができる。同様に、コンテンツの購入を要求する発語入力の曖昧性を回避して、購入のために、(別のユーザの支払方法と対比して)識別されたユーザの支払方法を変更すべきであると判定することができる。
[0138]
いくつかの実施例では、ユーザ認証を使用して、ユーザがメディアコンテンツにアクセスすることが可能であるかどうか、メディアコンテンツを購入することが可能であるかどうかなどを判定することができる。例えば、(例えば、彼らの声紋を使用して)特定のユーザの識別情報を検証して、そのユーザが自身の支払方法を使用して購入を行うことを可能にするために、音声認識を使用することができる。同様に、ユーザを認証して購入を可能にするために、パスワードなどを使用することができる。別の実施例では、特定のユーザの識別情報を検証して、そのユーザが特定のプログラム(例えば、特定のペアレンタルガイドラインレーティングを有するプログラム、特定の対象年齢レーティングを有する映画など)を視聴することを可能になるかどうかを判定するために、音声認識を使用することができる。例えば、特定のプログラムに対する子どもの要求を、要求者がそのようなコンテンツを閲覧することが可能な認証ユーザ(例えば、親)でないことを示す音声認識に基づいて拒否することができる。他の実施例では、音声認識を使用して、ユーザが特定のサブスクリプションコンテンツへのアクセス権を有するかどうか判定することができる(例えば、音声認識に基づいて、プレミアムチャネルのコンテンツにアクセスを制限する)。いくつかの実施例では、ユーザは特定のフレーズを発し、そのフレーズを音声認識のために分析することができる。他の実施例では、仮想アシスタントにダイレクトされた発語入力要求を、音声認識を使用して分析して、話者を識別することができる。したがって、種々のやり方のいずれかでユーザが認証されると最初に判定したことに応じて、ある特定のメディアコンテンツを再生することができる。
[0139]
図15は、モバイルユーザデバイス及びメディア表示デバイス上の結果を備える例示的な仮想アシスタント対話を示す。いくつかの実施例では、仮想アシスタントは、ユーザデバイス102並びにテレビセットトップボックス104など、2つ以上のデバイス上に情報及び制御を提供することができる。更に、いくつかの実施例では、ユーザデバイス102上の制御及び情報のために使用される同じ仮想アシスタントインタフェースを使用して、テレビセットトップボックス104上のメディアを制御するための要求を発行することができる。したがって、仮想アシスタントシステムは、結果を、ユーザデバイス102上に表示すべきか、あるいはテレビセットトップボックス104上に表示すべきかを判定することができる。いくつかの実施例では、テレビセットトップボックス104を制御するためにユーザデバイス102を採用する時、ユーザデバイス102上に(例えば、タッチスクリーン246上に)情報を表示することによって、テレビセットトップボックス104と関連付けられたディスプレイ(例えば、ディスプレイ112)上での仮想アシスタントインタフェースの侵入は最小限に抑えることができる。他の実施例では、ディスプレイ112上にのみ仮想アシスタント情報を表示することができ、あるいは、ユーザデバイス102とディスプレイ112の双方の上に仮想アシスタント情報を表示することができる。
[0140]
いくつかの実施例では、ユーザデバイス102上に直接、仮想アシスタントクエリの結果を表すべきか、あるいは、テレビセットトップボックス104と関連付けられたディスプレイ112上に仮想アシスタントクエリの結果を表示すべきかについて、判定を行うことができる。1つの実施例では、クエリのユーザ意図が情報の要求を含むと判定したことに応じて、ユーザデバイス102上に情報応答を表示することができる。別の例では、クエリのユーザ意図が、メディアコンテンツを再生するという要求を含むと判定したことに応じて、クエリに応じたメディアコンテンツを、テレビセットトップボックス104を介して再生することができる。
[0141]
図15は、仮想アシスタントとユーザとの間の会話型ダイアログの例を示す仮想アシスタントインタフェース1254を示す。アシスタントグリーティング1256は、ユーザに要求を行うようにプロンプトを出すことができる。第1のクエリでは、音声表記されたユーザ発語1574(他のやり方ではタイプ又は入力することもできる)は、表示されたメディアコンテンツと関連付けられた情報回答の要求を含む。詳細には、音声表記されたユーザ発語1574は、例えば、(例えば、図11のインタフェース1150に列挙された)ユーザデバイス102上のインタフェース上に、又は(例えば、図5のインタフェース510に列挙された、あるいは、図7Bのディスプレイ112上で動画726として再生する)ディスプレイ112上に表示され得るサッカーの試合で誰がプレイしているかを問い合わせる。表示されたメディアコンテンツに基づいて、音声表記されたユーザ発語1574のユーザ意図を判定することができる。例えば、ユーザデバイス102又はディスプレイ112上に表示されたコンテンツに基づいて、問題となっている特定のサッカーの試合を識別することができる。音声表記されたユーザ発語1574のユーザ意図は、表示されたコンテンツに基づいて識別されるサッカーの試合においてプレイしているチームについて詳述する情報回答を取得することを含むことができる。ユーザ意図が情報回答の要求を含むと判定したことに応じて、システムは、(ディスプレイ112上とは対照的に)図15のインタフェース1254内に応答を表示することを判定することができる。いくつかの実施例では、表示されたコンテンツと関連付けられたメタデータに(例えば、テレビリストにおけるサッカーの試合の記述に基づいて)基づいて、クエリに対する応答を判定することができる。したがって、図示のとおり、インタフェース1254において、ユーザデバイス102のタッチスクリーン246上に、チームアルファとシータとが試合で対戦していると識別するアシスタントの応答1576を表示することができる。したがって、いくつかの実施例では、クエリが情報要求を含むと判定したことに基づいて、ユーザデバイス102上のインタフェース1254内に情報応答を表示することができる。
[0142]
ただし、インタフェース1254における第2のクエリは、メディア要求を含む。詳細には、音声表記されたユーザ発語1578は、表示されるメディアコンテンツを「ゲーム」に変更することを要求する。(例えば、ユーザがどのゲームを望むかを識別するために)図5のインタフェース510に列挙されたゲーム、図11のインタフェース1150に列挙されたゲーム、(例えば、音声表記されたユーザ発語1574における)以前のクエリで参照されたゲームなど、表示されたコンテンツに基づいて、音声表記されたユーザ発語1578のユーザ意図を判定することができる。したがって、音声表記されたユーザ発語1578のユーザ意図は、表示されたコンテンツを特定のゲーム(ここでは、チームアルファ対シータのサッカーの試合)に変更することを含むことができる。1つの実施例では、ユーザデバイス102上にゲームを表示することができる。ただし、他の実施例では、メディアコンテンツを再生するという要求を含むクエリに基づいて、テレビセットトップボックス104を介して、ゲームを表示することができる。詳細には、ユーザ意図がメディアコンテンツを再生するという要求を含むと判定したことに応じて、システムは、(図15のインタフェース1254内とは対照的に)テレビセットトップボックス104を介してディスプレイ112上に、メディアコンテンツ結果を表示すると判定することができる。いくつかの実施例では、インタフェース1254に、又はディスプレイ112上に、仮想アシスタントが意図するアクションを確認する応答又はパラフレーズ(例えば、「サッカーの試合に変更して。」)を表示することができる。
[0143]
図16は、メディア表示デバイス及びモバイルユーザデバイス上のメディア結果を備える例示的な仮想アシスタント対話を示す。いくつかの実施例では、仮想アシスタントは、ユーザデバイス102とテレビセットトップボックス104の双方の上でのメディアへのアクセスを提供することができる。更に、いくつかの実施例では、ユーザデバイス102上のメディアのために使用される同じ仮想アシスタントインタフェースを使用して、テレビセットトップボックス104上のメディアについての要求を発行することができる。したがって、仮想アシスタントシステムは、結果を、テレビセットトップボックス104を介してユーザデバイス102上に表示すべきか、あるいはディスプレイ112上に表示すべきかを判定することができる。
[0144]
いくつかの実施例では、メディ結果フォーマット、ユーザの好み、デフォルト設定、要求自体中の明示コマンドなどに基づいて、デバイス102又はディスプレイ112上にメディアを表示すべきかどうかにつて判定を行うことができる。例えば、クエリに対するメディア結果のフォーマットを使用して、(例えば、特定の命令なしに)デフォルトでメディア結果をどのデバイス上に表示するかを判定することができる。テレビプログラムは、テレビ上に表示するのにより一層適することがあり、ラージフォーマットの動画は、テレビ上に表示するのにより一層適することがあり、サムネイル写真は、ユーザデバイス上に表示するのにより一層適することがあり、スモールフォーマットのウェブ動画は、ユーザデバイス上に表示するのにより一層適することがあり、種々の他のメディアフォーマットは、比較的大きいテレビスクリーン又は比較的小さいユーザデバイスのディスプレイのいずれかに表示するのにより一層適することがある。したがって、(例えば、メディアフォーマットに基づいて)特定のディスプレイ上にメディアコンテンツを表示すべきであるという判定に応じて、デフォルトで、その特定のディスプレイ上にメディアコンテンツを表示することができる。
[0145]
図16は、メディアコンテンツを再生すること又は表示することに関係するクエリの実施例と共に、仮想アシスタントインタフェース1254を示す。アシスタントグリーティング1256は、ユーザに要求を行うようにプロンプトを出すことができる。第1のクエリにおいて、音声表記されたユーザ発語1680は、サッカーの試合を表示するという要求を含む。上記で論じた実施例と同様に、(例えば、ユーザがどのゲームを望むかを識別するために)図5のインタフェース510に列挙されたゲーム、図11のインタフェース1150に列挙されたゲーム、以前のクエリで参照されたゲームなど、表示されたコンテンツに基づいて、音声表記されたユーザ発語1680のユーザ意図を判定することができる。したがって、音声表記されたユーザ発語1680のユーザ意図は、例えば、テレビで放送され得る特定のサッカーの試合を表示することを含むことができる。ユーザ意図が、テレビ用にフォーマットされるメディア(例えば、テレビ放送されるサッカーの試合)を表示するという要求を含むと判定したことに応じて、システムは、所望のメディアを、テレビセットトップボックス104を介して(ユーザデバイス102自体上とは対照的に)ディスプレイ112上に表示することを自動的に判定することができる。次いで、仮想アシスタントシステムは、(例えば、必要なタスクを実行すること、及び/又は適切なコマンドを送信することによって)テレビセットトップボックス104を、サッカーの試合に同調させ、ディスプレイ112上にそれを表示することができる。
[0146]
ただし、第2のクエリでは、音声表記されたユーザ発語1682は、チームの選手の写真(例えば、「チームアルファ」の写真)を表示するとう要求を含む。上記で説明した実施例と同様に、音声表記されたユーザ発語1682のユーザ意図を判定することができる。音声表記されたユーザ発語1682のユーザ意図は、「チームアルファ」と関連付けられた写真の検索(例えば、ウェブ検索)を実行することと、得られた写真を表示することとを含むことができる。ユーザ意図が、サムネイルフォーマットで提示することができるメディア、又は、特定のフォーマットなしに、ウェブ検索と関連付けられたメディア若しくは他の不特定メディアを表示するという要求を含むと判定したことに応じて、システムは、(得られた写真を、テレビセットトップボックス104を介してディスプレイ112上に表示することとは対照的に)ユーザデバイス102のインタフェース1254において、タッチスクリーン246上に所望のメディア結果を表示することを自動的に判定することができる。例えば、図示のとおり、ユーザのクエリに応じて、ユーザデバイス102上のインタフェース1254内にサムネイル写真1684を表示することができる。したがって、仮想アシスタントシステムは、デフォルトで、ある特定のフォーマットのメディアを、又はある特定のフォーマットで(例えば、サムネイルのグループで)提示され得るメディアを、ユーザデバイス102上に表示させることができる。
[0147]
いくつかの実施例では、ユーザデバイス102上にユーザ発語1680で参照されたサッカーの試合を表示することができ、テレビセットトップボックス104を介してディスプレイ112上に写真1684を表示することができることを了解されたい。ただし、メディアフォーマットに基づいて、表示用のデフォルトデバイスを自動的に判定することができ、それにより、ユーザのためのメディアコマンドが簡略化される。他の実施例では、ユーザの好み、デフォルト設定、コンテンツを表示するために直近に使用されたデバイス、ユーザを識別する音声認識、そのユーザと関連付けられたデバイスなどに基づいて、要求されたメディアコンテンツを表示するためのデフォルトデバイスを判定することができる。例えば、ユーザが好みを設定することができる、あるいは、ある特定の種類のコンテンツ(例えば、動画、スライドショー、テレビプログラムなど)を、テレビセットトップボックス104を介してディスプレイ112上に表示し、他の種類のコンテンツ(例えば、サムネイル、写真、ウェブ動画など)を、ユーザデバイス102のタッチスクリーン246上に表示するように、デフォルト構成を設定することができる。同様に、1つのデバイス又はその他にコンテンツを表示することによって、ある特定のクエリに応答するように、好み又はデフォルト構成を設定することができる。別の実施例では、ユーザが特段別に命令しない限り、全てのコンテンツをユーザデバイス102上に表示することができる。
[0148]
更に他の実施例では、ユーザクエリは、特定のディスプレイ上にコンテンツを表示するコマンドを含むことができる。例えば、図14のユーザ発語1472は、キッチンのテレビに写真を表示するコマンドを含む。その結果、システムは、ユーザデバイス102上に写真を表示することとは対照的に、ユーザのキッチンと関連付けられたテレビディスプレイ上に、写真を表示させることができる。他の実施例では、ユーザは、種々の他のやり方で、どの表示デバイスを使用すべきか(例えば、TVに、大型スクリーンに、リビングルームに、ベッドルームに、自分のタブレットに、自分の電話に、など)を指示することができる。したがって、種々の異なるやり方で、仮想アシスタントクエリのメディアコンテンツ結果を表示するために使用する表示デバイスを判定することができる。
[0149]
図17は、近接度に基づく例示的なメディアデバイス制御を示す。いくつかの実施例では、ユーザは、同じ家庭内に又は同じネットワーク上に、複数のテレビ及びテレビセットトップボックスを有することができる。例えば、ある家庭は、リビングルームにテレビとセットトップボックスのセットを有し、別のセットをベッドルームに有し、キッチンに別のセットを有していることがある。他の実施例では、アパート又はオフィスビルの共有ネットワークなど、同じネットワークに、複数のセットトップボックスを接続することができる。ユーザは、未認証のアクセスを回避するために、特定のセットトップボックスについて遠隔制御106とユーザデバイス102とをペアリングすること、接続すること、あるいは場合によっては認証することができるが、他の実施例では、遠隔制御及び/又はユーザデバイスを使用して、2つ以上のセットトップボックスを制御することができる。ユーザは、例えば、単一のユーザデバイス102を使用して、ベッドルームの、リビングルームの、及びキッチンのセットトップボックスを制御することができる。ユーザはまた、例えば、単一のユーザデバイス102を使用して、自身のアパートの自身のセットトップボックスを制御するばかりでなく、近隣のアパートの近隣のセットトップボックスを制御する(例えば、ユーザデバイス102に記憶された写真のスライドショーを近隣のTV上に表示するなど、ユーザデバイス102からのコンテンツを近隣と共有する)ことができる。ユーザは、単一のユーザデバイス102を使用して複数の異なるセットトップボックスを制御することができるので、システムは、複数セットトップボックスのうち、どのセットトップボックスにコマンドを送信すべきかを判定することができる。同様に、複数のセットトップボックスを動作することができる複数の遠隔制御106を家庭に装備することができるので、システムは同様に、複数セットトップボックスのうち、どのセットトップボックスにコマンドを送信すべきかを判定することができる。
[0150]
1つの実施例では、デバイスの近接度を使用して、複数のセットトップボックスのうち、どれにコマンドを送近隣のTV上に送るべきか(又は、要求されたメディアコンテンツをどのディスプレイ上に表示すべきか)を判定することができる。ユーザデバイス102又は遠隔制御106と複数のセットトップボックスの各々との間で、近接度を判定することができる。次いで、最も近いセットトップボックスに、発行されたコマンドを送信することができる(又は、最も近いディスプレイ上に、要求されたメディアコンテンツを表示することができる)。(例えば、無線周波数を使用する)飛行時間測定、Bluetooth(登録商標)LE、電子ピング信号、近接センサ、サウンドトラベル測定など、種々のやり方のいずれかで、近接度を判定する(又は、少なくとも概算する)ことができる。次いで、測定又は概算した距離を比較することができ、最短距離のデバイス(例えば、最も近いセットトップボックス)にコマンドを発行することができる。
[0151]
図17は、第1のディスプレイ1786を備える第1のセットトップボックス1792と、第2のディスプレイ1788を備える第2のセットトップボックス1794とを含むマルチデバイスシステム1790を示す。1つの実施例では、ユーザは、ユーザデバイス102から、(例えば、どこにかを、又はどのデバイス上にかを必ずしも指定することなく)メディアコンテンツを表示するコマンドを発行することができる。次いで、第1のセットトップボックス1792までの距離1795及び第2のセットトップボックス1794までの距離1796を判定する(又は、概算する)ことができる。図示のとおり、距離1796を、距離1795よりも長くすることができる。近接度に基づいて、ユーザデバイス102からのコマンドを、最も近いデバイスであり、ユーザの意図と一致する見込みが最も高い第1のセットトップボックス1792に発行することができる。いくつかの実施例では、単一の遠隔制御106を使用して、2つ以上のセットトップボックスを制御することもできる。近接度に基づいて、所与の時間に制御するための所望のデバイスを判定することができる。次いで、第2のセットトップボックス1794までの距離1797及び第1のセットトップボックス1792までの距離1798を判定する(又は、概算する)ことができる。図示のとおり、距離1798を、距離1797よりも長くすることができる。近接度に基づいて、遠隔制御106からのコマンドを、最も近いデバイスであり、ユーザの意図と一致する見込みが最も高い第2のセットトップボックス1794に発行することができる。例えば、ユーザが異なる部屋に移動したこと、及びユーザが異なるデバイスを制御したいと望んでいることに適応するように、距離測定を定期的に、又はコマンド毎にリフレッシュすることができる。
[0152]
ユーザは、コマンドについて異なるデバイスを指定することができ、いくつかの場合には近接度をオーバーライドすることを理解されたい。例えば、ユーザデバイス102上に、利用可能な表示デバイスのリストを表示することができる(例えば、セットアップ名、指定された部屋などによって、第1のディスプレイ1786及び第2のディスプレイ1788がリストアップされる、又はセットアップ名、指定された部屋などによって、第1のセットトップボックス1792及び第2のセットトップボックス1794がリストアップされる)。ユーザは、そのリストからデバイスのうちの1つを選択することができる。次いで、選択されたデバイスに、コマンドを送信することができる。次いで、選択されたデバイス上に所望のメディアを表示することによって、ユーザデバイス102で発行されたメディアコンテンツの要求を処理することができる。他の実施例では、ユーザは、口頭コマンドの一部として、所望のデバイスを発語することができる(例えば、キッチンのテレビに試合を表示して、リビングルームで漫画チャンネルに変えて、など)。
[0153]
更に他の実施例では、特定のデバイスと関連付けられたステータス情報に基づいて、要求されたメディアコンテンツを表示するためのデフォルトデバイスを判定することができる。例えば、ユーザデバイス102にヘッドホン(又はヘッドセット)が取り付けられているかどうかを判定することができる。メディアコンテンツを表示するという要求を受信した時に、ユーザデバイス102にヘッドホンが取り付けられていると判定したことに応じて、(例えば、ユーザがテレビではなくユーザデバイス102上でコンテンツを消費すると仮定すると)要求されたコンテンツを、デフォルトで、ユーザデバイス102上に表示することができる。メディアコンテンツを表示するという要求を受信した時に、ユーザデバイス102にヘッドホンが取り付けられていないと判定したことに応じて、本明細書で論じる種々の判定方法のうちのいずれかに従って、要求されたコンテンツを、ユーザデバイス102又はテレビのいずれかに表示することができる。同様に、ユーザデバイス102又はセットトップボックス104の周りの環境光、ユーザデバイス102又はセットトップボックス104に対する他のデバイスの近接度、ユーザデバイス102の向き(例えば、横長方向は、ユーザデバイス102上の所望のビューをより示し易くすることができる)、セットトップボックス104のディスプレイ状態(例えばスリープモード中)、特定のデバイス上の最後の対話以後の時間、あるいは、ユーザデバイス102及び/又はセットトップボックス104のための種々の他のステータスインジケータのうちのいずれかなど、他のデバイスステータス情報を使用して、要求されたメディアコンテンツをユーザデバイス102上に表示すべきか、あるいはセットトップボックス104上に表示すべきかを判定することができる。
[0154]
図18は、仮想アシスタント及び複数のユーザデバイスを使用してテレビ対話を制御するための例示的なプロセス1800を示す。ブロック1802で、第1のディスプレイを備える第1のデバイスにおいて、ユーザからの発語入力を受信することができる。例えば、システム100のユーザデバイス102又は遠隔制御106において、ユーザからの発語入力を受信することができる。いくつかの実施例では、第1のディスプレイは、ユーザデバイス102のタッチスクリーン246、又は遠隔制御106と関連付けられたディスプレイを含むことができる。
[0155]
ブロック1804で、第1のディスプレイ上に表示されたコンテンツに基づいて、発語入力からユーザの意図を判定することができる。例えば、図11のインタフェース1150におけるテレビプログラム1152、あるいは図13のインタフェース1360における写真及び動画などのコンテンツを分析し、それを使用して発語入力についてのユーザ意図を判定することができる。いくつかの実施例では、ユーザは、第1のディスプレイ上に表示されたコンテンツを曖昧に参照することがあり、図12及び図14を参照して上記で論じたように、第1のディスプレイ上に示されたコンテンツを分析して、その参照を解釈する(例えば、「その」動画、「その」アルバム、「その」試合などについてのユーザ意図を判定する)ことによって、参照の曖昧性を回避することができる。
[0156]
再び図18のプロセス1800を参照すると、ブロック1806で、ユーザ意図に基づいて、メディアコンテンツを判定することができる。例えば、ユーザ意図に基づいて、特定の動画、写真、フォトアルバム、テレビプログラム、スポーツイベント、音楽トラックなどを識別することができる。上記で論じた図11及び図12の実施例では、例えば、図11のインタフェース1150に表示される「その」サッカーの試合を参照しているユーザ意図に基づいて、チャンネル5に表示される特定のサッカーの試合を識別することができる。上記で論じた図13及び図14の実施例では、図14の発語入力例から判定されるユーザ意図に基づいて、「卒業式の動画」というタイトルの特定の動画1362、「卒業式のアルバム」というタイトルの特定のフォトアルバム1364、又は特定の写真1366を識別することができる。
[0157]
再び図18のプロセス1800を参照すると、ブロック1808で、第2のディスプレイと関連付けられた第2のデバイス上に、メディアコンテンツを表示することができる。例えば、判定したメディアコンテンツを、テレビセットトップボックス104を介して、スピーカ111を備えるディスプレイ112上で再生することができる。メディアコンテンツを再生することは、テレビセットトップボックス104又は別のデバイス上で、特定のテレビチャンネルに同調させること、特定の動画を再生すること、写真のスライドショーを表示すること、特定の写真を表示すること、特定のオーディオトラックを再生することなどを含むことができる。
[0158]
いくつかの実施例では、仮想アシスタントにダイレクトされた発語入力への応答を、第1のデバイス(例えば、ユーザデバイス102)と関連付けられた第1のディスプレイ上に表示すべきか、あるいは、第2のデバイス(例えば、テレビセットトップボックス104)と関連付けられた第2のディスプレイ上に表示すべきかについて、判定を行うことができる。例えば、図15及び図16を参照して上記で論じたように、ユーザデバイス102上には、より小さいスクリーン上での表示に適した情報回答又はメディアコンテンツを表示することができる一方で、セットトップボックス104と関連付けられたディスプレイ上には、より大きいスクリーン上での表示に適したメディア応答又はメディアコンテンツを表示することができる。図17を参照して上記で論じたように、いくつかの実施例では、ユーザデバイス102と複数のセットトップボックスとの間の距離を使用して、どのセットトップボックス上でメディアコンテンツを再生すべきか、あるいは、どのセットトップボックスにコマンドを発行すべきかを判定することができる。同様に、複数のデバイスが対話し得る便利でユーザフレンドリなエクスペリエンスを提供するために、種々の他の判定を行うことができる。
[0159]
いくつかの実施例では、上記で論じたように、ユーザデバイス102上に表示されたコンテンツを使用して、発語入力の解釈を通知することができるので、同様に、ディスプレイ112上に表示されたコンテンツを使用して、発語入力の解釈を通知することができる。詳細には、テレビセットトップボックス104と関連付けられたディスプレイ上に表示されたコンテンツを、そのコンテンツと関連付けられたメタデータと共に使用して、発語入力からユーザ意図を判定すること、ユーザクエリの曖昧性を回避すること、コンテンツに関係するクエリに応答することなどを行うことができる。
[0160]
図19は、(上述した)例示的な発語入力インタフェース484を示しており、動画480に関する仮想アシスタントクエリがバックグラウンドに表示されている。いくつかの実施例では、ユーザクエリは、ディスプレイ112に表示されたメディアコンテンツに関する質問を含むことができる。例えば、音声表記1916は、女優の識別を要求するクエリを含む(「それらの女優は誰?」)。ディスプレイ112上に表示されたコンテンツを(そのコンテンツに関するメタデータ又は他の記述情報と共に)使用して、そのコンテンツに関係する発語入力からユーザ意図を判定するだけでなく、クエリに対する応答(ユーザにメディア選択を提供する、情報応答並びにメディア応答を含む応答)を判定することができる。例えば、動画480、動画480の記述、動画480のキャラクターと俳優のリスト、動画480のレーティング情報、動画480のジャンル情報、及び動画480と関連付けられた種々の他の記述情報を使用して、ユーザ要求の曖昧性を回避し、ユーザクエリに対する応答を判定することができる。関連付けられたメタデータは、例えば、キャラクター1910とキャラクター1912とキャラクター1914との識別情報(例えば、そのキャラクターを演じる女優の名を伴うキャラクター名)を含むことができる。同様に、任意の他のコンテンツのメタデータは、タイトル、説明、キャラクターのリスト、俳優のリスト、選手のリスト、ジャンル、プロデューサー名、ディレクター名、又はディスプレイ上に表示されたコンテンツ若しくはディスプレイ上のメディアコンテンツの閲覧履歴(例えば、最近表示されたメディア)と関連付けられた表示スケジュールを含むことができる。
[0161]
1つの実施例では、仮想アシスタントにダイレクトされたユーザクエリは、ディスプレイ112上に表示されたものへの曖昧な参照を含むことができる。音声表記1916は、例えば、「それらの」女優への参照を含む(「それらの女優は誰?」)。ユーザが尋ねている特定の女優は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ディスプレイ112上に表示されたコンテンツ及び関連メタデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。例示した実施例では、ディスプレイ112に表示されたコンテンツを使用して、「それらの」女優に対する参照から、ユーザ意図を判定することができる。1つの実施例では、テレビセットトップボックス104は、コンテンツと関連付けられた詳細と共にコンテンツを再生することを識別することができる。この事例では、テレビセットトップボックス104は、種々の記述コンテンツと共に動画480のタイトルを識別することができる。他の実施例では、テレビ番組、スポーツイベント又は他のコンテンツを、関連付けられたメタデータと併せて使用して、ユーザ意図を判定することができる。更に、本明細書で論じる種々の実施例のうちのいずれかでは、発語認識結果及び意図判定は、表示されたコンテンツと関連付けられた用語を、代替物よりも高く重み付けすることができる。例えば、スクリーン上のキャラクターの俳優がスクリーン上に現れている間(又は、彼らが出演している番組を再生している間)、彼らの俳優名により高く重み付けすることができ、それにより、表示されたコンテンツと関連付けられた、可能性が高いユーザ要求の正確な発語認識及び意図判定を行うことができる。
[0162]
1つの実施例では、動画480と関連付けられたキャラクター及び/又は俳優のリストを使用して、動画480に出演している全ての又は最も目立った女優を識別することができ、そこには、女優1910、1912及び1914が含まれ得る。識別された女優を、可能な結果として戻すことができる(メタデータの分解能が粗い場合には、より少数の又は追加の女優が含まれる)。別の実施例では、動画480と関連付けられたメタデータは、所与の時間にスクリーン上に現れている俳優及び女優の識別情報を含むことができ、そのメタデータから、クエリ時に現れている女優を判定することができる(例えば、詳細には、女優1910、1912及び1914が識別される)。更に別の実施例では、顔認識アプリケーションを使用して、ディスプレイ112上に表示された画像から、女優1910、1912及び1914を識別することができる。更に他の実施例では、動画480と関連付けられた種々の他のメタデータ、及び種々の他の認識手法を使用して、「それらの」女優を参照する際のユーザの可能性がある意図を識別することができる。
[0163]
いくつかの実施例では、ディスプレイ112上に表示されたコンテンツは、クエリの発信及び応答の判定中に変化することがある。したがって、メディアコンテンツの閲覧履歴を使用して、ユーザ意図を判定し、クエリに対する応答を判定することができる。例えば、クエリに対する応答が生成される前に、動画480が(例えば、他のキャラクターがいる)別のビューに動いた場合、クエリが発語された時点のユーザのビュー(例えば、ユーザがクエリを開始した時点でスクリーン上に表示されるキャラクター)に基づいて、クエリの結果を判定することができる。いくつかの事例では、ユーザは、クエリを発行するためにメディアの再生を休止することがあり、休止時に表示されたコンテンツを、関連付けられたメタデータと共に使用して、ユーザ意図及びクエリに対する応答を判定することができる。
[0164]
判定したユーザ意図が与えられると、クエリの結果をユーザに提供することができる。図20は、アシスタント応答2020を含む例示的なアシスタント応答インタフェース2018を示し、アシスタント応答2020は、図19の音声表記1916のクエリから判定される応答を含むことができる。アシスタント応答2020は、図示のとおり、動画480中の各女優の名前とその関連キャラクターとのリストを含むことができる(「女優Jennifer Jonesは、キャラクターBlancheを演じており、女優Elizabeth Arnoldは、キャラクターJuliaを演じており、女優Whitney Davidsonは、キャラクターMelissaを演じています。」)。応答2020中の列挙された女優及びキャラクターは、ディスプレイ112上に現れているキャラクター1910、1912及び1914に対応することができる。上述のように、いくつかの実施例では、ディスプレイ112上に表示されたコンテンツは、クエリの発信及び応答の判定中に変化することがある。したがって、応答2020は、ディスプレイ112上にはもはや現れていないコンテンツ又はキャラクターに関する情報を含むことができる。
[0165]
ディスプレイ112上に表示される他のインタフェースの場合と同様に、アシスタント応答インタフェース2018が占めるスクリーンの面積を、所望の情報を伝達するのに十分なスペースを提供しながら、最小量に抑えることができる。いくつかの実施例では、ディスプレイ112上のインタフェースに表示される他のテキストの場合と同様に、アシスタント応答2020を、ディスプレイ112の下部から図20に示した位置へとスクロールアップし、ある特定の時間量(例えば、応答の長さに基づく遅延)にわたって表示し、スクロールアップさせてビューから消すことができる。他の実施例では、遅延後に、インタフェース2018を下向きにスライドしてビューから消すことができる。
[0166]
図21及び図22は、ディスプレイ112に表示されたコンテンツに基づくユーザ意図の判定とクエリに対する応答との別の実施例を示す。図21は、動画480と関連付けられたメディアコンテンツに関する仮想アシスタントクエリを示す例示的な発語入力インタフェース484を示す。いくつかの実施例では、ユーザクエリは、ディスプレイ112に表示されたメディアと関連付けられたメディアコンテンツに関する要求を含むことができる。例えば、ユーザは、例えば、キャラクター、俳優、ジャンルなどに基づいて、特定のメディアと関連付けられた他の映画、テレビプログラム、スポーツイベントなど要求することができる。例えば、音声表記2122は、動画480における女優のキャラクターの名前を参照して、動画480の女優と関連付けられた他のメディアを要求するクエリを含む(「Blancheは他に何に出演している?」)。同じく、ディスプレイ112上に表示されたコンテンツを(そのコンテンツに関するメタデータ又は他の記述情報と共に)使用して、そのコンテンツに関係する発語入力からユーザ意図を判定するだけでなく、クエリに対する応答(情報応答、又はメディア選択における得られる応答のいずれか)を判定することができる。
[0167]
いくつかの実施例では、仮想アシスタントにダイレクトされたユーザクエリは、キャラクターの名前、俳優の名前、プログラムの名前、選手の名前などを使用する曖昧な参照を含むことができる。ディスプレイ112上に表示されたコンテンツのコンテキスト及びその関連メタデータなしには、そのよう参照を正確に解釈するのは難しいことがある。音声表記2122は、例えば、動画480の「Blanche」という名前のキャラクターに対する参照を含む。ユーザが尋ねている特定の女優又は他の人は、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、ディスプレイ112上に表示されたコンテンツ及び関連メタデータを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。例示した実施例では、ディスプレイ112に表示されたコンテンツ及び関連メタデータを使用して、キャラクター名「Blanche」から、ユーザ意図を判定することができる。この事例では、動画480と関連付けられたキャラクターリストを使用して、「Blanche」が動画480のキャラクター「Blanche」を参照する可能性があることを判定することができる。別の実施例では、詳細なメタデータ及び/又は顔認識を使用して、スクリーンに名前が「Blanche」のキャラクターが現れている(又は、ユーザのクエリの開始時にスクリーン上にあらわ割れていた)ことを判定し、そのキャラクターと関連付けられた女優を、最も可能性の高いユーザのクエリの意図とすることができる。例えば、キャラクター1910、1912及び1914がディスプレイ112上に現れている(又は、ユーザのクエリの開始時にディスプレイ112上に現れていた)と判定することができ、次いで、彼らの関連付けられたキャラクター名を参照して、キャラクターBlancheを参照しているクエリのユーザ意図を判定することができる。次いで、俳優リストを使用して、Blancheを演じる女優を識別することができ、識別された女優が出演している他のメディアを識別するために検索を行うことができる。
[0168]
判定したユーザ意図(例えば、キャラクター参照「Blanche」の解釈)、及びクエリの結果の判定(例えば、「Blanche」を演じる女優と関連付けられた他のメディア)が与えられると、応答をユーザに提供することができる。図22は、アシスタントテキスト応答2226と選択可能な動画リンク2228とを含む例示的なアシスタント応答インタフェース2224を示し、それは、図21の音声表記2122のクエリに応じることができる。アシスタントテキスト応答2226は、図示のとおり、選択可能な動画リンク2228を紹介するユーザ要求のパラフレーズを含むことができる。また、アシスタントテキスト応答2226は、ユーザのクエリの曖昧性除去の指示を含むことができる(詳細には、動画480においてキャラクターBlancheを演じる女優Jennifer Jonesを識別する)。そのようなパラフレーズは、仮想アシスタントがユーザのクエリを正しく解釈し、所望の結果を提供していることをユーザに確認することができる。
[0169]
また、アシスタント応答インタフェース2224は、選択可能な動画リンク2228を含むことができる。いくつかの実施例では、仮想アシスタントクエリに対する結果として、映画(例えば、インタフェース2224の映画A及び映画B)を含む種々の種類のメディアコンテンツを提供することができる。クエリの結果として表示されるメディアコンテンツは、(無料で、購入して、又はサブスクリプションの一部として)ユーザが消費するために利用可能であり得るメディアを含むことができる。ユーザは、表示されたメディアを選択して、得られたコンテンツを閲覧又は消費することができる。例えば、ユーザは、女優Jennifer Jonesが出演している他の映画のうちの1つを視聴するために、(例えば、遠隔制御、音声コマンドなどを使用して)選択可能な動画リンク2228のうちの1つを選択することができる。選択可能な動画リンク2228のうちの1つの選択に応じて、その選択と関連付けられた動画を再生し、ディスプレイ112上の動画480を置換することができる。したがって、表示されたメディアコンテンツ及び関連メタデータを使用して、発語入力からユーザ意図を判定することができ、いくつかの実施例では、結果として、再生可能なメディアを提供することができる。
[0170]
ユーザは、クエリを形成する際に、表示されたコンテンツと関連付けられた、俳優、選手、キャラクター、場所、チーム、スポーツイベントの詳細、映画の主題、又は種々の他の情報を参照することができ、仮想アシスタントシステムは、同様に、表示されたコンテンツ及び関連メタデータに基づいて、そのような要求の曖昧性を回避し、ユーザ意図を判定することができることを理解されたい。同様に、いくつかの実施例では、結果は、(ユーザがそのようなメディアコンテンツを具体的には要求するか否かにかかわらず)クエリの主題である人物と関連付けられた、映画、テレビ番組又はスポーツイベントなど、クエリと関連付けられたメディア推薦を含むことができることを理解されたい。
[0171]
更に、いくつかの実施例では、ユーザクエリは、キャラクター、エピソード、映画のプロット、以前のシーンなどに関するクエリのような、メディアコンテンツ自体と関連付けられた情報の要求を含むことができる。上記で論じた実施例の場合と同様に、表示されたコンテンツ及び関連メタデータを使用して、そのようなクエリからユーザ意図を判定し、応答を判定することができる。例えば、ユーザは、キャラクターの記述を要求することがある(例えば、「Blancheは、この映画で何をしている?」)。次いで、仮想アシスタントシステムは、表示されたコンテンツと関連付けられたメタデータから、キャラクターの記述又は配役など、キャラクターに関する要求された情報を識別することができる(例えば、「Blancheは、弁護士のグループの1人であり、Hartfordのトラブルメーカーとして知られている。)。同様に、ユーザは、エピソードの概要を要求することがあり(例えば、「最後のエピソードで何が起こった?」)、仮想アシスタントシステムは、エピソードの記述を検索し、それを提供することができる。
[0172]
いくつかの実施例では、ディスプレイ112上に表示されたコンテンツは、メニューコンテンツを含むことができ、そのようなメニューコンテンツを同様に使用して、発語入力のユーザ意図及びユーザクエリに対する応答を判定するために使用されることができる。図23A〜図23Bは、プログラムメニュー830の例示的なページを示す図である。図23Aは、メディアオプション832の第1のページを示し、図23Bは、(2ページ以上にわたるコンテンツのリストの連続する次のページを含むことができる)メディアオプション832の第2のページを示す。
[0173]
1つの実施例では、コンテンツを再生するというユーザ要求は、メニュー830における、ディスプレイ112上に表示されたものへの曖昧な参照を含むことができる。例えば、ユーザが閲覧するメニュー830は、「その」サッカーの試合、「その」バスケットボールの試合、掃除機の広告、法律番組などを視聴することを要求することができる。所望される特定のプログラムは、発語入力のみからでは不明瞭であることがある。ただし、いくつかの実施例では、デバイス112上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。例示した実施例では、メニュー830のメディアオプションを(いくつかの実施例では、メディアオプションと関連付けられたメタデータと共に)使用して、曖昧な参照を含むコマンドから、ユーザ意図を判定することができる。例えば、「その」サッカーの試合は、スポーツチャンネルのサッカーの試合と解釈することができる。「その」バスケットボールの試合は、カレッジスポーツチャンネルのバスケットボールの試合と解釈することができる。掃除機の広告は、(例えば、掃除機について説明している番組と関連付けられたメタデータに基づいて)テレビショッピング番組と解釈することができる。法律番組は、番組と関連付けられたメタデータ、及び/又はシノニムマッチング、ファジーマッチング若しくは他のマッチング技術に基づいて、法廷ドラマと解釈することができる。したがって、ディスプレイ112上のメニュー830に種々のメディアオプション832が現れていることを使用して、ユーザ要求の曖昧性を回避することができる。
[0174]
いくつかの実施例では、カーソル、ジョイスティック、矢印、ボタン、ジェスチャなどで、表示されたメニューをナビゲートすることができる。そのような場合、選択された項目についてフォーカスを表示することができる。例えば、選択された項目は、太字で、下線を付して、枠線で囲み、他のメニュー項目よりも大きなサイズで、影付きで、反射させて、光らせて、及び/又は、どのメニュー項目が選択され、フォーカスを有するかを強調する任意の他の特徴部を用いて示される。例えば、図23Aの選択されたメディアオプション2330は、現在選択されているメディアオプションとしてフォーカスを有することができ、大きく下線付きでタイプされ、枠線を用いて示されている。
[0175]
いくつかの実施例では、コンテンツ又はメニュー項目を再生又は選択するという要求は、フォーカスを有するメニュー項目の曖昧な参照を含むことができる。例えば、図23Aのユーザが閲覧しているメニュー830は、「その」番組を再生すること要求することができる(例えば、「その番組を再生して。」)。同様に、ユーザは、再生、削除、非表示、視聴リマインダ、録画など、フォーカスを有するメニュー項目と関連付けられた種々の他のコマンドを要求することができる。所望される特定のメニュー項目又は番組は、発語入力のみからでは不明瞭であることがある。ただし、デバイス112上に表示されたコンテンツを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。詳細には、選択されたメディアオプション2330は、メニュー830にフォーカスを有するという事実を使用して、「その」番組を参照するコマンド、主題のないコマンド(例えば、再生、削除、非表示など)、又はフォーカスを有するメディアコンテンツを参照する任意の他の曖昧なコマンドのうちのいずれかの所望のメディアの主題を識別することができる。したがって、発語入力からユーザ意図を判定する際に、フォーカスを有するメニュー項目を使用することができる。
[0176]
(例えば、ユーザの要求開始時には表示されていたが、それから経過後に)ユーザ要求の曖昧性を回避するために使用することができるメディアコンテンツの閲覧履歴の場合と同様に、以前に表示されたメニュー又は検索結果コンテンツを同様に使用して、それ以降のメニューコンテンツ又は検索結果コンテンツに移動した後、それ以降のユーザ要求の曖昧性を回避することができる。例えば、図23Bは、追加のメディアオプション832を備えるメニュー830の第2のページを示す。ユーザは、図23Bに例示した第2のページに進むことができるが、図23Aに例示した第1のページに表示されたコンテンツ(例えば、図23Aに示したメディアオプション832)を再び参照することができる。例えば、メニュー830の第2のページに移動したにもかかわらず、ユーザは、「その」サッカーの試合、「その」バスケットボールの試合又は法律番組の視聴を要求することができ、それらは全て、メニュー830の以前のページに最近表示されたメディアオプション832である。そのような参照は曖昧であることがあるが、メニュー830の第1のページのうち最近表示されたメニューコンテンツを使用して、ユーザ意図を判定することができる。詳細には、図23Aの最近表示されたメディアオプション832を分析して、例示的な曖昧な要求で参照される特定のサッカーの試合、バスケットボールの試合、又は法廷ドラマを識別することができる。いくつかの実施例では、コンテンツがどれくらい最近表示されたかに基づいて、結果にバイアスをかける(例えば、以前に閲覧された結果よりも、結果の直近に閲覧されたページに重み付けする)ことができる。このようにすると、ディスプレイ112上に最近表示されたものの閲覧履歴を使用して、ユーザ意図を判定することができる。以前に表示された検索結果、以前に表示されたプログラム、以前に表示されたメニューなど、任意の最近表示されたコンテンツを使用することができることを理解されたい。これにより、ユーザは、自身が見た特定のビューを発見し、それにナビゲートすることなく、以前に見たものを再び参照することが可能になる。
[0177]
更に他の実施例では、デバイス112上のメニュー又は結果リストに表示された種々の表示キューを使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。図24は、カテゴリーに分けられた例示的なメディアメニューを示し、それらのうちの1つ(映画)がフォーカスを有する。図24は、カテゴリーインタフェース2440を示し、カテゴリーインタフェース2440は、TVオプション2442、映画オプション2444及び音楽オプション2446を含むカテゴリーに分けられたたメディアオプションのカルーセルスタイルのインタフェースを含むことができる。図示のとおり、音楽カテゴリーは一部のみが表示されており、追加のコンテンツを表示するために、カルーセルでメディアを回転させるかのように、(例えば、矢印により示されるように)カルーセルインタフェースを右側にシフトすることができる。例示した実施例では、(例えば、他のカテゴリーよりもユーザに近く見えるように、そのカテゴリーをより大きくする、光を加える、など)種々の他のやり方のいずれかでフォーカスを示すことができるが、映画カテゴリーは、下線付きのタイトル及び枠線によって示されるフォーカスを有する。
[0178]
いくつかの実施例では、コンテンツ又はメニュー項目を再生又は選択するという要求は、項目のグループ(カテゴリーなど)におけるメニュー項目の曖昧な参照を含むことができる。例えば、ユーザが閲覧しているカテゴリーインタフェース2440は、サッカー番組を再生するように要求することができる(「サッカー番組を再生して。」)。所望される特定のメニュー項目又は番組は、発語入力のみからでは不明瞭であることがある。更に、クエリを、ディスプレイ112上に表示される2つ以上の番組と解釈することができる。例えば、サッカー番組の要求は、TVプログラムカテゴリーに列挙されたサッカーの試合、又は映画カテゴリーに列挙されたサッカーの映画のいずれかを指し得る。デバイス112上に表示されたコンテンツ(表示キューを含む)を使用して、ユーザ要求の曖昧性を回避し、ユーザ意図を判定することができる。詳細には、カテゴリーインタフェース2440において映画カテゴリーがフォーカスを有するという事実を使用して、映画カテゴリー上でフォーカスを与えられたサッカーの映画である、所望される特定のサッカー番組を識別することができる。したがって、発語入力からユーザ意図を判定する際に、ディスプレイ112上に表示されるようなフォーカスを有するメディアのカテゴリー(又は、メディアの任意の他のグループ)を使用することができる。また、ユーザは、ある特定のカテゴリーコンテンツの表示を要求するなど、カテゴリーと関連付けられた種々の他の要求を行うことができる(例えば、コメディ映画を表示する、ホラー映画を表示する、など)。
[0179]
他の実施例では、ユーザは、種々の他のやり方で、ディスプレイ112上に表示されたメニュー又はメディア項目を参照することができる。同様に、表示されたコンテンツに基づいて、ユーザ意図は判定することができる。表示されたコンテンツと関連付けられたメタデータ(例えば、TVプログラムの記述、映画の記述など)、ファジーマッチング技術、シノニムマッチングなどを、発語入力からユーザ意図を判定するために、表示されたコンテンツと併せて更に使用することができることを了解されたい。したがって、自然言語要求を含む種々の形態のユーザ要求を適応することができ、本明細書で論じる種々の実施例に従って、ユーザ意図を判定することができる。
[0180]
ディスプレイ112に表示されたコンテンツは、単独で使用しても、あるいは、ユーザデバイス102上に、又はユーザ意図を判定する際に遠隔制御106と関連付けられたディスプレイ上に表示されたコンテンツと併せて使用してもよいことを理解されたい。同様に、テレビセットトップボックス104に通信可能に結合された種々のデバイスのいずれかで仮想アシスタントクエリを受信することができ、どのデバイスがクエリを受信するかにかかわらず、ディスプレイ112上に表示されたコンテンツを使用してユーザ意図を判定することができることを理解されたい。クエリの結果も同様に、ディスプレイ112上に、又は別のディスプレイ上に(例えば、ユーザデバイス102上に)表示することができる。
[0181]
更に、本明細書では論じる種々の実施例のうちのいずれかでは、仮想アシスタントシステムは、ユーザが、具体的にメニューを開いて、メニュー項目にナビゲートすることを必要とせずに、メニューをナビゲートし、メニューオプションを選択することができる。例えば、図24における映画オプション2444の選択など、メディアコンテンツ又はメニューボタンを選択した後に、オプションのメニューが現れることがある。メニューオプションは、メディアの再生だけでなく、後でメディアを視聴するためにリマインダを設定すること、メディア録画を設定すること、お気に入りリストにメディアを加えること、更なるビューからメディアを非表示にすることなどのような、単なるメディアの再生の代替を含み得る。ユーザが、メニューの上でコンテンツ又はサブメニューオプションを有するコンテンツを閲覧している間、ユーザは、選択するメニュー又はサブメニューにナビゲートすることを場合によっては必要とする仮想アシスタントコマンドを発行することができる。例えば、図24のユーザが閲覧しているカテゴリーインタフェース2440は、関連付けられるメニューを手動で開くことなく、映画オプション2444と関連付けられた任意のメニューコマンドを発行することができる。例えば、ユーザは、サッカー映画をお気に入りリストに加えること、夜のニュースを録画すること、映画Bを視聴するためのリマインダを設定することを、そのようなコマンドが利用可能であり得るそれらのメディアオプションと関連付けられたメニュー又はサブメニューを常にナビゲートすることなしに要求し得る。したがって、仮想アシスタントシステムは、ユーザに代わってコマンドを実行するために、メニュー及びサブメニューのメニューオプションがディスプレイ112上に現れているか否かにかかわらず、メニュー及びサブメニューをナビゲートすることができる。これにより、ユーザ要求を単純にすることができ、ユーザが所望のメニュー機能を達成するために行わなければならないクリック又は選択の回数を低減することができる。
[0182]
図25は、ディスプレイ上の示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用して、テレビ対話を制御するための例示的なプロセス2500を示す。ブロック2502で、テレビディスプレイ上に表示されたコンテンツと関連付けられたクエリを含む、ユーザからの発語入力を受信することができる。例えば、発語入力は、(テレビセットトップボックス104によって示される)システム100のディスプレイ112上に現れているキャラクター、俳優、映画、テレビプログラム、スポーツイベント、選手などに関するクエリを含むことができる。例えば、図19の音声表記1916は、ディスプレイ112上の動画480に表示された女優と関連付けられたクエリを含む。同様に、図21の音声表記2122は、例えば、ディスプレイ112上に表示された動画480中のキャラクターと関連付けられたクエリを含む。また、発語入力は、特定のメニュー項目を選択するためのクエリ、又は特定の検索結果に関する情報を得るためのクエリなど、ディスプレイ112上に現れているメニュー又は検索コンテンツと関連付けられたクエリを含むことができる。例えば、表示されたメニューコンテンツは、図23A及び図23Bにおけるメニュー830のメディアオプション832を含むことができる。表示されたメニューコンテンツは同様に、図24のカテゴリーインタフェース2440に現れている、TVオプション2442、映画オプション2444、及び/又は音楽オプション2446を含むことができる。
[0183]
図25のプロセス2500を再び参照すると、ブロック2504で、表示されたコンテンツとメディアコンテンツの閲覧履歴とに基づいて、クエリのユーザ意図を判定することができる。例えば、テレビプログラム、スポーツイベント、映画などの表示されている、又は最近表示されたシーンに基づいて、ユーザ意図を判定することができる。また、表示されている、又は最近表示されたメニュー又は検索コンテンツに基づいて、ユーザ意図を判定することができる。また、表示されたコンテンツを、コンテンツと関連付けられたメタデータと共に分析して、ユーザ意図を判定することができる。例えば、図示され、図19、図21、図23A、図23B及び図24を参照して説明したコンテンツを単独で、又は表示されたコンテンツと関連付けられたメタデータと併せて使用して、ユーザ意図を判定することができる。
[0184]
ブロック2506で、判定したユーザ意図に基づいて、クエリの結果を表示することができる。例えば、図20のアシスタント応答インタフェース2018におけるアシスタント応答2020と同様の結果をディスプレイ112上に表示することができる。別の実施例では、結果として、図22に示したアシスタント応答インタフェース2224におけるアシスタントテキスト応答2226及び選択可能な動画リンク2228など、テキスト及び選択可能なメディアを提供することができる。更に別の実施例では、クエリの結果を表示することは、選択されたメディアコンテンツを表示すること、又は再生すること(例えば、選択された動画を、テレビセットトップボックス104を介してディスプレイ112上で再生すること)を含むことができる。したがって、コンテキストとして表示されたコンテンツ及び関連メタデータを使用する様々なやり方で、発語入力からユーザ意図を判定することができる。
[0185]
いくつかの実施例では、例えば、利用可能なクエリをユーザに通知する、ユーザが楽しみ得るコンテンツを推薦する、どのようにシステムを使用するかをユーザに教える、消費のために追加のメディアコンテンツを見つけるようにユーザに勧めるなどのために、ユーザに仮想アシスタントクエリ推薦を提供することができる。いくつかの実施例では、クエリ推薦は、考えられ得るコマンドの包括的な推薦(例えば、コメディを見つける、TVガイドを表示する、アクション映画を検索する、クローズドキャプションをオンにする、など)を含むことができる。他の実施例では、クエリ推薦は、表示されたコンテンツに関係するターゲット推薦(例えば、この番組をウォッチリストに加える、ソーシャルメディアを介してこの番組を共有する、この映画のサウンドトラックを教える、このゲストが販売している本を教える、ゲストがプラグインしている映画のトレーラを教える、など)、ユーザの好み(例えば、クローズドキャプションの使用など)、ユーザが所有するコンテンツ、ユーザのデバイス上に録画されたコンテンツ、通知、アラート、メディアコンテンツの閲覧履歴(例えば、最近表示されたメニュー項目、番組の最近表示されたシーン、俳優の最近の出演など)などを含むことができる。テレビセットトップボックス104を介したディスプレイ112上での表示、ユーザデバイス102上での表示、又は遠隔制御106と関連付けられたディスプレイ上での表示を含めて、任意のデバイス上に推薦を表示することができる。更に、近くにあるデバイス、及び/又は特定の時間にテレビセットトップボックス104と通信するデバイスに基づいて、推薦を判定する(例えば、特定の時間にTVを視聴している室内のユーザのデバイスから、コンテンツを推薦する)ことができる。他の実施例では、時刻、クラウドソースの情報(例えば、所与の時間に視聴されている人気番組)、生放送番組(例えば、ライブスポーツイベント)、メディアコンテンツの閲覧履歴(例えば、最後に視聴されたいくつかの番組、最近閲覧された検索結果のセット、最近閲覧されたメディアオプションのグループなど)、又は種々の他のコンテキスト情報のうちのいずれかを含む、種々の他のコンテキスト情報に基づいて、推薦を判定することができる。
[0186]
図26は、コンテンツベースの仮想アシスタントクエリ推薦2652を含む例示的な推薦インタフェース2650を示す。1つの実施例では、推薦を要求しているユーザから受信した入力に応じて、インタフェース2650などのインタフェースに、クエリ推薦を提供することができる。例えば、ユーザデバイス102又は遠隔制御106から、クエリ推薦を要求する入力を受信することができる。いくつかの実施例では、入力は、ボタン押下、ボタンのダブルクリック、メニュー選択、音声コマンド(例えば、いくつかの推薦を表示する、何ができるのか、どんなオプションがあるのか、など)、又は、ユーザデバイス102若しくは遠隔制御106において受信するものを含むことができる。例えば、ユーザは、クエリ推薦を要求するために、遠隔制御106上の物理ボタンをダブルクリックすることができ、あるいは、クエリ推薦を要求するために、テレビセットトップボックス104と関連付けられたインタフェースの閲覧時にユーザデバイス102上の物理ボタン又は仮想ボタンをダブルクリックすることができる。
[0187]
動画480などの動画像の上に、又は任意の他のバックグラウンドコンテンツ(例えば、メニュー、静止画像、休止された動画など)の上に、推薦インタフェース2650を表示することができる。本明細書で論じる他のインタフェースの場合と同様に、ディスプレイ112の下部からスライドアップするように推薦インタフェース2650をアニメーション化することができ、バックグラウンドの動画480との干渉を制限するように、所望の情報を十分に伝達しながら、推薦インタフェース2650が占めるスペース量を最小限に抑えることができる。他の実施例では、バックグラウンドコンテンツが静止している時に(例えば、休止された動画、メニュー、画像など)、推薦のインタフェースをより大きくすることができる。
[0188]
いくつかの実施例では、表示されたメディアコンテンツ又はメディアコンテンツの閲覧履歴(例えば、映画、テレビ番組、スポーツイベント、最近閲覧された番組、最近閲覧されたメニュー、最近閲覧された映画のシーン、放送中のテレビエピソードの最近のシーンなど)に基づいて、仮想アシスタントクエリ推薦を判定することができる。例えば、図26は、表示された動画480に基づいて判定することができるコンテンツベースの推薦2652を示しており、表示された動画480はバックグラウンドに表示され、キャラクター1910、1912及び1914がディスプレイ112に現れている。また、表示されたコンテンツと関連付けられたメタデータ(例えば、メディアコンテンツの記述的な詳細)を使用して、クエリ推薦を判定することができる。メタデータは、番組タイトル、キャラクターリスト、俳優リスト、エピソードの記述、チーム名簿、チームランキング、番組概要、映画の詳細、プロットの記述、ディレクター名、プロデューサー名、俳優の出演時間、スポーツの順位表、スポーツのスコア、ジャンル、シーズンエピソードリスト、関係するメディアコンテンツ、又は種々の他の関連情報を含めて、表示されたコンテンツと関連付けられた種々の情報を含むことができる。例えば、動画480と関連付けられたメタデータは、キャラクター1910、1912及び1914を演じている女優と共に、それらのキャラクター名を含むことができる。メタデータはまた、動画480、(動画480がシリーズのテレビエピソードである場合)以前の又は次のエピソードの記述など、プロットの記述を含むことができる。
[0189]
図26は、動画480及び動画480と関連付けられたメタデータに基づいて推薦インタフェース2650に示すことができる種々のコンテンツベースの推薦2652を示す。例えば、動画480のキャラクター1910の名前は「Blanche」とすることができ、キャラクター名を使用して、キャラクターBlancheに関する、又はそのキャラクターを演じる女優に関する情報についてのクエリ推薦を策定することができる(例えば、「Blancheを演じている女優は誰?」)。動画480と関連付けられたメタデータ(例えば、キャラクターリスト、俳優リスト、俳優の出演と関連付けられた時間など)から、キャラクター1910を識別することができる。他の実施例では、顔認識を使用して、所与の時間にディスプレイ112上に現れる女優及び/又はキャラクターを識別することができる。キャラクターの配役、プロファイル、他のキャラクターとの関係などに関するクエリなど、メディア自体におけるキャラクターと関連付けられた種々の他のクエリ推薦を提供することができる。
[0190]
別の実施例では、(例えば、メタデータ及び/又は顔認識に基づいて)ディスプレイ112上に現れている俳優又は女優を識別することができ、その俳優又は女優と関連付けられたクエリ推薦を提供することができる。そのようなクエリ推薦は、演じた配役(単数又は複数)、映画賞、年齢、出演している他のメディア、経歴、親族、関係者、又は俳優若しくは女優に関する種々の他の詳細のうちのいずれかを含むことができる。例えば、キャラクター1914は、Whitney Davidsonという名前の女優に演じられ得、女優名Whitney Davidsonを使用して、女優Whitney Davidsonが出演している他の映画、テレビプログラム、又は他のメディアを識別するためのクエリ推薦を策定することができる(例えば、「Whitney Davidsonは他に何に出演している?」)。
[0191]
他の実施例では、番組に関する詳細を使用してクエリ推薦を策定することができる。エピソードの概要、プロットの要旨、エピソードリスト、エピソードのタイトル、シリーズタイトルなどを使用して、クエリ推薦を策定することができる。例えば、テレビプログラムの最後のエピソードで何が起こったかを説明するための推薦(例えば、「最後のエピソードで何が起こった?」)を提供することができ、仮想アシスタントシステムはそこに、ディスプレイ112上に現在表示されているエピソードに基づいて識別される前のエピソードからのエピソードの概要(及びその関連メタデータ)を応答として提供することができる。別の実施例では、次のエピソードの録画を設定するための推薦を提供することができ、それは、システムが、ディスプレイ112上に表示された現在放送しているエピソードに基づいて、次のエピソードを識別することによって達成される。更に別の実施例では、ディスプレイ112上に現れている現在のエピソード又は番組に関する情報を得るための推薦を提供することができ、メタデータから取得された番組のタイトルを使用して、クエリ推薦を策定することができる(例えば、「『Their Show』のこのエピソードは何について?」又は「『Their Show』は何について?」)。
[0192]
別の実施例では、表示されたコンテンツと関連付けられたカテゴリー、ジャンル、レーティング、賞、記述などを使用して、クエリ推薦を策定することができる。例えば、動画480は、女性が主人公であるコメディとして説明されるテレビプログラムに対応することができる。この情報から、同様の特徴をもつ他の番組を識別するためのクエリ推薦を策定することができる(例えば、「女性が主演の他のコメディを見つけて。」)。他の実施例では、ユーザサブスクリプション、再生するために利用可能なコンテンツ(例えば、テレビセットトップボックス104上のコンテンツ、ユーザデバイス102上のコンテンツ、ストリーミングために利用可能なコンテンツなどの)などに基づいて、推薦を判定することができる。例えば、情報又はメディア結果が利用可能であるかどうかに基づいて、潜在的なクエリ推薦をフィルタリングすることができる。再生可能なメディアコンテンツ若しくは情報回答を生じないかもしれないクエリ推薦を除外することができ、及び/又は、直ちに利用可能な情報回答若しくは再生可能なメディアコンテンツによるクエリ推薦を提供する(若しくは、それに、どの推薦を提供するべきか判定する際により重度に重み付けする)ことができる。したがって、表示されたコンテンツ及び関連メタデータを様々なやり方で使用して、クエリ推薦を判定することができる。
[0193]
図27は、推薦されたクエリの選択を確認するための例示的な選択インタフェース2754を示す。いくつかの実施例では、ユーザは、クエリを発語すること、ボタンを用いてそれらを選択すること、カーソルを用いてそれらにナビゲートすることなどによって、表示されたクエリ推薦を選択することができる。選択に応じて、選択インタフェース2754などの確認インタフェースに、選択された推薦を一時的に表示することができる。1つの実施例では、選択された推薦2756を、推薦インタフェース2650において選択された推薦2756が現れているところから、コマンド受信確認490の隣の図27に示した位置まで動くように、(例えば、矢印が示すように)アニメーション化することができ、他の選択されていない推薦をディスプレイから非表示にすることができる。
[0194]
図28A〜図28Bは、選択されたクエリに基づく例示的な仮想アシスタント回答インタフェース2862を示す図である。いくつかの実施例では、回答インタフェース2862などの回答インタフェースに、選択されたクエリに対する情報回答を表示することができる。推薦インタフェース2650又は選択インタフェース2754のいずれかから切り替える際には、図28Aに示すように、遷移インタフェース2858に表示することができる。詳細には、次のコンテンツがディスプレイ112の下部から上向きにスクロールするにつれて、インタフェース内の以前に表示されたコンテンツが上向きにスクロールされ、インタフェースから消える。例えば、選択された推薦2756を、仮想アシスタントインタフェースの上縁部で見えなくなるまで上向きにスライド又はスクロールすることができ、アシスタント結果2860を、図28Bに示した位置に到着するまで、ディスプレイ112の下部から上向きにスライド又はスクロールすることができる。
[0195]
回答インタフェース2862は、選択されたクエリ推薦に応じた(又は、任意の他のクエリに応じた)情報回答及び/又はメディア結果を含むことができる。例えば、選択されたクエリ推薦2756に応じて、アシスタント結果2860を判定し、提供することができる。詳細には、前のエピソードの概要の要求に応じて、表示されたコンテンツに基づいて前のエピソードを識別することができ、関連付けられた記述又は概要を識別し、それをユーザに提供することができる。例示した実施例では、アシスタント結果2860は、ディスプレイ112上の動画480に対応するプログラムの以前のエピソードについて説明することができる(例えば、「『Their Show』のエピソード203において、Blancheが、ゲスト演説者としてカレッジの心理学クラスに招待される。JuliaとMelissaが、予告なしに現れ、騒動を起こす。」)。また、本明細書では論じた他のやり方のいずれかで情報回答及びメディア結果(例えば、選択可能な動画リンク)を提示することができ、又は、種々の他のやり方(例えば、回答を発語する、直ちにコンテンツを再生する、アニメーションを示す、画像を表示する、など)で結果を提示することができる。
[0196]
別の実施例では、通知又はアラートを使用して、仮想アシスタントクエリ推薦を判定することができる。図29は、メディアコンテンツ通知2964(推薦を判定する際に、任意の通知を考慮に入れることができるが)と、通知ベースの推薦2966及びコンテンツベースの推薦2652の双方を備える推薦インタフェース2650(図26を参照して上記で論じた同じ概念のうちのいくつかを含むことができる)とを示す。いくつかの実施例では、通知のコンテンツを分析して、関連するメディアに関係する名前、タイトル、主題、アクションなどを識別することができる。例示した実施例では、通知2964は、表示のために利用可能な代替メディアコンテンツについてユーザに通知するアラートを含み、詳細には、スポーツイベントが生放送であり、試合のコンテンツがユーザにとって興味の対象であり得る(例えば、「チームシータとチームアルファは、試合残り5分間の時点で同点です。」)。いくつかの実施例では、ディスプレイ112の上部に、通知を瞬間的に表示することができる。通知を、(矢印が示すように)ディスプレイ112の上部から、図29に示した位置へとスライドダウンし、ある特定の時間にわたって表示し、ディスプレイ112の上部において再び見えなくなるようにスライドアップして戻すことができる。
[0197]
通知又はアラートは、利用可能な代替メディアコンテンツ(例えば、ディスプレイ112上に現在表示され得るものの代替物)、利用可能な濱放送のテレビプログラム、新たにダウンロードされたメディアコンテンツ、最近追加されたサブスクリプションコンテンツ、友人から受信した推薦、別のデバイスから送信されたメディアの受信などのような、種々の情報のユーザを通知することができる。また、家庭用の又は識別されたユーザが視聴しているにメディアに基づいて、通知をパーソナライズする(例えば、アカウント選択を使用したユーザ認証、音声認識、パスワードなどに基づいて識別する)ことができる。1つの実施例では、システムは、番組に割り込み、(ユーザプロファイル、好きなチーム(単数又は複数)、好みのスポーツ(単数又は複数)、閲覧履歴などに基づいて通知のコンテンツを望む可能性があり得る)ユーザのための表示通知2964など、可能性がある所望のコンテンツに基づいて通知を表示することができる。例えば、スポーツイベントのスコア、試合の状況、残り時間などを、スポーツデータフィード、報道機関、ソーシャルメディアのディスカッションなどから取得することができ、それを使用して、ユーザに通知するための考えられ得る代替メディアコンテンツを識別することができる。
[0198]
他の実施例では、現在閲覧されているコンテンツの代替物を推薦するために、アラート又は通知を介して(例えば、多くのユーザに)人気があるメディアコンテンツを提供することができる(例えば、人気がある番組又はユーザが好きなジャンルの番組がちょうど始まったこと、又は場合によっては閲覧するために利用可能であることをユーザに通知する)。例示した実施例では、ユーザは、チームシータ及びチームアルファの一方又は双方をフォローし得る(あるいは、サッカー又は特定のスポーツ、リーグなどをフォローし得る)。システムは、利用可能なライブコンテンツがユーザの好みと一致すると判定することができる(例えば、別のチャンネルの試合が、ユーザの好みと一致する、試合の残り時間がほとんどない、スコアが近接している)。次いで、システムは、可能性がある所望のコンテンツの通知2964を介してユーザにアラートを出すことを判定することができる。いくつかの実施例では、ユーザは、通知2964(又は、通知2964内のリンク)を選択して、(例えば、遠隔制御ボタン、カーソル、口頭要求などを使用して)推薦されたコンテンツに切り替えることができる。
[0199]
関連するメディア、関連する用語、名前、タイトル、主題、アクションなどを識別するために通知コンテンツを分析することによって、通知に基づいて、仮想アシスタントクエリ推薦を判定することができる。次いで、識別された情報を使用して、通知2964に基づいて、通知ベースの推薦2966など、適切な仮想アシスタントクエリ推薦を策定することができる。例えば、ライブスポーツイベントのエキサイティングな終わりに関する通知を表示することができる。次いで、ユーザがクエリ推薦を要求すると、スポーツイベントを閲覧するための、チームの成績に関して照会するための、又は通知に関係するコンテンツを発見するためのクエリ推薦を含む推薦インタフェース2650(例えば、シータ/アルファの試合に変える、チームシータのステータスはどんなか、他にどんなサッカーの試合が放送されているか)を表示することができる。通知で識別された興味の対象である特定の用語に基づいて、種々の他のクエリ推薦を同様に判定し、それをユーザに提供することができる。
[0200]
また、ユーザデバイス上のコンテンツから、(例えば、テレビセットトップボックス104を介した消費のための)メディアコンテンツに関係する仮想アシスタントクエリ推薦を判定することができ、推薦をユーザデバイス上に提供することもできる。いくつかの実施例では、テレビセットトップボックス104に接続された、又はそれと通信するユーザデバイス上で、再生可能なデバイスコンテンツを識別することができる。図30は、インタフェース1360中に例示的な写真及び動画コンテンツを備えるユーザデバイス102を示す。どんなコンテンツがユーザデバイス上での再生のために利用可能であるか、又はどんなコンテンツが再生を望まれる可能性があるかについて、判定を行うことができる。例えば、アクティブなアプリケーションに基づいて、再生可能なメディア3068(例えば、写真及び動画アプリケーション)を識別することができ、又は、インタフェース1360上に表示されているかどうかにかかわりなく、記憶されたコンテンツについて、再生可能なメディア3068を識別することができる(例えば、いくつかの実施例では、アクティブなアプリケーションから、又は、他の実施例では、所与の時間に表示されることなく、コンテンツを識別することができる)。再生可能なメディア3068は、例えば、動画1362、フォトアルバム1364及び写真1366を含むことができ、それらはそれぞれ、表示又は再生のために、テレビセットトップボックス104に送信され得るパーソナルユーザコンテンツを含むことができる。他の実施例では、クエリ推薦を判定するために、任意の写真、動画、音楽、ゲームインタフェース、アプリケーションインタフェース、又は、ユーザデバイス102上に記憶又は表示された他のメディアコンテンツを識別し、使用することができる。
[0201]
識別された再生可能なメディア3068を用いて、仮想アシスタントクエリ推薦を判定し、それをユーザに提供することができる。図31は、再生可能なユーザデバイスコンテンツに基づく仮想アシスタントクエリ推薦と、別個のディスプレイ(例えば、テレビセットトップボックス104と関連付けられたディスプレイ112)上に表示された動画コンテンツに基づく仮想アシスタントクエリ推薦とを備える、ユーザデバイス102上の例示的なTVアシスタントインタフェース3170を示す。TVアシスタントインタフェース3170は、特に、メディアコンテンツ及び/又はテレビセットトップボックス104と対話するための仮想アシスタントインタフェースを含むことができる。ユーザは、インタフェース3170を閲覧する時に、例えば物理ボタンのダブルクリックによって、ユーザデバイス102上でクエリ推薦を要求することができる。同様に、他の入力を使用して、クエリ推薦の要求を示すことができる。図示のとおり、アシスタントグリーティング3172は、提供されたクエリ推薦を紹介することができる(例えば、「あなたのTV体験を制御するための推薦がいくつかあります。」)。
[0202]
ユーザデバイス102上に提供された仮想アシスタントクエリ推薦は、種々のソースデバイスに基づく推薦、並びに全般的な推薦を含むことができる。例えば、デバイスベースの推薦3174は、(ユーザデバイス102上に表示されたコンテンツを含む)ユーザデバイス102に記憶されたコンテンツに基づくクエリ推薦を含むことができる。コンテンツベースの推薦2652は、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示されたコンテンツに基づくことができる。全般的な推薦3176は、特定のメディアコンテンツ又はメディアコンテンツを備える特定のデバイスと関連付けられた全般的な推薦を含むことができる。
[0203]
例えば、ユーザデバイス102上で識別された再生可能なコンテンツ(例えば、動画、音楽、写真、ゲームインタフェース、アプリケーションインタフェース、など)に基づいて、デバイスベースの推薦3174を判定することができる。例示した実施例では、図30に示した再生可能なメディア3068に基づいて、デバイスベースの推薦3174を判定することができる。例えば、フォトアルバム1364が再生可能なメディア3068として識別されたと仮定すると、フォトアルバム1364の詳細を使用して、クエリを策定することができる。システムは、スライドショーで表示することができる複数の写真のアルバムとしてコンテンツを識別することができ、次いで、(いくつかの事例では)アルバムのタイトルを使用して、写真の特定のアルバムのスライドショーを表示するクエリ推薦を策定することができる(例えば、「あなたの写真から「卒業式のアルバム」のスライドショーを表示する。」)。いくつかの実施例では、推薦は、コンテンツのソースの指示(例えば、「あなたの写真から」「Jenniferの電話から」、「Danielのタブレットから」など)を含むことができる。また、推薦は、特定の日付から写真を閲覧するための推薦(例えば、6月21日から写真を表示する)など、特定のコンテンツを参照するめに他の詳細を使用することができる。別の実施例では、再生可能なメディア3068として、動画1362を識別することができ、動画のタイトル(又は、他の識別情報)を使用して、動画を再生するためのクエリ推薦を策定することができる(例えば、「あなたの動画から『卒業式の動画』を表示する。」)。
[0204]
他の実施例では、他の接続されたデバイス上で利用可能なコンテンツを識別し、それを使用して、仮想アシスタントクエリ推薦を策定することができる。例えば、共通のテレビセットトップボックス104に接続された2つのユーザデバイス102の各々からのコンテンツを識別し、仮想アシスタントクエリ推薦を策定する際にそれを使用することができる。いくつかの実施例では、ユーザは、共有するためにどのコンテンツをシステムから見えるようにするかを選択することができ、他のコンテンツをクエリ推薦に含めないように、あるいは場合によっては、再生するために他のコンテンツを利用可能しないように、システムから他のコンテンツを非表示にすることができる。
[0205]
図31のインタフェース3170に表示されたコンテンツベースの推薦2652は、例えば、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示されたコンテンツに基づいて判定することができる。いくつかの実施例では、図26を参照して上述したのと同じように、コンテンツベースの推薦2652を判定することができる。例示された実施例では、図31に示したコンテンツベースの推薦2652は、(例えば、図26の場合のように)ディスプレイ112上に表示された動画480に基づくことができる。このようにすると、任意の数の接続されたデバイス上に表示される、又はそこで利用可能なコンテンツに基づいて、仮想アシスタントクエリ推薦を導き出すことができる。ターゲットの推薦に加えて、全般的な推薦3176(例えば、ガイドを表示する、どんなスポーツが放送されているか、チャンネル3では何が放送されているか、など)をあらかじめ判定し、提供することができる。
[0206]
図32は、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示されたコンテンツベースの推薦2652と共に、接続されたデバイスベースの推薦3275を備える例示的な推薦インタフェース2650を示す。いくつかの実施例では、図26を参照して上述したのと同じように、コンテンツベースの推薦2652を判定することができる。上述のように、任意の数の接続されたデバイス上のコンテンツに基づいて、仮想アシスタントクエリ推薦を策定することができ、任意の数の接続されたデバイス上に、その推薦を提供することができる。図32は、ユーザデバイス102上のコンテンツから導き出すことができる、接続されたデバイスベースの推薦3275を示す。例えば、ユーザデバイス102上で、図30に再生可能なメディア3068としてインタフェース1360に表示された写真及び動画コンテンツなど、再生可能なコンテンツを識別することができる。次いで、ユーザデバイス102上の識別された再生可能なコンテンツを使用して、テレビセットトップボックス104と関連付けられたディスプレイ112上に表示することができる推薦を策定することができる。いくつかの実施例では、図31を参照して上述したデバイスベースの推薦3174と同じように、接続されたデバイスベースの推薦3275を判定することができる。更に、上述のように、いくつかの実施例では、接続されたデバイスベースの推薦3275に示すような「Jakeの電話から」など、ソース情報を識別することを、推薦に含めることができる。したがって、1つのデバイス上に提供された仮想アシスタントクエリ推薦を、別のデバイスからのコンテンツ(例えば、表示されたコンテンツ、記憶されたコンテンツなど)に基づいて導き出すことができる。接続されたデバイスは、テレビセットトップボックス104及び/又はユーザデバイス102にアクセス可能な(例えば、推薦を策定するために、クラウドに記憶されたメディアコンテンツにアクセする)遠隔記憶デバイスを含むことができることを了解されたい。
[0207]
推薦の要求に応じて、種々のソースからの仮想アシスタントクエリ推薦の任意の組み合わせを提供することができることを理解されたい。例えば、種々のソースからの推薦をランダムに組み合わせることができ、あるいは、人気、ユーザの好み、選択履歴などに基づいて、種々のソースから推薦を提示することができる。更に、クエリを、種々の他のやり方で判定することができ、クエリ履歴、ユーザの好み、クエリの人気などのような種々の他の因子に基づいて提示することができる。更に、いくつかの実施例では、表示された推薦を遅延後の新しい代替推薦と置換することによって、クエリ推薦を自動的に循環させることができる。更に、ユーザは、例えば、タッチスクリーン上でタップすること、クエリを発語すること、ナビゲーションキーを用いてクエリを選択すること、ボタンを用いてクエリを選択すること、カーソルを用いてクエリを選択することなどによって、表示された推薦を任意のインタフェース上で選択することができ、次いで、関連付けられた応答(例えば、情報及び/又はメディア応答)を提供することができることを理解されたい。
[0208]
また、種々の実施例のうちのいずれかでは、利用可能なコンテンツに基づいて、仮想アシスタントクエリ推薦をフィルタリングすることができる。例えば、利用不可能なメディアコンテンツ(例えば、ケーブルサブスクリプションがない)を生じる、又は、関連付けられた情報回答を有し得る潜在的なクエリ推薦は、推薦としての資格を失い、表示せずに隠しておくことができる。一方で、ユーザがアクセスを有する直ちに再生可能なメディアコンテンツを生じる潜在的なクエリ推薦に、他の潜在的な推薦よりも重み付けすることができ、又は場合によっては、表示のためにバイアスをかけることができる。このようにすると、表示のための仮想アシスタントクエリ推薦を判定する際に、ユーザが閲覧するためのメディアコンテンツの可用性を使用することができる。
[0209]
更に、種々の実施例のうちのいずれかでは、プリロードされたクエリ回答を推薦の代わりに、又はそれに加えて(例えば、推薦インタフェース2650に)提供することができる。個人使用及び/又は現在のコンテキストに基づいて、そのようなプリロードされたクエリ回答を選択し、提供することができる。例えば、特定のプログラムを視聴しているユーザは、推薦を受信するために、ボタンをタップする、ボタンをダブルクリックするなどができる。クエリ推薦の代わりに、又はそれに加えて、再生中の曲又はサウンドトラックを識別すること(例えば、「この曲は、Performance Pieceです」)、現在演じられているエピソードの出演者を識別すること(例えば、「女優Janet QuinnがGenevieveを演じています」)、類似メディアを識別すること(例えば、「番組Qはこの番組と類似しています」)、又は本明細書では論じる他のクエリのうちのいずれかの結果を提供すること、などコンテキストベース情報を自動的に提供することができる。
[0210]
更に、ユーザがメディアコンテンツをレーティングして、ユーザの好みの仮想アシスタント(例えば、選択可能なレーティングスケール)を通知する種々のインタフェースのうちのいずれかにアフォーダンスを提供することができる。他の実施例では、ユーザは、自然言語コマンドとしてレーティング情報(例えば、「私はこれが大好きです」、「私はこれが嫌いです」、「私はこの番組が好きではありません」)など)を発語することができる。更に他の実施例では、例示し、本明細書で説明する種々のインタフェースのうちのいずれかにおいて、種々の他の機能要素及び情報要素を提供することができる。例えば、インタフェースは、検索リンク、購入リンク、メディアリンクなどのような、重要な機能及び場所へのリンクを更に含むことができる。別の実施例では、インタフェースは、現在再生中のコンテンツに基づく次に他に何を視聴すべきかの推奨を(例えば、類似するコンテンツを選択すること)更に含むことができる。更に別の実施例では、インタフェースは、パーソナライズされた好み及び/又は最近のアクティビティに基づく次に他に何を視聴すべきかの推奨(例えば、ユーザレーティング、ユーザが入力した好み、最近視聴したプログラムなどに基づいてコンテンツを選択すること)を更に含むことができる。更に他の実施例では、インタフェースは、ユーザ対話の命令(例えば、「押したまま仮想アシスタントに話しかけてください」、「推薦を取得するためには1回タップしてください」など)を更に含むことができる。いくつかの実施例では、プリロードされた回答、推薦などを提供することにより、コンテンツを多種多様なユーザが(例えば、言語又は他のコントロールバリアにかかわらず、種々の技術レベルのユーザが)容易に利用できるようにしながら、ユーザエクスペリエンスを愉快なものにすることができる。
[0211]
図33は、メディアコンテンツを制御するための仮想アシスタント対話(例えば、仮想アシスタントクエリ)を推薦するための例示的なプロセス3300を示す。ブロック3302で、ディスプレイ上にメディアコンテンツを表示することができる。例えば、図26に示すように、テレビセットトップボックス104を介してディスプレイ112上に動画480を表示することができ、あるいは、図30に示すように、ユーザデバイス102のタッチスクリーン246上に、インタフェース1360を表示することができる。ブロック3304で、ユーザからの入力を受信することができる。入力は、仮想アシスタントクエリ推薦の要求を含むことができる。入力は、ボタン押下、ボタンのダブルクリック、メニュー選択、推薦についての口頭クエリをなど含むことができる。
[0212]
ブロック3306で、メディアコンテンツ及び/又はメディアコンテンツの閲覧履歴に基づいて、仮想アシスタントクエリを判定することができる。例えば、表示されたプログラム、メニュー、アプリケーション、メディアコンテンツのリスト、通知などに基づいて、仮想アシスタントクエリを判定することができる。1つの実施例では、図26を参照して説明したような動画480及び関連メタデータに基づいて、コンテンツベースの推薦2652を判定することができる。別の実施例では、図29を参照して説明したような通知2964に基づいて、通知ベースの推薦2966を判定することができる。更に別の実施例では、図30及び図31を参照して説明したようなユーザデバイス102上の再生可能なメディア3068に基づいて、デバイスベースの推薦3174を判定することができる。更に別の実施例では、図32を参照して説明したようなユーザデバイス102上の再生可能なメディア3068に基づいて、接続されたデバイスベースの推薦3275を判定することができる。
[0213]
図33のプロセス3300を再び参照すると、ブロック3308で、ディスプレイ上に仮想アシスタントクエリを表示することができる。例えば、判定したクエリ推薦は、図26、図27、図29、図31及び図32に示し、それを参照して説明したように表示することができる。上記で論じたように、種々の他の情報に基づいて、クエリ推薦を判定し、表示することができる。更に、1つのディスプレイ上に提供された仮想アシスタントクエリ推薦を、別のディスプレイを備える別のデバイスからのコンテンツに基づいて導き出することができる。このようにして、ターゲットの仮想アシスタントクエリ推薦をユーザに提供し、それにより、恩恵の中でもとりわけ、潜在的なクエリの学習に対してユーザを支援し、望ましいコンテンツ推薦を提供することができる。
[0214]
更に、本明細書で論じる種々の実施例のうちのいずれかでは、特定のユーザのために種々の態様をパーソナライズすることができる。連絡先、好み、場所、お気に入りのメディアなどを含むユーザデータを使用して、音声コマンドを解釈し、本明細書で論じる種々のデバイスとのユーザ対話を可能にすることができる。また、ユーザの好み、連絡先、テキスト、使用履歴、プロファイルデータ、統計などに従った種々の他のやり方で、本明細書では論じた種々のプロセスを修正することができる。更に、ユーザ対話(例えば、頻繁に発されるコマンド、頻繁に選択されるアプリケーションなど)に基づいて、そのような好み及び設定を経時的に更新することができる。招待者限定コンテンツ又はユーザにとって興味の対象であり得る任意の他のコンテンツのユーザへの配信を改善するために、種々のソースから利用可能なユーザデータの収集及び使用を使用することができる。本開示は、いくつかの事例では、この収集されたデータは、特定の人を一意に識別する、あるいは、特定の人に接触する、又はその人の位置を特定するために使用され得る、個人情報データを含むことができることを企図する。そのような個人情報データとして、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
[0215]
本開示により、現在の技術におけるそのような個人情報データの使用を使用してユーザを利することができることが認識される。例えば、個人情報データを使用して、ユーザにとってより大きな興味の対象であるターゲットコンテンツを配信することができる。したがって、そのような個人情報データの使用により、送達されたコンテンツの計算制御が可能になる。更に、ユーザに利する個人情報データについての他の使用もまた本開示により企図される。
[0216]
本開示は更に、収集、分析、開示、転送、記憶又はそのような個人情報データの他の使用を担うエンティティが、確立したプライバシーポリシー及び/又はプライバシー慣行に適合することを企図する。詳細には、そのようなエンティティは、秘密及びセキュアとして個人情報データを維持するための産業上の要件又は政府要件を満たす、又はそれを上回るものとして一般的に認識されるプライバシーポリシー及びプライバシー慣行を実装し、一貫して使用しなければならない。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザの告知に基づく同意を受信した後にのみ実施するべきである。更に、そのようなエンティティは、そのような個人情報へのアクセスを保護して安全化し、その個人情報へのアクセスを有する他者が、自身のプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることとなる。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
[0217]
前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施例も意図する。即ち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するハードウェア要素及び/又はソフトウェア要素を提供することができることを意図する。例えば、広告配信サービスの場合には、この技術は、ユーザが、サービスの登録中に個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成され得る。別の実施例では、ユーザは、ターゲットコンテンツ配信サービスに位置情報を提供しないように選択することができる。更に別の実施例では、ユーザは、正確な位置情報を提供しないが、ロケーションゾーンの情報の転送を可能にするように選択することができる。
[0218]
したがって、本開示は、1つ以上の種々の開示された実施形態を実施するための個人情報データの使用を、広範に網羅するものであるが、本開示は、そのような個人情報データにアクセスすることを必要とせずにそれらの種々の実施例を実装することができることも意図する。即ち、本技術の種々の実施例は、そのような個人情報データの全て又は一部分の欠如に起因して、動作不能となるものではない。例えば、ユーザと関連付けられたデバイスが要求するコンテンツ、コンテンツ配信サービスに利用可能な他の非個人情報、又は一般公開されている情報など、非個人情報データ又は最小限の量の個人情報に基づいて好みを推測することによって、コンテンツをユーザに選択し、配信することができる。
[0219]
いくつかの実施例によれば、図34は、電子デバイス3400の機能ブロック図を示し、電子デバイス3400は、説明した種々の実施例の原理に従って、例えば、仮想アシスタントを使用してテレビ対話を制御し、異なるインタフェースを使用して関連情報を表示するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図34で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0220]
図34に示すように、電子デバイス3400は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3402(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3400は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように構成された入力ユニット3404(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を更に含むことができる。電子デバイス3400は、表示ユニット3402及び入力ユニット3404に結合される処理ユニット3406を更に含むことができる。いくつかの実施例では、処理ユニット3406は、発語入力受信ユニット3408と、メディアコンテンツ判定ユニット3410と、第1のユーザインタフェース表示ユニット3412と、選択受信ユニット3414と、第2のユーザインタフェース表示ユニット3416とを含むことができる。
[0221]
処理ユニット3406は、(例えば、入力ユニット3404を介して)ユーザからの発語入力を受信するように構成することができる。処理ユニット3406は、(例えば、メディアコンテンツ判定ユニット3410を使用して)発語入力に基づいて、メディアコンテンツを判定するように更に構成することができる。処理ユニット3406は、(例えば、第1のユーザインタフェース表示ユニット3412を使用して、ディスプレイユニット3402上に)第1のサイズを有する第1のユーザインタフェースを表示するように更に構成することができ、第1のユーザインタフェースは、メディアコンテンツへの1つ以上の選択可能なリンクを備える。処理ユニット3406は、(例えば、選択受信ユニット3414を使用して、入力ユニット3404から)1つ以上の選択可能なリンクのうちの1つの選択を受信するように更に構成することができる。処理ユニット3406は、その選択に応じて、(例えば、第2のユーザインタフェース表示ユニット3416を使用して、ディスプレイユニット3402上に)第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースを表示するように更に構成することができ、第2のユーザインタフェースは、選択と関連付けられたメディアコンテを備える。
[0222]
いくつかの実施例では、(例えば、第1のユーザインタフェース表示ユニット3412の)第1のユーザインタフェースは、(例えば、選択受信ユニット3414の)選択に応じて、(例えば、第2のユーザインタフェース表示ユニット3416の)第2のユーザインタフェースへと拡張する。他の実施例では、第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている。1つの実施例では、第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている。別の実施例では、(例えば、入力ユニット3404からの発語入力受信ユニット3408の)発語入力はクエリを備え、(例えば、メディアコンテンツ判定ユニット3410の)メディアコンテンツはクエリの結果を備える。更に別の実施例では、第1のユーザインタフェースは、メディアコンテンツへの1つ以上の選択可能なリンク以外に、クエリの結果へのリンクを備える。他の実施例では、クエリは、天気に関するクエリを含み、第1のユーザインタフェースは、天気に関するクエリと関連付けられたメディアコンテンツへのリンクを備える。別の実施例では、クエリは場所を含み、天気に関するクエリと関連付けられたメディアコンテンツへのリンクは、その場所の天気と関連付けられたメディアコンテンツの一部分へのリンクを備える。
[0223]
いくつかの実施例では、選択に応じて、処理ユニット3406は、その選択と関連付けられたメディアコンテンツを再生するように構成することができる。1つの実施例では、メディアコンテンツは、映画を含む。別の実施例では、メディアコンテンツは、テレビ番組を含む。別の実施例では、メディアコンテンツは、スポーツイベントを含む。いくつかの実施例では、(例えば、第2のユーザインタフェース表示ユニット3416の)第2のユーザインタフェースは、選択と関連付けられたメディアコンテンツの記述を含む。他の実施例では、第1のユーザインタフェースは、メディアコンテンツを購入するためのリンクを備える。
[0224]
処理ユニット3406は、ユーザからの追加の発語入力を(例えば、入力ユニット3404を介して)受信するように更に構成することができ、追加の発語入力は、表示されたコンテンツと関連付けられたクエリを含む。処理ユニット3406は、表示されたコンテンツと関連付けられたメタデータに基づいて、表示されたコンテンツと関連付けられたクエリに対する応答を判定するように更に構成することができる。処理ユニット3406は、追加の発語入力を受信したことに応じて、(例えば、表示ユニット3402上に)第3のユーザインタフェースを表示するように更に構成されることができる、第3のユーザインタフェースは、表示されたコンテンツと関連付けられたクエリに対する判定した応答を含む。
[0225]
処理ユニット3406は、(例えば、入力ユニット3404を介して)発語入力の受信を開始する指示を受信するように更に構成することができる。処理ユニット3406は、指示を受信したことに応じて、準備完了確認を(例えば、ディスプレイユニット3402上に)表示するように更に構成することができる。処理ユニット3406は、発語入力を受信したことに応じて、リッスン確認を表示するように更に構成することができる。処理ユニット3406は、発語入力の終わりを検出し、発語入力の終わりを検出したことに応じて処理確認を表示するように更に構成することができる。いくつかの実施例では、処理ユニット3406は、発語入力の音声表記を表示するように更に構成することができる。
[0226]
いくつかの実施例では、電子デバイス3400は、テレビを含む。いくつかの実施例では、電子デバイス3400は、テレビセットトップボックスを含む。いくつかの実施例では、電子デバイス3400は、遠隔制御を含む。いくつかの実施例では、電子デバイス3400は、携帯電話を含む。
[0227]
1つの実施例では、第1のユーザインタフェースにおける(例えば、第1のユーザインタフェース表示ユニット3412の)1つ以上の選択可能なリンクは、メディアコンテンツと関連付けられた動画像を含む。いくつかの実施例では、メディアコンテンツと関連付けられた動画像は、メディアコンテンツのライブフィードを含む。別の実施例では、第1のユーザインタフェースにおける1つ以上の選択可能なリンクは、メディアコンテンツと関連付けられた静止画像を含む。
[0228]
いくつかの実施例では、処理ユニット3406は、現在表示されているコンテンツが動画像を含むか、あるいはコントロールメニューを含むかを判定し、現在表示されているコンテンツが動画像を含むという判定に応じて、第1のユーザインタフェースのための(例えば、第1のユーザインタフェース表示ユニット3412の)第1のサイズとして、小さいサイズを選択し、現在示されているコンテンツがコントロールメニューを含むという判定に応じて、第1のユーザインタフェースのための(例えば、第1のユーザインタフェース表示ユニット3412の)第1のサイズとして、小さいサイズよりも大きい、大きいサイズを選択するように更に構成することができる。他の実施例では、処理ユニット3406は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0229]
いくつかの実施例によれば、図35は、電子デバイス3500の機能ブロック図を示し、電子デバイス3500は、説明した種々の実施例の原理に従って、例えば、仮想アシスタント及び複数のユーザデバイスを使用してテレビ対話を制御するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図35で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0230]
図35に示すように、電子デバイス3500は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3502(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3500は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように更に構成された入力ユニット3504(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を含むことができる。電子デバイス3500は、表示ユニット3502及び入力ユニット3504に結合される処理ユニット3506を更に含むことができる。いくつかの実施例では、処理ユニット3506は、発語入力受信ユニット3508と、ユーザ意図判定ユニット3510と、メディアコンテンツ判定ユニット3512と、メディアコンテンツ再生ユニット3514とを含むことができる。
[0231]
処理ユニット3506は、第1のディスプレイ(例えば、いくつかの実施例では表示ユニット3502)を有する第1のデバイス(例えば、デバイス3500)で、(例えば、発語入力受信ユニット3508を使用して、入力ユニット3504から)ユーザからの発語入力を受信するように構成することができる。処理ユニット3506は、(例えば、ユーザ意図判定ユニット3510を使用して)第1のディスプレイ上に表示されたコンテンツに基づいて、発語入力のユーザ意図を判定するように更に構成することができる。処理ユニット3506は、(例えば、メディアコンテンツ判定ユニット3512を使用して)ユーザ意図に基づいて、メディアコンテンツを判定するように更に構成することができる。処理ユニット3506は、第2のディスプレイと関連付けられた第2のデバイス(例えば、いくつかの実施例ではディスプレイユニット3502)上で、(例えば、メディアコンテンツ再生ユニット3514を使用して)メディアコンテンツを再生するように更に構成することができる。
[0232]
1つの実施例では、第1のデバイスは、遠隔制御を含む。別の実施例では、第1のデバイスは、携帯電話を含む。別の実施例では、第1のデバイスは、タブレットコンピュータを含む。いくつかの実施例では、第2のデバイスは、テレビセットトップボックスを含む。別の実施例では、第2のデバイスは、テレビを含む。
[0233]
いくつかの実施例では、第1のディスプレイ上に表示されたコンテンツは、アプリケーションインタフェースを備える。1つの実施例では、(例えば、入力ユニット3504からの発語入力受信ユニット3508の)発語入力は、アプリケーションインタフェースと関連付けられたメディアに表示するという要求を含む。1つの実施例では、メディアコンテンツは、アプリケーションインタフェースと関連付けられたメディアを含む。別の実施例では、アプリケーションインタフェースは、フォトアルバムを備え、メディアは、フォトアルバム中の1つ以上の写真を含む。更に別の実施例では、アプリケーションインタフェースは、1つ以上の動画のリストを備え、メディアは、1つ以上の動画のうちの1つを含む。更に他の実施例では、アプリケーションインタフェースは、テレビプログラムリストを備え、メディアは、テレビプログラムリスト中のテレビプログラムを含む。
[0234]
いくつかの実施例では、処理ユニット3506は、第1のデバイスが認証されているかどうかを判定するように更に構成することができ、第1のデバイスが認証されているという判定に応じて、第2のデバイス上でメディアコンテンツを再生する。処理ユニット3506は、発語入力に基づいてユーザを識別し、(例えば、ユーザ意図判定ユニット3510を使用して)識別されたユーザと関連付けられたデータに基づいて、発語入力のユーザ意図を判定するように更に構成することができる。処理ユニット3506は、発語入力に基づいて、ユーザが認証されているかどうかを判定するように更に構成することができ、ユーザが認証されたユーザであるという判定に応じて、第2のデバイス上でメディアコンテンツを再生する。1つの実施例では、ユーザが認証されているかどうかを判定することは、音声認識を使用して発語入力を分析することを含む。
[0235]
他の実施例では、処理ユニット3506は、ユーザ意図が情報の要求を含むと判定したことに応じて、メディアコンテンツと関連付けられた情報を、第1のデバイスの第1のディスプレイ上に表示するように更に構成することができる。処理ユニット3506は、ユーザ意図がメディアコンテンツを再生するという要求を含むと判定したことに応じて、そのメディアコンテンツと関連付けられた情報を、第2のデバイス上で再生するように更に構成することができる。
[0236]
いくつかの実施例では、発語入力は、第2のデバイス上でコンテンツを再生するという要求を含み、第2のデバイス上でコンテンツを再生するという要求に応じて、第2のデバイス上でメディアコンテンツを再生する。処理ユニット3506は、メディアのフォーマット、ユーザの好み又はデフォルト設定に基づいて、判定したメディアコンテンツを第1のディスプレイ上で表示すべきか、あるいは第2のディスプレイ上で表示すべきかを判定するように更に構成することができる。いくつかの実施例では、判定したメディアコンテンツを第2のディスプレイ上に表示すべきであるという判定に応じて、第2のディスプレイ上にメディアコンテンツを表示する。他の実施例では、判定したメディアコンテンツを第1のディスプレイ上に表示すべきであるという判定に応じて、第1のディスプレイ上にメディアコンテンツを表示する。
[0237]
他の実施例では、処理ユニット3506は、第2のデバイス及び第3のデバイスを含む2つ以上のデバイスの各々の近接度を判定するように更に構成されることができる。いくつかの実施例では、第3のデバイスの近接度に対する第2のデバイスの近接度に基づいて、第2のディスプレイと関連付けられた第2のデバイス上に、メディアコンテンツを再生する。いくつかの実施例では、2つ以上のデバイスの各々の近接度を判定することは、Bluetooth(登録商標)LEに基づいて近接度を判定することを含む。
[0238]
いくつかの実施例では、処理ユニット3506は、第2のディスプレイと関連付けられた第2のデバイスを含む表示デバイスのリストを表示し、表示デバイスのリスト中の第2のデバイスの選択を受信するように更に構成することができる。1つの実施例では、第2のデバイスの選択を受信したことに応じて、第2のディスプレイ上にメディアコンテンツを表示する。処理ユニット3506は、第1のデバイスにヘッドホンが取り付けられているどうかを判定するように更に構成することができる。処理ユニット3506は、第1のデバイスにヘッドホンが取り付けられているという判定に応じて、第1のディスプレイ上にメディアコンテンツを表示するように更に構成することができる。処理ユニット3506は、第1のデバイスにヘッドホンが取り付けられていないという判定に応じて、第2のディスプレイ上にメディアコンテンツを表示するように更に構成することができる。他の実施例では、処理ユニット3506は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0239]
いくつかの実施例によれば、図36は、電子デバイス3600の機能ブロック図を示し、電子デバイス3600は、説明した種々の実施例の原理に従って、例えば、ディスプレイ上に表示されたメディアコンテンツとメディアコンテンツの閲覧履歴とを使用してテレビ対話を制御するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図36で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0240]
図36に示すように、電子デバイス3600は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3602(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3600は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように構成された入力ユニット3604(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を更に含むことができる。電子デバイス3600は、表示ユニット3602及び入力ユニット3604に結合される処理ユニット3606を更に含むことができる。いくつかの実施例では、処理ユニット3606は、発語入力受信ユニット3608と、ユーザ意図判定ユニット3610と、クエリ結果表示ユニット3612とを含むことができる。
[0241]
処理ユニット3606は、ユーザからの発語入力を(例えば、発語入力受信ユニット3608を使用して、入力ユニット3604から)受信するように構成することができ、発語入力は、ディスプレイ(例えば、いくつかの実施例では表示ユニット3602)上に表示されたコンテンツと関連付けられたクエリを含む。処理ユニット3606は、(例えば、ユーザ意図判定ユニット3610を使用して)テレビディスプレイ上に表示されたコンテンツ及びメディアコンテンツの閲覧履歴のうちの1つ以上に基づいて、クエリのユーザ意図を判定するように更に構成することができる。処理ユニット3606は、(例えば、クエリ結果表示ユニット3612を使用して)判定したユーザ意図に基づいて、クエリの結果を表示するように更に構成することができる。
[0242]
1つの実施例では、遠隔制御において、発語入力を受信する。別の実施例では、携帯電話において、発語入力を受信する。いくつかの実施例では、テレビディスプレイ上にクエリの結果を表示する。別の実施例では、テレビディスプレイ上に表示されたコンテンツは、映画を含む。更に別の実施例では、テレビディスプレイ上に表示されたコンテンツは、テレビ番組を含む。更に別の実施例では、テレビディスプレイ上に表示されたコンテンツは、スポーツイベントを含む。
[0243]
いくつかの実施例では、クエリは、テレビディスプレイ上に表示されたコンテンツと関連付けられた人物に関する情報の要求を含み、(例えば、クエリ結果表示ユニット3612の)クエリの結果は、その人物に関する情報を含む。1つの実施例では、クエリの結果は、その人物と関連付けられたメディアコンテンツを含む。別の実施例では、メディアコンテンツは、その人物と関連付けられた映画、テレビ番組又はスポーツイベントのうちの1つ以上を含む。いくつかの実施例では、クエリは、テレビディスプレイ上に表示されたコンテンツと関連付けられたキャラクターに関する情報の要求を含み、クエリの結果は、そのキャラクターに関する情報、又はそのキャラクターを演じている俳優に関する情報を含む。1つの実施例では、クエリの結果は、そのキャラクターを演じている俳優と関連付けられたメディアコンテンツを含む。別の実施例では、メディアコンテンツは、そのキャラクターを演じている俳優と関連付けられた映画、テレビ番組又はスポーツイベントのうちの1つ以上を含む。
[0244]
いくつかの実施例では、処理ユニット3606は更に、テレビディスプレイ上に表示されたコンテンツ又はメディアコンテンツの閲覧履歴と関連付けられたメタデータに基づいて、クエリの結果を判定するように更に構成することができる。1つの実施例では、メタデータは、テレビディスプレイ上に表示されたコンテンツ又はメディアコンテンツの閲覧履歴と関連付けられた、タイトル、説明、キャラクターのリスト、俳優のリスト、選手のリスト、ジャンル、又は表示スケジュールのうちの1つ以上を含む。別の実施例では、テレビディスプレイ上に表示されたコンテンツは、メディアコンテンツのリストを含み、クエリは、リスト中の項目のうちの1つを表示するという要求を含む。更に別の実施例では、テレビディスプレイ上に表示されたコンテンツは、フォーカスを有するメディアコンテンツのリスト中の項目を更に含み、(例えば、ユーザ意図判定ユニット3610を使用して)クエリのユーザ意図を判定することは、フォーカスを有する項目を識別することを含む。いくつかの実施例では、処理ユニット3606は、(例えば、ユーザ意図判定ユニット3610を使用して)テレビディスプレイ上に最近表示されたメニュー又は検索コンテンツに基づいて、クエリのユーザ意図を判定するように更に構成することができる。1つの実施例では、テレビディスプレイ上に表示されたコンテンツは、列挙されたメディアのページを含み、最近表示されたメニュー又は検索コンテンツは、列挙されたメディアの以前のページを含む。別の実施例では、テレビディスプレイ上に表示されたコンテンツは、メディアの1つ以上のカテゴリーを含み、メディアの1つ以上のカテゴリーのうちの1つは、フォーカスを有する。1つの実施例では、処理ユニット3606は、(例えば、ユーザ意図判定ユニット3610を使用して)フォーカスを有するメディアの1つ以上のカテゴリーのうちの1つに基づいて、クエリのユーザ意図を判定するように更に構成することができる。別の実施例では、メディアのカテゴリーは、映画、テレビプログラム及び音楽を含む。他の実施例では、処理ユニット3606は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0245]
いくつかの実施例によれば、図37は、電子デバイス3700の機能ブロック図を示し、電子デバイス3700は、説明した種々の実施例の原理に従って、例えば、メディアコンテンツを制御するための仮想アシスタント対話を推薦するように構成される。デバイスの機能ブロックは、説明した種々の実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装することができる。当業者には、説明した種々の実施例の原理を実装するために、図37で説明する機能ブロックを組み合わせる、又はサブブロックに分離することできることが理解される。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0246]
図37に示すように、電子デバイス3700は、メディア、インタフェース及び他のコンテンツを表示するように構成されたディスプレイユニット3702(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス3700は、発語入力、触覚入力、ジェスチャ入力などのような情報を受信するように構成された入力ユニット3704(例えば、マイクロフォン、受信器、タッチスクリーン、ボタンなど)を更に含むことができる。電子デバイス3700は、表示ユニット3702及び入力ユニット3704に結合される処理ユニット3706を更に含むことができる。いくつかの実施例では、処理ユニット3706は、メディアコンテンツ表示ユニット3708と、入力受信ユニット3710と、クエリ判定ユニット3712と、クエリ表示ユニット3714とを含むことができる。
[0247]
処理ユニット3706は、(例えば、メディアコンテンツ表示ユニット3708を使用して)ディスプレイ(例えば、表示ユニット3702)上にメディアコンテンツを表示するように構成することができる。処理ユニット3706は、(例えば、入力受信ユニット3710を使用して、入力ユニット3704から)ユーザからの入力を受信するように更に構成することができる。処理ユニット3706は、(例えば、クエリ判定ユニット3712を使用して)メディアコンテンツ及びメディアコンテンツの閲覧履歴のうちの1つ以上とに基づいて、1つ以上の仮想アシスタントクエリを判定するように更に構成することができる。処理ユニット3706は、(例えば、クエリ表示ユニット3714を使用して)1つ以上の仮想アシスタントクエリをディスプレイ上に表示するように更に構成することができる。
[0248]
1つの実施例では、遠隔制御上で、ユーザからの入力を受信する。別の実施例では、携帯電話上で、ユーザからの入力を受信する。いくつかの実施例では、1つ以上の仮想アシスタントクエリが、動画像上に重なっている。別の実施例では、入力は、ボタンのダブルクリックを含む。1つの実施例では、メディアコンテンツは、映画を含む。別の実施例では、メディアコンテンツは、テレビ番組を含む。更に別の実施例では、メディアコンテンツは、スポーツイベントを含む。
[0249]
いくつかの実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツに現れている人物に関するクエリを含む。他の実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツに現れているキャラクターに関するクエリを含む。別の実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツに現れている人物と関連付けられたメディアコンテンツに関するクエリを含む。いくつかの実施例では、メディアコンテンツ又はメディアコンテンツの閲覧履歴は、テレビ番組のエピソードを含み、1つ以上の仮想アシスタントクエリは、テレビ番組の別のエピソードに関するクエリを含む。別の実施例では、メディアコンテンツ又はメディアコンテンツの閲覧履歴は、テレビ番組のエピソードを含み、1つ以上の仮想アシスタントクエリは、メディアコンテンツの後続のエピソードを視聴又は録画するためのリマインダを設定するという要求を含む。更に別の実施例では、1つ以上の仮想アシスタントクエリは、メディアコンテンツの記述的な詳細についてのクエリを含む。1つの実施例では、記述的な詳細は、番組タイトル、キャラクターリスト、俳優リスト、エピソードの記述、チーム名簿、チームランキング又は番組概要のうちの1つ以上を含む。
[0250]
いくつかの実施例では、処理ユニット3706は、1つ以上の仮想アシスタントクエリのうちの1つの選択を受信するように更に構成することができる。処理ユニット3706は、1つ以上の仮想アシスタントクエリのうちの選択されたクエリの結果を表示するように更に構成することができる。1つの実施例では、1つ以上の仮想アシスタントクエリを判定することは、クエリ履歴、ユーザの好み、又はクエリの人気のうちの1つ以上に基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。別の実施例では、1つ以上の仮想アシスタントクエリを判定することは、ユーザが閲覧するために利用可能なメディアコンテンツに基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。更に別の実施例では、1つ以上の仮想アシスタントクエリを判定することは、受信した通知に基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。更に別の実施例では、1つ以上の仮想アシスタントクエリを判定することは、アクティブなアプリケーションに基づいて、1つ以上の仮想アシスタントクエリを判定することを含む。他の実施例では、処理ユニット3706は、ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定し、判定した代替メディアコンテンツを含む通知を表示するように更に構成することができる。
[0251]
添付の図面を参照して、実施例について十分に説明してきたが、当業者には種々の変更及び修正(例えば、本明細書で論じた任意の他のシステム又はプロセスに関して説明した概念に従って、本明細書で論じた任意の他のシステム又はプロセスのうちのいずれかを修正すること)が明らかになるであろうことに留意されたい。そのような変更及び修正は、添付の特許請求の範囲によって定義されるような様々な実施例の範囲内に含まれるものとして理解されたい。

[書類名]特許請求の範囲
[請求項1]
仮想アシスタントを使用してテレビ対話を制御するための方法であって、前記方法が、
電子デバイスにおいて、
ユーザからの発語入力を受信することと、
前記発語入力に基づいて、メディアコンテンツを判定することと、
第1のサイズを有する第1のユーザインタフェースを表示することであって、前記第1のユーザインタフェースが、前記メディアコンテンツへの1つ以上の選択可能なリンクを含む、ことと、
前記1つ以上の選択可能なリンクのうちの1つの選択を受信することと、
前記選択に応じて、前記第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースを表示することであって、前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツを含む、ことと、
を含む方法。
[請求項2]
前記選択に応じて、前記第1のユーザインタフェースが、前記第2のユーザインタフェースへと拡張する、請求項1に記載の方法。
[請求項3]
前記第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項1に記載の方法。
[請求項4]
前記第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項1に記載の方法。
[請求項5]
前記発語入力がクエリを含み、前記メディアコンテンツが、前記クエリの結果を含む、請求項1に記載の方法。
[請求項6]
前記第1のユーザインタフェースが、前記メディアコンテンツへの前記1つ以上の選択可能なリンク以外に、前記クエリの結果へのリンクを含む、請求項5に記載の方法。
[請求項7]
前記選択に応じて、前記選択と関連付けられた前記メディアコンテンツを再生することを更に含む、請求項1に記載の方法。
[請求項8]
前記メディアコンテンツが、スポーツイベントを含む、請求項1に記載の方法。
[請求項9]
前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツの記述を含む、請求項1に記載の方法。
[請求項10]
前記第1のユーザインタフェースが、メディアコンテンツを購入するためのリンクを含む、請求項1に記載の方法。
[請求項11]
前記ユーザからの追加の発語入力を受信することであって、前記追加の発語入力が、表示されたコンテンツと関連付けられたクエリを含む、ことと、
前記表示されたコンテンツと関連付けられたメタデータに基づいて、前記表示されたコンテンツと関連付けられた前記クエリに対する応答を判定することと、
前記追加の発語入力を受信したことに応じて、第3のユーザインタフェースを表示することであって、前記第3のユーザインタフェースが、前記表示されたコンテンツと関連付けられた前記クエリに対する前記判定した応答を含む、ことと、
を更に含む、請求項1に記載の方法。
[請求項12]
発語入力の受信を開始する指示を受信することと、
前記指示を受信したことに応じて、準備完了確認を表示することと、
を更に含む、請求項1に記載の方法。
[請求項13]
前記発語入力を受信したことに応じて、リッスン確認を表示することを更に含む、請求項1に記載の方法。
[請求項14]
前記発語入力の音声表記を表示することを更に含む、請求項1に記載の方法。
[請求項15]
前記電子デバイスが、テレビを含む、請求項1に記載の方法。
[請求項16]
前記電子デバイスが、テレビセットトップボックスを含む、請求項1に記載の方法。
[請求項17]
前記電子デバイスが、遠隔制御を含む、請求項1に記載の方法。
[請求項18]
前記電子デバイスが、携帯電話を含む、請求項1に記載の方法。
[請求項19]
前記第1のユーザインタフェースにおける前記1つ以上の選択可能なリンクが、前記メディアコンテンツと関連付けられた動画像を含む、請求項1に記載の方法。
[請求項20]
前記メディアコンテンツと関連付けられた前記動画像が、前記メディアコンテンツのライブフィードを含む、請求項19に記載の方法。
[請求項21]
現在表示されているコンテンツが、動画像を含むか、あるいはコントロールメニューを含むかを判定することと、
現在表示されているコンテンツが動画像を含むという判定に応じて、前記第1のユーザインタフェースのための前記第1のサイズとして、小さいサイズを選択することと、
現在表示されているコンテンツがコントロールメニューを含むという判定に応じて、前記第1のユーザインタフェースのための前記第1のサイズとして、前記小さいサイズよりも大きい、大きいサイズを選択することと、
を更に含む、請求項1に記載の方法。
[請求項22]
ユーザの好み、番組の人気、及びライブスポーツイベントの状況のうちの1つ以上に基づいて、表示のための代替メディアコンテンツを判定することと、
前記判定した代替メディアコンテンツを含む通知を表示することと、
を更に含む、請求項1に記載の方法。
[請求項23]
非一時的コンピュータ可読記憶媒体であって、
ユーザからの発語入力を受信し、
前記発語入力に基づいて、メディアコンテンツを判定し、
第1のサイズを有する第1のユーザインタフェースであって、前記第1のユーザインタフェースが、前記メディアコンテンツへの1つ以上の選択可能なリンクを含む、第1のユーザインタフェースを表示し、
前記1つ以上の選択可能なリンクのうちの1つの選択を受信し、
前記選択に応じて、前記第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースであって、前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツを含む、第2のユーザインタフェースを表示する
コンピュータ実行可能命令を備える非一時的コンピュータ可読記憶媒体。
[請求項24]
前記第1のユーザインタフェースが、前記選択に応じて、前記第2のユーザインタフェースへと拡張する、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項25]
前記第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項26]
前記第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項27]
前記発語入力がクエリを含み、前記メディアコンテンツが、前記クエリの結果を含む、請求項23に記載の非一時的コンピュータ可読記憶媒体。
[請求項28]
前記第1のユーザインタフェースが、前記メディアコンテンツへの前記1つ以上の選択可能なリンク以外に、前記クエリの結果へのリンクを含む、請求項27に記載の非一時的コンピュータ可読記憶媒体。
[請求項29]
仮想アシスタントを使用してテレビ対話を制御するためのシステムであって、前記システムが、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、
を備え、前記1つ以上のプログラムが、前記メモリ内に記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムが、
ユーザからの発語入力を受信し、
前記発語入力に基づいて、メディアコンテンツを判定し、
第1のサイズを有する第1のユーザインタフェースであって、前記第1のユーザインタフェースが、前記メディアコンテンツへの1つ以上の選択可能なリンクを含む、第1のユーザインタフェースを表示し、
前記1つ以上の選択可能なリンクのうちの1つの選択を受信し、
前記選択に応じて、前記第1のサイズよりも大きい第2のサイズを有する第2のユーザインタフェースであって、前記第2のユーザインタフェースが、前記選択と関連付けられた前記メディアコンテンツを含む、第2のユーザインタフェースを表示する
命令を含む、システム。
[請求項30]
前記第1のユーザインタフェースが、前記選択に応じて、前記第2のユーザインタフェースへと拡張する、請求項29に記載のシステム。
[請求項31]
前記第1のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項29に記載のシステム。
[請求項32]
前記第2のユーザインタフェースが、再生中のメディアコンテンツ上に重なっている、請求項29に記載のシステム。
[請求項33]
前記発語入力がクエリを含み、前記メディアコンテンツが、前記クエリの結果を含む、請求項29に記載のシステム。
[請求項34]
前記第1のユーザインタフェースが、前記メディアコンテンツへの前記1つ以上の選択可能なリンク以外に、前記クエリの結果へのリンクを含む、請求項33に記載のシステム。

[書類名] 要約書
[要約]
仮想アシスタントを使用してテレビユーザ対話を制御するためのシステム及びプロセスを開示する。仮想アシスタントは、テレビ上に表示されたコンテンツを制御するために、テレビセットトップボックスと対話することができる。マイクロフォンを備えるデバイスから、仮想アシスタントのための発語入力を受信することができる。発語入力からユーザ意図を判定することができ、仮想アシスタントは、ユーザの意図に従って、テレビ上でメディアを再生させることを含むタスクを実行することができる。所望の情報を伝達しながら、テレビの、占有スペースを最小量にするように拡大又は縮小することができるインタフェースに仮想アシスタント対話を表示することできる。複数のディスプレイと関連付けられた複数のデバイスを使用して、発語入力からユーザ意図を判定するだけでなく、ユーザに情報を伝達することができる。いくつかの実施例では、ディスプレイ上に表示されたメディアコンテンツに基づいて、仮想アシスタントクエリ推薦をユーザに提供することができる。

[書類名] 図面
[図1]
[図2]
[図3]
[図4A]
[図4B]
[図4C]
[図4D]
[図4E]
[図5]
[図6A]
[図6B]
[図7A]
[図7B]
[図8A]
[図8B]
[図9]
[図10]
[図11]
[図12]
[図13]
[図14]
[図15]
[図16]
[図17]
[図18]
[図19]
[図20]
[図21]
[図22]
[図23A]
[図23B]
[図24]
[図25]
[図26]
[図27]
[図28A]
[図28B]
[図29]
[図30]
[図31]
[図32]
[図33]
[図34]
[図35]
[図36]
[図37]
リアルタイムのデジタルアシスタントの知識更新
[関連出願の相互参照]
[0001]
本出願は、2014年6月30日出願の「REAL−TIME DIGITAL ASSISTANT KNOWLEDGE UPDATES」と題された米国特許暫定出願第62/019,292号、及び2014年9月26日出願の「REAL−TIME DIGITAL ASSISTANT KNOWLEDGE UPDATES」と題された米国特許非暫定出願第14/498,391号の優先権を主張し、参照によりその全体が汎用のために本明細書に組み込まれる。
[0002]
本出願はまた、以下の2014年6月30日出願の同時係属暫定出願の米国特許出願第62/019,312号、「Intelligent Automated Assistant for TV User Interactions」(代理人整理番号第106843065100(P18133USP1)号)に関連する。
[技術分野]
[0003]
本出願は、概して、テレビのユーザ対話の音声制御、より具体的には仮想アシスタントのメディア知識のリアルタイム更新に関する。
[背景技術]
[0004]
インテリジェント自動アシスタント(又は仮想アシスタント)は、ユーザと電子デバイスとの間の直感的なインタフェースを提供する。これらのアシスタントは、ユーザが口頭形式及び/又はテキスト形式の自然言語を使用して、デバイス又はシステムと双方向作用することを可能にすることができる。例えば、ユーザは、自然言語形式の口頭ユーザ入力を電子デバイスに関連付けられた仮想アシスタントに提供することにより、電子デバイスのサービスにアクセスすることができる。仮想アシスタントは、ユーザの意図を推測しユーザの意図をタスクとして作動可能にするために、口頭ユーザ入力について自然言語処理を実行することができる。タスクは、次に、電子デバイスの1つ以上の機能を実行することにより、実行することができ、いくつかの実施例では、関連した出力を、ユーザに自然言語形式で返すことができる。
[0005]
移動電話(例えば、スマートフォン)、タブレットコンピュータなどが仮想アシスタント制御から恩恵を受けてきた一方で、多くの他のユーザ機器は、そのような便利な制御機構を欠いている。例えば、メディア制御機器(例えば、テレビ、テレビ用セットトップボックス、ケーブルボックス、ゲーミングデバイス、ストリーミングメディアデバイス、デジタルビデオレコーダなど)とのユーザ対話は、複雑で習得するのが困難なことがある。更に、そのようなデバイスを介して利用可能なメディアのソース(例えば、テレビ放送、有料テレビ放送サービス、ストリーミングビデオサービス、ケーブルオンデマンドビデオサービス、ウェブベースのビデオサービスなど)が増えるにつれて、ユーザによっては消費する所望のメディアコンテンツを見つけることは、煩雑又は手に負えないことさえあり得る。加えて、粗いタイムシフト及びキュー制御は、ユーザがテレビ番組内の特定の瞬間などの所望のコンテンツを入手するのを困難にすることがある。ライブのメディアコンテンツに関連付けられた適時情報を入手することもまた、困難であることがある。結果として、多くのメディア制御機器は、多くのユーザにとって思うようにならないことがある、質の悪いユーザエクスペリエンスを提供することがある。
[発明の概要]
[0006]
仮想アシスタントのメディア知識のリアルタイム更新のためのシステム及びプロセスが開示される。一実施例では、仮想アシスタントの知識は、再生中のメディアに関連付けられた適時情報を用いて更新することができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、発語入力に基づいて受信することができ、ユーザ要求は、メディアストリーム又は番組内のイベントに関連付けることができる。要求を受信したことに応じて、メディアストリームは、要求内で参照されたイベントに関連付けられたメディアストリーム内の時間で再生を開始するために、キューすることができる。
[0007]
別の実施例では、適時情報は、現在のイベントを伴う照会への回答を提供するために、デジタルアシスタントの知識内に組み込むことができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、ユーザからの発語入力に基づいて受信することができ、ユーザ要求は、イベントの1つに関連付けることができる。ユーザ要求への応答は、イベントに関連したデータに基づいて生成することができる。応答は、次に、ユーザに様々な方法で(例えば、発声して、テレビ上に表示して、モバイルユーザ機器上に表示して、など)配信することができる。
[図面の簡単な説明]
[0008]
[図1] メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するための例示的なシステムを示す図である。
[0009]
[図2] 様々な実施例による、例示的なユーザ機器のブロック図である。
[0010]
[図3] メディア再生の音声制御を提供するためのシステム内の例示的なメディア制御機器のブロック図である。
[0011]
[図4] 様々な実施例による、メディア再生の音声制御のための例示的なプロセスを示す図である。
[0012]
[図5] メディアストリーム内のイベントをメディアストリーム内の特定の時間に関連付ける、例示的なデータ供給を示す図である。
[0013]
[図6] メディアストリーム内のイベントに基づいてビデオ再生をキューすることの、例示的な仮想アシスタントの照会応答を示す図である。
[0014]
[図7] ユーザ照会を解釈するために使用することができる、再生位置の前及び後に現れる例示的なイベントを示す図である。
[0015]
[図8] メディアストリーム内のイベントをメディアストリーム内の特定の時間に関連付ける、例示的な受賞番組のデータ供給を示す図である。
[0016]
[図9] メディアストリーム内のイベントをメディアストリーム内の特定の時間に関連付ける、例示的なテレビ番組のデータ供給を示す図である。
[0017]
[図10] ユーザ照会に応答するために使用することができる、ビデオ内の特定の時間に関連付けられた例示的な字幕テキストを示す図である。
[0018]
[図11A] ユーザ照会を解釈するために使用することができる、例示的なビデオコンテンツを有するテレビのディスプレイを示す図である。
[0019]
[図11B] ユーザ照会を解釈するために使用することができる、例示的な画像及びテキストコンテンツを有するモバイルユーザ機器を示す図である。
[0020]
[図12] 情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するための、例示的なプロセスを示す図である。
[0021]
[図13] 様々な実施例による、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するように構成された、電子デバイスの機能ブロック図を示す図である。
[0022]
[図14] 様々な実施例による、情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するように構成された、電子デバイスの機能ブロック図を示す。
[発明を実施するための形態]
[0023]
以下の実施例の説明では、実践することが可能な特定の実施例が例示として示される、添付図面を参照する。様々な実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更を実施することができる点を理解されたい。
[0024]
本出願は、仮想アシスタントのメディア知識のリアルタイム更新のためのシステム及びプロセスに関する。リアルタイムの仮想アシスタントの知識更新は、例えば、テレビのユーザ対話の精密な音声制御を可能にし、メディアに関連した照会への適時で正確な仮想アシスタントの応答を提供することができる。一実施例では、仮想アシスタントは、テレビのディスプレイ上に表示されたコンテンツを制御しているテレビ用セットトップボックスなどの、メディア制御機器と双方向作用するために使用することができる。マイクロフォンを有するモバイルユーザ機器又はリモコンは、仮想アシスタントに対する発語入力を受信するために使用することができる。ユーザの意図は、発語入力から判定することができ、仮想アシスタントは、接続されたテレビ上でメディアの再生をさせること、及びテレビ用セットトップボックス又は類似のデバイスの任意の他の機能を制御すること(例えば、ライブのメディアコンテンツの再生をさせること、記録されたメディアコンテンツの再生をさせること、ビデオ記録を管理すること、メディアコンテンツを検索すること、メニューをナビゲートすること、など)を含む、ユーザの意図に従ってタスクを実行することができる。
[0025]
一実施例では、仮想アシスタントの知識は、再生しているメディア(例えば、スポーツのイベント、テレビ番組、など)に関連付けられた、適時で更にリアルタイムな情報を用いて更新することができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。例えば、データ供給は、テレビ放送されたフットボールの試合中のある時間にゴールが起きたことを示すことができる。別の実施例では、データ供給は、テレビ放送された番組中のある時間に番組の司会者が独白したことを示すことができる。ユーザ要求は、発語入力に基づいて受信することができ、ユーザ要求は、メディアストリーム又は番組内のイベントに関連付けることができる。要求を受信したことに応じて、要求内で参照されたイベントに関連付けられたメディアストリーム内の時間で再生を開始するために、メディアストリームを、キューすることができる。
[0026]
別の実施例では、適時又はリアルタイム情報は、現在のイベントを伴う照会への回答を提供するために、デジタルアシスタントの知識に組み込むことができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、ユーザからの発語入力に基づいて受信することができ、ユーザ要求は、イベントの1つに関連付けることができる。ユーザ要求に対する応答は、イベントに関連したデータに基づいて生成することができる。応答は、次に、ユーザに様々な方法で(例えば、発声して、テレビ上に表示して、モバイルユーザ機器上に表示して、など)配信することができる。
[0027]
本明細書で説明する様々な実施例により、仮想アシスタントの知識を適時メディア情報を用いて更新することは、効率的で楽しめるユーザエクスペリエンスを提供することができる。メディア制御機器とのユーザ対話は、メディアコンテンツに関連付けられた自然言語の照会又はコマンドを受信する能力を有する仮想アシスタントを使用して、直感的で簡単なものとすることができる。リアルタイムの仮想アシスタントの知識更新は、例えば、テレビのユーザ対話の精密な音声制御を可能にし、メディアに関連した照会への適時で正確な仮想アシスタントの応答を提供することができる。加えて、メディアの所望の部分又はシーンに、表示されたメディアに関連した直感的な口頭コマンドを使用して、容易にアクセス可能にすることができる。しかし、本明細書で説明する様々な実施例により、更に多くの他の利点が達成され得ることが理解されるべきである。
[0028]
図1は、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するための、例示的なシステム100を示す。本明細書で説明するテレビ上のメディア再生の音声制御は、ディスプレイ技術の1つの種類上でメディアを制御することの単なる一例であり、参照として使用されており、本明細書で説明する概念は、様々なデバイス及び関連付けられたディスプレイ(例えば、モニタ、ラップトップコンピュータのディスプレイ、デスクトップコンピュータのディスプレイ、モバイルユーザ機器のディスプレイ、プロジェクタのディスプレイなど)の任意のものの上を含む、一般的に任意のメディアコンテンツの双方向作用を制御するために使用することができることが理解されるべきである。用語「テレビ」は、ゆえに、様々なデバイスの任意のものに関連付けられた任意の種類のディスプレイを指すことができる。更に、用語「仮想アシスタント」、「デジタルアシスタント」、「インテリジェント自動アシスタント」、又は「自動デジタルアシスタント」は、口頭及び/又はテキスト形式の自然言語入力を解釈してユーザの意図を推測し、推測されたユーザの意図に基づきアクションを実行することができる、任意の情報処理システムを指すことができる。例えば、推測されたユーザの意図を実行するために、システムは、以下の1つ以上を実行することができる。推測されたユーザの意図を実現するために設計されたステップ及びパラメータを有するタスクフローを識別すること、推測されたユーザの意図からの具体的な要件をタスクフローに入力すること、プログラム、方法、サービス、APIなどを呼び出すことによりタスクフローを実行すること、及び、ユーザへの出力応答をオーディオ(例えば、スピーチ)及び/又は視覚形式で生成すること。
[0029]
仮想アシスタントは、自然言語のコマンド、要求、陳述、叙述、及び/又は照会の形で、少なくとも部分的にユーザ要求を受け入れる能力を有することができる。一般的に、ユーザ要求は、仮想アシスタントによる、情報回答又はタスクの実行(例えば、特定のメディアの表示をさせること)のいずれかを求めている。ユーザ要求への満足な応答は、要求された情報回答の提供、要求されたタスクの実行、又はその2つの組み合わせを含むことができる。例えば、ユーザは、仮想アシスタントに「私は今どこにいますか?」などの質問をすることができる。ユーザの現在の位置に基づき、仮想アシスタントは、「あなたはセントラルパーク内にいます」と回答することができる。ユーザはまた、例えば、「今日午後4時に母に電話することを私に思い出させてください」と、タスクの実行を要求することができる。それに応じて、仮想アシスタントは、要求を確認し、次に、ユーザの電子スケジュール内に適当なリマインダ項目を作成することができる。要求されたタスクの実行中、仮想アシスタントは、長時間にわたって情報を複数回交換する連続的なダイアログにおいて、ユーザと時折対話することができる。情報又は種々のタスクの実行を要求するために仮想アシスタントと双方向作用する方法は他にも数多く存在する。言葉による応答を提供し、プログラムされたアクションを取ることに加えて、仮想アシスタントは、他の視覚又はオーディオ形式の応答を(例えば、テキスト、警報、音楽、ビデオ、アニメーション等として)提供することもできる。更に、本明細書で説明するように、例示的な仮想アシスタントは、メディアコンテンツの再生(例えば、テレビ上でビデオを再生すること)を制御し、情報をディスプレイ上に表示させることができる。
[0030]
仮想アシスタントの1つの例が、その開示全体が参照により本明細書に組み込まれる、2011年1月10日出願の「Intelligent Automated Assistant」に対する出願人の米国実用特許出願第12/987,982号に示されている。
[0031]
図1に示されているように、いくつかの実施例では、仮想アシスタントは、クライアント−サーバモデルに従って実施することができる。仮想アシスタントは、ユーザ機器102上で実行されるクライアント側部分、及びサーバシステム110上で実行されるサーバ側部分を含むことができる。クライアント側部分はまた、リモコン106と連携して、テレビ用セットトップボックス104上でも実行することができる。ユーザ機器102としては、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ポータブルメディアプレーヤ、デスクトップコンピュータ、ラップトップコンピュータ、PDA、装着型電子デバイス(例えば、デジタル眼鏡、リストバンド、腕時計、ブローチ、アームバンド等)などの、任意の電子デバイスを挙げることができる。テレビ用セットトップボックス104としては、ケーブルボックス、衛星ボックス、ビデオ再生装置、ビデオストリーミングデバイス、デジタルビデオレコーダ、ゲーミングシステム、DVDプレーヤ、Blu−ray Disc(登録商標)プレーヤ、そのようなデバイスの組み合わせなどの、任意のメディア制御機器を挙げることができる。テレビ用セットトップボックス104は、ディスプレイ112及びスピーカ111に有線又は無線接続により接続することができる。ディスプレイ112(スピーカ111付き又はなしの)は、テレビのディスプレイ、モニタ、プロジェクタなどの、任意の種類のディスプレイとすることができる。いくつかの実施例では、テレビ用セットトップボックス104は、オーディオシステム(例えば、オーディオ受信機)に接続することができ、スピーカ111は、ディスプレイ112とは別個のものとすることができる。他の実施例では、ディスプレイ112、スピーカ111、及びテレビ用セットトップボックス104は、高度な処理機能及びネットワーク接続機能を有するスマートテレビなどの、単一のデバイス内に一体に組み込むことができる。そのような実施例では、テレビ用セットトップボックス104の機能は、組み合わせたデバイス上のアプリケーションとして実行することができる。
[0032]
いくつかの実施例では、テレビ用セットトップボックス104は、複数の種類及びソースのメディアコンテンツのためのメディアコントロールセンタとして機能することができる。例えば、テレビ用セットトップボックス104は、ライブのテレビ(例えば、テレビ放送、衛星テレビ、又はケーブルテレビ)へのユーザのアクセスを促進にすることができる。そのように、テレビ用セットトップボックス104は、ケーブルチューナ、衛星チューナなどを含むことができる。いくつかの実施例では、テレビ用セットトップボックス104はまた、後でのタイムシフトした視聴のためにテレビ番組を録画することができる。他の実施例では、テレビ用セットトップボックス104は、ケーブル配信のオンデマンドのテレビ番組、ビデオ、及び音楽、並びにインターネット配信のテレビ番組、ビデオ、及び音楽など(例えば、様々な無料、有料、及び契約に基づくストリーミングサービスから)の、1つ以上のストリーミングメディアサービスへのアクセスを提供することができる。更に他の実施例では、テレビ用セットトップボックス104は、モバイルユーザ機器からの写真を表示すること、連結された記憶デバイスからのビデオを再生すること、連結された音楽プレーヤからの音楽を再生することなどの、任意の他のソースからのメディアコンテンツの再生又は表示を促進にすることができる。テレビ用セットトップボックス104はまた、所望により、本明細書で説明するメディア制御機能の様々な他の組み合わせを含むことができる。
[0033]
ユーザ機器102及びテレビ用セットトップボックス104は、インターネット、イントラネット、又は任意の他の有線若しくは無線の公衆ネットワーク若しくはプライベートネットワークを含み得る、1つ以上のネットワーク108を介して、サーバシステム110と通信することができる。加えて、ユーザ機器102は、ネットワーク108を介して、又は直接、任意の他の有線若しくは無線通信機構(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、高周波、赤外線伝送など)を介して、テレビ用セットトップボックス104と通信することができる。図示されるように、リモコン106は、ネットワーク108によるのを含む、有線接続又は任意の種類の無線通信(例えば、Bluetooth、Wi−Fi、高周波、赤外線伝送など)などの、任意の種類の通信を使用して、テレビ用セットトップボックス104と通信することができる。いくつかの実施例では、ユーザは、ユーザ機器102、リモコン106、又はテレビ用セットトップボックス104内に組み込まれたインタフェース要素(例えば、ボタン、マイクロフォン、カメラ、ジョイスティックなど)を介して、テレビ用セットトップボックス104と双方向作用することができる。例えば、仮想アシスタントに対するメディアに関連した照会又はコマンドを含む発語入力は、ユーザ機器102及び/又はリモコン106で受信することができ、発語入力は、メディアに関連したタスクをテレビ用セットトップボックス104上で実行させるために使用することができる。同様に、テレビ用セットトップボックス104上のメディアを制御するための触知コマンドは、ユーザ機器102及び/又はリモコン106で(並びに図示しない他のデバイスから)受信することができる。テレビ用セットトップボックス104の様々な機能は、ゆえに、様々な方法で制御することができ、ユーザにメディアコンテンツを複数のデバイスから制御するための多数の選択肢を与える。
[0034]
ユーザ機器102、及び/又はリモコン106を用いてテレビ用セットトップボックス104上で実行される、例示的な仮想アシスタントのクライアント側部分は、ユーザ対応入力及び出力処理並びにサーバシステム110との通信などの、クライアント側の機能を提供することができる。サーバシステム110は、それぞれのユーザ機器102又はそれぞれのテレビ用セットトップボックス104上にある、任意の数のクライアントのためのサーバ側機能を提供することができる。
[0035]
サーバシステム110は、クライアント対応I/Oインタフェース122、1つ以上の処理モジュール118、データ及びモデル記憶装置120、及び外部サービスへのI/Oインタフェース116を含み得る、1つ以上の仮想アシスタントサーバ114を含むことができる。クライアント対応I/Oインタフェース122は、仮想アシスタントサーバ114のためのクライアント対応入力及び出力処理を促進することができる。1つ以上の処理モジュール118は、データ及びモデル記憶装置120を利用して、自然言語入力に基づきユーザの意図を判定することができ、推測されたユーザの意図に基づきタスクを実行することができる。いくつかの実施例では、仮想アシスタントサーバ114は、タスク完了又は情報取得のために、電話サービス、カレンダサービス、情報サービス、メッセージングサービス、ナビゲーションサービス、テレビ番組サービス、ストリーミングメディアサービスなどの、外部サービス124とネットワーク(単数又は複数)108を介して通信することができる。外部サービスへのI/Oインタフェース116は、このような通信を促進することができる。
[0036]
サーバシステム110は、1つ以上の独立型のデータ処理デバイス、又はコンピュータの分散型ネットワーク上に実装することができる。いくつかの実施形態では、サーバシステム110は、様々な仮想機器及び/又はサードパーティのサービスプロバイダ(例えば、サードパーティのクラウドサービスプロバイダ)のサービスを利用して、サーバシステム110の基本的なコンピューティングリソース及び/又はインフラストラクチャリソースを提供することができる。
[0037]
仮想アシスタントの機能は、クライアント側部分及びサーバ側部分の両方を含むとして図1に示されているが、いくつかの実施例では、アシスタントの機能(又はスピーチ認識及びメディア制御全般)は、ユーザ機器、テレビ用セットトップボックス、スマートテレビなどにインストールされたスタンドアロンアプリケーションとして実装することができる。加えて、仮想アシスタントのクライアント部分とサーバ部分との間の機能の分配は実施例によって異なり得る。例えば、いくつかの実施例では、ユーザ機器102又はテレビ用セットトップボックス104上で実行されるクライアントは、ユーザ対応入力及び出力処理機能のみを提供し、仮想アシスタントのすべての他の機能をバックエンドサーバに任せる、シンクライアントとすることができる。
[0038]
図2は、様々な実施例による、例示的なユーザ機器102のブロック図を示す。図示されるように、ユーザ機器102は、メモリインタフェース202、1つ以上のプロセッサ204、及び周辺機器インタフェース206を含むことができる。ユーザ機器102内の様々な構成要素は、1つ以上の通信バス又は信号ラインにより一体に結合することができる。ユーザ機器102は、周辺機器インタフェース206に結合される様々なセンサ、サブシステム、及び周辺機器を更に含むことができる。センサ、サブシステム、及び周辺機器は、情報を収集し、及び/又はユーザ機器102の様々な機能を促進することができる。
[0039]
例えば、ユーザ機器102は、方向、光、及び近接感知機能を促進するために、周辺機器インタフェース206に結合された動きセンサ210、光センサ212、及び近接センサ214を含むことができる。関連機能を促進するために、測位システム(例えば、GPS受信機)、温度センサ、生体センサ、ジャイロスコープ、コンパス、加速度計、などの、1つ以上の他のセンサ216も、周辺インタフェース206に接続することができる。
[0040]
いくつかの実施例では、カメラサブシステム220及び光学センサ222は、写真の撮影及びビデオクリップの録画などの、カメラ機能を促進するために利用することができる。様々な通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含み得る、1つ以上の有線及び/又は無線通信サブシステム224を通じて、通信機能を促進することができる。オーディオサブシステム226は、スピーカ228及びマイクロフォン230に結合して、音声認識、音声複製、デジタル録音、及び電話機能などの、音声使用可能機能を促進することができる。
[0041]
いくつかの実施例では、ユーザ機器102は、周辺機器インタフェース206に結合されたI/Oサブシステム240を更に含むことができる。I/Oサブシステム240は、タッチスクリーンコントローラ242及び/又は他の入力コントローラ(単数又は複数)244を含むことができる。タッチスクリーンコントローラ242は、タッチスクリーン246に結合することができる。タッチスクリーン246及びタッチスクリーンコントローラ242は、例えば、容量性、抵抗性、赤外線、及び表面弾性波技術、近接センサアレイなどの、複数のタッチ感知技術のうちの任意のものを用いて、接触及びその移動又は中断を検出することができる。他の入力コントローラ(単数又は複数)244は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御機器248に結合することができる。
[0042]
いくつかの実施例では、ユーザ機器102は、メモリ250に結合されたメモリインタフェース202を更に含むことができる。メモリ250としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ250の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)を記憶するために使用することができる。他の実施例では、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)は、サーバシステム110の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ250の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体との間に分割することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0043]
いくつかの実施例では、メモリ250は、オペレーティングシステム252、通信モジュール254、グラフィカルユーザインタフェースモジュール256、センサ処理モジュール258、電話モジュール260、及びアプリケーション262を記憶することができる。オペレーティングシステム252は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール254は、1つ以上の追加機器、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進することができる。グラフィカルユーザインタフェースモジュール256は、グラフィカルユーザインタフェース処理を促進することができる。センサ処理モジュール258は、センサ関連の処理及び機能を促進することができる。電話モジュール260は、電話関連のプロセス及び機能を促進することができる。アプリケーションモジュール262は、電子メッセージング、ウェブブラウジング、メディア処理、ナビゲーション、イメージング、並びに/又はその他のプロセス及び機能などの、ユーザアプリケーションの様々な機能を促進することができる。
[0044]
本明細書で説明されるように、メモリ250はまた、例えば、仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール264内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ266(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組の好み等のその他のデータ)も記憶することができる。ユーザデータ266はまた、仮想アシスタントを支援して、又は任意の他のアプリケーションのために、スピーチ認識の実行に使用することができる。
[0045]
様々な実施例では、仮想アシスタントクライアントモジュール264は、ユーザ機器102の種々のユーザインタフェース(例えば、I/Oサブシステム240、オーディオサブシステム226など)を通じて発語入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントクライアントモジュール264はまた、オーディオ(例えば、発語出力)、視覚、及び/又は触知形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール264は、通信サブシステム224を用いて仮想アシスタントサーバと通信することができる。
[0046]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザ、現在のユーザ対話、及び/又は現在のユーザ入力に関連付けられるコンテキストを確立するために、種々のセンサ、サブシステム及び周辺機器を利用してユーザ機器102の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、テレビ用セットトップボックス104からなどの、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール264は、ユーザの意図の推測を助けるために、ユーザ入力とともにコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、ユーザへの出力をどのように準備し、配信するのかを決定するために、コンテキスト情報を用いることができる。コンテキスト情報は、ユーザ機器102又はサーバシステム110により、正確なスピーチ認識を支援するために、更に使用することができる。
[0047]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、周囲環境の画像又はビデオ、別のオブジェクトとの距離、などの、センサ情報を含むことができる。コンテキスト情報は、ユーザ機器102の物理的状態に関連付けられた情報(例えば、機器の向き、機器の位置、機器の温度、電力レベル、速さ、加速度、動きパターン、セルラー信号強度など)、又はユーザ機器102のソフトウェア状態に関連付けられた情報(例えば、稼働中のプロセス、インストールされたプログラム、過去及び現在のネットワーク活動、バックグラウンドサービス、エラーログ、リソース使用など)を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、テレビ用セットトップボックス104により表示されたメディアコンテンツ、テレビ用セットトップボックス104で使用可能なメディアコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報の任意のものを、ユーザ入力に関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供する(又はユーザ機器102自体で使用する)ことができる。
[0048]
いくつかの実施例では、仮想アシスタントクライアントモジュール264は、仮想アシスタントサーバ114からの要求に応じて、ユーザ機器102上に記憶された情報(例えば、ユーザデータ266)を選択的に提供することができる(又は、その情報を、ユーザ機器102自体でスピーチ認識及び/又は仮想アシスタントの機能を実行するのに使用することができる)。仮想アシスタントクライアントモジュール264はまた、仮想アシスタントサーバ114による要求に応じて、自然言語ダイアログ又はその他のユーザインタフェースを介してユーザから追加入力も引き出すことができる。仮想アシスタントクライアントモジュール264は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0049]
種々の実施例では、メモリ250は、追加の命令又はより少数の命令を含むことができる。更に、ユーザ機器102の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0050]
図3は、メディア再生の音声制御を提供するための、システム300内の例示的なテレビ用セットトップボックス104のブロック図を示す。システム300は、システム100の要素のサブセットを含むことができる。いくつかの実施例では、システム300は、それ自体だけで特定の機能を実行することができ、他の機能を実行するためにシステム100の他の要素と一体で機能することができる。例えば、システム300の要素は、サーバシステム110と双方向作用せずに、特定のメディア制御機能(例えば、ローカルに記憶されたメディアの再生、録画機能、チャンネル同調など)を処理することができ、システム300は、サーバシステム110及びシステム100の他の要素と連携して、他のメディア制御機能(例えば、リモートに記憶されたメディアの再生、メディアコンテンツのダウンロード、特定の仮想アシスタントの照会の処理など)を処理することができる。他の実施例では、システム300の要素は、ネットワークを介して外部サービス124にアクセスすることを含む、より大きなシステム100の機能を実行することができる。機能は、様々な他の方法でローカルのデバイスとリモートサーバデバイスとの間で分割することができることが、理解されるべきである。
[0051]
図3に示すように、一実施例では、テレビ用セットトップボックス104は、メモリインタフェース302、1つ以上のプロセッサ304、及び周辺機器インタフェース306を含むことができる。テレビ用セットトップボックス104内の様々な構成要素は、1つ以上の通信バス又は信号ラインにより一体に結合することができる。テレビ用セットトップボックス104は、周辺機器インタフェース306に結合される様々なサブシステム及び周辺機器を更に含むことができる。サブシステム及び周辺機器は、情報を収集し、及び/又はテレビ用セットトップボックス104の様々な機能を促進することができる。
[0052]
例えば、テレビ用セットトップボックス104は、通信サブシステム324を含むことができる。様々な通信ポート、無線周波数受信器及び送信器、並びに/又は光(例えば、赤外線)受信器及び送信器を含み得る、1つ以上の有線及び/又は無線通信サブシステム324を通じて、通信機能を促進することができる。
[0053]
いくつかの実施例では、テレビ用セットトップボックス104は、周辺機器インタフェース306に結合されたI/Oサブシステム340を更に含むことができる。I/Oサブシステム340は、オーディオ/ビデオ出力コントローラ370を含むことができる。オーディオ/ビデオ出力コントローラ370は、ディスプレイ112及びスピーカ111に結合することができる、又は別の方法でオーディオ及びビデオ出力を提供することができる(例えば、オーディオ/ビデオポート、無線送信などにより)。I/Oサブシステム340は、リモートコントローラ342を更に含むことができる。リモートコントローラ342は、リモコン106と通信可能に結合することができる(例えば、有線接続、Bluetooth、Wi−Fiなどにより)。リモコン106は、オーディオ入力(例えば、ユーザからの発語入力)をキャプチャするためのマイクロフォン372、触知入力をキャプチャするためのボタン(単数又は複数)374、及びテレビ用セットトップボックス104とのリモートコントローラ342を介した通信を促進するための送受信機376を含むことができる。リモコン106はまた、キーボード、ジョイスティック、タッチパッドなどの、他の入力メカニズムを含むことができる。リモコン106は、照明、ディスプレイ、スピーカなどの、出力メカニズムを更に含むことができる。リモコン106で受け取られた入力(例えば、ユーザのスピーチ、ボタン押下など)は、テレビ用セットトップボックス104にリモートコントローラ342を介して通信することができる。I/Oサブシステム340はまた、他の入力コントローラ(単数又は複数)344を含むことができる。他の入力コントローラ(単数又は複数)344は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの、他の入力/制御機器348に結合することができる。
[0054]
いくつかの実施例では、テレビ用セットトップボックス104は、メモリ350に結合されたメモリインタフェース302を更に含むことができる。メモリ350としては、任意の電子、磁気、光学、電磁、赤外線、若しくは半導体の、システム、装置、若しくはデバイス、ポータブルコンピュータディスケット(磁気)、ランダムアクセスメモリ(RAM)(磁気)、読み出し専用メモリ(ROM)(磁気)、消去可能なプログラマブル読出し専用メモリ(EPROM)(磁気)、CD、CD−R、CD−RW、DVD、DVD−R、若しくはDVD−RWなどの、ポータブル光学ディスク、又はコンパクトフラッシュカード、セキュアデジタルカード、USBメモリデバイス、メモリスティックなどの、フラッシュメモリを挙げることができる。いくつかの実施例では、メモリ350の非一時的コンピュータ可読記憶媒体は、コンピュータベースのシステム、プロセッサを含むシステム、又は、命令実行システム、装置、若しくはデバイスから命令をフェッチし、それらの命令を実行し得る他のシステムなどの、命令実行システム、装置、若しくはデバイスにより又はそれらと連携して使用するための、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)を記憶するために使用することができる。他の実施例では、命令(例えば、本明細書で説明する様々なプロセスの一部分又はすべてを実行するための)は、サーバシステム110の非一時的コンピュータ可読記憶媒体に記憶することができる、又は、メモリ350の非一時的コンピュータ可読記憶媒体とサーバシステム110の非一時的コンピュータ可読記憶媒体との間に分割することができる。本文書のコンテキストでは、「非一時的コンピュータ可読記憶媒体」は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、含むか又は記憶することが可能な、任意の媒体とすることができる。
[0055]
いくつかの実施例では、メモリ350は、オペレーティングシステム352、通信モジュール354、グラフィカルユーザインタフェースモジュール356、デバイス内メディアモジュール358、デバイス外メディアモジュール360、及びアプリケーション362を記憶することができる。オペレーティングシステム352は、基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含むことができる。通信モジュール354は、1つ以上の追加機器、1つ以上のコンピュータ、及び/又は1つ以上のサーバとの通信を促進することができる。グラフィカルユーザインタフェースモジュール356は、グラフィカルユーザインタフェース処理を促進することができる。デバイス内メディアモジュール358は、テレビ用セットトップボックス104上にローカルに記憶されたメディアコンテンツ、及びローカルで使用可能な他のメディアコンテンツ(例えば、ケーブルチャンネルの同調)の記憶及び再生を促進することができる。デバイス外メディアモジュール360は、リモートに記憶された(例えば、リモートサーバ上、ユーザ機器102上など)メディアコンテンツのストリーミング再生又はダウンロードを促進することができる。アプリケーションモジュール362は、電子メッセージング、ウェブブラウジング、メディア処理、ゲーミング、並びに/又はその他のプロセス及び機能などの、ユーザアプリケーションの様々な機能を促進することができる。
[0056]
本明細書で説明されるように、メモリ350はまた、例えば、仮想アシスタントのクライアント側機能を提供するために、(例えば、仮想アシスタントクライアントモジュール364内の)クライアント側仮想アシスタント命令、並びに種々のユーザデータ366(例えば、ユーザ固有の語彙データ、設定データ、及び/若しくはユーザの電子アドレス帳、to−doリスト、買い物リスト、テレビ番組の好み等のその他のデータ)も記憶することができる。ユーザデータ366はまた、仮想アシスタントを支援して、又は任意の他のアプリケーションのために、スピーチ認識の実行に使用することができる。
[0057]
様々な実施例では、仮想アシスタントクライアントモジュール364は、テレビ用セットトップボックス104の種々のユーザインタフェース(例えば、I/Oサブシステム340など)を通じて発語入力(例えば、発語入力)、テキスト入力、タッチ入力、及び/又はジェスチャ入力を受け入れる能力を有することができる。仮想アシスタントクライアントモジュール364はまた、オーディオ(例えば、発語出力)、視覚、及び/又は触知形態の出力を提供する能力も有することができる。例えば、出力は、音声、音響、警報、テキストメッセージ、メニュー、グラフィック、ビデオ、アニメーション、振動、及び/又は上記のもののうちの2つ以上の組み合わせとして提供することができる。動作時、仮想アシスタントクライアントモジュール364は、通信サブシステム324を用いて仮想アシスタントサーバと通信することができる。
[0058]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザ、現在のユーザ対話、及び/又は現在のユーザ入力に関連付けられるコンテキストを確立するために、種々のサブシステム及び周辺機器を利用してテレビ用セットトップボックス104の周囲環境から追加情報を収集することができる。そのようなコンテキストはまた、ユーザ機器102からなどの、他のデバイスからの情報を含むことができる。いくつかの実施例では、仮想アシスタントクライアントモジュール364は、ユーザの意図の推測を助けるために、ユーザ入力とともにコンテキスト情報又はそのサブセットを仮想アシスタントサーバに提供することができる。仮想アシスタントはまた、ユーザへの出力をどのように準備し、配信するのかを決定するために、コンテキスト情報を用いることができる。コンテキスト情報は、テレビ用セットトップボックス104又はサーバシステム110により、正確なスピーチ認識を支援するために、更に使用することができる。
[0059]
いくつかの実施例では、ユーザ入力に付随するコンテキスト情報は、照明、環境ノイズ、周囲温度、別のオブジェクトとの距離、などの、センサ情報を含むことができる。コンテキスト情報は、テレビ用セットトップボックス104の物理的状態に関連付けられた情報(例えば、機器の位置、機器の温度、電力レベルなど)、又はテレビ用セットトップボックス104のソフトウェア状態に関連付けられた情報(例えば、稼働中のプロセス、インストールされたアプリケーション、過去及び現在のネットワーク活動、バックグラウンドサービス、エラーログ、リソース使用など)を更に含むことができる。コンテキスト情報は、接続されたデバイス又はユーザに関連付けられた他のデバイスの状態に関連付けられた情報(例えば、ユーザ機器102上に表示されたコンテンツ、ユーザ機器102で再生可能なコンテンツなど)を更に含むことができる。これらの種類のコンテキスト情報の任意のものを、ユーザ入力に関連付けられたコンテキスト情報として、仮想アシスタントサーバ114に提供する(又はテレビ用セットトップボックス104自体で使用する)ことができる。
[0060]
いくつかの実施例では、仮想アシスタントクライアントモジュール364は、仮想アシスタントサーバ114からの要求に応じて、テレビ用セットトップボックス104上に記憶された情報(例えば、ユーザデータ366)を選択的に提供することができる(又は、その情報を、テレビ用セットトップボックス104自体でスピーチ認識及び/又は仮想アシスタントの機能を実行するのに使用することができる)。仮想アシスタントクライアントモジュール364はまた、仮想アシスタントサーバ114による要求に応じて、自然言語ダイアログ又はその他のユーザインタフェースを介してユーザから追加入力も引き出すことができる。仮想アシスタントクライアントモジュール364は、意図推測及び/又はユーザ要求内に表されているユーザの意図の達成において仮想アシスタントサーバ114を助けるために、追加入力を仮想アシスタントサーバ114に渡すことができる。
[0061]
種々の実施例では、メモリ350は、追加の命令又はより少数の命令を含むことができる。更に、テレビ用セットトップボックス104の種々の機能は、1つ以上の信号処理回路及び/又は特定用途向け集積回路の形態を含む、ハードウェアの形態及び/又はファームウェアの形態で実装することができる。
[0062]
システム100及びシステム300は、図1及び図3に示す構成要素及び構成に限定されず、ユーザ機器102、テレビ用セットトップボックス104、及びリモコン106は、図2及び図3に示す構成要素及び構成に同様に限定されないことが理解されるべきである。システム100、システム300、ユーザ機器102、テレビ用セットトップボックス104、及びリモコン106は、すべて、様々な実施例により、複数の構成で、より少数の又は他の構成要素を含むことができる。
[0063]
本開示を通して、「システム」の参照は、システム100、システム300、又はシステム100若しくはシステム300のいずれかの1つ以上の要素を含み得る。例えば、本明細書で参照される典型的なシステムは、リモコン106及び/又はユーザ機器102からのユーザ入力を受信するテレビ用セットトップボックス104を含み得る。
[0064]
いくつかの実施例では、仮想アシスタントの照会は、特定の時間にキューされた特定のメディアに対する要求を含むことができる。例えば、ユーザは、試合中の特定のプレー、番組中の特定のパフォーマンス、映画の中の特定のシーンなどを見たい場合がある。そのような照会を処理するために、仮想アシスタントシステムは、照会に関連付けられたユーザの意図を判定し、照会に応答する関連するメディアを識別し、ユーザの要求に従った適切な時間での再生のためにメディアをキューすることができる(例えば、誰かがゴールを決める直前で再生を開始するために試合をキューする)。詳細なメディア情報は、様々なメディアに関連した照会を支援するために、仮想アシスタントの知識ベースに組み込むことができる。例えば、詳細なメディア情報は、特定のメディアの照会を支援するために、システム100の仮想アシスタントサーバ114のデータ及びモデル120に組み込むことができる。いくつかの実施例では、詳細なメディア情報はまた、システム100の外部サービス124からも入手することができる。
[0065]
関連するユーザ要求を処理する能力がある応答システムは、しかし、リアルタイム又は近リアルタイムのメディアデータを仮想アシスタントの知識に組み込むことを含むことができる。例えば、ライブのスポーツイベントは、ユーザが見たいことがある多様な対象箇所を含み得る。加えて、現在ユーザにより観られているビデオは、ユーザが照会で参照し得る多くの対象箇所を含み得る。同様に、テレビ番組は、ユーザが再生のためキュー又は友人と共有するために識別したいことがある、人気のあるシーン、特別なゲストの登場、幅広く話題になった瞬間などを含み得る。様々な他のメディアコンテンツは、同様に、ユーザのための関連する対象箇所を含み得る(例えば、音楽、ウェブベースのビデオクリップなど)。詳細で適時のメディアデータは、ゆえに、コンテンツ及びメディア関連情報に対する近リアルタイム要求さえをも含む、メディアに関連付けられた様々なユーザ要求を支援するために、本明細書の様々な実施例により、仮想アシスタントの知識に組み込むことができる。
[0066]
図4は、様々な実施例による、詳細及び/又は適時のメディアデータを組み込むことを含む、メディア再生の音声制御のための例示的なプロセス400を示す。ブロック402で、メディアストリーム内の時間に関連付けられたイベントを含むデータ供給を、受信することができる。データ供給は、様々な異なる形態の任意の形態で様々な異なるソースから受信することができる。例えば、データ供給としては、特定のメディア内のイベントと時間を相関付ける表、時間がイベントと相関付けられるデータベース、特定のメディア内のイベントと時間を関連付けるテキストファイル、イベント要求に応じて時間を提供する情報サーバなどを挙げることができる。データ供給は、システム100の外部サービス124などの、様々な異なるソースから得ることができる。いくつかの実施例では、データ供給は、詳細なスポーツイベント情報を提供するスポーツ連盟、詳細なビデオ及びシーン情報を提供するビデオ供給業者、複数のスポーツのデータソースから収集するスポーツデータのアグリゲータなどの、特定のメディアに関連付けられた組織により、提供され得る。他の実施例では、データ供給は、俳優の外観、字幕テキスト、シーンの変化などを分析することなどの、メディアコンテンツを分析することから入手することができる。更に他の実施例では、データ供給は、人気があり話題になった番組の瞬間、頻繁に参照された試合中のイベントなどの、ソーシャルメディアから入手することができる。本明細書で使用される場合、データ供給という用語は、ゆえに、メディア自体からマイニングされるデータを含む、様々な形態の多様なデータを指し得る。
[0067]
図5は、メディアストリーム512内のイベントをメディアストリーム内の特定の時間514に関連付ける、例示的なデータ供給510を示す。図5は、説明する目的のために提供され、データ供給510は、様々な他の形態(例えば、テキストファイル、テーブルファイル、情報サーバのデータ、データベース、メッセージ、情報供給など)を取り得ることが理解されるべきである。メディアストリーム512は、スポーツイベント、ビデオ、テレビ番組、音楽などの、任意の種類の再生可能なメディアを含むことができる。図5の実施例では、メディアストリーム512は、テレビ放送されたアイスホッケーの試合を含むことができる。特定のメディアの概要情報又は他の記述詳細は、特定の時間に関連付けられているか又は否かに関わらず、データ供給510内に含まれ得る(例えば、ヘッダ内などに含まれ得る)。図示された実施例では、記述概要情報は、メディアのタイトル(例えば、「アイスホッケーの試合」)、メディアの説明(「チームA対チームB、アイスアリーナにて」)、及びメディアのソース(例えば、「チャンネル7」で放送された)を含む、5時01分(協定世界時(UTC))の最初のブロック内に提供されている。様々な他の記述情報は、同様に提供することができ、情報は、参照するために特定の領域内に提供することができる(例えば、タイトル領域は、タイトルを含むことができ、ソース領域は、テレビのチャンネル又はインターネットアドレスを含むことができる、等)。図5に示す情報に加えて、試合をしているチームの選手の名簿、エピソード内に登場する俳優、プロデューサ、監督、アーティストなどのリストなどの、様々な他のメディア情報もまた、入手することができる。様々な概要及び記述情報は、すべて、仮想アシスタントの知識に組み込んで、関連する照会を支援するために使用することができる。
[0068]
図に示すように、データ供給510は、メディアストリーム時間514に相関付けられたメディアストリームイベント516を含むことができる。メディアストリーム時間514は、協定世界時(略称「UTC」)、ユーザに対する現地時間、仮想アシスタントサーバでの時間、メディアサーバでの時間、メディアのソース(例えば、スポーツ開催地)での時間、又は様々な他のタイムゾーンを使用することを含む、様々な異なる方法で指定することができる。他の実施例では、メディアストリーム時間514は、メディアコンテンツの開始から(例えば、映画、エピソード、スポーツイベント、オーディオトラックなどの開始から)のオフセットとして提供することができる。更に他の実施例では、メディアストリーム時間514は、試合の時間などとして提供することができる。様々な実施例のいずれでも、メディアストリーム時間514は、秒、ミリ秒、又は更により細かな段階などの、精密な時間指定を含むことができることが理解されるべきである。参照を容易にするために、本明細書のメディアストリーム時間514の例は、UTCの時間及び分の指定で提供されるが、秒は一般的に使用することができ、ミリ秒又はより細かな段階も使用することができる。
[0069]
メディアストリームイベント516は、メディアストリーム512内の多様なイベント又は対象箇所を含むことができる。スポーツのイベントでは、例えば、メディアストリームイベント516としては、プレー、ペナルティ、ゴール、プレーのセグメント分割(例えば、ピリオド、クウォータ、ハーフなど)、プレーの状況(例えば、打席に立つ選手、氷上の選手、クウォータバックとして入っている選手、フィールド上のキッカー等)などを挙げることができる。テレビ番組(例えば、連続コメディ、トークショーなど)では、メディアストリームイベント516としては、タイトルシーン、登場人物の状況、俳優の状況(例えば、画面に出る時間の指定)、番組の筋内のイベント(例えば、特定のシーン)、ゲストの状況、ゲストの演技、独白、コマーシャルの時間などを挙げることができる。受賞番組(例えば、映画賞、演劇賞など)では、メディアストリームイベント516としては、独白、賞の授与、受賞者のスピーチ、アーティストの演奏、コマーシャルの時間などを挙げることができる。ラジオ番組では、メディアストリームイベント516としては、冒頭の挨拶、ゲストの話し手、話題などを挙げることができる。ゆえに、多様なイベント又は対象箇所は、多様なメディアの種類のいずれでも識別することができ、これらのイベントは、メディア内の特定の時間に関連付けることができることが理解されるべきである。
[0070]
他の実施例では、対象箇所又はイベントは、ソーシャルメディア、人気のある意見、投票などに基づいて識別することができる。例えば、特定のメディア(例えば、ライブのスポーツイベント)に関連付けられたソーシャルメディアネットワーク上の人気のあるコメントは、予想される対象箇所及び出現のおおよその時間(例えば、テーマに関する最初のコメントの少し前)を識別するために使用することができる。別の実施例では、視聴者がメディア内に時間を記録することにより(例えば、リモコン上のボタン、口頭要求、仮想ボタンなどを使用して)対象箇所を示すことができる。更に他の実施例では、対象箇所は、メディアストリームの特定の部分からのビデオクリップの共有などの、他者とメディアを共有するユーザから識別することができる。データ供給510内のメディアストリームイベント516は、ゆえに、メディア提供業者、ユーザ、ソーシャルネットワークの談議、及び様々な他のソースから識別することができる。
[0071]
図5の実施例では、データ供給510は、アイスホッケーの試合内のイベントに関連付けられたメディアストリームイベント516を含むことができる。例えば、試合の第1ピリオドを開始するパックドロップが、5時07分(UTC)に起こっていた場合に、データ供給510は、そのイベントに対する特定のメディアストリーム時間514での関連付けられたメディアストリームイベント516を含むことができる。5時18分(UTC)に、選手Zを打ったことについてペナルティが選手Xに対してコールされた場合に、結果として2分のペナルティとなった。ペナルティの詳細(例えば、ペナルティの種類、関係した選手、ペナルティの時間など)は、その特定のメディアストリーム時間514でのペナルティに関連付けられたメディアストリームイベント516内に含むことができる。5時19分(UTC)に、チームAのパワープレーが開始された場合に、特定のメディアストリーム時間514とともにパワープレーの開始に関連付けることができるメディアストリームイベント516を、含むことができる。図に示すように、様々な他のメディアストリームイベント516を、同様に含むことができ、特定のメディアストリーム時間514に関連付けることができる。異なるイベントに対する詳細は、異なることがあり、情報の一部又はすべては、仮想アシスタントの知識に組み込むことができる。例えば、ゴールの詳細は、ゴールをした選手及びアシストした選手を含むことができる。パワープレーの終了の詳細は、パワープレー状態を失ったチーム及び全員に戻ったチームに対する識別情報を含むことができる。画面上の選手の詳細は、画面上の選手の座標位置を含むことができる。加えて、メディアストリームイベント516は、5時31分(UTC)に起こった第1ピリオドの終了などの、試合に対する時間セグメント指定を含むことができる。
[0072]
他の実施例では、追加の詳細情報を有する様々な他のメディアストリームイベント516は、データ供給510内に含むことができる、及び/又はメディアストリーム512自体から判定することができる。例えば、氷上の選手は、メディアストリーム時間514に関連付けることができ、得点の変化は、メディアストリーム時間514に関連付けることができ、プレーの中断は、メディアストリーム時間514に関連付けることができ、氷上の乱闘及び乱闘の参加者は、メディアストリーム時間514に関連付けることなどができる。加えて、種々の統計、選手の情報、参加者の情報(例えば、審判員、コーチなど)、試合のセグメント指示子などの、様々な他の詳細は、特定のイベント内に含むことができる、又は、メディアストリームに関連付けることができる。この方法で、データ供給510は、様々な時間514にメディアストリーム512内で起こる、様々なイベント516の詳細なテキスト記述を含むことができる。
[0073]
メディアストリーム512を、メディアストリームイベント516及びメディアストリーム時間514の知識を仮想アシスタントの知識ベースに組み込むために受信する必要はないことが理解されるべきである。いくつかの実施例では、メディアストリーム512なしに、データ供給510の情報は、情報を仮想アシスタントの知識に(例えば、データ及びモデル120に)組み込むために、仮想アシスタントサーバ114により受信することができる。一方、メディアストリーム512は、ユーザ機器102、テレビ用セットトップボックス104、又は別のユーザ機器に直接提供することができる。以下に説明するように、いくつかの実施例では、メディアイベント516の仮想アシスタントの知識は、ユーザ機器上(例えば、ユーザ機器102、テレビ用セットトップボックス104上など)のメディアストリーム512の再生のキューをするため、並びに他の仮想アシスタントの照会に応答するために使用することができる。他の実施例では、メディアストリーム512、メディアストリーム512の部分、及び/又はメディアストリーム512に関連付けられたメタデータは、仮想アシスタントサーバ114により受信して、仮想アシスタントの知識ベースに組み込むことができる。
[0074]
図4のプロセス400を再び参照して、ブロック404で、メディアストリーム内のイベントに関連付けられた口頭のユーザ要求を、受信することができる。上述したように、発語入力は、ユーザ機器102、リモコン106、又はシステム100内の別のユーザ機器によりなどの、様々な方法でユーザから受信することができる。仮想アシスタントに宛てられた発語入力は、メディア及び/又は特定のメディア内のイベントに関連付けられた要求を含む、様々なユーザ要求を含むことができる。例えば、ユーザ要求は、図5に示すアイスホッケーの試合のイベントに関連付けられた照会などの、本明細書で説明するメディアストリームイベント516の任意のものの参照を含むことができる。いくつかの実施例では、ユーザ要求は、メディアを特定の対象箇所にキューする要求を含むことができる。例えば、ユーザは、アイスホッケーの試合内の乱闘を見る(例えば、「選手Yと選手Qとの間の乱闘を私に見せて」)、ピリオドの開始に飛び越す(例えば、「第1ピリオドのパックドロップに飛び越して」)、ゴールを見る(例えば、「選手Mのゴールを私に見せて」)、特定のペナルティになったものを見る(例えば、「選手Xに対する打ちつけたペナルティを私に見せて」)などの要求をする場合がある。
[0075]
図4のプロセス400を再び参照して、ブロック406で、メディアストリームの再生を、ユーザ要求内のイベントに関連付けられたメディアストリーム内の時間で開始させることができる。例えば、データ供給510から仮想アシスタントの知識ベースに組み込まれた知識は、特定のコンテンツに対するユーザ要求に関連付けられたメディアストリーム内の特定の時間を判定するために使用することができる。図6は、照会に応答するメディアストリーム内のイベントに基づいてビデオ再生をキューすることの、例示的な仮想アシスタントの照会応答を示す。図示された実施例では、ユーザは、テレビ用セットトップボックス104により制御されたコンテンツを有するディスプレイ112を見ていることがある。ユーザは、上述したデータ供給510に関連付けられたアイスホッケーの試合を含むことがあるビデオ620を見ていることがある。プロセス400のブロック404を参照して説明したように、ユーザは、次に、イベントに関連付けられた特定のメディアコンテンツを見る要求をすることができる。例えば、ユーザは、ゴールを見る要求をすることができる(例えば、「あのゴールを再び私に見せて」、「選手Mのゴールを私に見せて」、「チームAのゴールを私に見せて」、「第1ピリオドのゴールを私に見せて」、「AとBのホッケーの試合の最初のゴールを私に見せて」、「あの最後のゴールを再生して」など)。
[0076]
ユーザ要求に応じて、ユーザ要求に応答するメディアストリーム内(例えば、ビデオ620内)の特定の時間を判定することができる。この実施例では、図5のデータ供給510からの仮想アシスタントの知識ベースに組み込まれた知識を使用して、システムは、図5に示すように、5時21分(UTC)の選手Qによりアシストされた選手MのチームAのゴールを識別することができる。システムは、次に、所望のコンテンツを見せるために、ビデオ620を適切な時間にタイムシフトさせることができる。この実施例では、システムは、再生インジケータ622上に示されたキュー時間624で再生を開始するために、ビデオ620をタイムシフトすることができる。図に示すように、キュー時間624は、ライブ時間626(例えば、ライブでテレビ放送された又は別の方法でライブ配信されたコンテンツのストリームに関連付けられた時間)とは異なることができる。いくつかの実施例では、キュー時間624は、対応するメディアストリームイベント516に関連付けられたメディアストリーム時間514に対応することができる。他の実施例では、キュー時間624は、メディアストリームイベント516がメディアストリーム時間514にどのように関連付けられているかにより、メディアストリーム時間514より早く又はより遅くにシフトすることができる。例えば、キュー時間624は、得点されるゴールの直前のプレーをキャプチャするために、30秒、1分、2分、又は別の量、対応するメディアストリーム時間514の前とすることができる。いくつかの実施例では、データ供給510は、特定のイベントに対して再生がどこで開始されなければならないかの精密な時間指定(例えば、ホッケーの選手が来るべきゴールのためにドライブを始めた時を指定する、ペナルティ行動が最初に見られた時を指定する、など)を含むことができる。ビデオ620は、ゆえに、ユーザの仮想アシスタントの要求に応じて、ユーザがキュー時間624で開始するために再生することができる。
[0077]
いくつかの実施例では、ビデオ620は、ディスプレイ112上に表示される別のビデオに置き換えることができる、又は別の方法でユーザ要求に応じて再生のために取得することができる。例えば、他のコンテンツを見ているユーザは、別のチャンネルのホッケーの試合内で得点された最後のゴールを見る要求を発言することができる(例えば、「チャンネル7のホッケーの試合内で得点された最後のゴールを私に見せて」、「AとBのホッケーの試合の最後のゴールを私に見せて」、「アイスアリーナの試合の最初のゴールを私に見せて」など)。上述したように、ユーザ要求が特定のメディアに対して解決することができない場合、仮想アシスタントは、必要により、より多くの情報又は確認を促すことができる(例えば、「チャンネル7で表示されているアイスアリーナでのチームA対チームBのアイスホッケーの試合のことでしたか?」)。特定のコンテンツに対して解決された要求を用いて、テレビ用セットトップボックス104は、再生のためにビデオ620を取得して、それをキュー時間624にキューすることができる。ビデオ620は、ユーザ機器102又は任意の他のデバイス上で再生することができ、仮想アシスタントは、ユーザ機器102又は別のデバイス上で、同様にビデオ620をキュー時間624にキューすることができる(例えば、特定のユーザコマンドに基づいて、ユーザがビデオ620を見ているデバイスに基づいて、ユーザ要求のソースに基づいて、など)ことが理解されるべきである。
[0078]
いくつかの実施例では、仮想アシスタントに宛てられたユーザ要求は、テレビ用セットトップボックス104によりディスプレイ112上に表示された、又はユーザ機器102のタッチスクリーン246上に表示された何かへの曖昧な参照を含むことができる。例えば、図6のディスプレイ112上に表示されたビデオ620に関連する要求は、画面上の選手628又は画面上の選手630への曖昧な参照を含むことができる。ユーザが質問又は参照している特定の選手は、発語入力のみからは不明確であることがある。別の実施例では、ユーザ要求は、別の方法では発語入力のみからでは曖昧であるであろう他の参照を含むことができる。例えば、チームの名簿を見る要求は、ユーザが特定のチームの特定の試合を見ていることを知らなければ曖昧であることがあり、次のゴールを見る要求は、ユーザが特定の試合を見ていることを知らなければ曖昧であることがある、などである。ディスプレイ112上に表示されたコンテンツ及び関連付けられたメタデータ(例えば、データ供給510から又は別の方法での)は、ゆえに、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる。例えば、画面上の俳優、画面上の選手、試合の参加者のリスト、番組の俳優のリスト、チームの名簿などは、ユーザ要求を解釈するために使用することができる。
[0079]
図示された実施例では、ディスプレイ112上に表示されたコンテンツ及び関連付けられたメタデータは、「ゴールキーパー」、「あの選手」、「背番号8」、「彼」、「M」、ニックネームへの参照、又は特定の試合及び/若しくは特定の画面上の選手に関連した任意の他の参照から、ユーザの意図を判定するために使用することができる。例えば、上述したように、データ供給510は、どの選手が特定の時間に画面上に出ているか、どの選手が特定のイベントに関係しているか、どの選手が特定の時間に氷上にいるか、などのインジケーションを含むことができる。例えば、図6に関連付けられた時間に、データ供給510から仮想アシスタントの知識ベースに組み込まれた知識は、選手M(例えば、画面上の選手628)及びゴールキーパー(例えば、画面上の選手630)がその特定の時間に画面上に、その時間付近に氷上に、その試合でプレーしている、又は、少なくとも画面上にいる若しくはその特定の時間に関係していると思われることを示すことができる。「ゴールキーパー」、「あの選手」、「背番号8」、「彼」、「M」、ニックネームなどを参照している要求は、次に、その情報に基づいて明確にすることができる。
[0080]
例えば、「ゴールキーパー」の最後のストップを見る要求(例えば、「ゴールキーパーの最後のストップを私に見せて」)は、画面上の選手630に対応する特定のゴールキーパー(補欠又は他のチームのゴールキーパーと対照的に)として解決することができ、彼の名前又は他の識別情報は、ユーザの照会に応答するコンテンツを識別するために使用することができる(例えば、現在の試合内のその特定のゴールキーパーによる直近のストップ、前の試合内のその特定のゴールキーパーによる最後のストップなど)。別の実施例では、「8番」の次のゴールを見る要求(例えば、「8番の次のゴールを私に見せて」)は、データ供給510及び関連付けられたメタデータに基づいて、背番号8又はニックネーム8を有する特定の選手(例えば、画面上の選手628)として解決することができる。照会に応答するコンテンツは、次に、「8」に対応する選手の識別情報に基づいて識別することができる(例えば、この試合内の選手Mの次のゴール、後続の試合内の選手Mの次のゴールなど)。他の実施例では、ディスプレイ112上又はユーザ機器102上に表示されたコンテンツは、ユーザ要求を他の方法で解釈するために分析することができる。例えば、顔認識、画像認識(背番号の認識をすること)などは、画面上の選手628及び630を識別して関連付けられたユーザ要求を解釈するために使用することができる。ユーザ要求への応答は、情報応答及び/又はメディアコンテンツ応答を含むことができ、応答は、任意のデバイス(例えば、ディスプレイ112、タッチスクリーン246など)上に表示することができることが理解されるべきである。
[0081]
本明細書で様々な実施例を提供してきたが、ユーザは、選手(並びに俳優、登場人物など)を様々な異なる方法で参照することができ、そのすべてが、本明細書で説明する実施例により明確にすることができることが理解されるべきである。例えば、ユーザは、選手を名前(例えば、名、姓、氏名、ニックネームなど)、番号、ポジション、チーム、デプスチャート(例えば、「2番目のクウォータバック」)、試合固有の識別子(例えば、スタータ、補欠、リリーフピッチャー、クローザなど)、経験年数(例えば、ルーキー、新人、二年目など)、チームの任命(例えば、主将、主将代理など)、試合のプレースタイル(例えば、エンフォーサー、スピーディなど)、以前のチーム、大学(例えば、「Q大学出身のクウォータバック」)、統計情報(例えば、「ハットトリックをした選手による乱闘」、「チームの最高得点者によるペナルティ」など)、略歴(例えば、「殿堂入りしたOの息子」、「ウエストバージニア出身のあのピッチャーによる次の打席」など)、身体的外観(例えば、背が高い、背が低い、肌の色、衣服など)、スポンサー(例えば、「ハードウェアストアの車による衝突」)などにより参照することができる。
[0082]
他の実施例では、仮想アシスタントに宛てられたユーザ要求は、テレビ用セットトップボックス104によりディスプレイ112上に表示された、又はユーザ機器102のタッチスクリーン246上に表示された何かの現在の再生位置に基づく、曖昧な参照を含むことができる。例えば、ユーザは、「次の」ゴール、「前の」ペナルティ、「次の」コマーシャル、「最後の」演技、「次の」俳優の登場などを参照することがある。ユーザの意図(例えば、特定の所望のコンテンツ)は、発語入力のみからは不明確であることがある。しかし、いくつかの実施例では、メディアストリーム内の現在の再生位置は、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる。例えば、現在の再生位置を示すメディアストリーム時間は、ユーザ要求を解釈するために仮想アシスタントシステムに送信して使用することができる。
[0083]
図7は、ユーザ照会を解釈するため(例えば、ユーザ要求を明確にしてユーザの意図を判定するため)に使用することができる、現在の再生位置732の前及び後に現れる例示的なメディアストリームイベント516を有するメディアストリーム512を示す。図に示すように、ライブ時間626は、現在の再生位置732より遅いことがあり、いくつかの実施例では、メディアストリーム512は、もはやライブではないコンテンツのレコーディングを含み得る。図に示すような現在の再生位置732の場合、メディアストリームイベント516への様々な参照は、「次の」及び「前の」イベントなどと解釈することができる。例えば、以前の又は直前のゴールを見るユーザ要求(例えば、「直前のゴールを私に見せて」)は、発語入力のみに基づいては曖昧であることがあるが、現在の再生位置732は、ユーザ要求を解釈して(例えば、参照「直前の」を解決して)前のゴール734を所望のメディアストリームイベント516として識別するために使用することができる。別の実施例では、次のペナルティを見るユーザ要求(例えば、「次のペナルティを私に見せて」)は、発語入力のみに基づいては曖昧であることがあるが、現在の再生位置732は、ユーザ要求を解釈して(例えば、参照「次の」を解決して)次のペナルティ738を所望のメディアストリームイベント516として識別するために使用することができる。現在の再生位置732は、前のペナルティ736及び次のゴール740に対する要求を同様の方法で解釈するために使用することができ、並びに、様々な他の位置の参照(例えば、次の2つ、直前の3つ、など)を解釈するために使用することができる。
[0084]
図8は、メディアストリーム812内のイベントをメディアストリーム内の特定の時間514に関連付ける、例示的なデータ供給810を示す。データ供給810は、上述したデータ供給510と同様な特徴を含むことができ、データ供給810を、ブロック402で同様に受信して、メディアの再生を上述したプロセス400のブロック406でさせるために使用することができる。図8の実施例では、メディアストリーム812は、テレビ放送された受賞番組を含むことができる。他の実施例では、同様なメディアストリームは、インターネットベースの受賞番組、ラジオ番組のショー、バラエティーショーなどを含むことがある。特定のメディアの概要情報又は他の記述詳細は、特定の時間に関連付けられてか否かに関わらず、データ供給810内に含まれ得る(例えば、ヘッダ内などに含まれ得る)。図示された実施例では、記述概要情報は、メディアのタイトル(例えば、「映画賞」)、メディアの説明(「コメディアンWhitney Davidsonによる司会の年間映画賞」)、及びメディアのソース(例えば、「チャンネル31」でテレビ放送された)を含む、10時59分(UTC)での最初のブロック内に提供される。様々な他の記述情報は、同様に提供することができ、情報は、参照するために特定の領域内に提供することができる(例えば、タイトル領域は、タイトルを含むことができ、ソース領域は、テレビのチャンネル又はインターネットアドレスを含むことができる、等)。図8に示す情報に加えて、参加者の名前、演技の説明、授与された賞などの、様々な他のメディア情報もまた、入手することができる。様々な概要及び記述情報はすべて、仮想アシスタントの知識に組み込んで関連する照会を支援するために使用することができる。
[0085]
図に示すように、データ供給810は、図5を参照して上述したイベント516及び時間514と同様であり得る、メディアストリーム時間514に相関付けられたメディアストリームイベント516を含むことができる。データ供給810内のメディアストリームイベント516は、メディアストリーム812内の多様なイベント又は対象箇所を含むことができる。メディアストリーム812のような受賞番組(例えば、映画賞、演劇賞など)では、例えば、メディアストリームイベント516としては、独白、賞の授与、受賞者のスピーチ、参加者の外観、演技の説明、コマーシャルの時間などを挙げることができる。
[0086]
他の実施例では、対象箇所又はイベントは、ソーシャルメディア、人気のある意見、投票などに基づいて識別することができる。例えば、特定のメディア(例えば、ライブの受賞番組)に関連付けられたソーシャルメディアネットワーク上の人気のあるコメントは、予想される対象箇所及び出現のおおよその時間(例えば、テーマに関する最初のコメントの少し前)を識別するために使用することができる。別の実施例では、視聴者がメディア内に時間を記録することにより(例えば、リモコン上のボタン、口頭要求、仮想ボタンなどを使用して)対象箇所を示すことができる。更に他の実施例では、対象箇所は、メディアストリームの特定の部分からのビデオクリップの共有などの、他者とメディアを共有するユーザから識別することができる。データ供給810内のメディアストリームイベント516は、ゆえに、メディア提供業者、ユーザ、ソーシャルネットワークの談議、及び様々な他のソースから識別することができる。
[0087]
図8の実施例では、データ供給810は、受賞番組内のイベントに関連付けられたメディアストリームイベント516を含むことができる。例えば、Whitney Davidsonという名前のコメディアンによる冒頭の独白が11時00分(UTC)に起こっていた場合、データ供給810は、そのイベントに対する特定のメディアストリーム時間514での関連付けられたメディアストリームイベント516を含むことができる。11時08分(UTC)に、ベストコスチュームに対するデザイン賞が、Jane Doe及びJohn Richardsという名前の俳優により受賞者のJennifer Laneという名前のデザイナーに授与されていた場合がある。賞の授与の詳細(例えば、賞の名前、贈呈者、受賞者など)は、その特定のメディアストリーム時間514での賞の授与に関連付けられたメディアストリームイベント516内に含むことができる。11時10分(UTC)に、ベストコスチュームデザイン賞の受賞者が、スピーチをしていた場合、メディアストリームイベント516を、その時間で関連付けられた詳細(例えば、賞の種類、受賞者、話し手など)とともに含めることができる。11時12分(UTC)に、「Unforgettable」と題された音楽の演奏が、David Holmesという名前の歌手により行われていた場合、メディアストリームイベント516を、対応する時間514で関連付けられた詳細とともに含めることができる。図に示すように、様々な他のメディアストリームイベント516を、同様に含むことができ、特定のメディアストリーム時間514に関連付けることができる。異なるイベントに対する詳細は、異なることがあり、情報の一部又はすべては、仮想アシスタントの知識に組み込むことができる。
[0088]
他の実施例では、追加の詳細情報を有する様々な他のメディアストリームイベント516は、データ供給810内に含むことができる、及び/又はメディアストリーム812自体から判定することができる。例えば、画面上に現れている俳優又は参加者は、メディアストリーム時間514に関連付けることができる。そのような情報は、提供されたデータから導出することができる、又はメディアストリーム812を分析する(例えば、顔認識などを使用して)ことにより導出することができる。加えて、種々の統計、参加者の情報(例えば、聴衆の成員、プロデューサ、監督、等)などの、様々な他の詳細は、特定のイベント内に含むことができる、又は、メディアストリームに関連付けることができる。この方法で、データ供給810は、様々な時間514にメディアストリーム812内で起こる、様々なイベント516の詳細なテキスト記述を含むことができる。上述したように、この情報は、仮想アシスタントの知識ベースに組み込んで、プロセス400のブロック406を参照して上述したようなユーザ要求に従ってビデオをキューすることなどの、ユーザ要求に応答するのに使用することができる。
[0089]
図9は、メディアストリーム912内のイベントをメディアストリーム内の特定の時間514に関連付ける、例示的なデータ供給910を示す。データ供給910は、上述したデータ供給510及びデータ供給810と同様な特徴を含むことができ、データ供給910を、ブロック402で同様に受信して、メディアの再生を上述したプロセス400のブロック406でさせるために使用することができる。図9の実施例では、メディアストリーム912は、連続コメディなどのテレビ番組を含むことができる。他の実施例では、同様なメディアストリームとしては、ゲーム番組、ニュース番組、トークショー、バラエティーショー、クイズ番組、仮想現実の番組、ドラマ、連続メロドラマなどを挙げることができる。特定のメディアの概要情報又は他の記述詳細は、特定の時間に関連付けられているか否かに関わらず、データ供給910内に含まれ得る(例えば、ヘッダ内などに含まれ得る)。図示された実施例では、記述概要情報は、メディアのタイトル(例えば、「テレビ番組」)、メディアの説明(「俳優Jane Holmes(登場人物A)及びDavid Doe(登場人物B)出演の連続コメディ」)、及びメディアのソース(例えば、ウェブのソースからストリーミングされた)を含む、14時00分(UTC)での最初のブロック内に提供される。様々な他の記述情報は、同様に提供することができ、情報は、参照するために特定の領域内に提供することができる(例えば、タイトル領域は、タイトルを含むことができ、ソース領域は、テレビのチャンネル又はインターネットアドレスを含むことができる、等)。図9に示す情報に加えて、プロデューサ、監督、司会者、参加者の名前、参加者の特性、俳優、筋の説明、ゲストなどの、様々な他のメディア情報もまた、入手することができる。様々な概要及び記述情報はすべて、仮想アシスタントの知識に組み込んで関連する照会を支援するために使用することができる。
[0090]
図に示すように、データ供給910は、図5を参照して上述したイベント516及び時間514と同様であり得る、メディアストリーム時間514に相関付けられたメディアストリームイベント516を含むことができる。データ供給910内のメディアストリームイベント516は、メディアストリーム912内の多様なイベント又は対象箇所を含むことができる。メディアストリーム912のようなテレビ番組(例えば、テレビの1回放映分、ニュース番組、トークショーなど)では、例えば、メディアストリームイベント516は、演技の説明(例えば、シーンの説明、演技者の外観など)、番組のセグメント指示子(例えば、独白、スタート、タイトルシーン、ゲストの外観、ボーナス部分など)、コマーシャルの時間などを含むことができる。
[0091]
他の実施例では、対象箇所又はイベントは、ソーシャルメディア、人気のある意見、投票などに基づいて識別することができる。例えば、特定のメディア(例えば、人気のある連続コメディの新しい回、夜のトークショーなど))に関連付けられたソーシャルメディアネットワーク上の人気のあるコメントは、予想される対象箇所及び出現のおおよその時間(例えば、テーマに関する最初のコメントの少し前)を識別するために使用することができる。別の実施例では、視聴者がメディア内に時間を記録することにより(例えば、リモコン上のボタン、口頭要求、仮想ボタンなどを使用して)対象箇所を示すことができる。更に他の実施例では、対象箇所は、メディアストリームの特定の部分からのビデオクリップの共有などの、他者とメディアを共有するユーザから識別することができる。データ供給910内のメディアストリームイベント516は、ゆえに、メディア提供業者、ユーザ、ソーシャルネットワークの談議、及び様々な他のソースから識別することができる。
[0092]
図9の実施例では、データ供給810は、連続コメディのテレビ番組内のイベントに関連付けられたメディアストリームイベント516を含むことができる。例えば、タイトルシーンが、14時01分(UTC)に起きていた場合、データ供給910は、そのイベントに対する特定のメディアストリーム時間514での関連付けられたメディアストリームイベント516を含むことができる。14時03分(UTC)に、番組の筋内で、2人の登場人物が、駐車場をめぐって争っていた場合がある。筋内のシーン又は瞬間の詳細(例えば、画面上の登場人物、画面上の俳優、何が起きているかの説明など)は、その特定のメディアストリーム時間514での賞の授与に関連付けられたメディアストリームイベント516内に含むことができる。14時06分(UTC)に、ゲストのスターが、番組内に登場して歌を歌っていた場合、メディアストリームイベント516を、対応する時間514での関連付けられた詳細とともに含むことができる。図に示すように、様々な他のメディアストリームイベント516を、同様に含むことができ、特定のメディアストリーム時間514に関連付けることができる。異なるイベントに対する詳細は、異なることがあり、情報の一部又はすべては、仮想アシスタントの知識に組み込むことができる。
[0093]
他の実施例では、追加の詳細情報を有する様々な他のメディアストリームイベント516は、データ供給910内に含むことができる、及び/又はメディアストリーム912自体から判定することができる。例えば、画面上に現れている俳優又は参加者は、メディアストリーム時間514に関連付けることができる。そのような情報は、提供されたデータから導出することができる、又はメディアストリーム912を分析する(例えば、顔認識などを使用して)ことにより導出することができる。加えて、種々の統計、参加者の情報(例えば、聴衆の成員、プロデューサ、監督、等)などの、様々な他の詳細は、特定のイベント内に含むことができる、又は、メディアストリームに関連付けることができる。この方法で、データ供給910は、様々な時間514にメディアストリーム912内で起こる、様々なイベント516の詳細なテキスト記述を含むことができる。上述したように、この情報は、仮想アシスタントの知識ベースに組み込んで、プロセス400のブロック406を参照して上述したようなユーザ要求に従ってビデオをキューすることなどの、ユーザ要求に応答するのに使用することができる。
[0094]
本明細書で説明した様々な実施例のいずれでも、追加の仮想アシスタントの知識は、特定のメディアコンテンツに関連付けられた字幕テキストから導出することができる。例えば、本明細書で説明したデータ供給の任意のものに対する情報は、字幕テキストにより補足する、又は字幕テキストから導出することができる。追加のメディアストリームイベント516は、メディア再生内の特定の時間に関連付けられた字幕テキストに基づいて(例えば、特定のフレーズが話された時を識別して、特定の登場人物が話す時を識別して、など)メディアストリーム時間514に加えることができる。加えて、字幕テキストは、本明細書で説明した様々な実施例により、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる(例えば、話された名前に基づいて)。
[0095]
図10は、仮想アシスタントの照会に応答するために使用することができる、ビデオ1050内の特定の時間に関連付けられた例示的な字幕テキスト1054を示す。図示された実施例では、字幕インタフェース1052は、ディスプレイ112上に表示されたビデオ1050の現在の再生位置1056での字幕テキスト1054を含むことができる。現在の再生位置1056、登場人物1060、1062、及び1064は、画面上に現れていることがあり、それらの一部は、字幕テキスト1054として表示されたテキストを話していることがある。仮想アシスタントの知識のための情報を導出するのに、字幕テキスト1054を、現在の再生位置1056に相関付けることができる。いくつかの実施例では、時間オフセット1058は、参照として使用することができる(例えば、字幕テキスト1054のテキストが、ビデオ1050の2分に現れることがある、又は同様に、対応するスピーチが、ビデオ1050の2分に話されることがある)。
[0096]
様々な情報を、字幕テキスト1054から導出することができ、その一部は、特定のメディアストリームイベント516として時間オフセット1058に関連付けることができる。例えば、話された名前は、特定の時間での画面上への登場人物の登場を推測するために使用することができる。話された言葉「Blanche」は、例えば、「Blanche」と名付けられた登場人物がビデオ1050内の時間オフセット1058に又はその付近に画面上に登場し得ることを推測するために使用することができる。導出された情報は、次に、登場人物の名前「Blanche」又はメタデータから識別された対応する女優に関連付けられたユーザ要求(例えば、「Blancheが入ってくる所を私に見せて」)に応答するために使用することができる。別の実施例では、話されたフレーズは、識別して、それらが話された特定の時間に関連付けることができる。話されたフレーズ「手ごわい家族」は、例えば、ビデオ1050内の時間オフセット1058に又はその付近で話されたとして識別することができる。導出された情報は、次に、話されたフレーズ「手ごわい家族」に関連付けられたユーザ要求(例えば、「Blancheが手ごわい家族と言う所を私に見せて」)に応答するために使用することができる。字幕テキストは、ゆえに、分析して特定の時間に関連付けることができ、その組み合わせは、関連するユーザ要求に応答するために仮想アシスタントの知識に組み込むことができる。
[0097]
情報は、インタフェース1052などのインタフェース内に字幕テキストが表示されているか否かに関わらず、字幕テキスト1054から導出することができることが理解されるべきである。例えば、字幕テキストは、対応するビデオを実際に再生せずに分析することができ、時間は、字幕に関連付けられたメタデータから導出することができる。更に、図10のディスプレイ112上に表示されているが、字幕は、関連付けられたビデオを実際に再生して又は再生せずに、サーバ又は別のデバイスで仮想アシスタントの知識を導出するために分析することができることが理解されるべきである。
[0098]
上述したように、ユーザから受信した発語入力は曖昧なことがある。ユーザ要求を解釈するために使用することができる、上述した情報(例えば、画面上の選手、画面上の俳優、再生位置など)に加えて、様々な他のコンテキスト情報を、ユーザ要求を解釈するために使用することができる。例えば、ユーザに関する個人情報は、ユーザ要求を解釈するために使用することができる。ユーザは、音声認識、デバイスにログインすること、パスワードを入力すること、特定のアカウントを使用すること、プロフィール(例えば、年齢及び性別)を選択することなどに基づいて識別することができる。識別されたユーザ(又は特定の世帯)に対するユーザ固有のデータは、次に、ユーザ要求を解釈するために使用することができる。そのようなユーザ固有のデータとしては、ユーザのお気に入りのチーム、ユーザのお気に入りのスポーツ、ユーザのお気に入りの選手、ユーザのお気に入りの俳優、ユーザのお気に入りのテレビ番組、ユーザの地理的位置、ユーザの人口統計、ユーザの視聴履歴、ユーザの契約データなどを挙げることができる。加えて、ユーザ固有のデータ(又は世帯固有のデータ)は、通常見る番組、通常見るスポーツ、好みのジャンルなどを反映したメディアコンテンツの視聴履歴を含むことができる。更に、いくつかの実施例では、年齢属性及び性別データは、ユーザのスピーチから推測する(例えば、音の高低、使用された言葉などに基づいて)ことができ、次に、そのプロフィールに従って結果にバイアスをかける(例えば、年齢及び性別プロフィールの予想される好みに基づいて、言葉、番組、名前、照会結果などにバイアスをかける)ために使用することができる。
[0099]
いくつかの実施例では、ユーザ要求は、ユーザ固有のデータを具体的に参照することができる。例えば、ユーザは、「私のチーム」を参照することができる(例えば、「私のチームの調子はどうですか?」)。ユーザ固有のデータは、次に、参照「私のチーム」をユーザのお気に入りのチームとして指定された特定のスポーツチームに解決するために使用することができる。他の実施例では、ユーザ固有のデータは、スピーチ認識及びユーザの意図の判定にバイアスをかけるために使用することができる(例えば、特定の俳優が登場する最近見られた映画に基づいて、特定のユーザがその俳優について質問したと思われると推測する)。例えば、ユーザが好きな、見ている、又は別の方法で関連付けられた、俳優又は選手の名前は、ユーザ固有のデータ内で識別して、これらの俳優又は選手の名前を優先して結果にバイアスをかけるために、スピーチ認識及び意図判定の間に使用することができる。これは、独特な名前、他の言葉又は名前のように聞こえる名前などを正確に認識するのに役に立つことができる。
[0100]
発語入力を正確に認識してユーザ要求を解釈するための、本明細書で説明した様々な他のコンテキストのソースに加えて、ユーザに関連付けられた複数のデバイスからの情報は、正確なスピーチ認識のため及びユーザの意図の判定のためのコンテキストとして使用することができる。例えば、テレビ(例えば、ディスプレイ112上の)を見ているユーザはまた、別のデバイス上(例えば、ユーザ機器102上)のコンテンツも消費している場合がある。両方のデバイスからのコンテンツは、次に、ユーザ要求を解釈するのに使用することができる。
[0101]
図11Aは、ビデオ1150を表示しているテレビのディスプレイ112を示す。図11Bは、表示された画像1170及び表示されたテキスト1172を表示している、タッチスクリーン246を有するユーザ機器102を示す。いずれかのデバイスからコンテンツを参照するユーザ要求を、受信することができる(例えば、リモコン106又はユーザ機器102により)。例えば、ユーザは、「Jenniferの」直前のゴールを見せる要求することがある。「Jennifer」の参照は、発語入力のみからは不明確なことがある。しかし、表示されたテキスト1172を、要求を明確にしてJenniferをユーザ機器102上に表示されたコンテンツに現れている選手として識別するために使用することができる。要求に応答するビデオコンテンツは、次に、特定の選手に基づいて識別することができ、そのコンテンツを、ユーザのために再生することができる。応答するコンテンツは、ディスプレイ112上又はユーザ機器102上のいずれかに(例えば、特定のコマンド、ユーザの好みなどに基づいて)提供することができる。
[0102]
別の実施例では、図11Aのビデオ1150に関連付けられた名前、並びに図11Bの表示された画像1170及び表示されたテキスト1172に関連付けられた名前は、予想される名前の候補に向けて結果にバイアスをかけるため、又は認識するのが困難なことがある名前を識別するために、スピーチ認識の間に使用することができる。例えば、ユーザ要求は、曖昧であり得る名前を含むことがあるが、いずれかのデバイス上に表示されたコンテンツに関連付けられた名前を、ユーザの意図を正確に識別するために使用することができる。他の実施例では、いずれかのデバイス上に表示されたコンテンツに関連付けられた俳優、贈呈者、演技者、プロデューサ、監督、参加者、ペナルティ、スポーツのチームなどのリストは、スピーチ認識の精度を向上してユーザの意図を判定するために同様に使用することができる。
[0103]
いくつかの実施例では、図11Bの表示された画像1170は、動く画像又はビデオを含むことができる。例えば、図11Bに示すコンテンツは、二次画面体験データ(例えば、別の番組に付随することを意図されたデータ及びビデオ)、二次カメラビューのデータ(例えば、特定の番組のために主として表示されるものの代替のビュー又は視点を有するビデオ)などを含むことができる。そのような情報は、上述したのと同様な方法で、スピーチ認識精度を向上してユーザの意図を判定するために使用することができる。加えて、別個のユーザ機器上に表示されているか否かに関わらず、二次画面体験データ、二次カメラビューのデータなどは、受信して、メディアストリーム内の関連する対象箇所及び関連付けられた時間を識別するために、データ供給の一部として使用することができる。例えば、二次画面体験は、試合内の見所の記述を含むことができる。これらの記述は、関連するメディアストリームイベントとして関連付けられたメディアストリーム時間とともに仮想アシスタントの知識内に含むことができ、ユーザ要求に応答するために使用することができる。同様に、二次カメラビューのデータは、代替のカメラのコンテンツが使用可能であり得る特定のメディアストリーム時間を識別する、関連するメディアストリームイベント(例えば、特定のユーザ要求に応答するのに使用することができる)として仮想アシスタントの知識内に含むことができる。
[0104]
上述したように、特定のユーザ要求に応じて、メディアは、特定のキュー時間で開始して再生することができる。いくつかの実施例では、1つ以上のメディアストリームの複数のセグメントは、いくつかのユーザ要求に応じて連続的に再生することができる。例えば、ユーザは、試合の見所、試合のすべてのゴール、試合内のすべての乱闘、番組内の特定の俳優のすべての登場、番組内の特定の登場人物に対するすべてのシーン、複数のトークショーのそれぞれからの冒頭の独白、複数のゲーム番組のそれぞれからのボーナス部分、番組の最高の瞬間、又は1つ以上の番組からの様々な他のメディアセグメントを見る要求をすることができる。上述した同じ方法で、所望のイベントに関連付けられた特定の時間は、1つ以上の番組内で識別することができ、再生は、他の識別されたセグメントが連続的に後続する最初のセグメントで開始させることができる。いくつかの実施例では、見所、最高の瞬間などは、ブックマークの人気、ソーシャルメディアの談議、再生回数などに基づいて判定することができる。各セグメントの終了は、コマーシャルの時間、関連付けられたメディアストリーム内の別のメディアイベント、既定の再生時間、メディアイベントの詳細内の特定の終了位置の入力等によるなどの、様々な方法で識別することができる。この方法で、ユーザは、例えば、ユーザが見たい特定のコンテンツに対する見所部分を要求することができ、システムは、所望の見所を自動的に識別してそれらを連続的に再生する(又は任意の他の順序などでの選択可能な再生のためにそれらを提供する)ことができる。
[0105]
いくつかの実施例では、ユーザは、友人、家族などとメディアストリームの特定のセグメントを共有したい場合がある。一実施例では、ユーザは、メディアストリーム内の特定の再生位置に対応するメディアストリーム内のブックマーク位置を示すことができる。このカスタマイズされたブックマーク位置は、次に、サーバに送信して、ソーシャルネットワーク、メッセージ、他のテレビ用セットトップボックス104、他のユーザ機器102などにより、友人と共有することができる。ユーザは、物理ボタン、仮想ボタン、発語入力、又はリモコン106及び/若しくはユーザ機器102を用いた任意の他の入力を使用して、ブックマークを示すことができる。例えば、ユーザは、特定のメディアセグメントをブックマークして、それをユーザのアドレス帳内の連絡先に送信する要求(例えば、これをブックマークしてCoreyに送信して)を仮想アシスタントシステムに宛てることができる。システムは、次に、特定のメディアセグメント(例えば、UTC参照、オフセットなどとともにメディア識別子)を識別して、それを所望の連絡先に送信することができる。いくつかの実施例では、ユーザは、所望のセグメントの開始位置及び終了位置の両方を識別することができる。他の実施例では、ユーザは、特定のメディアストリームイベントを参照して共有することができる(例えば、このゴールをJordanと共有する、この演奏をSusanに送信する、など)。更に他の実施例では、ブックマーク及びメディアストリームイベントは、ソーシャルネットワークなどを通して共有することができる。
[0106]
上述したように、メディアに関連した仮想アシスタントの照会に応じて、システムは、ビデオを再生のためにキューする及び/又は情報回答で応答することができる(例えば、テキスト応答をディスプレイ112に表示すること、又はユーザ機器102が応答を発声することなどにより)。いくつかの実施例では、本明細書で説明したようなビデオを再生のためにキューするために使用される、様々なデータ供給及び他の情報は、同様な方法でユーザ要求への情報応答を決定するために使用することができる。図12は、情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するための、例示的なプロセス1200を示す。ブロック1202で、メディアストリーム内の時間に関連付けられたイベントを含むデータ供給を、受信することができる。データ供給は、図5を参照して説明したデータ供給510、図8を参照して説明したデータ供給810、及び図9を参照して説明したデータ供給910などの、本明細書で説明したデータ供給の任意のものを、対応するメディアストリームイベント516の任意のものとともに含むことができる。
[0107]
図12のプロセス1200を再び参照して、ブロック1204で、データ供給内のイベントに関連付けられた口頭のユーザ要求を、受信することができる。ユーザは、現在再生しているメディア、画面上の選手、画面上の俳優など、任意のメディアストリームイベントに関する情報を要求することができる。例えば、ユーザは、得点した選手の識別(例えば、「あのゴールを入れたのは誰か?」)、ペナルティの判定の識別(例えば、「あのペナルティは何に対するものだったか?」)、画面上の演技者の識別(例えば、「あれは誰か?」)、歌のタイトルの識別(例えば、「彼女が歌っているのは何か?」)、画面上の番組の登場人物の識別(例えば、「これらの登場人物の名前は何か?」)、番組内の俳優の識別(例えば、「これに出ているのは誰か?」)、筋の説明(例えば、「この回はどんな話か?」)、連続番組の説明(例えば、「この連続番組はどんなものか?」)、又はメディアコンテンツに関連付けられた様々な他の照会の任意のものを要求することができる。
[0108]
ブロック1206で、ユーザ要求への応答は、イベントに関連するデータ(例えば、本明細書で説明したデータ供給の任意のものからのデータ)に基づいて生成することができる。本明細書で説明したメディアストリームイベント516の任意のものは、例えば、様々な照会(例えば、ブロック1204を参照して上述した様々な照会の例などの)への情報応答に関して検索することができる。いくつかの実施例では、応答は、現在再生しているメディア(例えば、再生している番組、一時停止している番組、画面上に表示されている番組など)に基づいて生成することができる。例えば、現在再生しているメディアを参照するユーザ要求は、発語入力のみに基づいては曖昧であることがある。現在再生しているメディアは、現在のコンテンツに関する参照を解決することにより、ユーザ要求を明確にしてユーザの意図を判定するために使用することができる。例えば、ユーザは、「この」番組内の俳優をリストアップする(例えば、「これに出ているのは誰か?」)ことを要求することができ、これは、参照された番組が発語入力からすでに明らかではないため、不明確であることがある。しかし、現在再生している番組は、「この」の参照を解決してユーザの意図を識別するために使用することができる。図9のテレビ番組の例が再生されている場合、例えば、時間14時00分(UTC)にリストアップされた概要情報は、俳優Jane Holmes及びDavid Doeを識別することにより、ユーザの照会に応答するために使用することができる。
[0109]
他の実施例では、応答は、現在再生しているメディアの現在の再生位置及び/又はユーザにより以前に消費されたメディアコンテンツに基づいて生成することができる。例えば、ユーザは、ゴールを入れるのが表示された直後の選手の識別を要求することができ、要求内に「あの」ゴールを参照することができる(例えば、「誰があのゴールを入れたのか?」)。現在再生しているメディアの現在の再生位置は、他のゴールがメディアストリーム内に後で現れるか否かに関わらず、「あの」ゴールをユーザに表示された直近のゴールに解決することにより、ユーザの意図を判定して応答を生成するために使用することができる。図7の実施例では、現在の再生位置732は、「あの」ゴールを前のゴール734に解決するために使用することができ、対応するメディアストリームイベントのコンテンツは、照会に回答するために使用することができる。具体的には、選手Mは、ユーザが見た直近のゴールを入れたとして識別することができる。図7を参照して上述したように、現在の再生はまた、様々な他の曖昧な参照(例えば、次の、前の、など)からユーザの意図を判定するために使用することができ、識別されたメディアストリームイベント情報は、次に、照会への応答を構築するために使用することができる。
[0110]
加えて、いくつかの実施例では、ユーザは、ユーザの視聴体験をシフトしてライブ又は更新情報の習得を遅延したいことがある。例えば、ユーザは、スポーツのイベントを、それがすでに開始された後で又は更にそれがすでに終了した後で、見るのを開始したい場合がある。にもかかわらず、ユーザは、試合全体をそれがライブであるかのように体験したいことがある。そのような場合、使用可能な仮想アシスタントの知識は、現在の再生位置と同時に存在する使用可能な参照情報に選別して、現在の再生位置の後の時点からの情報の参照を回避することができる。例えば、図7の実施例を再び参照して、ユーザが現在の再生位置732で見ていると仮定して、システムは、応答に次のゴール740を含むことを回避することができる。ユーザは、例えば、現在の再生位置732での得点を要求することができる(例えば、「この時点までの得点は何点か?」)。これに応じて、システムは、現在の再生位置732の後のイベント(例えば、次のゴール740)を除外しながら、前に見たイベント(例えば、前のゴール734)に基づいて得点を提供することができる。
[0111]
いくつかの実施例では、ユーザ要求は、応答情報が現在の再生位置で同時に存在するものでなければならないこと(例えば、「この時点まで」、「現在まで」、「試合のこの時点で」、「これまで」などと言うことにより)、又は応答情報が使用可能な最新の更新情報でなければならないこと(例えば、「ライブの」、「更新の」、「現在の」などと言うことにより)を指定することができる。他の実施例では、設定、ユーザの好みなどが、応答が最新の更新情報を含むか、又は代わりに再生位置で同時に存在する情報のみを含むかを判定することができる。加えて、いくつかの実施例では、特定の試合に関連付けられ得る(例えば、用語、名前などに基づいて)、警報、通知、メッセージ、ソーシャルメディア供給入力などは、所望によりユーザから抑制することができ、ユーザがその様々なメッセージに対応する関連付けられたコンテンツ内の再生位置に到達した後のみ配信することができる。例えば、ライブのスポーツのイベントに関してコメントしている友人からのメッセージ(例えば、ユーザ機器102又は任意の他のデバイス上に配信される)は、そのメッセージが送信された時間に対応するそのスポーツのイベントの遅延した視聴の時点にユーザが到達するまで意図的に遅延することができ、その時点でメッセージをユーザに配信することができる。この方法で、スポーツのイベントを見る(又は任意の他のメディアを消費する)体験全体を、所望によりタイムシフトすることができる(例えば、結果を損なうことを回避するために)。
[0112]
他の実施例では、応答は、テレビ用セットトップボックス104によりディスプレイ112上に表示されるコンテンツ、ユーザ機器102のタッチスクリーン246上に表示されるコンテンツ、及び/又は表示されたコンテンツの任意のものに関連付けられたメタデータに基づいて生成することができる。例えば、応答は、画面上の俳優、画面上の選手、試合の参加者のリスト、番組の俳優のリスト、チームの名簿などに基づいて生成することができる。図6、図11A、及び図11Bを参照して上述したように、様々な情報は、表示されたコンテンツ及び関連付けられたメタデータから導出することができ、その情報は、ユーザ要求を明確にしてユーザの意図を判定し、ユーザ要求への応答を生成するために使用することができる。例えば、画面上の選手を識別するユーザ要求(例えば、「あれは誰か?」)への応答は、現在の再生位置付近のメディアストリームイベント、顔認識、字幕テキストなどに基づいて生成することができる。図6の実施例では、例えば、キュー時間624付近(例えば、チームAのゴール付近)のメディアストリームイベントは、画面上の選手628を選手Mとして識別するために使用することができる。別の実施例では、画像処理が、画面上の選手628の背番号を認識して、彼を名簿から選手Mとして識別するために使用することができる。
[0113]
図12のプロセス1200を再び参照して、ブロック1208で、ブロック1206で判定された応答を、配信させることができる。いくつかの実施例では、応答を配信することは、テレビ用セットトップボックス104によりディスプレイ112上で、ユーザ機器102上で、若しくは別のデバイス上で、応答を表示させる又は再生させることを含むことができる。例えば、テキスト応答及び/又はメディア応答は、デバイス上の仮想アシスタントインタフェース内に表示する又は再生することができる。別の実施例では、応答を配信することは、応答情報をテレビ用セットトップボックス104、ユーザ機器102、又は別のデバイスに(例えば、サーバから)送信することを含むことができる。更に他の実施例では、ユーザは、画像又はビデオ内の情報を識別することを要求する(例えば、「どちらがJenniferか?」)ことができ、応答は、例えば、関連付けられたメディアストリームイベント内の識別された座標に基づいて、インジケータ(例えば、矢印、点、輪郭など)を画像又はビデオの上に重ね合わせて表示することを含むことができる。プロセス1200は、ゆえに、仮想アシスタントの知識ベースに組み込まれた適時のデータを用いることにより、様々なユーザ照会に様々な方法で応答するために使用することができる。
[0114]
加えて、本明細書で説明した様々な実施例のいずれでも、様々な態様は、特定のユーザのために個人専用にすることができる。連絡先、好み、位置、お気に入りのメディアなどを含むユーザデータは、音声コマンドを解釈して本明細書で説明した様々なデバイスとのユーザ対話を促進するために使用することができる。本明細書で説明した様々なプロセスはまた、ユーザの好み、連絡先、テキスト、使用履歴、プロフィールデータ、人口統計などに従って、様々な他の方法で変更することができる。加えて、そのような好み及び設定は、ユーザ対話(例えば、頻繁に発言されたコマンド、頻繁に選択されたアプリケーションなど)に基づいて、経時的に更新することができる。様々なソースから使用可能なユーザデータの収集及び利用は、ユーザが興味があり得る招待者だけのコンテンツ又は任意の他のコンテンツのユーザへの配信を改善するために使用することができる。本開示は、いくつかの場合では、この収集されたデータが、特定の個人を一意に識別する又は連絡するため若しくは位置を特定するために使用することができる、個人情報データを含むことができることを意図している。そのような個人情報データとしては、人口統計データ、位置に基づくデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
[0115]
本開示は、この技術のそのような個人情報データを使用してユーザを利することができることを理解する。例えば、個人情報データは、ユーザがより興味がある的を絞ったコンテンツを配信するために使用することができる。したがって、そのような個人情報データの使用は、配信されるコンテンツの計算された制御を可能にする。更に、ユーザを利する個人情報データに関するその他の使用もまた、本開示により意図されている。
[0116]
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又はその他の使用に応答するエンティティは、確固たるプライバシーのポリシー及び/又はプライバシー慣行に従うであろうことを更に意図している。具体的には、そのようなエンティティは、個人情報データを秘密で安全に維持するために、産業若しくは政府の要求を満たす又は上回るとして一般的に認識される、プライバシーのポリシー及び慣行を実施及び一貫して使用しなければならない。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザに告知して同意を得た後にのみ実施するべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーのポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるであろう。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
[0117]
前述のことがらにもかかわらず、本開示はまた、ユーザが、個人情報データの使用又は個人情報データへのアクセスを選択的に阻止する実施例も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、広告配信サービスの場合では、この技術は、ユーザが、サービスの登録中に、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能にするように構成され得る。別の実施例では、ユーザは、的を絞ったコンテンツの配信サービスに対して位置情報を提供しないように選択することができる。更に別の実施例では、ユーザは、精密な位置情報を提供しないが、位置区域情報の伝送を許可するように選択することができる。
[0118]
それゆえ、本開示は、1つ以上の様々な開示された実施例を実施するための個人情報データの使用を、広範に網羅するものであるが、本開示は、それらの様々な実施例がまた、そのような個人情報データにアクセスすることを必要とせずに実施することも可能である点も、また想到する。すなわち、本技術の様々な実施例は、そのような個人情報データのすべて又は一部分の欠如により、実施不可能となるものではない。例えば、コンテンツは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、コンテンツ配信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて好みを推測することにより、選択してユーザに配信することができる。
[0119]
いくつかの実施例により、図13は、例えば、メディア再生の音声制御及び仮想アシスタントの知識のリアルタイム更新を提供するための、説明される様々な実施例の原理に従って構成された、電子デバイス1300の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実装することができる。図13で説明する機能ブロックが、説明される様々な実施例の原理を実施するために、組み合わされ、又はサブブロックに分離され得ることが当業者に理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0120]
図13に示すように、電子デバイス1300は、メディア、インタフェース、及びその他のコンテンツを表示するように構成されたディスプレイユニット1302(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス1300は、発語入力、触知入力、ジェスチャ入力、メディア情報、データ供給、メディアなどの、情報を受信するように構成された入力ユニット1304(例えば、マイクロフォン、受信機、タッチスクリーン、ボタン、サーバなど)を更に含むことができる。電子デバイス1300は、ディスプレイユニット1302及び入力ユニット1304に結合された、処理ユニット1306を更に含むことができる。いくつかの実施例では、処理ユニット1306は、データ供給受信ユニット1308、ユーザ要求受信ユニット1310、及びメディア再生ユニット1312を含むことができる。
[0121]
処理ユニット1306は、データ供給を受信する(例えば、データ供給受信ユニット1308を使用して入力ユニット1304から)ように構成することができ、データ供給は、メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む。処理ユニット1306は、発語入力に基づいてユーザ要求を受信する(例えば、ユーザ要求受信ユニット1310を使用して入力ユニット1304から)ように更に構成することができ、ユーザ要求は、イベントに関連付けられる。処理ユニット1306は、ユーザ要求を受信したことに応じて、メディアストリームの再生をイベントに関連付けられたメディアストリーム内の時間で開始(例えば、ディスプレイユニット1302上に)させる(例えば、メディア再生ユニット1312を使用して)ように更に構成することができる。
[0122]
いくつかの実施例では、処理ユニット1306は、現在再生しているメディアに基づいてユーザ要求を解釈するように更に構成することができる。他の実施例では、処理ユニット1306は、現在再生しているメディアの現在の再生位置に基づいてユーザ要求を解釈するように更に構成することができる。更に他の実施例では、処理ユニット1306は、画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、番組内の登場人物のリスト、又はチームの名簿の1つ以上に基づいてユーザ要求を解釈するように更に構成することができる。いくつかの実施例では、メディアストリームは、スポーツのイベントを含み、イベントに関連するデータは、選手の特性(例えば、名前、ニックネーム、番号、ポジション、チーム、デプスチャート、経験、スタイル、略歴など)、得点、ペナルティ、統計、又は試合のセグメント指示子(例えば、クウォータ、ピリオド、ハーフ、ラップ、警告旗、ピットストップ、ダウン、プレーなど)の1つ以上を含む。他の実施例では、メディアストリームは、受賞番組を含み、イベントに関連するデータは、参加者の特性(例えば、名前、ニックネーム、登場人物の名前、略歴など)、演技の説明、又は授賞の指示子の1つ以上を含む。更に他の実施例では、メディアストリームは、テレビ番組を含み、イベントに関連するデータは、演技の説明又は番組セグメント指示子の1つ以上を含む。
[0123]
一実施例では、ユーザ要求(例えば、ユーザ要求受信ユニット1310の)は、メディアストリーム内の見所に対する要求を含む。いくつかの実施例では、処理ユニット1306は、要求を受信したことに応じて、メディアストリームの複数のセグメントの連続的再生をさせるように更に構成することができる。他の実施例では、メディアストリームの再生をさせることは、この電子デバイス以外の再生デバイス上でメディア再生をさせることを含む。いくつかの実施例では、電子デバイスは、サーバ、セットトップボックス、リモコン、スマートフォン、又はタブレットコンピュータを含む。他の実施例では、再生デバイスは、セットトップボックス、スマートフォン、タブレットコンピュータ、又はテレビを含む。処理ユニット1306は、電子デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。処理ユニット1306は、再生デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。
[0124]
いくつかの実施例では、イベントに関連するデータは、字幕テキストを含む。処理ユニット1306は、字幕テキストに基づいてイベントに関連付けられたメディアストリーム内の時間を判定するように更に構成することができる。一実施例では、イベントに関連するデータは、二次画面体験データ、二次カメラビューデータ、又はソーシャルネットワーク供給データの1つ以上を含む。処理ユニット1306は、ユーザからブックマークインジケーションを受信するように更に構成することができ、ブックマークは、メディアストリーム内の特定の再生位置に対応する。処理ユニット1306は、ブックマークを共有するユーザ要求を受信するように更に構成することができ、ブックマークを共有するユーザ要求を受信したことに応じて、特定の再生位置に関連付けられたキュー情報をサーバに送信させることができる。処理ユニット1306は、ユーザのお気に入りのチーム、ユーザのお気に入りのスポーツ、ユーザのお気に入りの選手、ユーザのお気に入りの俳優、ユーザのお気に入りのテレビ番組、ユーザの地理的位置、ユーザの人口統計、ユーザの視聴履歴、又はユーザの契約データの1つ以上に基づいて、ユーザ要求を解釈するように更に構成することができる。
[0125]
いくつかの実施例により、図14は、例えば、情報をデジタルアシスタントの知識に組み込んでユーザ要求に応答するための、説明される様々な実施例の原理に従って構成された、電子デバイス1300の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実装することができる。図14で説明する機能ブロックが、説明される様々な実施例の原理を実施するために、組み合わされ、又はサブブロックに分離され得ることが当業者に理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
[0126]
図14に示すように、電子デバイス1400は、メディア、インタフェース、及びその他のコンテンツを表示するように構成されたディスプレイユニット1402(例えば、ディスプレイ112、タッチスクリーン246など)を含むことができる。電子デバイス1400は、発語入力、触知入力、ジェスチャ入力、メディア情報、データ供給、メディアなどの、情報を受信するように構成された入力ユニット1404(例えば、マイクロフォン、受信機、タッチスクリーン、ボタン、サーバなど)を更に含むことができる。電子デバイス1400は、ディスプレイユニット1402及び入力ユニット1404に結合された、処理ユニット1406を更に含むことができる。いくつかの実施例では、処理ユニット1306は、データ供給受信ユニット1408、ユーザ要求受信ユニット1410、応答生成ユニット1412、及び応答配信ユニット1414を含むことができる。
[0127]
処理ユニット1406は、データ供給を受信する(例えば、データ供給受信ユニット1408を使用して入力ユニット1404から)ように構成することができ、データ供給は、メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む。処理ユニット1406は、ユーザからの発語入力に基づいてユーザ要求を受信する(例えば、ユーザ要求受信ユニット1410を使用して入力ユニット1404から)ように更に構成することができ、ユーザ要求は、イベントに関連付けられる。処理ユニット1406は、イベントに関連するデータに基づいて、ユーザ要求への応答を生成する(例えば、応答生成ユニット1412を使用して)ように更に構成することができる。処理ユニット1408は、応答を配信させる(例えば、応答配信ユニット1414を使用して)ように更に構成することができる。
[0128]
いくつかの実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、現在再生しているメディアに基づいて応答を生成することを更に含む。他の実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、現在再生しているメディアの現在の再生位置に基づいて応答を生成することを更に含む。更に他の実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、ユーザにより以前に消費されたメディアコンテンツに基づいて応答を生成することを更に含む。いくつかの実施例では、応答を生成する(例えば、応答生成ユニット1412を使用して)ことは、画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、又はチームの名簿の1つ以上に基づいて応答を生成することを更に含む。
[0129]
いくつかの実施例では、処理ユニット1406は、現在再生しているメディアの現在の再生位置と同時に存在する情報に対する要求を含むユーザ要求に応じて、現在の再生位置の後の時間に関連付けられたデータを除外した、現在の再生位置と同時に存在するデータに基づいて応答を生成し、ライブの情報に対する要求を含むユーザ要求に応じて、ライブのデータに基づいて応答を生成する、ように更に構成することができる。いくつかの実施例では、応答を配信させる(例えば、応答配信ユニット1414を使用して)ことは、電子デバイス以外の再生デバイス上に応答を表示又は再生させることを含む。他の実施例では、応答を配信させる(例えば、応答配信ユニット1414を使用して)ことは、電子デバイス以外の再生デバイスに応答を配信させることを含む。いくつかの実施例では、電子デバイスは、サーバ、セットトップボックス、リモコン、スマートフォン、又はタブレットコンピュータを含む。他の実施例では、再生デバイスは、セットトップボックス、スマートフォン、タブレットコンピュータ、又はテレビを含む。いくつかの実施例では、処理ユニット1406は、電子デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。他の実施例では、処理ユニット1406は、再生デバイスにより表示される情報に基づいてユーザ要求を解釈するように更に構成することができる。
[0130]
実施例は、付随する図面を参照して充分に説明してきたが、様々な変更及び修正が当業者には明白になるであろうこと(例えば、本明細書で説明した任意の他のシステム又はプロセスに関連して説明した概念に従って、本明細書で説明したシステム又はプロセスのいずれかを修正すること)に留意すべきである。そのような変更及び修正は、添付の特許請求の範囲によって定義されるような様々な実施例の範囲内に含まれるものとして理解されたい。

[書類名]特許請求の範囲
[請求項1]
メディア再生の音声制御のための方法であって、
電子デバイスにおいて、
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信することと、
発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信することと、
前記ユーザ要求を受信したことに応じて、前記メディアストリームの再生に前記イベントに関連付けられた前記メディアストリーム内の前記時間で開始させることと、
を含む方法。
[請求項2]
現在再生しているメディアに基づいて前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項3]
現在再生しているメディアの現在の再生位置に基づいて前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項4]
画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、番組内の登場人物のリスト、又はチームの名簿の1つ以上に基づいて、前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項5]
前記メディアストリームが、スポーツのイベントを含み、前記イベントに関連する前記データが、選手の特性、得点、ペナルティ、統計、又は試合のセグメント指示子の1つ以上を含む、請求項1に記載の方法。
[請求項6]
前記メディアストリームが、受賞番組を含み、前記イベントに関連する前記データが、参加者の特性、演技の説明、又は賞の授与の指示子の1つ以上を含む、請求項1に記載の方法。
[請求項7]
前記メディアストリームが、テレビ番組を含み、前記イベントに関連する前記データが、演技の説明又は番組セグメント指示子の1つ以上を含む、請求項1に記載の方法。
[請求項8]
前記ユーザ要求が、前記メディアストリーム内の見所に対する要求を含む、請求項1に記載の方法。
[請求項9]
前記ユーザ要求を受信したことに応じて、前記メディアストリームの複数のセグメントの連続的再生をさせることを更に含む、請求項1に記載の方法。
[請求項10]
前記メディアストリームの再生をさせることが、前記電子デバイス以外の再生デバイス上でメディア再生をさせることを含む、請求項1に記載の方法。
[請求項11]
前記電子デバイスにより表示される情報に基づいて前記ユーザ要求を解釈することを更に含む、請求項10に記載の方法。
[請求項12]
前記再生デバイスにより表示される情報に基づいて前記ユーザ要求を解釈することを更に含む、請求項10に記載の方法。
[請求項13]
前記イベントに関連する前記データが、字幕テキストを含む、請求項1に記載の方法。
[請求項14]
前記字幕テキストに基づいて前記イベントに関連付けられた前記メディアストリーム内の前記時間を判定することを更に含む、請求項13に記載の方法。
[請求項15]
前記イベントに関連する前記データが、二次画面体験データ、二次カメラビューデータ、又はソーシャルネットワーク供給データの1つ以上を含む、請求項1に記載の方法。
[請求項16]
前記ユーザからブックマークインジケーションを受信することを更に含み、前記ブックマークは、前記メディアストリーム内の特定の再生位置に対応する、請求項1に記載の方法。
[請求項17]
前記ブックマークを共有するユーザ要求を受信することと、
前記ブックマークを共有する前記ユーザ要求を受信したことに応じて、前記特定の再生位置に関連付けられたキュー情報をサーバに送信させることと、
を更に含む、請求項16に記載の方法。
[請求項18]
ユーザのお気に入りのチーム、ユーザのお気に入りのスポーツ、ユーザのお気に入りの選手、ユーザのお気に入りの俳優、ユーザのお気に入りのテレビ番組、ユーザの地理的位置、ユーザの人口統計、ユーザの視聴履歴、又はユーザの契約データの1つ以上に基づいて、前記ユーザ要求を解釈することを更に含む、請求項1に記載の方法。
[請求項19]
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信し、
発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信し、
前記ユーザ要求を受信したことに応じて、前記メディアストリームの再生を前記イベントに関連付けられた前記メディアストリーム内の前記時間で開始させる、
ためのコンピュータ実行可能命令を含む、非一時的コンピュータ可読記憶媒体。
[請求項20]
メディア再生の音声制御のためのシステムであって、
ひとつ以上のプロセッサと、
メモリと、
ひとつ以上のプログラムと、を備え、
前記ひとつ以上のプログラムは前記メモリに保持され、かつ、前記ひとつ以上のプロセッサにより実行されるよう構成され、前記ひとつ以上のプログラムは、
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信し、
発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信し、
前記ユーザ要求を受信したことに応じて、前記メディアストリームの再生を前記イベントに関連付けられた前記メディアストリーム内の前記時間で開始させる、
ための命令を含むシステム。
[請求項21]
情報をデジタルアシスタントの知識に組み込むための方法であって、
電子デバイスにおいて、
メディアストリーム内の時間に関連付けられたイベントに関連するデータを含む、データ供給を受信することと、
ユーザからの発語入力に基づいて、前記イベントに関連付けられたユーザ要求を受信することと、
前記イベントに関連した前記データに基づいて、前記ユーザ要求への応答を生成することと、
前記応答を配信させることと、
を含む、方法。
[請求項22]
前記応答を生成することが、現在再生しているメディアに基づいて前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項23]
前記応答を生成することが、現在再生しているメディアの現在の再生位置に基づいて前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項24]
前記応答を生成することが、前記ユーザにより以前に消費されたメディアコンテンツに基づいて前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項25]
前記応答を生成することが、画面上の俳優、画面上の選手、試合の参加者のリスト、番組内の俳優のリスト、又はチームの名簿の1つ以上に基づいて、前記応答を生成することを更に含む、請求項21に記載の方法。
[請求項26]
現在再生しているメディアの現在の再生位置と同時に存在する情報に対する要求を含む前記ユーザ要求に応じて、前記現在の再生位置の後の時間に関連付けられたデータを除外した、前記現在の再生位置と同時に存在するデータに基づいて、前記応答を生成することと、
ライブの情報に対する要求を含む前記ユーザ要求に応じて、ライブのデータに基づいて前記応答を生成することと、
を更に含む、請求項21に記載の方法。
[請求項27]
前記応答を配信させることが、前記電子デバイス以外の再生デバイス上で前記応答を表示又は再生させることを含む、請求項21に記載の方法。
[請求項28]
前記応答を配信させることが、前記電子デバイス以外の再生デバイスに前記応答を配信させることを含む、請求項21に記載の方法。

[書類名] 要約書
[要約]
仮想アシスタントのメディア知識のリアルタイム更新のためのシステム及びプロセスが開示される。仮想アシスタントの知識は、再生しているメディア(例えば、スポーツのイベント、テレビ番組、など)に関連付けられた、適時情報を用いて更新することができる。イベントをメディアストリーム内の特定の時間に関連付けるデータを含むデータ供給を、受信することができる。ユーザ要求は、発語入力に基づいて受信することができ、ユーザ要求は、メディアストリーム又は番組内のイベントに関連付けることができる。要求を受信したことに応じて、要求内で参照されたイベントに関連付けられたメディアストリーム内の時間で再生を開始するために、メディアストリームを、キューすることができる。別の実施例では、ユーザ要求への応答は、イベントに関連するデータに基づいて生成することができる。応答は、次に、ユーザに配信することができる(例えば、発声して、表示して、など)。

[書類名] 図面
[図1]
[図2]
[図3]
[図4]
[図5]
[図6]
[図7]
[図8]
[図9]
[図10]
[図11A]
[図11B]
[図12]
[図13]
[図14]

Claims (44)

  1. メディアシステムのデジタルアシスタントを動作させるための方法であって、前記方法は、
    1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
    表示ユニットおよびスピーカを介してメディアコンテンツを再生することと、
    前記メディアコンテンツを再生している間に、ユーザ入力を検出することと、
    前記ユーザ入力を検出したことに応じて、音声データをサンプリングすることであって、前記音声データはユーザ発言を含む、ことと、
    前記ユーザ発言に関連付けられたユーザの感情の判定を取得することと、
    前記ユーザ発言に対応するユーザ意図の決定を取得することであって、前記ユーザ意図が前記判定されたユーザの感情に基づいて決定される、ことと、
    前記ユーザ意図が、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むかどうかの判定を取得することと、
    前記ユーザ意図が、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含むとの判定を取得したことに応じて、前記アプリケーションの前記状態又は前記設定を、前記ユーザ意図を満足するように調整することと、
    を含み、
    前記ユーザ発言が、ユーザが、前記メディアコンテンツに関連付けられた音声の一部分が聞こえなかったことを指示する自然言語表現であり、
    前記方法はさらに、
    ユーザの第1の感情に対応する判定された前記ユーザの感情にしたがって、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記ユーザが聞こえなかった前記音声の前記部分に対応する前記メディアコンテンツの一部分を再生し直せとの第1要求を含むと決定することを含み
    前記アプリケーションの前記状態又は前記設定を調整することが、
    前記メディアコンテンツを前記メディアコンテンツの以前の部分まで所定の量だけ巻き戻すことと、
    前記表示ユニットおよび前記スピーカを介した前記メディアコンテンツの再生を前記以前の部分から再スタートすることと、
    を含み、
    前記方法はさらに、
    ユーザの第2の感情に対応する判定された前記ユーザの感情にしたがって、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記メディアコンテンツに関連付けられた前記音声の音量を上げよとの第2要求を含むと決定することを含み、
    前記アプリケーションの前記状態又は前記設定を調整することが、
    前記メディアコンテンツに関連付けられた前記音声の前記音量を上げることを含む、方法。
  2. 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、特定のメディアアイテムを再生せよとの要求を含み、前記アプリケーションの前記状態又は前記設定を、前記ユーザ意図を満足するように調整することが、前記特定のメディアアイテムを再生することを含む、請求項1に記載の方法。
  3. 前記方法は、メディアアイテムを有するユーザインターフェースを前記表示ユニットに表示することをさらに含み、前記ユーザ発言が、再生されるべき前記特定のメディアアイテムを明示的に限定せず、前記方法は、
    前記ユーザインターフェースのフォーカスが前記メディアアイテム上にあるかどうかを判定することと、
    前記ユーザインターフェースのフォーカスが前記メディアアイテム上にあるとの判定に従って、前記メディアアイテムを、再生されるべき前記特定のメディアアイテムとして特定することと、
    を更に含む、請求項2に記載の方法。
  4. 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記電子デバイス上の前記アプリケーションを起動せよとの要求を含む、請求項1に記載の方法。
  5. 前記状態又は前記設定が、前記電子デバイス上で再生されている前記メディアコンテンツに関連する、請求項1に記載の方法。
  6. 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記電子デバイス上で再生中の前記メディアコンテンツを早送り又は巻き戻しせよとの要求を含む、請求項5に記載の方法。
  7. 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記メディアコンテンツの特定の部分を再生するために前記メディアコンテンツ内で前方又は後方へ飛び越せとの要求を含む、請求項5に記載の方法。
  8. 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記電子デバイス上における前記メディアコンテンツの前記再生を一時停止せよとの要求を含む、請求項5に記載の方法。
  9. 前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記メディアコンテンツの字幕をオンにするか、又はオフにせよとの要求を含む、請求項5に記載の方法。
  10. 前記方法は、第1のメディアアイテム及び第2のメディアアイテムを有するユーザインターフェースを前記表示ユニットに表示することをさらに含み、
    前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの前記要求が、前記ユーザインターフェースのフォーカスを前記第1のメディアアイテムから前記第2のメディアアイテムへ切り換えよとの要求を含み、
    前記アプリケーションの前記状態又は前記設定を、前記ユーザ意図を満足するように調整することが、前記ユーザインターフェースのフォーカスを前記第1のメディアアイテムから前記第2のメディアアイテムへ切り換えることを含む、
    請求項1に記載の方法。
  11. 前記アプリケーションの前記状態又は前記設定を調整することが、
    前記メディアコンテンツの再生を前記以前の部分から再スタートする前にクローズドキャプションをオンにすることを更に含む、請求項10に記載の方法。
  12. 記アプリケーションの前記状態又は前記設定を調整することが、前記メディアコンテンツの再生を前記以前の部分から再スタートする前に、前記メディアコンテンツに関連付けられた前記音声の前記音量を上げることを更に含む、
    請求項10または11に記載の方法。
  13. 前記メディアコンテンツに関連付けられた前記音声内の発語がテキストに変換され、
    前記アプリケーションの前記状態又は前記設定を調整することが、前記メディアコンテンツの再生を前記以前の部分から再スタートする間に前記テキストの一部分を表示することを更に含む、
    請求項11または12に記載の方法。
  14. 前記ユーザ意図が、前記電子デバイス上のアプリケーションの状態又は設定を調整せよとの要求を含まないとの判定を取得したことに応じて、前記ユーザ意図が複数の所定の要求種別のうちの1つであるかどうかの判定を取得することと、
    前記ユーザ意図が複数の所定の要求種別のうちの1つであるとの判定を取得したことに応じて、
    前記ユーザ意図を少なくとも部分的に満足する結果を取得することと、
    前記表示ユニット上に、前記結果をテキスト形式で表示することと、
    を更に含む、請求項1から13のいずれか一項に記載の方法。
  15. 前記複数の所定の要求種別が、特定のロケーションにおける現在の時間の要求を含む、請求項14に記載の方法。
  16. 前記複数の所定の要求種別が、ジョークを提示せよとの要求を含む、請求項14に記載の方法。
  17. 前記複数の所定の要求種別が、前記電子デバイス上で再生されているメディアコンテンツに関する情報の要求を含む、請求項14に記載の方法。
  18. テキスト形式の前記結果が、前記表示されたコンテンツ上に重ね合わせられる、請求項14から17のいずれか一項に記載の方法。
  19. 前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含み、前記メディアコンテンツは、テキスト形式の前記結果が表示されている間に再生し続ける、請求項14から18のいずれか一項に記載の方法。
  20. 前記ユーザ意図が複数の所定の要求種別のうちの1つでないとの判定を取得したことに応じて、
    前記ユーザ意図を少なくとも部分的に満足する第2の結果を取得することと、
    前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含むかどうかを判定することと、
    前記表示されたコンテンツがメディアコンテンツを含むとの判定に従って、
    前記メディアコンテンツが一時停止されることができるかどうかを判定することと、
    前記メディアコンテンツが一時停止されることができないとの判定に従って、前記表示ユニット上に、前記第2の結果の一部分を有する第2のユーザインターフェースを表示することであって、前記表示ユニット上における前記第2のユーザインターフェースによって占有される表示区域は、前記表示ユニット上における前記メディアコンテンツによって占有される表示区域よりも小さい、ことと、
    を更に含む、請求項14から19のいずれか一項に記載の方法。
  21. 前記ユーザ意図が特定のロケーションの天気予報の要求を含む、請求項20に記載の方法。
  22. 前記ユーザ意図が、スポーツチーム又は運動選手に関連付けられた情報の要求を含む、請求項20に記載の方法。
  23. 前記ユーザ意図がメディア検索クエリでなく、前記第2の結果が、前記ユーザ意図を少なくとも部分的に満足するメディアコンテンツを有する1つ以上のメディアアイテムを含む、請求項20から22のいずれか一項に記載の方法。
  24. 前記第2の結果が、前記ユーザ意図を少なくとも部分的に満足する非メディアデータを更に含む、請求項23に記載の方法。
  25. 前記ユーザ意図がメディア検索クエリであり、前記第2の結果が、前記メディア検索クエリに対応する複数のメディアアイテムを含む、請求項20に記載の方法。
  26. 前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、前記表示ユニット上に、前記第2の結果の一部分を有する第3のユーザインターフェースを表示することであって、前記第3のユーザインターフェースは前記表示ユニットの前記表示区域の過半を占有する、ことを更に含む、請求項20から25のいずれか一項に記載の方法。
  27. メインメニューユーザインターフェースを前記表示ユニットに表示することをさらに含む、請求項26に記載の方法。
  28. 前記表示されたコンテンツが、前記ユーザ入力を検出する前に受信された以前のユーザ要求に関連する以前の結果を有する前記第3のユーザインターフェースを含み、
    前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含まないとの判定に従って、前記第3のユーザインターフェース内における前記以前の結果の表示が前記第2の結果の前記表示と置換される、
    請求項26に記載の方法。
  29. 前記表示されたコンテンツが、前記電子デバイス上で再生中のメディアコンテンツを含むとの前記判定に従って、
    前記表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する前記第2のユーザインターフェースを含むかどうかを判定することであって、前記表示されたコンテンツが、以前のユーザ要求からの以前の結果を有する前記第2のユーザインターフェースを含むとの判定に従って、前記以前の結果は前記第2の結果と置換される、ことを更に含む、請求項20から28のいずれか一項に記載の方法。
  30. 前記メディアコンテンツが一時停止されることができるとの判定に従って、
    前記電子デバイス上における前記メディアコンテンツの前記再生を一時停止することと、
    前記表示ユニット上に、前記第2の結果の一部分を有する第4のユーザインターフェースを表示することであって、前記第4のユーザインターフェースは前記表示ユニットの前記表示区域の過半を占有する、ことと、
    を更に含む、請求項20から29のいずれか一項に記載の方法。
  31. 前記音声データを、自然言語処理を実行するためにサーバへ伝送することと、
    前記サーバに、前記音声データがメディアアプリケーションに関連付けられていることを指示することであって、前記指示することは、前記自然言語処理をメディア関連のユーザ意図へ偏向させる、ことと、
    を更に含む、請求項1から30のいずれか一項に記載の方法。
  32. 前記音声データを、発語テキスト化処理を実行するためにサーバへ送信することを更に含む、請求項1から31のいずれか一項に記載の方法。
  33. 前記サーバに、前記音声データがメディアアプリケーションに関連付けられていることを指示することであって、前記指示することは、前記発語テキスト化処理をメディア関連のテキスト結果へ偏向させる、ことを更に含む、請求項32に記載の方法。
  34. 前記ユーザ発言のテキスト表現を取得することであって、前記テキスト表現は、前記音声データをサンプリングする前に受信された以前のユーザ発言に基づく、ことを更に含む、請求項32または33に記載の方法。
  35. 前記テキスト表現が、前記音声データをサンプリングする前に前記以前のユーザ発言が受信された時間に基づく、請求項34に記載の方法。
  36. 前記ユーザ意図が、前記電子デバイスに関連付けられた複数の中核能力のうちの1つに対応しないとの判定を取得することと、
    第2の電子デバイスに、前記ユーザ意図を満足することを助成するためのタスクを実行させることと、
    を更に含む、請求項1から35のいずれか一項に記載の方法。
  37. 前記ユーザ意図の決定を取得することが、
    前記ユーザ発言が曖昧な用語を含むかどうかの判定を取得することと、
    前記ユーザ発言が曖昧な用語を含むとの判定を取得したことに応じて、
    前記曖昧な用語に基づいて2つ以上のユーザ意図の候補を取得することと、
    前記表示ユニット上に前記2つ以上のユーザ意図の候補を表示することと、
    を更に含む、請求項1から36のいずれか一項に記載の方法。
  38. 前記2つ以上のユーザ意図の候補を表示している間に、前記2つ以上のユーザ意図の候補のうちの1つのユーザ選択を受信することを更に含み、前記ユーザ意図が、前記ユーザ選択に基づいて決定される、請求項37に記載の方法。
  39. 前記ユーザ選択を受信することが、
    第2のユーザ入力を検出することと、
    前記第2のユーザ入力を検出したことに応じて、第2の音声データをサンプリングすることであって、前記第2の音声データは、前記ユーザ選択を表現する第2のユーザ発言を含む、ことと、
    を更に含む、請求項38に記載の方法。
  40. 前記2つ以上の解釈が、前記2つ以上のユーザ意図の候補に関連付けられた発語を出力することなく表示される、請求項37から39のいずれか一項に記載の方法。
  41. 前記メディアコンテンツは、映画、ビデオ、テレビ番組、ビデオゲームのうちの少なくともひとつを含む請求項1から40のいずれか一項に記載の方法。
  42. ひとつ以上のプロセッサと、
    前記ひとつ以上のプロセッサにより実行されるよう構成されたひとつ以上のプログラムを保持するメモリと、を備え、
    前記ひとつ以上のプログラムは請求項1から41のいずれか一項に記載の方法を行うための命令を含む電子デバイス。
  43. 請求項1から41のいずれか一項に記載の方法を行うための命令を備えるコンピュータプログラム。
  44. ひとつ以上のプロセッサと、
    メモリと、
    請求項1から41の方法のうちのいずれかを行う手段と、を備える電子デバイス。
JP2017116994A 2015-09-08 2017-06-14 メディア環境内におけるインテリジェント自動アシスタント Active JP6635982B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562215676P 2015-09-08 2015-09-08
US62/215,676 2015-09-08
US14/963,094 US10331312B2 (en) 2015-09-08 2015-12-08 Intelligent automated assistant in a media environment
US14/963,094 2015-12-08

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016569709A Division JP2018502345A (ja) 2015-09-08 2016-08-16 メディア環境内におけるインテリジェント自動アシスタント

Publications (2)

Publication Number Publication Date
JP2017215971A JP2017215971A (ja) 2017-12-07
JP6635982B2 true JP6635982B2 (ja) 2020-01-29

Family

ID=58189472

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2016569709A Pending JP2018502345A (ja) 2015-09-08 2016-08-16 メディア環境内におけるインテリジェント自動アシスタント
JP2017116994A Active JP6635982B2 (ja) 2015-09-08 2017-06-14 メディア環境内におけるインテリジェント自動アシスタント
JP2018120017A Active JP6779257B2 (ja) 2015-09-08 2018-06-25 メディア環境内におけるインテリジェント自動アシスタント
JP2020172654A Pending JP2021012728A (ja) 2015-09-08 2020-10-13 メディア環境内におけるインテリジェント自動アシスタント
JP2023066584A Pending JP2023099020A (ja) 2015-09-08 2023-04-14 メディア環境内におけるインテリジェント自動アシスタント

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016569709A Pending JP2018502345A (ja) 2015-09-08 2016-08-16 メディア環境内におけるインテリジェント自動アシスタント

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2018120017A Active JP6779257B2 (ja) 2015-09-08 2018-06-25 メディア環境内におけるインテリジェント自動アシスタント
JP2020172654A Pending JP2021012728A (ja) 2015-09-08 2020-10-13 メディア環境内におけるインテリジェント自動アシスタント
JP2023066584A Pending JP2023099020A (ja) 2015-09-08 2023-04-14 メディア環境内におけるインテリジェント自動アシスタント

Country Status (8)

Country Link
US (5) US10331312B2 (ja)
EP (2) EP3291564A1 (ja)
JP (5) JP2018502345A (ja)
KR (7) KR102385459B1 (ja)
CN (4) CN107003797B (ja)
AU (6) AU2016247040B2 (ja)
DK (4) DK178888B1 (ja)
WO (1) WO2017044257A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12033633B1 (en) * 2019-03-26 2024-07-09 Amazon Technologies, Inc. Ambient device state content display

Families Citing this family (295)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10630751B2 (en) * 2016-12-30 2020-04-21 Google Llc Sequence dependent data message consolidation in a voice activated computer network environment
US10956485B2 (en) 2011-08-31 2021-03-23 Google Llc Retargeting in a search environment
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278592B2 (en) 2013-06-09 2017-09-07 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10431209B2 (en) 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
US10614153B2 (en) 2013-09-30 2020-04-07 Google Llc Resource size-based content item selection
US9703757B2 (en) 2013-09-30 2017-07-11 Google Inc. Automatically determining a size for a content item for a web page
US20180210911A1 (en) * 2017-01-23 2018-07-26 Oliver Wendel Gamble Method and System for Interactive Notation, Text Data Storage and Management on a Mobile Device.
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10339917B2 (en) 2015-09-03 2019-07-02 Google Llc Enhanced speech endpointing
US20170069309A1 (en) * 2015-09-03 2017-03-09 Google Inc. Enhanced speech endpointing
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
WO2017130498A1 (ja) * 2016-01-25 2017-08-03 ソニー株式会社 通信システムおよび通信制御方法
US11176930B1 (en) 2016-03-28 2021-11-16 Amazon Technologies, Inc. Storing audio commands for time-delayed execution
US10535343B2 (en) 2016-05-10 2020-01-14 Google Llc Implementations for voice assistant on devices
US20170329397A1 (en) * 2016-05-12 2017-11-16 Rovi Guides, Inc. Systems and methods for navigating a media guidance application using gaze control
KR102177786B1 (ko) 2016-05-13 2020-11-12 구글 엘엘씨 미디어 출력 디바이스들 사이의 미디어 전달
US10783178B2 (en) 2016-05-17 2020-09-22 Google Llc Generating a personal database entry for a user based on natural language user interface input of the user and generating output based on the entry in response to further natural language user interface input of the user
US10832665B2 (en) * 2016-05-27 2020-11-10 Centurylink Intellectual Property Llc Internet of things (IoT) human interface apparatus, system, and method
US10915234B2 (en) * 2016-06-01 2021-02-09 Motorola Mobility Llc Responsive, visual presentation of informational briefs on user requested topics
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10257314B2 (en) * 2016-06-22 2019-04-09 Microsoft Technology Licensing, Llc End-to-end user experiences with a digital assistant
US10931999B1 (en) * 2016-06-27 2021-02-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US10271093B1 (en) 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US11093834B2 (en) * 2016-07-06 2021-08-17 Palo Alto Research Center Incorporated Computer-implemented system and method for predicting activity outcome based on user attention
US20180012230A1 (en) * 2016-07-11 2018-01-11 International Business Machines Corporation Emotion detection over social media
US20180039478A1 (en) * 2016-08-02 2018-02-08 Google Inc. Voice interaction services
US9922649B1 (en) * 2016-08-24 2018-03-20 Jpmorgan Chase Bank, N.A. System and method for customer interaction management
US10481861B2 (en) * 2016-08-30 2019-11-19 Google Llc Using user input to adapt search results provided for presentation to the user
USD861030S1 (en) * 2016-08-30 2019-09-24 Canon Kabushiki Kaisha Display screen with animated graphical user interface
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
USD860244S1 (en) * 2016-09-08 2019-09-17 Canon Kabushiki Kaisha Display screen with animated graphical user interface
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
AU2017101431B4 (en) * 2016-10-26 2018-05-17 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10313531B2 (en) * 2016-12-13 2019-06-04 Bullhead Innovations Ltd. Voice controlled room system
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10229680B1 (en) * 2016-12-29 2019-03-12 Amazon Technologies, Inc. Contextual entity resolution
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
EP3358462A1 (en) * 2017-02-06 2018-08-08 Tata Consultancy Services Limited Context based adaptive virtual reality (vr) assistant in vr environments
US10237415B2 (en) * 2017-02-10 2019-03-19 David Clark Company Incorporated Method of controlling communications within a digital intercom system
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US10609453B2 (en) 2017-02-21 2020-03-31 The Directv Group, Inc. Customized recommendations of multimedia content streams
USD814485S1 (en) * 2017-03-02 2018-04-03 Hulu, LLC Display screen or portion thereof with animated graphical user interface
USD814486S1 (en) * 2017-03-02 2018-04-03 Hulu, LLC Display screen or portion thereof with animated graphical user interface
KR102304701B1 (ko) * 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
JP2018167339A (ja) * 2017-03-29 2018-11-01 富士通株式会社 発話制御プログラム、情報処理装置及び発話制御方法
JP7026449B2 (ja) * 2017-04-21 2022-02-28 ソニーグループ株式会社 情報処理装置、受信装置、及び情報処理方法
US11150922B2 (en) 2017-04-25 2021-10-19 Google Llc Initializing a conversation with an automated agent via selectable graphical element
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
WO2018208497A2 (en) * 2017-05-12 2018-11-15 Apple Inc. Low-latency intelligent automated assistant
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) * 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10009666B1 (en) 2017-05-16 2018-06-26 Google Llc Cross-device handoffs
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10303715B2 (en) * 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
KR101968725B1 (ko) * 2017-05-19 2019-04-12 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10607606B2 (en) * 2017-06-19 2020-03-31 Lenovo (Singapore) Pte. Ltd. Systems and methods for execution of digital assistant
WO2018232622A1 (en) 2017-06-21 2018-12-27 Microsoft Technology Licensing, Llc RECOMMENDATION OF MULTIMEDIA CONTENT THROUGH CONVERSATIONAL ROBOTS
US11601715B2 (en) * 2017-07-06 2023-03-07 DISH Technologies L.L.C. System and method for dynamically adjusting content playback based on viewer emotions
US10847148B2 (en) * 2017-07-14 2020-11-24 International Business Machines Corporation Dynamic personalized multi-turn interaction of cognitive models
RU2663706C1 (ru) * 2017-07-20 2018-08-08 Общество С Ограниченной Ответственностью "Центр Разработки И Внедрения Инновационных Технологий" Самонастраивающаяся интерактивная система, способ и считываемый компьютером носитель данных оценки доверия контенту
WO2019024100A1 (zh) * 2017-08-04 2019-02-07 深圳市智晟达科技有限公司 一种数字电视频道锁定方法及系统
US10762161B2 (en) * 2017-08-08 2020-09-01 Accenture Global Solutions Limited Intelligent humanoid interactive content recommender
CN107396160B (zh) * 2017-08-24 2018-03-30 傅皓衍 多功能机顶盒控制平台
CN107507615A (zh) 2017-08-29 2017-12-22 百度在线网络技术(北京)有限公司 界面智能交互控制方法、装置、系统及存储介质
KR102371752B1 (ko) * 2017-08-31 2022-03-07 삼성전자주식회사 가전 기기 및 그의 제어방법
KR20190024190A (ko) * 2017-08-31 2019-03-08 (주)휴맥스 음성 인식 영상 피드백 제공 시스템 및 방법
US11777875B2 (en) * 2017-09-15 2023-10-03 Microsoft Technology Licensing, Llc Capturing and leveraging signals reflecting BOT-to-BOT delegation
JP7299299B2 (ja) * 2017-09-18 2023-06-27 アリス エンタープライジズ エルエルシー リモートコントロール入力デバイスおよびセットトップボックスを介したテレビ上のマルチメディアバレットスクリーン
WO2019059598A1 (en) 2017-09-20 2019-03-28 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR MANAGING SERVICE REQUEST IN BLOCK CHAIN NETWORK
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10048973B1 (en) * 2017-09-22 2018-08-14 Harman International Industries, Incorporated Sequential activity intelligent personal assistant
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US11574287B2 (en) 2017-10-10 2023-02-07 Text IQ, Inc. Automatic document classification
US10546584B2 (en) * 2017-10-29 2020-01-28 International Business Machines Corporation Creating modular conversations using implicit routing
US11113608B2 (en) * 2017-10-30 2021-09-07 Accenture Global Solutions Limited Hybrid bot framework for enterprises
US10171877B1 (en) * 2017-10-30 2019-01-01 Dish Network L.L.C. System and method for dynamically selecting supplemental content based on viewer emotions
US11360736B1 (en) * 2017-11-03 2022-06-14 Amazon Technologies, Inc. System command processing
CN107895578B (zh) * 2017-11-15 2021-07-20 百度在线网络技术(北京)有限公司 语音交互方法和装置
CN107945815B (zh) * 2017-11-27 2021-09-07 歌尔科技有限公司 语音信号降噪方法及设备
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10558426B2 (en) * 2017-12-08 2020-02-11 Google Llc Graphical user interface rendering management by voice-driven computing infrastructure
US11182122B2 (en) * 2017-12-08 2021-11-23 Amazon Technologies, Inc. Voice control of computing devices
CN110149810B (zh) * 2017-12-08 2021-02-26 谷歌有限责任公司 限制在网络环境中操纵内容的传输系统和方法及数字助理装置
US10540971B2 (en) * 2017-12-15 2020-01-21 Blue Jeans Network, Inc. System and methods for in-meeting group assistance using a virtual assistant
CN108039173B (zh) * 2017-12-20 2021-02-26 深圳安泰创新科技股份有限公司 语音信息输入方法、移动终端、系统以及可读存储介质
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
WO2019144330A1 (zh) * 2018-01-25 2019-08-01 腾讯科技(深圳)有限公司 媒体内容发送方法、装置及存储介质
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US11886823B2 (en) 2018-02-01 2024-01-30 International Business Machines Corporation Dynamically constructing and configuring a conversational agent learning model
US10765957B2 (en) * 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC Integrating commentary content and gameplay content over a multi-user platform
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US11676062B2 (en) * 2018-03-06 2023-06-13 Samsung Electronics Co., Ltd. Dynamically evolving hybrid personalized artificial intelligence system
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
CN108320749A (zh) * 2018-03-14 2018-07-24 百度在线网络技术(北京)有限公司 远场语音控制设备和远场语音控制系统
JP6988608B2 (ja) * 2018-03-16 2022-01-05 大日本印刷株式会社 フォトブック作製システム及びサーバ装置
JP6988607B2 (ja) * 2018-03-16 2022-01-05 大日本印刷株式会社 フォトブック作製システム及びサーバ装置
JP6988606B2 (ja) * 2018-03-16 2022-01-05 大日本印刷株式会社 フォトブック作製システム及びサーバ装置
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
KR20200135324A (ko) 2018-03-26 2020-12-02 소니 주식회사 정보 처리 장치, 정보 처리 장치 및 프로그램
US11438650B2 (en) 2018-03-29 2022-09-06 Saturn Licensing Llc Information processing apparatus, information processing method, transmission apparatus, and transmission method
CN108600911B (zh) * 2018-03-30 2021-05-18 联想(北京)有限公司 一种输出方法及电子设备
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10621983B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10997963B1 (en) * 2018-05-17 2021-05-04 Amazon Technologies, Inc. Voice based interaction based on context-based directives
WO2019223536A1 (en) * 2018-05-21 2019-11-28 Qingdao Hisense Electronics Co., Ltd. Display apparatus with intelligent user interface
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
KR20190133100A (ko) * 2018-05-22 2019-12-02 삼성전자주식회사 어플리케이션을 이용하여 음성 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법
US10198877B1 (en) * 2018-05-23 2019-02-05 Google Llc Providing a communications channel between instances of automated assistants
US11704533B2 (en) * 2018-05-23 2023-07-18 Ford Global Technologies, Llc Always listening and active voice assistant and vehicle operation
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US11609739B2 (en) * 2018-06-01 2023-03-21 Apple Inc. Providing audio information with a digital assistant
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
KR20190142192A (ko) * 2018-06-15 2019-12-26 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
CN112204937A (zh) * 2018-06-25 2021-01-08 三星电子株式会社 使数字助理能够生成环境感知响应的方法和系统
KR102582332B1 (ko) 2018-06-27 2023-09-25 삼성전자주식회사 전자 장치, 이의 모바일 장치 제어 방법 및 컴퓨터 판독가능 기록 매체
US11132681B2 (en) 2018-07-06 2021-09-28 At&T Intellectual Property I, L.P. Services for entity trust conveyances
CN108920128B (zh) * 2018-07-12 2021-10-08 思必驰科技股份有限公司 演示文稿的操作方法及系统
CN109325097B (zh) * 2018-07-13 2022-05-27 海信集团有限公司 一种语音引导方法及装置、电子设备、存储介质
US11532007B2 (en) 2018-08-16 2022-12-20 Frank S. Maggio Systems and methods for implementing user-responsive reactive advertising via voice interactive input/output devices
US10971144B2 (en) * 2018-09-06 2021-04-06 Amazon Technologies, Inc. Communicating context to a device using an imperceptible audio identifier
CN109348353B (zh) * 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 智能音箱的服务处理方法、装置和智能音箱
US10802872B2 (en) * 2018-09-12 2020-10-13 At&T Intellectual Property I, L.P. Task delegation and cooperation for automated assistants
US20200090816A1 (en) * 2018-09-17 2020-03-19 Vet24seven Inc. Veterinary Professional Animal Tracking and Support System
CN110942518B (zh) * 2018-09-24 2024-03-29 苹果公司 上下文计算机生成现实(cgr)数字助理
DE102018216621B3 (de) * 2018-09-27 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bereitstellen eines interaktiven Feedbacks für Fahrzeuginsassen, eine Steuereinheit, eine Sprachausgabeeinrichtung und ein Fahrzeug
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11481186B2 (en) 2018-10-25 2022-10-25 At&T Intellectual Property I, L.P. Automated assistant context and protocol
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US12057114B2 (en) * 2018-11-02 2024-08-06 Spotify Ab Media content steering
US10958698B2 (en) * 2018-11-16 2021-03-23 Spotify Ab Responding to ambiguous play requests
US10839167B2 (en) * 2018-12-04 2020-11-17 Verizon Patent And Licensing Inc. Systems and methods for dynamically expanding natural language processing agent capacity
US10861446B2 (en) * 2018-12-10 2020-12-08 Amazon Technologies, Inc. Generating input alternatives
CN109600625B (zh) * 2018-12-20 2021-06-01 深圳创维-Rgb电子有限公司 一种节目搜索方法、装置、设备及介质
US11100693B2 (en) * 2018-12-26 2021-08-24 Wipro Limited Method and system for controlling an object avatar
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
WO2020142681A1 (en) * 2019-01-04 2020-07-09 Apple Inc. Content playback on multiple devices
KR20210134741A (ko) * 2019-03-01 2021-11-10 구글 엘엘씨 어시스턴트 응답을 동적으로 적응시키는 방법, 시스템 및 매체
CN109947993B (zh) * 2019-03-14 2022-10-21 阿波罗智联(北京)科技有限公司 基于语音识别的情节跳转方法、装置及计算机设备
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11003419B2 (en) 2019-03-19 2021-05-11 Spotify Ab Refinement of voice query interpretation
CN111724775B (zh) * 2019-03-22 2023-07-28 华为技术有限公司 一种语音交互方法及电子设备
US11544475B2 (en) 2019-03-22 2023-01-03 Predictika Inc. System and method for providing a model-based intelligent conversational agent
WO2020205817A1 (en) * 2019-04-04 2020-10-08 Verint Americas Inc. Systems and methods for generating responses for an intelligent virtual assistant
US20200320449A1 (en) * 2019-04-04 2020-10-08 Rylti, LLC Methods and Systems for Certification, Analysis, and Valuation of Music Catalogs
US10930284B2 (en) 2019-04-11 2021-02-23 Advanced New Technologies Co., Ltd. Information processing system, method, device and equipment
US20220199104A1 (en) * 2019-04-18 2022-06-23 Nippon Telegraph And Telephone Corporation Speech imaging apparatus, speech imaging method and program
CN111862988B (zh) 2019-04-26 2023-03-03 广东美的白色家电技术创新中心有限公司 语音识别设备及其唤醒响应方法、计算机存储介质
WO2020222338A1 (ko) * 2019-05-02 2020-11-05 엘지전자 주식회사 화상 정보를 제공하는 인공 지능 장치 및 그 방법
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11972307B2 (en) * 2019-05-06 2024-04-30 Google Llc Automated assistant for generating, in response to a request from a user, application input content using application data from other sources
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
CN110442391A (zh) * 2019-06-28 2019-11-12 华为技术有限公司 一种调用服务的方法及装置
US11894129B1 (en) 2019-07-03 2024-02-06 State Farm Mutual Automobile Insurance Company Senior living care coordination platforms
JP2022542415A (ja) * 2019-07-31 2022-10-03 ロヴィ ガイズ, インコーポレイテッド 発音情報を使用して音声クエリを管理するためのシステムおよび方法
US11410656B2 (en) 2019-07-31 2022-08-09 Rovi Guides, Inc. Systems and methods for managing voice queries using pronunciation information
US11494434B2 (en) 2019-07-31 2022-11-08 Rovi Guides, Inc. Systems and methods for managing voice queries using pronunciation information
US11438452B1 (en) 2019-08-09 2022-09-06 Apple Inc. Propagating context information in a privacy preserving manner
CN110619873A (zh) 2019-08-16 2019-12-27 北京小米移动软件有限公司 音频处理方法、装置及存储介质
US11367527B1 (en) 2019-08-19 2022-06-21 State Farm Mutual Automobile Insurance Company Senior living engagement and care support platforms
CN110516083B (zh) * 2019-08-30 2022-07-12 京东方科技集团股份有限公司 相册管理方法、存储介质及电子设备
WO2021045243A1 (ko) * 2019-09-03 2021-03-11 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법
US11061638B2 (en) 2019-09-17 2021-07-13 The Toronto-Dominion Bank Dynamically determining an interface for presenting information to a user
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
EP4350535A3 (en) * 2019-09-27 2024-04-24 Snap Inc. Content item module arrangements
US11308284B2 (en) 2019-10-18 2022-04-19 Facebook Technologies, Llc. Smart cameras enabled by assistant systems
US11567788B1 (en) 2019-10-18 2023-01-31 Meta Platforms, Inc. Generating proactive reminders for assistant systems
US11410649B2 (en) * 2019-10-31 2022-08-09 International Business Machines Corporation Voice commands to facilitate in-game communication
US11748415B2 (en) * 2019-11-18 2023-09-05 Lenovo (Singapore) Pte. Ltd. Digital assistant output attribute modification
US11412271B2 (en) 2019-11-25 2022-08-09 International Business Machines Corporation AI response to viewers of live stream video
US11604830B2 (en) 2020-01-07 2023-03-14 Rovi Guides, Inc. Systems and methods for performing a search based on selection of on-screen entities and real-world entities
US11367444B2 (en) * 2020-01-07 2022-06-21 Rovi Guides, Inc. Systems and methods for using conjunctions in a voice input to cause a search application to wait for additional inputs
US11290834B2 (en) 2020-03-04 2022-03-29 Apple Inc. Determining head pose based on room reverberation
CN113365124B (zh) * 2020-03-06 2023-01-20 海信视像科技股份有限公司 一种显示设备及显示方法
CN111341315B (zh) * 2020-03-06 2023-08-04 腾讯科技(深圳)有限公司 语音控制方法、装置、计算机设备和存储介质
JP7430091B2 (ja) * 2020-03-25 2024-02-09 株式会社日立製作所 データ処理支援システム、データ処理支援方法及びデータ処理支援プログラム
JP7484299B2 (ja) * 2020-03-26 2024-05-16 セイコーエプソン株式会社 画像表示システム、および画像表示システムの制御方法
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11810578B2 (en) 2020-05-11 2023-11-07 Apple Inc. Device arbitration for digital assistant-based intercom systems
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN113759430B (zh) * 2020-05-29 2023-05-26 同方威视技术股份有限公司 一种非车载式货物/车辆检查系统及其通信方法
CN111797212A (zh) * 2020-06-10 2020-10-20 宁波真了么知识产权服务有限公司 一种法律服务系统
US11451598B1 (en) * 2020-07-06 2022-09-20 Meta Platforms, Inc. Systems and methods for digital media storage
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11847724B2 (en) * 2020-07-21 2023-12-19 Verint Americas Inc. Near real-time visualizations for intelligent virtual assistant responses
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN112004157B (zh) * 2020-08-11 2022-06-21 海信电子科技(武汉)有限公司 一种多轮语音交互方法及显示设备
US11783827B2 (en) * 2020-11-06 2023-10-10 Apple Inc. Determining suggested subsequent user actions during digital assistant interaction
US11984124B2 (en) 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution
KR102408303B1 (ko) * 2020-11-17 2022-06-10 주식회사 카카오 컨텐츠 정보 제공 방법 및 컨텐츠 정보를 제공하는 사용자 단말
US11935651B2 (en) 2021-01-19 2024-03-19 State Farm Mutual Automobile Insurance Company Alert systems for senior living engagement and care support platforms
US20220232353A1 (en) * 2021-01-19 2022-07-21 Gluroo Imaginations, Inc. Messaging-based logging and alerting system
US11762871B2 (en) 2021-01-29 2023-09-19 Walmart Apollo, Llc Methods and apparatus for refining a search
KR102581000B1 (ko) * 2021-01-29 2023-09-21 네이버 주식회사 어시스턴트 서비스 제공 방법 및 시스템
CN112883212A (zh) * 2021-02-25 2021-06-01 北京有竹居网络技术有限公司 多媒体内容展示的控制方法、装置、电子设备和介质
US20220301549A1 (en) * 2021-03-17 2022-09-22 Samsung Electronics Co., Ltd. Electronic device and method for providing voice recognition service
US12086383B2 (en) * 2021-05-15 2024-09-10 Apple Inc. Contextual action predictions
US20230059979A1 (en) * 2021-08-20 2023-02-23 Accenture Global Solutions Limited Artificial Intelligence Based Smart Device for Contact Centers Solutions
US11475058B1 (en) * 2021-10-19 2022-10-18 Rovi Guides, Inc. Systems and methods for generating a dynamic timeline of related media content based on tagged content
WO2023110280A1 (en) * 2021-12-16 2023-06-22 Interdigital Ce Patent Holdings, Sas Method and apparatus for fixing a voice query
KR102700206B1 (ko) * 2022-01-19 2024-08-30 엘지전자 주식회사 디스플레이 장치
US11995457B2 (en) 2022-06-03 2024-05-28 Apple Inc. Digital assistant integration with system interface
US20230402033A1 (en) * 2022-06-08 2023-12-14 Comcast Cable Communications, Llc Device Language Configuration Based on Audio Data
CN114822005B (zh) * 2022-06-28 2022-09-20 深圳市矽昊智能科技有限公司 基于人工智能的遥控意图预测方法、装置、设备及介质
CN118535750A (zh) * 2024-07-24 2024-08-23 浙江鸟潮供应链管理有限公司 一种多媒体数据的处理方法、存储介质和电子设备

Family Cites Families (2828)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073695B1 (en) 1992-12-09 2011-12-06 Adrea, LLC Electronic book with voice emulation features
US6122482A (en) 1995-02-22 2000-09-19 Global Communications, Inc. Satellite broadcast receiving and distribution system
US5901287A (en) 1996-04-01 1999-05-04 The Sabre Group Inc. Information aggregation and synthesization system
JPH09325796A (ja) 1996-06-06 1997-12-16 Oki Electric Ind Co Ltd 文書朗読装置
US6622148B1 (en) * 1996-10-23 2003-09-16 Viacom International Inc. Interactive video title selection system and method
IL119948A (en) 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
US6078886A (en) 1997-04-14 2000-06-20 At&T Corporation System and method for providing remote automatic speech recognition services via a packet network
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
CA2345662A1 (en) 1998-10-02 2000-04-13 International Business Machines Corporation Structure skeletons for efficient voice navigation through generic hierarchical objects
US6163794A (en) 1998-10-23 2000-12-19 General Magic Network system extensible by users
US6504990B1 (en) * 1998-11-12 2003-01-07 Max Abecassis Randomly and continuously playing fragments of a video segment
US7447637B1 (en) 1998-12-23 2008-11-04 Eastern Investments, Llc System and method of processing speech within a graphic user interface
US8938688B2 (en) 1998-12-04 2015-01-20 Nuance Communications, Inc. Contextual prediction of user words and user actions
US7881936B2 (en) 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US6842877B2 (en) 1998-12-18 2005-01-11 Tangis Corporation Contextual responses based on automated learning techniques
ATE443946T1 (de) 1999-05-27 2009-10-15 Tegic Communications Inc Tastatursystem mit automatischer korrektur
AU5451800A (en) 1999-05-28 2000-12-18 Sehda, Inc. Phrase-based dialogue modeling with particular application to creating recognition grammars for voice-controlled user interfaces
US20140098247A1 (en) 1999-06-04 2014-04-10 Ip Holdings, Inc. Home Automation And Smart Home Control Using Mobile Devices And Wireless Enabled Electrical Switches
US8065155B1 (en) 1999-06-10 2011-11-22 Gazdzinski Robert F Adaptive advertising apparatus and methods
AUPQ138199A0 (en) 1999-07-02 1999-07-29 Telstra R & D Management Pty Ltd A search system
US7925610B2 (en) 1999-09-22 2011-04-12 Google Inc. Determining a meaning of a knowledge item using document-based information
US8392188B1 (en) 1999-11-05 2013-03-05 At&T Intellectual Property Ii, L.P. Method and system for building a phonotactic model for domain independent speech recognition
US9076448B2 (en) 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US8271336B2 (en) 1999-11-22 2012-09-18 Accenture Global Services Gmbh Increased visibility during order management in a network-based supply chain environment
US8032409B1 (en) 1999-11-22 2011-10-04 Accenture Global Services Limited Enhanced visibility during installation management in a network-based supply chain environment
US7130807B1 (en) 1999-11-22 2006-10-31 Accenture Llp Technology sharing during demand and supply planning in a network-based supply chain environment
US7337389B1 (en) 1999-12-07 2008-02-26 Microsoft Corporation System and method for annotating an electronic document independently of its content
US6976215B1 (en) * 1999-12-20 2005-12-13 Vulcan Patents Llc Pushbutton user interface with functionality preview
US8271287B1 (en) 2000-01-14 2012-09-18 Alcatel Lucent Voice command remote control system
US6757362B1 (en) 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
US8024415B2 (en) 2001-03-16 2011-09-20 Microsoft Corporation Priorities generation and management
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7917366B1 (en) 2000-03-24 2011-03-29 Exaudios Technologies System and method for determining a personal SHG profile by voice analysis
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
US6915262B2 (en) 2000-11-30 2005-07-05 Telesector Resources Group, Inc. Methods and apparatus for performing speech recognition and using speech recognition results
JP3919210B2 (ja) * 2001-02-15 2007-05-23 アルパイン株式会社 音声入力案内方法及び装置
US7277853B1 (en) 2001-03-02 2007-10-02 Mindspeed Technologies, Inc. System and method for a endpoint detection of speech for improved speech recognition in noisy environments
US7516076B2 (en) 2001-03-14 2009-04-07 At&T Intellectual Property Ii, L.P. Automated sentence planning in a task classification system
US7209880B1 (en) 2001-03-20 2007-04-24 At&T Corp. Systems and methods for dynamic re-configurable speech recognition
WO2002089458A1 (en) 2001-04-30 2002-11-07 Octave Communications, Inc. Audio conference platform with dynamic speech detection threshold
US6975304B1 (en) 2001-06-11 2005-12-13 Handspring, Inc. Interface for processing of an alternate symbol in a computer device
US8831949B1 (en) 2001-06-28 2014-09-09 At&T Intellectual Property I, L.P. Voice recognition for performing authentication and completing transactions in a systems interface to legacy systems
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US7987151B2 (en) 2001-08-10 2011-07-26 General Dynamics Advanced Info Systems, Inc. Apparatus and method for problem solving using intelligent agents
US11004114B2 (en) 2001-08-21 2021-05-11 Bookit Oy Components, system, platform and methodologies for mediating and provisioning services and product delivery and orchestrating, mediating and authenticating transactions and interactions
US7920682B2 (en) 2001-08-21 2011-04-05 Byrne William J Dynamic interactive voice interface
US7403938B2 (en) 2001-09-24 2008-07-22 Iac Search & Media, Inc. Natural language query processing
US6985865B1 (en) 2001-09-26 2006-01-10 Sprint Spectrum L.P. Method and system for enhanced response to voice commands in a voice command platform
US7324947B2 (en) * 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
ITFI20010199A1 (it) 2001-10-22 2003-04-22 Riccardo Vieri Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico
US7913185B1 (en) 2001-10-25 2011-03-22 Adobe Systems Incorporated Graphical insertion of JavaScript pop-up menus
US20030101054A1 (en) 2001-11-27 2003-05-29 Ncc, Llc Integrated system and method for electronic speech recognition and transcription
US7260538B2 (en) 2002-01-08 2007-08-21 Promptu Systems Corporation Method and apparatus for voice control of a television control device
US8374879B2 (en) 2002-02-04 2013-02-12 Microsoft Corporation Systems and methods for managing interactions from multiple speech-enabled applications
US9374451B2 (en) 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
US7221287B2 (en) 2002-03-05 2007-05-22 Triangle Software Llc Three-dimensional traffic report
US7707221B1 (en) 2002-04-03 2010-04-27 Yahoo! Inc. Associating and linking compact disc metadata
US7869998B1 (en) 2002-04-23 2011-01-11 At&T Intellectual Property Ii, L.P. Voice-enabled dialog system
US8135115B1 (en) 2006-11-22 2012-03-13 Securus Technologies, Inc. System and method for multi-channel recording
US7221937B2 (en) 2002-05-06 2007-05-22 Research In Motion Limited Event reminder method
US8611919B2 (en) 2002-05-23 2013-12-17 Wounder Gmbh., Llc System, method, and computer program product for providing location based services and mobile e-commerce
JP4109902B2 (ja) * 2002-05-27 2008-07-02 キヤノン株式会社 表示装置
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7001979B2 (en) * 2002-06-14 2006-02-21 H.B. Fuller Licensing & Financing Inc. Polyamide and composition and article including same
US8219608B2 (en) 2002-06-20 2012-07-10 Koninklijke Philips Electronics N.V. Scalable architecture for web services
US7079713B2 (en) 2002-06-28 2006-07-18 Microsoft Corporation Method and system for displaying and linking ink objects with recognized text and objects
EP1652173B1 (en) 2002-06-28 2015-12-30 Chemtron Research LLC Method and system for processing speech
US7665024B1 (en) * 2002-07-22 2010-02-16 Verizon Services Corp. Methods and apparatus for controlling a user interface based on the emotional state of a user
US6876727B2 (en) 2002-07-24 2005-04-05 Sbc Properties, Lp Voice over IP method for developing interactive voice response system
US7027842B2 (en) 2002-09-24 2006-04-11 Bellsouth Intellectual Property Corporation Apparatus and method for providing hands-free operation of a device
US9342829B2 (en) 2002-10-01 2016-05-17 Andrew H B Zhou Systems and methods for mobile application, wearable application, transactional messaging, calling, digital multimedia capture and payment transactions
US7822611B2 (en) 2002-11-12 2010-10-26 Bezar David B Speaker intent analysis system
US8972266B2 (en) 2002-11-12 2015-03-03 David Bezar User intent analysis extent of speaker intent analysis system
US8005919B2 (en) 2002-11-18 2011-08-23 Aol Inc. Host-based intelligent results related to a character stream
US8661112B2 (en) 2002-12-20 2014-02-25 Nuance Communications, Inc. Customized interactive voice response menus
GB0230125D0 (en) * 2002-12-24 2003-01-29 Lg Philips Displays Netherland Oxide cathode
US8064753B2 (en) 2003-03-05 2011-11-22 Freeman Alan D Multi-feature media article and method for manufacture of same
US8244712B2 (en) 2003-03-18 2012-08-14 Apple Inc. Localized viewing of file system names
US7623892B2 (en) 2003-04-02 2009-11-24 Palm, Inc. System and method for enabling a person to switch use of computing devices
US7941009B2 (en) 2003-04-08 2011-05-10 The Penn State Research Foundation Real-time computerized annotation of pictures
US8224757B2 (en) 2003-04-15 2012-07-17 Sap Ag Curriculum management system
US7669134B1 (en) 2003-05-02 2010-02-23 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US7407384B2 (en) 2003-05-29 2008-08-05 Robert Bosch Gmbh System, method and device for language education through a voice portal server
US7496230B2 (en) 2003-06-05 2009-02-24 International Business Machines Corporation System and method for automatic natural language translation of embedded text regions in images during information transfer
US8311835B2 (en) 2003-08-29 2012-11-13 Microsoft Corporation Assisted multi-modal dialogue
US7539619B1 (en) 2003-09-05 2009-05-26 Spoken Translation Ind. Speech-enabled language translation system and method enabling interactive user supervision of translation and speech recognition accuracy
US7917364B2 (en) 2003-09-23 2011-03-29 Hewlett-Packard Development Company, L.P. System and method using multiple automated speech recognition engines
US7386440B2 (en) 2003-10-01 2008-06-10 International Business Machines Corporation Method, system, and apparatus for natural language mixed-initiative dialogue processing
US7548651B2 (en) 2003-10-03 2009-06-16 Asahi Kasei Kabushiki Kaisha Data process unit and data process unit control program
US20090018918A1 (en) 2004-11-04 2009-01-15 Manyworlds Inc. Influence-based Social Network Advertising
JP3734815B2 (ja) 2003-12-10 2006-01-11 任天堂株式会社 携帯ゲーム装置及びゲームプログラム
US7427024B1 (en) 2003-12-17 2008-09-23 Gazdzinski Mark J Chattel management apparatus and methods
EP1699042B1 (en) 2003-12-26 2010-02-17 Kabushiki Kaisha Kenwood Device control device, method and program
US8160883B2 (en) 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
US8281339B1 (en) 2004-01-12 2012-10-02 United Video Properties, Inc. Customizable flip and browse overlays in an interactive television system
US7433876B2 (en) 2004-02-23 2008-10-07 Radar Networks, Inc. Semantic web portal and platform
US8654936B1 (en) 2004-02-24 2014-02-18 At&T Intellectual Property I, L.P. Home control, monitoring and communication system using remote voice commands
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
JP2005293352A (ja) 2004-04-01 2005-10-20 Seiko Epson Corp 制御装置、制御方法及び制御プログラム
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US20060075429A1 (en) 2004-04-30 2006-04-06 Vulcan Inc. Voice control of television-related information
US20060041926A1 (en) * 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
US8130929B2 (en) 2004-05-25 2012-03-06 Galileo Processing, Inc. Methods for obtaining complex data in an interactive voice response system
US7873149B2 (en) 2004-06-01 2011-01-18 Verizon Business Global Llc Systems and methods for gathering information
US8095364B2 (en) 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US8224649B2 (en) 2004-06-02 2012-07-17 International Business Machines Corporation Method and apparatus for remote command, control and diagnostics of systems using conversational or audio interface
US8321786B2 (en) 2004-06-17 2012-11-27 Apple Inc. Routine and interface for correcting electronic text
US8099395B2 (en) 2004-06-24 2012-01-17 Oracle America, Inc. System level identity object
US20060004192A1 (en) * 2004-07-02 2006-01-05 Fuji Photo Film Co., Ltd. Method of preparing a cellulose acylate, cellulose acylate film, polarizing plate, and liquid crystal display device
US8589156B2 (en) 2004-07-12 2013-11-19 Hewlett-Packard Development Company, L.P. Allocation of speech recognition tasks and combination of results thereof
US8036893B2 (en) 2004-07-22 2011-10-11 Nuance Communications, Inc. Method and system for identifying and correcting accent-induced speech recognition difficulties
US7936861B2 (en) 2004-07-23 2011-05-03 At&T Intellectual Property I, L.P. Announcement system and method of use
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7869999B2 (en) 2004-08-11 2011-01-11 Nuance Communications, Inc. Systems and methods for selecting from multiple phonectic transcriptions for text-to-speech synthesis
US8407239B2 (en) 2004-08-13 2013-03-26 Google Inc. Multi-stage query processing system and method for use with tokenspace repository
US8117542B2 (en) 2004-08-16 2012-02-14 Microsoft Corporation User interface for displaying selectable software functionality controls that are contextually relevant to a selected object
US7895531B2 (en) 2004-08-16 2011-02-22 Microsoft Corporation Floating command object
US7912699B1 (en) 2004-08-23 2011-03-22 At&T Intellectual Property Ii, L.P. System and method of lattice-based search for spoken utterance retrieval
US20060048055A1 (en) 2004-08-25 2006-03-02 Jun Wu Fault-tolerant romanized input method for non-roman characters
US20060059424A1 (en) 2004-09-15 2006-03-16 Petri Jonah W Real-time data localization
US7936863B2 (en) 2004-09-30 2011-05-03 Avaya Inc. Method and apparatus for providing communication tasks in a workflow
US8107401B2 (en) 2004-09-30 2012-01-31 Avaya Inc. Method and apparatus for providing a virtual assistant to a communication participant
US8744852B1 (en) 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
US7885844B1 (en) 2004-11-16 2011-02-08 Amazon Technologies, Inc. Automatically generating task recommendations for human task performers
US8498865B1 (en) 2004-11-30 2013-07-30 Vocera Communications, Inc. Speech recognition system and method using group call statistics
GB0426347D0 (en) 2004-12-01 2005-01-05 Ibm Methods, apparatus and computer programs for automatic speech recognition
US20060122834A1 (en) 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
KR100654445B1 (ko) * 2004-12-17 2006-12-06 삼성전자주식회사 멀티미디어 컨텐츠에 대한 썸네일 리스트를 제공하는 장치및 그 방법
US7987244B1 (en) 2004-12-30 2011-07-26 At&T Intellectual Property Ii, L.P. Network repository for voice fonts
US8478589B2 (en) 2005-01-05 2013-07-02 At&T Intellectual Property Ii, L.P. Library of existing spoken dialog data for use in generating new natural language spoken dialog systems
US8069422B2 (en) 2005-01-10 2011-11-29 Samsung Electronics, Co., Ltd. Contextual task recommendation system and method for determining user's context and suggesting tasks
US7913184B1 (en) * 2005-01-20 2011-03-22 Verizon Laboratories Inc. Intelligent auto-tabbing systems and methods
US8150872B2 (en) 2005-01-24 2012-04-03 The Intellection Group, Inc. Multimodal natural language query system for processing and analyzing voice and proximity-based queries
US7873654B2 (en) 2005-01-24 2011-01-18 The Intellection Group, Inc. Multimodal natural language query system for processing and analyzing voice and proximity-based queries
US8228299B1 (en) 2005-01-27 2012-07-24 Singleton Technology, Llc Transaction automation and archival system using electronic contract and disclosure units
WO2006084102A2 (en) 2005-02-03 2006-08-10 Musicstrands, Inc. Recommender system for identifying a new set of media items responsive to an input set of media items and knowledge base metrics
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7895039B2 (en) 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US8577683B2 (en) 2008-08-15 2013-11-05 Thomas Majchrowski & Associates, Inc. Multipurpose media players
JP4911028B2 (ja) 2005-02-24 2012-04-04 富士ゼロックス株式会社 単語翻訳装置、翻訳方法および翻訳プログラム
US7933399B2 (en) 2005-03-22 2011-04-26 At&T Intellectual Property I, L.P. System and method for utilizing virtual agents in an interactive voice response application
US7925525B2 (en) 2005-03-25 2011-04-12 Microsoft Corporation Smart reminders
US8346757B1 (en) 2005-03-28 2013-01-01 Google Inc. Determining query terms of little significance
US9471566B1 (en) 2005-04-14 2016-10-18 Oracle America, Inc. Method and apparatus for converting phonetic language input to written language output
US8260617B2 (en) 2005-04-18 2012-09-04 Nuance Communications, Inc. Automating input when testing voice-enabled applications
US7996589B2 (en) 2005-04-22 2011-08-09 Microsoft Corporation Auto-suggest lists and handwritten input
US7684990B2 (en) 2005-04-29 2010-03-23 Nuance Communications, Inc. Method and apparatus for multiple value confirmation and correction in spoken dialog systems
US8046374B1 (en) 2005-05-06 2011-10-25 Symantec Corporation Automatic training of a database intrusion detection system
US7886233B2 (en) 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US8041570B2 (en) 2005-05-31 2011-10-18 Robert Bosch Corporation Dialogue management using scripts
US8477323B2 (en) 2005-06-22 2013-07-02 Xerox Corporation System and method for conveying rendering intents
US8024195B2 (en) 2005-06-27 2011-09-20 Sensory, Inc. Systems and methods of performing speech recognition using historical information
US8396715B2 (en) 2005-06-28 2013-03-12 Microsoft Corporation Confidence threshold tuning
GB0513225D0 (en) 2005-06-29 2005-08-03 Ibm Method and system for building and contracting a linguistic dictionary
US7873523B2 (en) 2005-06-30 2011-01-18 Microsoft Corporation Computer implemented method of analyzing recognition results between a user and an interactive application utilizing inferred values instead of transcribed speech
US7885390B2 (en) 2005-07-01 2011-02-08 Soleo Communications, Inc. System and method for multi-modal personal communication services
US7881283B2 (en) 2005-07-13 2011-02-01 Research In Motion Limited Customizability of event notification on telephony-enabled devices
US9094636B1 (en) 2005-07-14 2015-07-28 Zaxcom, Inc. Systems and methods for remotely controlling local audio devices in a virtual wireless multitrack recording system
US7912720B1 (en) 2005-07-20 2011-03-22 At&T Intellectual Property Ii, L.P. System and method for building emotional machines
US8694322B2 (en) 2005-08-05 2014-04-08 Microsoft Corporation Selective confirmation for execution of a voice activated user interface
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7844037B2 (en) 2005-08-08 2010-11-30 Palm, Inc. Method and device for enabling message responses to incoming phone calls
EP1920432A4 (en) 2005-08-09 2011-03-16 Mobile Voice Control Llc LANGUAGE-CONTROLLED WIRELESS COMMUNICATION DEVICE SYSTEM
US7620549B2 (en) 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
WO2007017805A2 (en) 2005-08-11 2007-02-15 Philips Intellectual Property & Standards Gmbh Method of driving an interactive system and user interface system
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
EP1934971A4 (en) 2005-08-31 2010-10-27 Voicebox Technologies Inc DYNAMIC LANGUAGE SCRIPTURE
US8265939B2 (en) 2005-08-31 2012-09-11 Nuance Communications, Inc. Hierarchical methods and apparatus for extracting user intent from spoken utterances
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8688671B2 (en) 2005-09-14 2014-04-01 Millennial Media Managing sponsored content based on geographic region
US8819659B2 (en) 2005-09-14 2014-08-26 Millennial Media, Inc. Mobile search service instant activation
US8635073B2 (en) 2005-09-14 2014-01-21 At&T Intellectual Property I, L.P. Wireless multimodal voice browser for wireline-based IPTV services
US7992085B2 (en) 2005-09-26 2011-08-02 Microsoft Corporation Lightweight reference user interface
US7505784B2 (en) 2005-09-26 2009-03-17 Barbera Melvin A Safety features for portable electronic device
US8270933B2 (en) 2005-09-26 2012-09-18 Zoomsafer, Inc. Safety features for portable electronic device
US9009046B1 (en) 2005-09-27 2015-04-14 At&T Intellectual Property Ii, L.P. System and method for disambiguating multiple intents in a natural language dialog system
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
JP4908094B2 (ja) 2005-09-30 2012-04-04 株式会社リコー 情報処理システム、情報処理方法及び情報処理プログラム
US7930168B2 (en) 2005-10-04 2011-04-19 Robert Bosch Gmbh Natural language processing of disfluent sentences
US8401163B1 (en) 2005-10-18 2013-03-19 Callwave Communications, Llc Methods and systems for call processing and for providing call progress status over a network
US20070094024A1 (en) 2005-10-22 2007-04-26 International Business Machines Corporation System and method for improving text input in a shorthand-on-keyboard interface
US7395959B2 (en) 2005-10-27 2008-07-08 International Business Machines Corporation Hands free contact database information entry at a communication device
KR100755678B1 (ko) 2005-10-28 2007-09-05 삼성전자주식회사 개체명 검출 장치 및 방법
US9026915B1 (en) 2005-10-31 2015-05-05 At&T Intellectual Property Ii, L.P. System and method for creating a presentation using natural language
US7936339B2 (en) 2005-11-01 2011-05-03 Leapfrog Enterprises, Inc. Method and system for invoking computer functionality by interaction with dynamically generated interface regions of a writing surface
US8042048B2 (en) 2005-11-17 2011-10-18 Att Knowledge Ventures, L.P. System and method for home automation
US8055707B2 (en) 2005-11-30 2011-11-08 Alcatel Lucent Calendar interface for digital communications
US9330668B2 (en) 2005-12-20 2016-05-03 International Business Machines Corporation Sharing voice application processing via markup
US8234494B1 (en) 2005-12-21 2012-07-31 At&T Intellectual Property Ii, L.P. Speaker-verification digital signatures
US7996228B2 (en) 2005-12-22 2011-08-09 Microsoft Corporation Voice initiated network operations
US7685144B1 (en) 2005-12-29 2010-03-23 Google Inc. Dynamically autocompleting a data entry
US7890330B2 (en) 2005-12-30 2011-02-15 Alpine Electronics Inc. Voice recording tool for creating database used in text to speech synthesis system
KR101265263B1 (ko) 2006-01-02 2013-05-16 삼성전자주식회사 발음 기호를 이용한 문자열 매칭 방법 및 시스템과 그방법을 기록한 컴퓨터 판독 가능한 기록매체
US8006180B2 (en) 2006-01-10 2011-08-23 Mircrosoft Corporation Spell checking in network browser based applications
US9275129B2 (en) 2006-01-23 2016-03-01 Symantec Corporation Methods and systems to efficiently find similar and near-duplicate emails and files
US9600568B2 (en) 2006-01-23 2017-03-21 Veritas Technologies Llc Methods and systems for automatic evaluation of electronic discovery review and productions
US7929805B2 (en) 2006-01-31 2011-04-19 The Penn State Research Foundation Image-based CAPTCHA generation system
US8352183B2 (en) 2006-02-04 2013-01-08 Microsoft Corporation Maps for social networking and geo blogs
US9101279B2 (en) 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
US7983910B2 (en) 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8532678B2 (en) 2006-03-08 2013-09-10 Tomtom International B.V. Portable GPS navigation device
JP4734155B2 (ja) 2006-03-24 2011-07-27 株式会社東芝 音声認識装置、音声認識方法および音声認識プログラム
US8018431B1 (en) 2006-03-29 2011-09-13 Amazon Technologies, Inc. Page turner for handheld electronic book reader device
US7930183B2 (en) 2006-03-29 2011-04-19 Microsoft Corporation Automatic identification of dialog timing problems for an interactive speech dialog application using speech log data indicative of cases of barge-in and timing problems
US7283072B1 (en) 2006-03-30 2007-10-16 International Business Machines Corporation Methods of creating a dictionary for data compression
US8244545B2 (en) 2006-03-30 2012-08-14 Microsoft Corporation Dialog repair based on discrepancies between user model predictions and speech recognition results
US7996769B2 (en) 2006-04-05 2011-08-09 Research In Motion Limited Handheld electronic device and method for performing spell checking during text entry and for providing a spell-check learning feature
US8046363B2 (en) 2006-04-13 2011-10-25 Lg Electronics Inc. System and method for clustering documents
KR100744380B1 (ko) 2006-04-17 2007-07-30 삼성전자주식회사 외부 디스플레이 장치로 영상을 출력할 수 있는 기능을구비한 이동 단말기에서의 디스플레이 제어 장치 및 방법
US8077153B2 (en) 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US8103947B2 (en) 2006-04-20 2012-01-24 Timecove Corporation Collaborative system and method for generating biographical accounts
US8214213B1 (en) 2006-04-27 2012-07-03 At&T Intellectual Property Ii, L.P. Speech recognition based on pronunciation modeling
US9020804B2 (en) 2006-05-10 2015-04-28 Xerox Corporation Method for aligning sentences at the word level enforcing selective contiguity constraints
US7523108B2 (en) 2006-06-07 2009-04-21 Platformation, Inc. Methods and apparatus for searching with awareness of geography and languages
US20070288898A1 (en) 2006-06-09 2007-12-13 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for setting a feature of an electronic device based on at least one user characteristic
US8332218B2 (en) 2006-06-13 2012-12-11 Nuance Communications, Inc. Context-based grammars for automated speech recognition
US9219767B2 (en) 2006-06-22 2015-12-22 Linkedin Corporation Recording and indicating preferences
JP5218052B2 (ja) 2006-06-26 2013-06-26 日本電気株式会社 言語モデル生成システム、言語モデル生成方法および言語モデル生成用プログラム
WO2008004486A1 (fr) 2006-07-06 2008-01-10 Panasonic Corporation Dispositif d'entrée vocale
US8050500B1 (en) 2006-07-06 2011-11-01 Senapps, LLC Recognition method and system
US20080022208A1 (en) 2006-07-18 2008-01-24 Creative Technology Ltd System and method for personalizing the user interface of audio rendering devices
US8134481B2 (en) 2006-08-11 2012-03-13 Honda Motor Co., Ltd. Method and system for receiving and sending navigational data via a wireless messaging service on a navigation system
US7646296B2 (en) 2006-08-11 2010-01-12 Honda Motor Co., Ltd. Method and system for receiving and sending navigational data via a wireless messaging service on a navigation system
US9071701B2 (en) 2006-08-31 2015-06-30 Qualcomm Incorporated Using wireless characteristic to trigger generation of position fix
US8170790B2 (en) 2006-09-05 2012-05-01 Garmin Switzerland Gmbh Apparatus for switching navigation device mode
US7996792B2 (en) 2006-09-06 2011-08-09 Apple Inc. Voicemail manager for portable multifunction device
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8589869B2 (en) 2006-09-07 2013-11-19 Wolfram Alpha Llc Methods and systems for determining a formula
TWI322610B (en) 2006-09-08 2010-03-21 Htc Corp Handheld electronic device
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7649454B2 (en) 2006-09-28 2010-01-19 Ektimisi Semiotics Holdings, Llc System and method for providing a task reminder based on historical travel information
US8014308B2 (en) 2006-09-28 2011-09-06 Microsoft Corporation Hardware architecture for cloud services
US7528713B2 (en) 2006-09-28 2009-05-05 Ektimisi Semiotics Holdings, Llc Apparatus and method for providing a task reminder based on travel history
US7930197B2 (en) 2006-09-28 2011-04-19 Microsoft Corporation Personal data mining
US8214208B2 (en) 2006-09-28 2012-07-03 Reqall, Inc. Method and system for sharing portable voice profiles
US7945470B1 (en) 2006-09-29 2011-05-17 Amazon Technologies, Inc. Facilitating performance of submitted tasks by mobile task performers
JP2008092269A (ja) 2006-10-02 2008-04-17 Matsushita Electric Ind Co Ltd ハンズフリー通話装置
JP2008096541A (ja) 2006-10-06 2008-04-24 Canon Inc 音声処理装置およびその制御方法
US8434133B2 (en) 2006-10-06 2013-04-30 Fmr Llc Single-party, secure multi-channel authentication
US7937075B2 (en) 2006-10-06 2011-05-03 At&T Intellectual Property I, L.P. Mode changing of a mobile communications device and vehicle settings when the mobile communications device is in proximity to a vehicle
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US8972268B2 (en) 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
US8255216B2 (en) 2006-10-30 2012-08-28 Nuance Communications, Inc. Speech recognition of character sequences
WO2008061903A1 (en) 2006-11-22 2008-05-29 Agfa Healthcate Inc. Method and system for client / server distributed image processing
US8055502B2 (en) 2006-11-28 2011-11-08 General Motors Llc Voice dialing using a rejection reference
GB0623915D0 (en) 2006-11-30 2007-01-10 Ibm Phonetic decoding and concatentive speech synthesis
US9830912B2 (en) 2006-11-30 2017-11-28 Ashwin P Rao Speak and touch auto correction interface
US8731610B2 (en) 2006-12-13 2014-05-20 Samsung Electronics Co., Ltd. Method for adaptive user interface in mobile devices
US8010367B2 (en) 2006-12-22 2011-08-30 Nuance Communications, Inc. Spoken free-form passwords for light-weight speaker verification using standard speech recognition engines
US7865817B2 (en) 2006-12-29 2011-01-04 Amazon Technologies, Inc. Invariant referencing in digital works
US8019271B1 (en) 2006-12-29 2011-09-13 Nextel Communications, Inc. Methods and systems for presenting information on mobile devices
US7889184B2 (en) 2007-01-05 2011-02-15 Apple Inc. Method, system and graphical user interface for displaying hyperlink information
US7889185B2 (en) 2007-01-05 2011-02-15 Apple Inc. Method, system, and graphical user interface for activating hyperlinks
US8060824B2 (en) 2007-01-05 2011-11-15 Starz Entertainment Llc User interface for a multimedia service
WO2008086216A2 (en) 2007-01-05 2008-07-17 Johnson Controls Technology Company System and method for customized audio prompting
US8391844B2 (en) 2007-01-07 2013-03-05 Apple Inc. Voicemail systems and methods
BRPI0806207A2 (pt) 2007-01-09 2011-08-30 Spinvox Ltd método e sistema de gerenciamento de chamadas telefÈnicas não atendidas utilizando um serviço de rede e aparelho de telefone móvel
US8056070B2 (en) 2007-01-10 2011-11-08 Goller Michael D System and method for modifying and updating a speech recognition program
US7912724B1 (en) 2007-01-18 2011-03-22 Adobe Systems Incorporated Audio comparison using phoneme matching
US9524355B2 (en) 2007-01-22 2016-12-20 Mozy, Inc. Methods for delivering task-related digital content based on task-oriented user activity
JP2008185805A (ja) 2007-01-30 2008-08-14 Internatl Business Mach Corp <Ibm> 高品質の合成音声を生成する技術
WO2008098029A1 (en) 2007-02-06 2008-08-14 Vidoop, Llc. System and method for authenticating a user to a computer system
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US8078978B2 (en) 2007-10-19 2011-12-13 Google Inc. Method and system for predicting text
US7912828B2 (en) 2007-02-23 2011-03-22 Apple Inc. Pattern searching methods and apparatuses
WO2008106655A1 (en) 2007-03-01 2008-09-04 Apapx, Inc. System and method for dynamic learning
TWI321313B (en) 2007-03-03 2010-03-01 Ind Tech Res Inst Apparatus and method to reduce recognization errors through context relations among dialogue turns
US8838457B2 (en) 2007-03-07 2014-09-16 Vlingo Corporation Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility
US20080221884A1 (en) 2007-03-07 2008-09-11 Cerra Joseph P Mobile environment speech processing facility
US8635243B2 (en) 2007-03-07 2014-01-21 Research In Motion Limited Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application
US20110054894A1 (en) 2007-03-07 2011-03-03 Phillips Michael S Speech recognition through the collection of contact information in mobile dictation application
US8949266B2 (en) 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
US8886540B2 (en) 2007-03-07 2014-11-11 Vlingo Corporation Using speech recognition results based on an unstructured language model in a mobile communication facility application
US20110060587A1 (en) 2007-03-07 2011-03-10 Phillips Michael S Command and control utilizing ancillary information in a mobile voice-to-speech application
US8219406B2 (en) 2007-03-15 2012-07-10 Microsoft Corporation Speech-centric multimodal user interface design in mobile technology
WO2008114448A1 (ja) 2007-03-20 2008-09-25 Fujitsu Limited 音声認識システム、音声認識プログラムおよび音声認識方法
AU2008230731B2 (en) 2007-03-28 2013-05-30 Breakthrough Performance Tech, Llc Systems and methods for computerized interactive training
CN101542592A (zh) 2007-03-29 2009-09-23 松下电器产业株式会社 关键词提取装置
US8775931B2 (en) 2007-03-30 2014-07-08 Blackberry Limited Spell check function that applies a preference to a spell check algorithm based upon extensive user selection of spell check results generated by the algorithm, and associated handheld electronic device
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN105117376B (zh) 2007-04-10 2018-07-10 谷歌有限责任公司 多模式输入法编辑器
BRPI0809759A2 (pt) * 2007-04-26 2014-10-07 Ford Global Tech Llc "sistema informativo emotivo, sistemas de informações emotivas, métodos de condução emotiva de informações, sistemas informativos emotivos para um veículo de passageiro e método implementado por computador"
US8695074B2 (en) 2007-04-26 2014-04-08 Microsoft Corporation Pre-authenticated calling for voice applications
US8005664B2 (en) 2007-04-30 2011-08-23 Tachyon Technologies Pvt. Ltd. System, method to generate transliteration and method for generating decision tree to obtain transliteration
US7983915B2 (en) 2007-04-30 2011-07-19 Sonic Foundry, Inc. Audio content search engine
US7912289B2 (en) 2007-05-01 2011-03-22 Microsoft Corporation Image text replacement
US7899666B2 (en) 2007-05-04 2011-03-01 Expert System S.P.A. Method and system for automatically extracting relations between concepts included in text
US8032383B1 (en) 2007-05-04 2011-10-04 Foneweb, Inc. Speech controlled services and devices using internet
US8886521B2 (en) 2007-05-17 2014-11-11 Redstart Systems, Inc. System and method of dictation for a speech recognition command system
US8099418B2 (en) 2007-05-28 2012-01-17 Panasonic Corporation Information search support method and information search support device
US8055708B2 (en) 2007-06-01 2011-11-08 Microsoft Corporation Multimedia spaces
US8204238B2 (en) 2007-06-08 2012-06-19 Sensory, Inc Systems and methods of sonic communication
WO2008151466A1 (en) 2007-06-14 2008-12-18 Google Inc. Dictionary word and phrase determination
US7987176B2 (en) 2007-06-25 2011-07-26 Sap Ag Mixed initiative semantic search
US8577417B2 (en) * 2007-06-26 2013-11-05 Sony Corporation Methods, devices, and computer program products for limiting search scope based on navigation of a menu screen
US8090621B1 (en) 2007-06-27 2012-01-03 Amazon Technologies, Inc. Method and system for associating feedback with recommendation rules
US8050919B2 (en) 2007-06-29 2011-11-01 Microsoft Corporation Speaker recognition via voice sample based on multiple nearest neighbor classifiers
KR100930802B1 (ko) 2007-06-29 2009-12-09 엔에이치엔(주) 이미지를 이용한 브라우저 제어 방법 및 시스템
US8630841B2 (en) 2007-06-29 2014-01-14 Microsoft Corporation Regular expression word verification
AU2008201643B1 (en) 2007-07-24 2008-08-28 Rambrandt Messaging Technologies, LP Messaging service in a wireless communications network
ITFI20070177A1 (it) 2007-07-26 2009-01-27 Riccardo Vieri Sistema per la creazione e impostazione di una campagna pubblicitaria derivante dall'inserimento di messaggi pubblicitari all'interno di uno scambio di messaggi e metodo per il suo funzionamento.
US7983919B2 (en) 2007-08-09 2011-07-19 At&T Intellectual Property Ii, L.P. System and method for performing speech synthesis with a cache of phoneme sequences
US7983478B2 (en) 2007-08-10 2011-07-19 Microsoft Corporation Hidden markov model based handwriting/calligraphy generation
JP2009048245A (ja) 2007-08-14 2009-03-05 Konami Digital Entertainment:Kk 入力受付装置、領域制御方法、および、プログラム
US8260619B1 (en) 2008-08-22 2012-09-04 Convergys Cmg Utah, Inc. Method and system for creating natural language understanding grammars
US8190359B2 (en) 2007-08-31 2012-05-29 Proxpro, Inc. Situation-aware personal information management for a mobile device
US8661340B2 (en) 2007-09-13 2014-02-25 Apple Inc. Input methods for device having multi-language environment
US20110035662A1 (en) 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
US8042053B2 (en) 2007-09-24 2011-10-18 Microsoft Corporation Method for making digital documents browseable
US8165886B1 (en) 2007-10-04 2012-04-24 Great Northern Research LLC Speech interface system and method for control and interaction with applications on a computing system
US8595642B1 (en) 2007-10-04 2013-11-26 Great Northern Research, LLC Multiple shell multi faceted graphical user interface
US8036901B2 (en) 2007-10-05 2011-10-11 Sensory, Incorporated Systems and methods of performing speech recognition using sensory inputs of human position
US9532164B2 (en) 2007-10-12 2016-12-27 Empire Ip Llc Mashing mapping content displayed on mobile devices
CN101414226A (zh) * 2007-10-15 2009-04-22 南京国触科技有限公司 触划式语音输入方法及触划式即时语音输入装置
US8594996B2 (en) 2007-10-17 2013-11-26 Evri Inc. NLP-based entity recognition and disambiguation
US8126863B2 (en) 2007-10-25 2012-02-28 Apple Inc. Search control combining classification and text-based searching techniques
US8364694B2 (en) 2007-10-26 2013-01-29 Apple Inc. Search assistant for digital media assets
US7840447B2 (en) 2007-10-30 2010-11-23 Leonard Kleinrock Pricing and auctioning of bundled items among multiple sellers and buyers
US9063979B2 (en) 2007-11-01 2015-06-23 Ebay, Inc. Analyzing event streams of user sessions
US8010614B1 (en) 2007-11-01 2011-08-30 Bitdefender IPR Management Ltd. Systems and methods for generating signatures for electronic communication classification
US7983997B2 (en) 2007-11-02 2011-07-19 Florida Institute For Human And Machine Cognition, Inc. Interactive complex task teaching system that allows for natural language input, recognizes a user's intent, and automatically performs tasks in document object model (DOM) nodes
US8055296B1 (en) 2007-11-06 2011-11-08 Sprint Communications Company L.P. Head-up display communication system and method
US8065152B2 (en) 2007-11-08 2011-11-22 Demand Media, Inc. Platform for enabling voice commands to resolve phoneme based domain name registrations
DE102008051757A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US8112280B2 (en) 2007-11-19 2012-02-07 Sensory, Inc. Systems and methods of performing speech recognition with barge-in for use in a bluetooth system
US8620662B2 (en) 2007-11-20 2013-12-31 Apple Inc. Context-aware unit selection
US20110246471A1 (en) 2010-04-06 2011-10-06 Selim Shlomo Rakib Retrieving video annotation metadata using a p2p network
US20150046537A1 (en) 2007-11-21 2015-02-12 Vdoqwest, Inc., A Delaware Corporation Retrieving video annotation metadata using a p2p network and copyright free indexes
US8190596B2 (en) 2007-11-28 2012-05-29 International Business Machines Corporation Method for assembly of personalized enterprise information integrators over conjunctive queries
US8543622B2 (en) 2007-12-07 2013-09-24 Patrick Giblin Method and system for meta-tagging media content and distribution
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8595004B2 (en) 2007-12-18 2013-11-26 Nec Corporation Pronunciation variation rule extraction apparatus, pronunciation variation rule extraction method, and pronunciation variation rule extraction program
KR101300839B1 (ko) 2007-12-18 2013-09-10 삼성전자주식회사 음성 검색어 확장 방법 및 시스템
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US8019604B2 (en) 2007-12-21 2011-09-13 Motorola Mobility, Inc. Method and apparatus for uniterm discovery and voice-to-voice search on mobile device
US8583416B2 (en) 2007-12-27 2013-11-12 Fluential, Llc Robust information extraction from utterances
US8219407B1 (en) 2007-12-27 2012-07-10 Great Northern Research, LLC Method for processing the output of a speech recognizer
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US7870133B2 (en) 2008-01-14 2011-01-11 Infosys Technologies Ltd. Method for semantic based storage and retrieval of information
US10176827B2 (en) 2008-01-15 2019-01-08 Verint Americas Inc. Active lab
ITPO20080002A1 (it) 2008-01-22 2009-07-23 Riccardo Vieri Sistema e metodo per la generazione di pubblicita' contestuale durante l'invio di sms, relativo dispositivo e interfaccia.
US20120284015A1 (en) 2008-01-28 2012-11-08 William Drewes Method for Increasing the Accuracy of Subject-Specific Statistical Machine Translation (SMT)
US8099289B2 (en) 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US20090210391A1 (en) 2008-02-14 2009-08-20 Hall Stephen G Method and system for automated search for, and retrieval and distribution of, information
US8595119B2 (en) 2008-02-15 2013-11-26 New York Mercantile Exchange, Inc. Symbolic language for trade matching
US8065143B2 (en) 2008-02-22 2011-11-22 Apple Inc. Providing text input using speech data and non-speech data
US8706474B2 (en) 2008-02-23 2014-04-22 Fair Isaac Corporation Translation of entity names based on source document publication date, and frequency and co-occurrence of the entity names
US8015144B2 (en) 2008-02-26 2011-09-06 Microsoft Corporation Learning transportation modes from raw GPS data
US8068604B2 (en) 2008-12-19 2011-11-29 Computer Product Introductions Corporation Method and system for event notifications
US9049255B2 (en) 2008-02-29 2015-06-02 Blackberry Limited Visual event notification on a handheld communications device
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US8255224B2 (en) 2008-03-07 2012-08-28 Google Inc. Voice recognition grammar selection based on context
US8380512B2 (en) * 2008-03-10 2013-02-19 Yahoo! Inc. Navigation using a search engine and phonetic voice recognition
US20090234655A1 (en) 2008-03-13 2009-09-17 Jason Kwon Mobile electronic device with active speech recognition
US20090235176A1 (en) 2008-03-14 2009-09-17 Madhavi Jayanthi Social interaction system for facilitating display of current location of friends and location of businesses of interest
US7958136B1 (en) 2008-03-18 2011-06-07 Google Inc. Systems and methods for identifying similar documents
WO2009118716A1 (en) 2008-03-27 2009-10-01 Markport Limited Processing of messaging service attributes in communication systems
US7472061B1 (en) 2008-03-31 2008-12-30 International Business Machines Corporation Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8140368B2 (en) 2008-04-07 2012-03-20 International Business Machines Corporation Method and system for routing a task to an employee based on physical and emotional state
JPWO2009125710A1 (ja) 2008-04-08 2011-08-04 株式会社エヌ・ティ・ティ・ドコモ メディア処理サーバ装置およびメディア処理方法
KR20090107365A (ko) 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
US8311188B2 (en) 2008-04-08 2012-11-13 Cisco Technology, Inc. User interface with voice message summary
US8285737B1 (en) 2008-04-10 2012-10-09 Google Inc. Selecting content for publication
US7889101B2 (en) 2008-04-14 2011-02-15 Alpine Electronics, Inc Method and apparatus for generating location based reminder message for navigation system
JP4656177B2 (ja) 2008-04-14 2011-03-23 トヨタ自動車株式会社 ナビゲーション装置、操作部表示方法
US8433778B1 (en) 2008-04-22 2013-04-30 Marvell International Ltd Device configuration
US8972432B2 (en) 2008-04-23 2015-03-03 Google Inc. Machine translation using information retrieval
US8121837B2 (en) 2008-04-24 2012-02-21 Nuance Communications, Inc. Adjusting a speech engine for a mobile computing device based on background noise
US8194827B2 (en) 2008-04-29 2012-06-05 International Business Machines Corporation Secure voice transaction method and system
US8254829B1 (en) 2008-05-09 2012-08-28 Sprint Communications Company L.P. Network media service with track delivery adapted to a user cadence
US8219115B1 (en) 2008-05-12 2012-07-10 Google Inc. Location based reminders
US8516562B2 (en) 2008-05-13 2013-08-20 Veritrix, Inc. Multi-channel multi-factor authentication
US9965035B2 (en) 2008-05-13 2018-05-08 Apple Inc. Device, method, and graphical user interface for synchronizing two or more displays
US20130275899A1 (en) 2010-01-18 2013-10-17 Apple Inc. Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10203861B2 (en) 2008-05-21 2019-02-12 Please Don't Go, LLC. Messaging window overlay for a browser
US8082498B2 (en) 2008-05-27 2011-12-20 Appfolio, Inc. Systems and methods for automatic spell checking of dynamically generated web pages
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8589161B2 (en) 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
US20130100268A1 (en) 2008-05-27 2013-04-25 University Health Network Emergency detection and response system and method
US8464150B2 (en) 2008-06-07 2013-06-11 Apple Inc. Automatic language identification for dynamic text processing
US9626363B2 (en) * 2008-06-08 2017-04-18 Apple Inc. System and method for placeshifting media playback
EP2133772B1 (en) 2008-06-11 2011-03-09 ExB Asset Management GmbH Device and method incorporating an improved text input mechanism
US8140330B2 (en) 2008-06-13 2012-03-20 Robert Bosch Gmbh System and method for detecting repeated patterns in dialog systems
US8219555B1 (en) 2008-06-13 2012-07-10 Ustringer LLC Method and apparatus for distributing content
US8195460B2 (en) 2008-06-17 2012-06-05 Voicesense Ltd. Speaker characterization through speech analysis
US9510044B1 (en) 2008-06-18 2016-11-29 Gracenote, Inc. TV content segmentation, categorization and identification and time-aligned applications
DE102008028885A1 (de) 2008-06-18 2009-12-31 Epcos Ag Verfahren zur Abstimmung einer Resonanzfrequenz eines piezoelektrischen Bauelementes
GB2462800A (en) 2008-06-20 2010-02-24 New Voice Media Ltd Monitoring a conversation between an agent and a customer and performing real time analytics on the audio signal for determining future handling of the call
US8300801B2 (en) 2008-06-26 2012-10-30 Centurylink Intellectual Property Llc System and method for telephone based noise cancellation
WO2009156978A1 (en) 2008-06-26 2009-12-30 Intuitive User Interfaces Ltd System and method for intuitive user interaction
US8423288B2 (en) 2009-11-30 2013-04-16 Apple Inc. Dynamic alerts for calendar events
US8364481B2 (en) 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
US20100005085A1 (en) 2008-07-03 2010-01-07 Oracle International Corporation Creating relationship maps from enterprise application system data
EP2311030A1 (en) 2008-07-03 2011-04-20 Mobiter Dicta Oy Method and device for converting speech
KR20100006495A (ko) * 2008-07-09 2010-01-19 최종덕 음성인식을 이용한 웹페이지 정보 제공 방법 및 장치
US9716774B2 (en) * 2008-07-10 2017-07-25 Apple Inc. System and method for syncing a user interface on a server device to a user interface on a client device
US8166019B1 (en) 2008-07-21 2012-04-24 Sprint Communications Company L.P. Providing suggested actions in response to textual communications
JP5791861B2 (ja) 2008-07-25 2015-10-07 シャープ株式会社 情報処理装置および情報処理方法
CN102105929B (zh) 2008-07-30 2015-08-19 三菱电机株式会社 声音识别装置
US8001125B1 (en) 2008-07-30 2011-08-16 Intuit Inc. Method and apparatus for defining relationships between tags
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8386485B2 (en) 2008-07-31 2013-02-26 George Mason Intellectual Properties, Inc. Case-based framework for collaborative semantic search
JPWO2010018796A1 (ja) 2008-08-11 2012-01-26 旭化成株式会社 例外語辞書作成装置、例外語辞書作成方法及びそのプログラム、並びに、音声認識装置及び音声認識方法
US8221125B2 (en) 2008-08-14 2012-07-17 World View Time Inc. Electronic presentation of world time zones
US8326630B2 (en) 2008-08-18 2012-12-04 Microsoft Corporation Context based online advertising
US8805110B2 (en) 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US20110161072A1 (en) 2008-08-20 2011-06-30 Nec Corporation Language model creation apparatus, language model creation method, speech recognition apparatus, speech recognition method, and recording medium
WO2010022561A1 (en) 2008-08-29 2010-03-04 Mediatek (Hefei) Inc. Method for playing voice guidance and navigation device using the same
US8768702B2 (en) 2008-09-05 2014-07-01 Apple Inc. Multi-tiered voice feedback in an electronic device
US8385913B2 (en) 2008-09-08 2013-02-26 Proxicom Wireless, Llc Using a first wireless link to exchange identification information used to communicate over a second wireless link
US20100063926A1 (en) 2008-09-09 2010-03-11 Damon Charles Hougland Payment application framework
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8259082B2 (en) 2008-09-12 2012-09-04 At&T Intellectual Property I, L.P. Multimodal portable communication interface for accessing video content
US8929877B2 (en) 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP5213605B2 (ja) 2008-09-17 2013-06-19 シャープ株式会社 通信装置、情報提示装置、通信方法、プログラム、および記録媒体
US8775154B2 (en) 2008-09-18 2014-07-08 Xerox Corporation Query translation through dictionary adaptation
US8355919B2 (en) 2008-09-29 2013-01-15 Apple Inc. Systems and methods for text normalization for text to speech synthesis
US8352272B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for text to speech synthesis
US8396714B2 (en) 2008-09-29 2013-03-12 Apple Inc. Systems and methods for concatenation of words in text to speech synthesis
CN102326128B (zh) 2008-09-29 2016-04-06 费希尔-罗斯蒙特系统公司 用于配置和管理过程控制系统的动态用户界面
US8352268B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8904345B2 (en) 2008-09-30 2014-12-02 Ebay Inc. System and method for orchestration of customization for a user experience
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8539342B1 (en) 2008-10-16 2013-09-17 Adobe Systems Incorporated Read-order inference via content sorting
US8724829B2 (en) 2008-10-24 2014-05-13 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for coherence detection
US8644488B2 (en) 2008-10-27 2014-02-04 Nuance Communications, Inc. System and method for automatically generating adaptive interaction logs from customer interaction text
US8788261B2 (en) 2008-11-04 2014-07-22 Saplo Ab Method and system for analyzing text
US8170966B1 (en) 2008-11-04 2012-05-01 Bitdefender IPR Management Ltd. Dynamic streaming message clustering for rapid spam-wave detection
US8122094B1 (en) 2008-11-05 2012-02-21 Kotab Dominic M Methods for performing an action relating to the scheduling of an event by performing one or more actions based on a response to a message
US20100205628A1 (en) 2009-02-12 2010-08-12 Davis Bruce L Media processing methods and arrangements
US8122353B2 (en) 2008-11-07 2012-02-21 Yahoo! Inc. Composing a message in an online textbox using a non-latin script
KR102128562B1 (ko) 2008-11-10 2020-06-30 구글 엘엘씨 멀티센서 음성 검출
US9202171B2 (en) 2008-11-11 2015-12-01 Digideal Corporation Virtual game assistant based on artificial intelligence
US8832319B2 (en) 2008-11-18 2014-09-09 Amazon Technologies, Inc. Synchronization of digital content
US8108214B2 (en) 2008-11-19 2012-01-31 Robert Bosch Gmbh System and method for recognizing proper names in dialog systems
US8296124B1 (en) 2008-11-21 2012-10-23 Google Inc. Method and apparatus for detecting incorrectly translated text in a document
US8140328B2 (en) 2008-12-01 2012-03-20 At&T Intellectual Property I, L.P. User intention based on N-best list of recognition hypotheses for utterances in a dialog
US8489599B2 (en) 2008-12-02 2013-07-16 Palo Alto Research Center Incorporated Context and activity-driven content delivery and interaction
US8054180B1 (en) 2008-12-08 2011-11-08 Amazon Technologies, Inc. Location aware reminders
US9041660B2 (en) * 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
EP2196989B1 (en) 2008-12-10 2012-06-27 Nuance Communications, Inc. Grammar and template-based speech recognition of spoken utterances
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8121842B2 (en) 2008-12-12 2012-02-21 Microsoft Corporation Audio output of a document from mobile device
CN102246136B (zh) 2008-12-16 2015-05-20 三菱电机株式会社 导航装置
US8918321B2 (en) 2012-04-13 2014-12-23 At&T Intellectual Property I, L.P. System and method for enhancing speech recognition accuracy
US8332205B2 (en) 2009-01-09 2012-12-11 Microsoft Corporation Mining transliterations for out-of-vocabulary query terms
US10088976B2 (en) 2009-01-15 2018-10-02 Em Acquisition Corp., Inc. Systems and methods for multiple voice document narration
JP5409656B2 (ja) 2009-01-22 2014-02-05 パナソニック株式会社 補聴装置
US8213911B2 (en) 2009-01-28 2012-07-03 Virtual Hold Technology Llc Mobile communication device for establishing automated call back
US8200489B1 (en) 2009-01-29 2012-06-12 The United States Of America As Represented By The Secretary Of The Navy Multi-resolution hidden markov model using class specific features
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US9070282B2 (en) 2009-01-30 2015-06-30 Altorr Corp. Smartphone control of electrical devices
US9183881B2 (en) 2009-02-02 2015-11-10 Porto Technology, Llc System and method for semantic trick play
US20110307491A1 (en) 2009-02-04 2011-12-15 Fisk Charles M Digital photo organizing and tagging method
US8254972B2 (en) 2009-02-13 2012-08-28 Sony Mobile Communications Ab Device and method for handling messages
US8428758B2 (en) 2009-02-16 2013-04-23 Apple Inc. Dynamic audio ducking
BRPI1013343A2 (pt) * 2009-02-18 2019-04-16 Shell Int Research sistema para carregamento e transporte de grandes estruturas.
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
EP2401711A4 (en) 2009-02-25 2016-12-28 Miri Systems Llc PAYMENT SYSTEM AND METHOD
KR101041039B1 (ko) 2009-02-27 2011-06-14 고려대학교 산학협력단 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치
US9171284B2 (en) 2009-03-02 2015-10-27 Microsoft Technology Licensing, Llc Techniques to restore communications sessions for applications having conversation and meeting environments
WO2010100977A1 (ja) 2009-03-03 2010-09-10 三菱電機株式会社 音声認識装置
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US8165321B2 (en) 2009-03-10 2012-04-24 Apple Inc. Intelligent clip mixing
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
CN102439540B (zh) 2009-03-19 2015-04-08 谷歌股份有限公司 输入法编辑器
KR101078864B1 (ko) 2009-03-26 2011-11-02 한국과학기술원 질의/문서 주제 범주 변화 분석 시스템 및 그 방법과 이를 이용한 질의 확장 기반 정보 검색 시스템 및 그 방법
US8924156B2 (en) 2009-03-26 2014-12-30 Nokia Corporation Method, apparatus, computer program and user interface
US10191654B2 (en) 2009-03-30 2019-01-29 Touchtype Limited System and method for inputting text into electronic devices
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
GB0905457D0 (en) 2009-03-30 2009-05-13 Touchtype Ltd System and method for inputting text into electronic devices
GB201016385D0 (en) 2010-09-29 2010-11-10 Touchtype Ltd System and method for inputting text into electronic devices
US9424246B2 (en) 2009-03-30 2016-08-23 Touchtype Ltd. System and method for inputting text into electronic devices
GB0917753D0 (en) 2009-10-09 2009-11-25 Touchtype Ltd System and method for inputting text into electronic devices
US8798255B2 (en) 2009-03-31 2014-08-05 Nice Systems Ltd Methods and apparatus for deep interaction analysis
US8166032B2 (en) 2009-04-09 2012-04-24 MarketChorus, Inc. System and method for sentiment-based text classification and relevancy ranking
US8275736B2 (en) 2009-04-17 2012-09-25 International Business Machines Corporation Increasing knowledge sharing success rates using real time match making
US20110065456A1 (en) 2009-04-20 2011-03-17 Brennan Joseph P Cellular device deactivation system
US8660970B1 (en) 2009-04-23 2014-02-25 The Boeing Company Passive learning and autonomously interactive system for leveraging user knowledge in networked environments
KR101032792B1 (ko) 2009-04-30 2011-05-06 주식회사 코오롱 에어백용 폴리에스테르 원단 및 그의 제조 방법
US8660924B2 (en) 2009-04-30 2014-02-25 Navera, Inc. Configurable interactive assistant
EP2426598B1 (en) 2009-04-30 2017-06-21 Samsung Electronics Co., Ltd. Apparatus and method for user intention inference using multimodal information
EP2428028A4 (en) 2009-05-08 2014-07-02 Obdedge Llc SYSTEMS, METHODS AND DEVICES FOR POLICY-BASED CONTROL AND MONITORING THE USE OF MOBILE DEVICES BY VEHICLE OPERATORS
WO2010131256A1 (en) 2009-05-13 2010-11-18 Rajesh Mehra A keyboard for linguistic scripts
US8583511B2 (en) 2009-05-19 2013-11-12 Bradley Marshall Hendrickson Systems and methods for storing customer purchasing and preference data and enabling a customer to pre-register orders and events
US8498857B2 (en) 2009-05-19 2013-07-30 Tata Consultancy Services Limited System and method for rapid prototyping of existing speech recognition solutions in different languages
US20150294377A1 (en) 2009-05-30 2015-10-15 Edmond K. Chow Trust network effect
US20120310652A1 (en) 2009-06-01 2012-12-06 O'sullivan Daniel Adaptive Human Computer Interface (AAHCI)
US8095119B2 (en) 2009-06-02 2012-01-10 Microsoft Corporation In-call contact information display
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US8560313B2 (en) 2010-05-13 2013-10-15 General Motors Llc Transient noise rejection for speech recognition
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120327009A1 (en) 2009-06-07 2012-12-27 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20130219333A1 (en) 2009-06-12 2013-08-22 Adobe Systems Incorporated Extensible Framework for Facilitating Interaction with Devices
US8484027B1 (en) 2009-06-12 2013-07-09 Skyreader Media Inc. Method for live remote narration of a digital book
CN101923853B (zh) 2009-06-12 2013-01-23 华为技术有限公司 说话人识别方法、设备和系统
US8290777B1 (en) 2009-06-12 2012-10-16 Amazon Technologies, Inc. Synchronizing the playing and displaying of digital content
US11012732B2 (en) 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8700399B2 (en) 2009-07-06 2014-04-15 Sensory, Inc. Systems and methods for hands-free voice control and voice search
US20110002487A1 (en) 2009-07-06 2011-01-06 Apple Inc. Audio Channel Assignment for Audio Output in a Movable Device
US8943423B2 (en) 2009-07-07 2015-01-27 International Business Machines Corporation User interface indicators for changed user interface elements
KR101083540B1 (ko) 2009-07-08 2011-11-14 엔에이치엔(주) 통계적인 방법을 이용한 한자에 대한 자국어 발음열 변환 시스템 및 방법
US8344847B2 (en) 2009-07-09 2013-01-01 Medtronic Minimed, Inc. Coordination of control commands in a medical device system having at least one therapy delivery device and at least one wireless controller device
KR101061443B1 (ko) 2009-07-13 2011-09-02 엘지전자 주식회사 전자 기기, 이동 단말기 및 이를 이용한 기능 수행 방법
US8892439B2 (en) 2009-07-15 2014-11-18 Microsoft Corporation Combination and federation of local and remote speech recognition
CN102483917B (zh) 2009-07-15 2016-03-16 谷歌公司 针对显示文本的命令
US9998552B1 (en) 2010-04-30 2018-06-12 Open Invention Network Llc Dynamic creation, data population, and communication establishment across various mediums
US20110016150A1 (en) 2009-07-20 2011-01-20 Engstroem Jimmy System and method for tagging multiple digital images
US20110016421A1 (en) 2009-07-20 2011-01-20 Microsoft Corporation Task oriented user interface platform
US8213962B2 (en) 2009-07-21 2012-07-03 Verizon Patent And Licensing Inc. Vehicle computer link to mobile phone
US7953679B2 (en) 2009-07-22 2011-05-31 Xerox Corporation Scalable indexing for layout based document retrieval and ranking
WO2011011025A1 (en) 2009-07-24 2011-01-27 Research In Motion Limited Method and apparatus for a touch-sensitive display
US9489577B2 (en) 2009-07-27 2016-11-08 Cxense Asa Visual similarity for video content
US9117448B2 (en) 2009-07-27 2015-08-25 Cisco Technology, Inc. Method and system for speech recognition using social networks
US8239129B2 (en) 2009-07-27 2012-08-07 Robert Bosch Gmbh Method and system for improving speech recognition accuracy by use of geographic information
US20110029616A1 (en) 2009-07-29 2011-02-03 Guanming Wang Unified auto-reply to an email coming from unified messaging service
US8229488B2 (en) 2009-07-30 2012-07-24 Sony Ericsson Mobile Communications Ab Methods, apparatuses and computer programs for media content distribution
US8875219B2 (en) 2009-07-30 2014-10-28 Blackberry Limited Apparatus and method for controlled sharing of personal information
US9015818B2 (en) 2009-07-31 2015-04-21 Adobe Systems Incorporated Software application operational transfer
KR101608770B1 (ko) 2009-08-03 2016-04-04 엘지전자 주식회사 이동단말기 및 그 제어방법
JP2011033874A (ja) 2009-08-03 2011-02-17 Alpine Electronics Inc 多言語音声認識装置及び多言語音声認識辞書作成方法
US8340312B2 (en) 2009-08-04 2012-12-25 Apple Inc. Differential mode noise cancellation with active real-time control for microphone-speaker combinations used in two way audio communications
US8532574B2 (en) 2009-08-05 2013-09-10 Honda Motor Co., Ltd. Destination information sharing for the automobile environment
US8160877B1 (en) 2009-08-06 2012-04-17 Narus, Inc. Hierarchical real-time speaker recognition for biometric VoIP verification and targeting
US20110047072A1 (en) 2009-08-07 2011-02-24 Visa U.S.A. Inc. Systems and Methods for Propensity Analysis and Validation
US8233919B2 (en) 2009-08-09 2012-07-31 Hntb Holdings Ltd. Intelligently providing user-specific transportation-related information
JP5201599B2 (ja) 2009-08-11 2013-06-05 Necカシオモバイルコミュニケーションズ株式会社 端末装置、および、プログラム
US20110040707A1 (en) 2009-08-12 2011-02-17 Ford Global Technologies, Llc Intelligent music selection in vehicles
US8768313B2 (en) 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
US8626133B2 (en) 2009-08-19 2014-01-07 Cisco Technology, Inc. Matching a location of a contact with a task location
US8654952B2 (en) 2009-08-20 2014-02-18 T-Mobile Usa, Inc. Shareable applications on telecommunications devices
US9277021B2 (en) 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
EP2629211A1 (en) 2009-08-21 2013-08-21 Mikko Kalervo Väänänen Method and means for data searching and language translation
KR101496649B1 (ko) 2009-08-21 2015-03-02 삼성전자주식회사 복합 네트워크 망을 통한 외부 디바이스의 기능 공유 방법 및 그 장치
JP2011045005A (ja) 2009-08-24 2011-03-03 Fujitsu Toshiba Mobile Communications Ltd 携帯電話機
EP2471064A4 (en) 2009-08-25 2014-01-08 Univ Nanyang Tech METHOD AND SYSTEM FOR RECONSTRUCTING LANGUAGE FROM AN ENTRY SIGNAL WITH FLUIDED PARTS
US20110054647A1 (en) 2009-08-26 2011-03-03 Nokia Corporation Network service for an audio interface unit
US8583638B2 (en) 2009-08-27 2013-11-12 Apple Inc. Adaptive mapping of search results
JP2011048671A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置および入力装置の制御方法
CN101996631B (zh) 2009-08-28 2014-12-03 国际商业机器公司 用于对齐文本的方法和装置
US20110238407A1 (en) 2009-08-31 2011-09-29 O3 Technologies, Llc Systems and methods for speech-to-speech translation
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
EP2473916A4 (en) 2009-09-02 2013-07-10 Stanford Res Inst Int METHOD AND DEVICE FOR USING A HUMAN FEEDBACK IN AN INTELLIGENT AUTOMATED ASSISTANT
US8624851B2 (en) 2009-09-02 2014-01-07 Amazon Technologies, Inc. Touch-screen user interface
US8675084B2 (en) 2009-09-04 2014-03-18 Apple Inc. Systems and methods for remote camera control
TW201110108A (en) 2009-09-04 2011-03-16 Chunghwa Telecom Co Ltd Voice noise elimination method for microphone array
US9031834B2 (en) 2009-09-04 2015-05-12 Nuance Communications, Inc. Speech enhancement techniques on the power spectrum
US20120265535A1 (en) 2009-09-07 2012-10-18 Donald Ray Bryant-Rich Personal voice operated reminder system
US8560300B2 (en) 2009-09-09 2013-10-15 International Business Machines Corporation Error correction using fact repositories
US8321527B2 (en) 2009-09-10 2012-11-27 Tribal Brands System and method for tracking user location and associated activity and responsively providing mobile device updates
US20110060812A1 (en) 2009-09-10 2011-03-10 Level 3 Communications, Llc Cache server with extensible programming framework
US8788267B2 (en) 2009-09-10 2014-07-22 Mitsubishi Electric Research Laboratories, Inc. Multi-purpose contextual control
US20110066468A1 (en) 2009-09-11 2011-03-17 Internationl Business Machines Corporation Dynamic event planning through location awareness
WO2011032060A1 (en) 2009-09-11 2011-03-17 Telenav, Inc. Location based system with contextual contact manager mechanism and method of operation thereof
US8704854B2 (en) 2009-09-14 2014-04-22 Tivo Inc. Multifunction multimedia device
US10587833B2 (en) 2009-09-16 2020-03-10 Disney Enterprises, Inc. System and method for automated network search and companion display of result relating to audio-video metadata
KR101660348B1 (ko) 2009-09-16 2016-09-27 아브 이니티오 테크놀로지 엘엘시 데이터세트 요소의 매핑
US8972878B2 (en) 2009-09-21 2015-03-03 Avaya Inc. Screen icon manipulation by context and frequency of Use
US9015148B2 (en) 2009-09-21 2015-04-21 Microsoft Corporation Suggesting related search queries during web browsing
US9037674B2 (en) 2009-09-22 2015-05-19 Thwapr, Inc. Hybrid transcoding for mobile media sharing
WO2011037587A1 (en) 2009-09-28 2011-03-31 Nuance Communications, Inc. Downsampling schemes in a hierarchical neural network structure for phoneme recognition
US8768308B2 (en) 2009-09-29 2014-07-01 Deutsche Telekom Ag Apparatus and method for creating and managing personal schedules via context-sensing and actuation
US8995625B2 (en) 2009-09-30 2015-03-31 T-Mobile Usa, Inc. Unified interface and routing module for handling audio input
US9111538B2 (en) 2009-09-30 2015-08-18 T-Mobile Usa, Inc. Genius button secondary commands
TW201113741A (en) 2009-10-01 2011-04-16 Htc Corp Lock-state switching method, electronic apparatus and computer program product
KR20110036385A (ko) 2009-10-01 2011-04-07 삼성전자주식회사 사용자 의도 분석 장치 및 방법
US9338274B2 (en) 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
US20110083079A1 (en) 2009-10-02 2011-04-07 International Business Machines Corporation Apparatus, system, and method for improved type-ahead functionality in a type-ahead field based on activity of a user within a user interface
CN102576336A (zh) 2009-10-05 2012-07-11 日本电气株式会社 具有电子邮件发送功能的通信终端,用于发送电子邮件的方法以及计算机可读记录介质
JP5473520B2 (ja) 2009-10-06 2014-04-16 キヤノン株式会社 入力装置及びその制御方法
KR101058525B1 (ko) * 2009-10-09 2011-08-23 삼성전자주식회사 텍스트 입력방법 및 이를 적용한 디스플레이 장치
US20110087685A1 (en) 2009-10-09 2011-04-14 Microsoft Corporation Location-based service middleware
US8335689B2 (en) 2009-10-14 2012-12-18 Cogi, Inc. Method and system for efficient management of speech transcribers
EP2488963A1 (en) 2009-10-15 2012-08-22 Rogers Communications Inc. System and method for phrase identification
US8611876B2 (en) 2009-10-15 2013-12-17 Larry Miller Configurable phone with interactive voice response engine
US8510103B2 (en) 2009-10-15 2013-08-13 Paul Angott System and method for voice recognition
US8255217B2 (en) 2009-10-16 2012-08-28 At&T Intellectual Property I, Lp Systems and methods for creating and using geo-centric language models
US8451112B2 (en) 2009-10-19 2013-05-28 Qualcomm Incorporated Methods and apparatus for estimating departure time based on known calendar events
US8332748B1 (en) 2009-10-22 2012-12-11 Google Inc. Multi-directional auto-complete menu
US8554537B2 (en) 2009-10-23 2013-10-08 Samsung Electronics Co., Ltd Method and device for transliteration
US8326624B2 (en) 2009-10-26 2012-12-04 International Business Machines Corporation Detecting and communicating biometrics of recorded voice during transcription process
US20110099507A1 (en) 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US9197736B2 (en) 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
CA2779289A1 (en) 2009-10-28 2011-05-19 Google Inc. Computer-to-computer communication
US8386574B2 (en) 2009-10-29 2013-02-26 Xerox Corporation Multi-modality classification for one-class classification in social networks
US20110106536A1 (en) 2009-10-29 2011-05-05 Rovi Technologies Corporation Systems and methods for simulating dialog between a user and media equipment device
US9247421B2 (en) 2009-10-30 2016-01-26 Samsung Electronics Co., Ltd Mobile device, content delivery apparatus, content providing apparatus and control method thereof
US8315617B2 (en) 2009-10-31 2012-11-20 Btpatent Llc Controlling mobile device functions
US8832205B2 (en) 2009-11-02 2014-09-09 Lextine Software, Llc System and method for extracting calendar events from free-form email
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
CN102056026B (zh) 2009-11-06 2013-04-03 中国移动通信集团设计院有限公司 音视频同步检测方法及其系统、语音检测方法及其系统
CN102483918B (zh) 2009-11-06 2014-08-20 株式会社东芝 声音识别装置
US20120137367A1 (en) 2009-11-06 2012-05-31 Cataphora, Inc. Continuous anomaly detection based on behavior modeling and heterogeneous information analysis
US8358747B2 (en) 2009-11-10 2013-01-22 International Business Machines Corporation Real time automatic caller speech profiling
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
WO2011059997A1 (en) 2009-11-10 2011-05-19 Voicebox Technologies, Inc. System and method for providing a natural language content dedication service
US8321209B2 (en) 2009-11-10 2012-11-27 Research In Motion Limited System and method for low overhead frequency domain voice authentication
US20110111724A1 (en) 2009-11-10 2011-05-12 David Baptiste Method and apparatus for combating distracted driving
WO2011060106A1 (en) 2009-11-10 2011-05-19 Dulcetta, Inc. Dynamic audio playback of soundtracks for electronic visual works
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
EP2499839B1 (en) 2009-11-12 2017-01-04 Robert Henry Frater Speakerphone with microphone array
US8732180B2 (en) 2009-11-12 2014-05-20 Apple Inc. Recommending media items
US8989086B2 (en) 2009-11-13 2015-03-24 Samsung Electronics Co., Ltd. Methods and apparatus to support interference management in multi-tier wireless communication systems
KR20110052997A (ko) 2009-11-13 2011-05-19 삼성전자주식회사 디스플레이 장치와 클라이언트 단말 및 이의 제어 방법
US20130166303A1 (en) 2009-11-13 2013-06-27 Adobe Systems Incorporated Accessing media data using metadata repository
KR20110052863A (ko) 2009-11-13 2011-05-19 삼성전자주식회사 모바일 기기 및 그 제어 신호 생성 방법
US8712759B2 (en) 2009-11-13 2014-04-29 Clausal Computing Oy Specializing disambiguation of a natural language expression
TWI391915B (zh) 2009-11-17 2013-04-01 Inst Information Industry 語音變異模型建立裝置、方法及應用該裝置之語音辨識系統和方法
KR101595029B1 (ko) 2009-11-18 2016-02-17 엘지전자 주식회사 이동단말기 및 그 제어방법
CN102074234B (zh) 2009-11-19 2012-07-25 财团法人资讯工业策进会 语音变异模型建立装置、方法及语音辨识系统和方法
US8358752B2 (en) 2009-11-19 2013-01-22 At&T Mobility Ii Llc User profile based speech to text conversion for visual voice mail
US8630971B2 (en) 2009-11-20 2014-01-14 Indian Institute Of Science System and method of using Multi Pattern Viterbi Algorithm for joint decoding of multiple patterns
US8358749B2 (en) 2009-11-21 2013-01-22 At&T Intellectual Property I, L.P. System and method to search a media content database based on voice input data
KR101960835B1 (ko) 2009-11-24 2019-03-21 삼성전자주식회사 대화 로봇을 이용한 일정 관리 시스템 및 그 방법
US8346688B2 (en) 2009-11-25 2013-01-01 International Business Machines Corporation Predicting states of subjects
US20110153330A1 (en) 2009-11-27 2011-06-23 i-SCROLL System and method for rendering text synchronized audio
US8731901B2 (en) 2009-12-02 2014-05-20 Content Savvy, Inc. Context aware back-transliteration and translation of names and common phrases using web resources
US8396888B2 (en) 2009-12-04 2013-03-12 Google Inc. Location-based searching using a search area that corresponds to a geographical location of a computing device
AU2010325897A1 (en) 2009-12-04 2012-06-21 Tivo Inc. Multifunction multimedia device
US20110137664A1 (en) 2009-12-09 2011-06-09 International Business Machines Corporation Providing Schedule Related Information to External Entities
US8224300B2 (en) 2009-12-11 2012-07-17 Alpine Electronics, Inc. Method and apparatus to enhance navigation user experience for a smart phone device
US8812990B2 (en) 2009-12-11 2014-08-19 Nokia Corporation Method and apparatus for presenting a first person world view of content
US8543917B2 (en) 2009-12-11 2013-09-24 Nokia Corporation Method and apparatus for presenting a first-person world view of content
KR101622111B1 (ko) 2009-12-11 2016-05-18 삼성전자 주식회사 대화 시스템 및 그의 대화 방법
US8737975B2 (en) 2009-12-11 2014-05-27 At&T Mobility Ii Llc Audio-based text messaging
US20110144857A1 (en) 2009-12-14 2011-06-16 Theodore Charles Wingrove Anticipatory and adaptive automobile hmi
US9766089B2 (en) 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
US8892443B2 (en) 2009-12-15 2014-11-18 At&T Intellectual Property I, L.P. System and method for combining geographic metadata in automatic speech recognition language and acoustic models
KR101211796B1 (ko) 2009-12-16 2012-12-13 포항공과대학교 산학협력단 외국어 학습 장치 및 그 제공 방법
US8341037B2 (en) 2009-12-18 2012-12-25 Apple Inc. Mixed source media playback
US8922485B1 (en) 2009-12-18 2014-12-30 Google Inc. Behavioral recognition on mobile devices
US8385982B2 (en) 2009-12-21 2013-02-26 At&T Intellectual Property I, L.P. Controlling use of a communications device in accordance with motion of the device
US9100809B2 (en) 2009-12-21 2015-08-04 Julia Olincy Olincy Automatic response option mobile system for responding to incoming texts or calls or both
US20110154193A1 (en) 2009-12-21 2011-06-23 Nokia Corporation Method and Apparatus for Text Input
US9222798B2 (en) 2009-12-22 2015-12-29 Modena Enterprises, Llc Systems and methods for identifying an activity of a user based on a chronological order of detected movements of a computing device
US8805711B2 (en) 2009-12-22 2014-08-12 International Business Machines Corporation Two-layer data architecture for reservation management systems
EP2339576B1 (en) 2009-12-23 2019-08-07 Google LLC Multi-modal input on an electronic device
KR20110072847A (ko) 2009-12-23 2011-06-29 삼성전자주식회사 열려진 사용자 의도 처리를 위한 대화관리 시스템 및 방법
JP5531612B2 (ja) * 2009-12-25 2014-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム
US20110161309A1 (en) 2009-12-29 2011-06-30 Lx1 Technology Limited Method Of Sorting The Result Set Of A Search Engine
US8479107B2 (en) 2009-12-31 2013-07-02 Nokia Corporation Method and apparatus for fluid graphical user interface
US8988356B2 (en) 2009-12-31 2015-03-24 Google Inc. Touch sensor and touchscreen user input combination
US20110166862A1 (en) 2010-01-04 2011-07-07 Eyal Eshed System and method for variable automated response to remote verbal input at a mobile device
US8494852B2 (en) 2010-01-05 2013-07-23 Google Inc. Word-level correction of speech input
US20110167350A1 (en) 2010-01-06 2011-07-07 Apple Inc. Assist Features For Content Display Device
US8600743B2 (en) 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
US8346562B2 (en) 2010-01-06 2013-01-01 Csr Technology Inc. Method and apparatus for voice controlled operation of a media player
WO2011085387A2 (en) 2010-01-11 2011-07-14 Everspeech, Inc. Integrated data processing and transcription service
US8311838B2 (en) 2010-01-13 2012-11-13 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US8381107B2 (en) 2010-01-13 2013-02-19 Apple Inc. Adaptive audio feedback system and method
US20110179372A1 (en) 2010-01-15 2011-07-21 Bradford Allen Moore Automatic Keyboard Layout Determination
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US20110179002A1 (en) 2010-01-19 2011-07-21 Dell Products L.P. System and Method for a Vector-Space Search Engine
US8417575B2 (en) 2010-01-19 2013-04-09 Apple Inc. On-device offline purchases using credits
US8301121B2 (en) 2010-01-22 2012-10-30 Sony Ericsson Mobile Communications Ab Regulating alerts generated by communication terminals responsive to sensed movement
US8626511B2 (en) 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US20110184736A1 (en) 2010-01-26 2011-07-28 Benjamin Slotznick Automated method of recognizing inputted information items and selecting information items
US20110184768A1 (en) 2010-01-27 2011-07-28 Norton Kenneth S Automatically determine suggested meeting locations based on previously booked calendar events
JP5633042B2 (ja) 2010-01-28 2014-12-03 本田技研工業株式会社 音声認識装置、音声認識方法、及び音声認識ロボット
US8406745B1 (en) 2010-01-28 2013-03-26 Sprint Communications Company L.P. Synchronization of voice mail greeting and email auto-reply by a wireless communication device
US20120330662A1 (en) 2010-01-29 2012-12-27 Nec Corporation Input supporting system, method and program
EP2531930A1 (en) 2010-02-01 2012-12-12 Ginger Software, Inc. Automatic context sensitive language correction using an internet corpus particularly for small keyboard devices
WO2011094734A2 (en) 2010-02-01 2011-08-04 Jumptap, Inc. Integrated advertising system
CN102844738A (zh) 2010-02-02 2012-12-26 4D零售科技公司 用于人工智能个人助理的系统和方法
US8687777B1 (en) 2010-02-03 2014-04-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8600967B2 (en) 2010-02-03 2013-12-03 Apple Inc. Automatic organization of browsing histories
US8645287B2 (en) 2010-02-04 2014-02-04 Microsoft Corporation Image tagging based upon cross domain context
US8886541B2 (en) 2010-02-04 2014-11-11 Sony Corporation Remote controller with position actuatated voice transmission
US8179370B1 (en) 2010-02-09 2012-05-15 Google Inc. Proximity based keystroke resolution
US8751218B2 (en) 2010-02-09 2014-06-10 Siemens Aktiengesellschaft Indexing content at semantic level
US9413869B2 (en) 2010-02-10 2016-08-09 Qualcomm Incorporated Mobile device having plurality of input modes
US8402018B2 (en) 2010-02-12 2013-03-19 Korea Advanced Institute Of Science And Technology Semantic search system using semantic ranking scheme
US8898219B2 (en) 2010-02-12 2014-11-25 Avaya Inc. Context sensitive, cloud-based telephony
US8812056B2 (en) 2010-02-12 2014-08-19 Christopher D. Higginbotham Voice-based command driven computer implemented method
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
WO2011101845A1 (en) 2010-02-16 2011-08-25 Screenovate Technologies Ltd. Modified operating systems allowing mobile devices to accommodate io devices more convenient than their own inherent io devices and methods for generating such systems
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
WO2011105996A1 (en) 2010-02-23 2011-09-01 Hewlett-Packard Development Company, L.P. Skipping through electronic content on an electronic device
US9665344B2 (en) 2010-02-24 2017-05-30 GM Global Technology Operations LLC Multi-modal input system for a voice-based menu and content navigation service
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9710556B2 (en) 2010-03-01 2017-07-18 Vcvc Iii Llc Content recommendation based on collections of entities
US20120066303A1 (en) 2010-03-03 2012-03-15 Waldeck Technology, Llc Synchronized group location updates
US20110218855A1 (en) 2010-03-03 2011-09-08 Platformation, Inc. Offering Promotions Based on Query Analysis
US8502837B2 (en) 2010-03-04 2013-08-06 Research In Motion Limited System and method for activating components on an electronic device using orientation data
US8903847B2 (en) 2010-03-05 2014-12-02 International Business Machines Corporation Digital media voice tags in social networks
US8948515B2 (en) 2010-03-08 2015-02-03 Sightera Technologies Ltd. Method and system for classifying one or more images
US8521513B2 (en) 2010-03-12 2013-08-27 Microsoft Corporation Localization for interactive voice response systems
JP5642809B2 (ja) 2010-03-12 2014-12-17 ニュアンス コミュニケーションズ, インコーポレイテッド 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム
US20110228913A1 (en) 2010-03-16 2011-09-22 Telcordia Technologies, Inc. Automatic extraction of information from ongoing voice communication system and methods
US8374864B2 (en) 2010-03-17 2013-02-12 Cisco Technology, Inc. Correlation of transcribed text with corresponding audio
US20110231218A1 (en) 2010-03-18 2011-09-22 Tovar Tom C Systems and Methods for Providing Reminders for a Task List
CN102893327B (zh) 2010-03-19 2015-05-27 数字标记公司 直觉计算方法和系统
US20110231189A1 (en) 2010-03-19 2011-09-22 Nuance Communications, Inc. Methods and apparatus for extracting alternate media titles to facilitate speech recognition
US9323756B2 (en) 2010-03-22 2016-04-26 Lenovo (Singapore) Pte. Ltd. Audio book and e-book synchronization
US8554280B2 (en) 2010-03-23 2013-10-08 Ebay Inc. Free-form entries during payment processes
US20110239111A1 (en) 2010-03-24 2011-09-29 Avaya Inc. Spell checker interface
US9628831B2 (en) 2010-03-25 2017-04-18 Whatsapp, Inc. Multimedia transcoding method and system for mobile devices
US20110238676A1 (en) 2010-03-25 2011-09-29 Palm, Inc. System and method for data capture, storage, and retrieval
US8428759B2 (en) 2010-03-26 2013-04-23 Google Inc. Predictive pre-recording of audio for voice input
US9026443B2 (en) 2010-03-26 2015-05-05 Nuance Communications, Inc. Context based voice activity detection sensitivity
US9378202B2 (en) 2010-03-26 2016-06-28 Virtuoz Sa Semantic clustering
US20110238412A1 (en) 2010-03-26 2011-09-29 Antoine Ezzat Method for Constructing Pronunciation Dictionaries
EP2553557A4 (en) 2010-03-31 2014-01-22 Hewlett Packard Development Co CONTEXTIC USER INTERFACE
US8930176B2 (en) 2010-04-01 2015-01-06 Microsoft Corporation Interactive multilingual word-alignment techniques
US8296380B1 (en) 2010-04-01 2012-10-23 Kel & Partners LLC Social media based messaging systems and methods
US20110242007A1 (en) 2010-04-01 2011-10-06 Gray Theodore W E-Book with User-Manipulatable Graphical Objects
BR112012025683A2 (pt) 2010-04-07 2016-07-05 Max Value Solutions Intl Llc método e sistema para serviços de guia de pronúncia de nomes
US9929982B2 (en) 2010-04-08 2018-03-27 Microsoft Technology Licensing, Llc Designating automated agents as friends in a social network service
KR101369810B1 (ko) 2010-04-09 2014-03-05 이초강 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.
US8810684B2 (en) 2010-04-09 2014-08-19 Apple Inc. Tagging images in a mobile communications device using a contacts list
EP2558923A4 (en) 2010-04-12 2014-11-19 Google Inc EXTENSION FRAMEWORK FOR AN ENTRY METHOD EDITOR
JP5315289B2 (ja) 2010-04-12 2013-10-16 トヨタ自動車株式会社 オペレーティングシステム及びオペレーティング方法
CN102214187B (zh) 2010-04-12 2017-03-01 阿里巴巴集团控股有限公司 复合事件处理方法及装置
US8140567B2 (en) 2010-04-13 2012-03-20 Microsoft Corporation Measuring entity extraction complexity
US8265928B2 (en) 2010-04-14 2012-09-11 Google Inc. Geotagged environmental audio for enhanced speech recognition accuracy
US8756233B2 (en) 2010-04-16 2014-06-17 Video Semantics Semantic segmentation and tagging engine
US8595014B2 (en) 2010-04-19 2013-11-26 Qualcomm Incorporated Providing audible navigation system direction updates during predetermined time windows so as to minimize impact on conversations
US20110260829A1 (en) 2010-04-21 2011-10-27 Research In Motion Limited Method of providing security on a portable electronic device having a touch-sensitive display
US20130096911A1 (en) 2010-04-21 2013-04-18 Universite Catholique De Louvain Normalisation of noisy typewritten texts
US20130238647A1 (en) 2010-04-21 2013-09-12 Proteus Digital Health, Inc. Diagnostic System and Method
US20110264495A1 (en) 2010-04-22 2011-10-27 Apple Inc. Aggregation of tagged media item information
EP2586269B1 (en) 2010-04-22 2019-05-15 Zipit Wireless, Inc. System and method for administration and operation of one or more mobile electronic communications devices
US20110264999A1 (en) 2010-04-23 2011-10-27 Research In Motion Limited Electronic device including touch-sensitive input device and method of controlling same
US20110264530A1 (en) 2010-04-23 2011-10-27 Bryan Santangelo Apparatus and methods for dynamic secondary content and data insertion and delivery
US8874432B2 (en) 2010-04-28 2014-10-28 Nec Laboratories America, Inc. Systems and methods for semi-supervised relationship extraction
US8452037B2 (en) 2010-05-05 2013-05-28 Apple Inc. Speaker clip
US8380504B1 (en) 2010-05-06 2013-02-19 Sprint Communications Company L.P. Generation of voice profiles
US8756571B2 (en) 2010-05-07 2014-06-17 Hewlett-Packard Development Company, L.P. Natural language text instructions
US8938436B2 (en) 2010-05-10 2015-01-20 Verizon Patent And Licensing Inc. System for and method of providing reusable software service information based on natural language queries
JP2011238022A (ja) 2010-05-11 2011-11-24 Panasonic Corp 端末、コンテンツの利用の把握方法およびコンテンツの利用システム
JP5595112B2 (ja) 2010-05-11 2014-09-24 本田技研工業株式会社 ロボット
US20110283189A1 (en) 2010-05-12 2011-11-17 Rovi Technologies Corporation Systems and methods for adjusting media guide interaction modes
US20110279368A1 (en) 2010-05-12 2011-11-17 Microsoft Corporation Inferring user intent to engage a motion capture system
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US9628579B2 (en) 2010-05-13 2017-04-18 Futurewei Technologies, Inc. System, apparatus for content delivery for internet traffic and methods thereof
US9015139B2 (en) 2010-05-14 2015-04-21 Rovi Guides, Inc. Systems and methods for performing a search based on a media content snapshot image
US8392186B2 (en) 2010-05-18 2013-03-05 K-Nfb Reading Technology, Inc. Audio synchronization for document narration with user-selected playback
US8694313B2 (en) 2010-05-19 2014-04-08 Google Inc. Disambiguation of contact information using historical data
WO2011146276A2 (en) 2010-05-19 2011-11-24 Google Inc. Television related searching
US9552355B2 (en) 2010-05-20 2017-01-24 Xerox Corporation Dynamic bi-phrases for statistical machine translation
US8522283B2 (en) 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
US9552125B2 (en) 2010-05-21 2017-01-24 Google Inc. Input method editor
US9236047B2 (en) 2010-05-21 2016-01-12 Microsoft Technology Licensing, Llc Voice stream augmented note taking
US20110288917A1 (en) 2010-05-21 2011-11-24 James Wanek Systems and methods for providing mobile targeted advertisements
US8606579B2 (en) 2010-05-24 2013-12-10 Microsoft Corporation Voice print identification for identifying speakers
JP2011250027A (ja) 2010-05-25 2011-12-08 Panasonic Electric Works Co Ltd リモートコントロール機器及び情報通信システム
US9569549B1 (en) 2010-05-25 2017-02-14 Amazon Technologies, Inc. Location based recommendation and tagging of media content items
US8468012B2 (en) 2010-05-26 2013-06-18 Google Inc. Acoustic model adaptation using geographic information
WO2011150730A1 (zh) 2010-05-31 2011-12-08 百度在线网络技术(北京)有限公司 一种用于英文与另一种文字混合输入的方法和设备
EP2393056A1 (en) 2010-06-02 2011-12-07 Layar B.V. Acquiring, ranking and displaying points of interest for use in an augmented reality service provisioning system and graphical user interface for displaying such ranked points of interests
US8639516B2 (en) 2010-06-04 2014-01-28 Apple Inc. User-specific noise suppression for voice quality improvements
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US8707195B2 (en) 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
ES2534047T3 (es) 2010-06-08 2015-04-16 Vodafone Holding Gmbh Tarjeta inteligente con micrófono
US8458115B2 (en) 2010-06-08 2013-06-04 Microsoft Corporation Mining topic-related aspects from user generated content
US8954425B2 (en) 2010-06-08 2015-02-10 Microsoft Corporation Snippet extraction and ranking
US20110306426A1 (en) 2010-06-10 2011-12-15 Microsoft Corporation Activity Participation Based On User Intent
US9529918B2 (en) 2010-06-11 2016-12-27 Doat Media Ltd. System and methods thereof for downloading applications via a communication network
US20110307810A1 (en) 2010-06-11 2011-12-15 Isreal Hilerio List integration
US8234111B2 (en) 2010-06-14 2012-07-31 Google Inc. Speech and noise models for speech recognition
US8504404B2 (en) 2010-06-17 2013-08-06 Google Inc. Distance and location-aware scheduling assistance in a calendar system with notification of potential conflicts
US20110314003A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Template concatenation for capturing multiple concepts in a voice query
US9443071B2 (en) 2010-06-18 2016-09-13 At&T Intellectual Property I, L.P. Proximity based device security
US8620890B2 (en) 2010-06-18 2013-12-31 Accelerated Vision Group Llc System and method of semantic based searching
US20110313803A1 (en) 2010-06-22 2011-12-22 Microsoft Corporation Social Task Lists
US8375320B2 (en) 2010-06-22 2013-02-12 Microsoft Corporation Context-based task generation
US9009592B2 (en) 2010-06-22 2015-04-14 Microsoft Technology Licensing, Llc Population of lists and tasks from captured voice and audio content
EP2400373A1 (en) 2010-06-22 2011-12-28 Vodafone Holding GmbH Inputting symbols into an electronic device having a touch-screen
US8655901B1 (en) 2010-06-23 2014-02-18 Google Inc. Translation-based query pattern mining
US8581844B2 (en) 2010-06-23 2013-11-12 Google Inc. Switching between a first operational mode and a second operational mode using a natural motion gesture
US9263058B2 (en) 2010-06-24 2016-02-16 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US8812299B1 (en) 2010-06-24 2014-08-19 Nuance Communications, Inc. Class-based language model and use
KR20120000663A (ko) 2010-06-28 2012-01-04 주식회사 팬택 3d 객체 처리 장치
US11068657B2 (en) 2010-06-28 2021-07-20 Skyscanner Limited Natural language question answering system and method based on deep semantics
US8250071B1 (en) 2010-06-30 2012-08-21 Amazon Technologies, Inc. Disambiguation of term meaning
JP5323770B2 (ja) 2010-06-30 2013-10-23 日本放送協会 ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機
US8411874B2 (en) 2010-06-30 2013-04-02 Google Inc. Removing noise from audio
US20120005602A1 (en) 2010-07-02 2012-01-05 Nokia Corporation Methods and apparatuses for facilitating task switching
EP2402867B1 (en) 2010-07-02 2018-08-22 Accenture Global Services Limited A computer-implemented method, a computer program product and a computer system for image processing
US8760537B2 (en) 2010-07-05 2014-06-24 Apple Inc. Capturing and rendering high dynamic range images
US20120010886A1 (en) 2010-07-06 2012-01-12 Javad Razavilar Language Identification
US8848882B2 (en) 2010-07-07 2014-09-30 Verizon Patent And Licensing Inc. System for and method of measuring caller interactions during a call session
JP5548542B2 (ja) 2010-07-13 2014-07-16 富士通テン株式会社 携帯端末装置および駐車位置案内プログラム
US8249556B2 (en) 2010-07-13 2012-08-21 Google Inc. Securing a mobile computing device
US9104670B2 (en) 2010-07-21 2015-08-11 Apple Inc. Customized search or acquisition of digital media assets
US8260247B2 (en) 2010-07-21 2012-09-04 Research In Motion Limited Portable electronic device and method of operation
WO2012010218A1 (en) 2010-07-23 2012-01-26 Phonak Ag Hearing system and method for operating a hearing system
US9786159B2 (en) 2010-07-23 2017-10-10 Tivo Solutions Inc. Multi-function remote control device
US8528072B2 (en) 2010-07-23 2013-09-03 Apple Inc. Method, apparatus and system for access mode control of a device
US8463592B2 (en) 2010-07-27 2013-06-11 International Business Machines Corporation Mode supporting multiple language input for entering text
CN102340590A (zh) 2010-07-27 2012-02-01 上海闻泰电子科技有限公司 一种用于手机的感光加解锁装置及其实现方法
US9633656B2 (en) 2010-07-27 2017-04-25 Sony Corporation Device registration process from second display
US8861925B1 (en) 2010-07-28 2014-10-14 Intuit Inc. Methods and systems for audio-visual synchronization
CN102346557B (zh) 2010-07-28 2016-08-03 深圳市世纪光速信息技术有限公司 一种输入法和输入法系统
US8521526B1 (en) 2010-07-28 2013-08-27 Google Inc. Disambiguation of a spoken query term
JP5606205B2 (ja) 2010-07-28 2014-10-15 京セラ株式会社 携帯端末装置
US8694537B2 (en) 2010-07-29 2014-04-08 Soundhound, Inc. Systems and methods for enabling natural language processing
KR101699720B1 (ko) 2010-08-03 2017-01-26 삼성전자주식회사 음성명령 인식 장치 및 음성명령 인식 방법
BRPI1004128A2 (pt) 2010-08-04 2012-04-10 Magneti Marelli Sist S Automotivos Ind E Com Ltda definição dos parámetros chave de nìvel superior para sensor lógico de biodiesel
JP2012037619A (ja) 2010-08-04 2012-02-23 Nec Corp 話者適応化装置、話者適応化方法および話者適応化用プログラム
US8775156B2 (en) 2010-08-05 2014-07-08 Google Inc. Translating languages in response to device motion
US9349368B1 (en) 2010-08-05 2016-05-24 Google Inc. Generating an audio notification based on detection of a triggering event
US8731939B1 (en) 2010-08-06 2014-05-20 Google Inc. Routing queries based on carrier phrase registration
US8402533B2 (en) 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US8473289B2 (en) 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
US8359020B2 (en) 2010-08-06 2013-01-22 Google Inc. Automatically monitoring for voice input based on context
WO2012019637A1 (en) 2010-08-09 2012-02-16 Jadhav, Shubhangi Mahadeo Visual music playlist creation and visual music track exploration
US8802957B2 (en) 2010-08-16 2014-08-12 Boardwalk Technology Group, Llc Mobile replacement-dialogue recording system
CN101951553B (zh) 2010-08-17 2012-10-10 深圳市车音网科技有限公司 基于语音命令的导航方法及系统
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
WO2012027597A2 (en) 2010-08-27 2012-03-01 Intel Corporation Capture and recall of home entertainment system session
JP5695199B2 (ja) 2010-08-30 2015-04-01 本田技研工業株式会社 対話システムにおける思考追跡および行動選択
US8478519B2 (en) 2010-08-30 2013-07-02 Google Inc. Providing results to parameterless search queries
US8225137B2 (en) 2010-09-04 2012-07-17 Cisco Technology, Inc. System and method for providing media server redundancy in a network environment
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
US9800721B2 (en) 2010-09-07 2017-10-24 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8341142B2 (en) 2010-09-08 2012-12-25 Nuance Communications, Inc. Methods and apparatus for searching the Internet
EP2612261B1 (en) 2010-09-08 2018-11-07 Nuance Communications, Inc. Internet search related methods and apparatus
US20120059655A1 (en) 2010-09-08 2012-03-08 Nuance Communications, Inc. Methods and apparatus for providing input to a speech-enabled application program
WO2012033492A1 (en) 2010-09-09 2012-03-15 Sony Ericsson Mobile Communications Ab Annotating e-books/e-magazines with application results
CN103403694B (zh) 2010-09-13 2019-05-21 索尼电脑娱乐美国公司 附加组件管理
CN102402985A (zh) 2010-09-14 2012-04-04 盛乐信息技术(上海)有限公司 提高声纹识别安全性的声纹认证系统及其实现方法
US9538229B2 (en) * 2010-09-15 2017-01-03 Verizon Patent And Licensing Inc. Media experience for touch screen devices
JP5480760B2 (ja) 2010-09-15 2014-04-23 株式会社Nttドコモ 端末装置、音声認識方法および音声認識プログラム
KR101436339B1 (ko) 2010-09-15 2014-09-01 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 클라우드 컴퓨팅 환경에서의 태스크 할당
US8560229B1 (en) 2010-09-15 2013-10-15 Google Inc. Sensor based activity detection
US20120068937A1 (en) 2010-09-16 2012-03-22 Sony Ericsson Mobile Communications Ab Quick input language/virtual keyboard/ language dictionary change on a touch screen device
US20120078635A1 (en) 2010-09-24 2012-03-29 Apple Inc. Voice control system
US8836638B2 (en) 2010-09-25 2014-09-16 Hewlett-Packard Development Company, L.P. Silent speech based command to a computing device
US8594997B2 (en) 2010-09-27 2013-11-26 Sap Ag Context-aware conversational user interface
KR20120031722A (ko) 2010-09-27 2012-04-04 삼성전자주식회사 동적 응답 생성 장치 및 방법
US20120114108A1 (en) 2010-09-27 2012-05-10 Voxer Ip Llc Messaging communication application
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
CN101937194B (zh) 2010-09-27 2012-12-19 鸿富锦精密工业(深圳)有限公司 具有学习功能的智能控制系统和方法
US10037319B2 (en) 2010-09-29 2018-07-31 Touchtype Limited User input prediction
CN101958958A (zh) 2010-09-29 2011-01-26 中兴通讯股份有限公司 一种回复信息的方法和终端
CN102436456B (zh) 2010-09-29 2016-03-30 国际商业机器公司 用于对命名实体进行分类的方法和装置
US9465864B2 (en) 2010-09-29 2016-10-11 Excalibur Ip, Llc Training a search query intent classifier using wiki article titles and a search click log
US8515736B1 (en) 2010-09-30 2013-08-20 Nuance Communications, Inc. Training call routing applications by reusing semantically-labeled data collected for prior applications
US20120084248A1 (en) 2010-09-30 2012-04-05 Microsoft Corporation Providing suggestions based on user intent
US8965545B2 (en) 2010-09-30 2015-02-24 Google Inc. Progressive encoding of audio
US8812321B2 (en) 2010-09-30 2014-08-19 At&T Intellectual Property I, L.P. System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning
US8644519B2 (en) 2010-09-30 2014-02-04 Apple Inc. Electronic devices with improved audio
WO2012045496A2 (en) 2010-10-05 2012-04-12 International Business Machines Corporation Probabilistic data mining model comparison engine
US20120084634A1 (en) 2010-10-05 2012-04-05 Sony Corporation Method and apparatus for annotating text
US8606293B2 (en) 2010-10-05 2013-12-10 Qualcomm Incorporated Mobile device location estimation using environmental information
US9679256B2 (en) 2010-10-06 2017-06-13 The Chancellor, Masters And Scholars Of The University Of Cambridge Automated assessment of examination scripts
US9043386B2 (en) 2010-10-06 2015-05-26 Hbr Labs Inc. System and method for synchronizing collaborative form filling
US9465798B2 (en) 2010-10-08 2016-10-11 Iq Technology Inc. Single word and multi-word term integrating system and a method thereof
US10900799B2 (en) 2010-10-12 2021-01-26 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining a destination location from a communication
US20120271640A1 (en) 2010-10-15 2012-10-25 Basir Otman A Implicit Association and Polymorphism Driven Human Machine Interaction
JP5572059B2 (ja) 2010-10-21 2014-08-13 京セラ株式会社 表示装置
US20120108221A1 (en) 2010-10-28 2012-05-03 Microsoft Corporation Augmenting communication sessions with applications
JP5017441B2 (ja) 2010-10-28 2012-09-05 株式会社東芝 携帯型電子機器
US8335774B2 (en) 2010-10-28 2012-12-18 Google Inc. Replacing a master media file
WO2012056463A1 (en) 2010-10-29 2012-05-03 Hewlett-Packard Development Company, L.P. Content recommendation for groups
WO2012055113A1 (zh) 2010-10-29 2012-05-03 安徽科大讯飞信息科技股份有限公司 录音结束点检测方法及系统
US9058105B2 (en) 2010-10-31 2015-06-16 International Business Machines Corporation Automated adjustment of input configuration
US20120110456A1 (en) * 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface
US9348417B2 (en) 2010-11-01 2016-05-24 Microsoft Technology Licensing, Llc Multimodal input system
US9743149B2 (en) 2010-11-02 2017-08-22 Sony Corporation Search query column for internet-connected TV's
US8660531B2 (en) 2010-11-03 2014-02-25 Blackberry Limited Access to locked functions
US8831947B2 (en) 2010-11-07 2014-09-09 Nice Systems Ltd. Method and apparatus for large vocabulary continuous speech recognition using a hybrid phoneme-word lattice
US20120116770A1 (en) 2010-11-08 2012-05-10 Ming-Fu Chen Speech data retrieving and presenting device
US8881057B2 (en) 2010-11-09 2014-11-04 Blackberry Limited Methods and apparatus to display mobile device contexts
WO2012063260A2 (en) 2010-11-09 2012-05-18 Mango Technologies Pvt Ltd. Virtual secretary on a smart device
US8352576B2 (en) 2010-11-15 2013-01-08 Google Inc. Media file access
US20120124172A1 (en) 2010-11-15 2012-05-17 Google Inc. Providing Different Versions of a Media File
MY177511A (en) 2010-11-16 2020-09-17 Shardul Suresh Shroff System and method for providing virtual arbitration
US20120124126A1 (en) 2010-11-17 2012-05-17 Microsoft Corporation Contextual and task focused computing
US10144440B2 (en) 2010-11-17 2018-12-04 General Electric Company Methods and systems for data communications
US8713024B2 (en) 2010-11-22 2014-04-29 Microsoft Corporation Efficient forward ranking in a search engine
US9484018B2 (en) 2010-11-23 2016-11-01 At&T Intellectual Property I, L.P. System and method for building and evaluating automatic speech recognition via an application programmer interface
US8938216B2 (en) 2010-11-24 2015-01-20 Cisco Technology, Inc. Geographical location information/signal quality-context based recording and playback of multimedia data from a conference session
US9105008B2 (en) 2010-11-29 2015-08-11 Yahoo! Inc. Detecting controversial events
US20120135714A1 (en) 2010-11-29 2012-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Information system for motor vehicle
US8489625B2 (en) 2010-11-29 2013-07-16 Microsoft Corporation Mobile query suggestions with time-location awareness
GB2486002A (en) 2010-11-30 2012-06-06 Youview Tv Ltd Media Content Provision
US8862458B2 (en) 2010-11-30 2014-10-14 Sap Ag Natural language interface
WO2012074338A2 (ko) 2010-12-02 2012-06-07 에스케이텔레콤 주식회사 자연어 및 수학식 처리 방법과 그를 위한 장치
JP5652913B2 (ja) 2010-12-03 2015-01-14 アイシン・エィ・ダブリュ株式会社 車載端末装置
US8312096B2 (en) 2010-12-08 2012-11-13 Google Inc. Priority inbox notifications and synchronization for mobile messaging application
US9135241B2 (en) 2010-12-08 2015-09-15 At&T Intellectual Property I, L.P. System and method for learning latent representations for natural language tasks
US9092425B2 (en) 2010-12-08 2015-07-28 At&T Intellectual Property I, L.P. System and method for feature-rich continuous space language models
KR101330328B1 (ko) 2010-12-14 2013-11-15 한국전자통신연구원 음성 인식 방법 및 이를 위한 시스템
US9158775B1 (en) 2010-12-18 2015-10-13 Google Inc. Scoring stream items in real time
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US20130297198A1 (en) 2010-12-20 2013-11-07 Tomtom Belgium N.V. Method for generating map data
US20120158422A1 (en) 2010-12-21 2012-06-21 General Electric Company Methods and systems for scheduling appointments in healthcare systems
US20120158293A1 (en) 2010-12-21 2012-06-21 General Electric Company Methods and systems for dynamically providing users with appointment reminders
US8666726B2 (en) 2010-12-21 2014-03-04 Nuance Communications, Inc. Sample clustering to reduce manual transcriptions in speech recognition system
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US8532377B2 (en) 2010-12-22 2013-09-10 Xerox Corporation Image ranking based on abstract concepts
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US20130035086A1 (en) 2010-12-22 2013-02-07 Logitech Europe S.A. Remote control system for providing content suggestions
US8838449B2 (en) 2010-12-23 2014-09-16 Microsoft Corporation Word-dependent language model
US20120166944A1 (en) 2010-12-23 2012-06-28 Stephen Hayden Cotterill Device, Method, and Graphical User Interface for Switching Between Two User Interfaces
US20120166959A1 (en) 2010-12-23 2012-06-28 Microsoft Corporation Surfacing content including content accessed from jump list tasks and items
US8731902B2 (en) 2010-12-23 2014-05-20 Sap Ag Systems and methods for accessing applications based on user intent modeling
JP2012142744A (ja) 2010-12-28 2012-07-26 Sanyo Electric Co Ltd 通信装置
KR20120075845A (ko) * 2010-12-29 2012-07-09 삼성전자주식회사 터치스크린 단말기에서 메모 방법 및 장치
CA2823346A1 (en) 2010-12-30 2012-07-05 Ambientz Information processing using a population of data acquisition devices
TWI413105B (zh) 2010-12-30 2013-10-21 Ind Tech Res Inst 多語言之文字轉語音合成系統與方法
KR101828273B1 (ko) 2011-01-04 2018-02-14 삼성전자주식회사 결합기반의 음성명령 인식 장치 및 그 방법
US8626681B1 (en) 2011-01-04 2014-01-07 Google Inc. Training a probabilistic spelling checker from structured data
US8589950B2 (en) 2011-01-05 2013-11-19 Blackberry Limited Processing user input events in a web browser
CN103370705B (zh) 2011-01-05 2018-01-02 谷歌公司 用于便利文本输入的方法和系统
ES2707789T3 (es) 2011-01-05 2019-04-05 Connecthings Dispositivo para accionar un terminal portable
EP2661699B1 (en) 2011-01-07 2017-06-28 BlackBerry Limited System and method for controlling mobile communication devices
JP5712618B2 (ja) 2011-01-07 2015-05-07 サクサ株式会社 電話システム
US9183843B2 (en) 2011-01-07 2015-11-10 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
US9953653B2 (en) 2011-01-07 2018-04-24 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
US20120176255A1 (en) 2011-01-10 2012-07-12 Deutsche Telekom Ag Mobile device-based automatic parking location recorder and reminder using on-board diagnostics
US20130283283A1 (en) 2011-01-13 2013-10-24 Htc Corporation Portable electronic device and control method therefor
TWI546700B (zh) 2011-01-13 2016-08-21 宏達國際電子股份有限公司 手持電子裝置及其控制方法與電腦程式產品
US8863256B1 (en) 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
US8689116B2 (en) 2011-01-14 2014-04-01 Apple Inc. Email user interface
KR101242073B1 (ko) 2011-01-20 2013-03-11 주식회사 웨이브애프터 사용자단말의 터치스크린의 사용자 인터페이스 방법 및 그 기록매체
US20120192096A1 (en) 2011-01-25 2012-07-26 Research In Motion Limited Active command line driven user interface
US9031970B1 (en) 2011-01-26 2015-05-12 Google Inc. Query autocompletions
JP2014064048A (ja) * 2011-01-27 2014-04-10 Panasonic Corp ネットワーク制御システム、ネットワーク制御機器、ネットワーク被制御機器及び機器制御方法
FI126119B (fi) 2011-01-31 2016-06-30 Waertsilae Finland Oy Massavaimennin
US8943054B2 (en) 2011-01-31 2015-01-27 Social Resolve, Llc Social media content management system and method
US8666895B2 (en) 2011-01-31 2014-03-04 Bank Of America Corporation Single action mobile transaction device
WO2012106198A1 (en) 2011-02-04 2012-08-09 Google Inc. Posting to social networks by voice
JP5772023B2 (ja) * 2011-02-04 2015-09-02 ソニー株式会社 情報処理システム及び情報処理方法
US9452735B2 (en) 2011-02-10 2016-09-27 Ford Global Technologies, Llc System and method for controlling a restricted mode in a vehicle
US8620709B2 (en) 2011-02-11 2013-12-31 Avaya, Inc Mobile activity manager
US8862612B2 (en) 2011-02-11 2014-10-14 Sony Corporation Direct search launch on a second display
US9628842B2 (en) 2011-02-11 2017-04-18 Sony Corporation Method and apparatus for identifying content using IPTV devices
TW201241640A (en) 2011-02-14 2012-10-16 Microsoft Corp Dormant background applications on mobile devices
US20120209413A1 (en) 2011-02-14 2012-08-16 Microsoft Corporation Background Audio on Mobile Devices
BR112013021000A2 (pt) 2011-02-16 2016-10-11 Kortek Ind Pty Ltd controle de automação, energia sem fio e luz
US10429869B2 (en) 2011-02-16 2019-10-01 Kortek Industries Pty Ltd Wireless power, light and automation control
CN103370684B (zh) 2011-02-17 2018-04-17 日本电气株式会社 电子设备、显示方法以及非瞬变存储介质
US8694335B2 (en) 2011-02-18 2014-04-08 Nuance Communications, Inc. Methods and apparatus for applying user corrections to medical fact extraction
US9916420B2 (en) 2011-02-18 2018-03-13 Nuance Communications, Inc. Physician and clinical documentation specialist workflow integration
US9686732B2 (en) 2011-02-22 2017-06-20 Theatrolabs, Inc. Observation platform for using structured communications with distributed traffic flow
KR101178310B1 (ko) 2011-02-24 2012-08-29 포항공과대학교 산학협력단 대화 관리 방법 및 이를 실행하는 시스템
US10145960B2 (en) 2011-02-24 2018-12-04 Ford Global Technologies, Llc System and method for cell phone restriction
CN102651217A (zh) 2011-02-25 2012-08-29 株式会社东芝 用于合成语音的方法、设备以及用于语音合成的声学模型训练方法
US20120221552A1 (en) 2011-02-28 2012-08-30 Nokia Corporation Method and apparatus for providing an active search user interface element
US8688453B1 (en) 2011-02-28 2014-04-01 Nuance Communications, Inc. Intent mining via analysis of utterances
US9632677B2 (en) 2011-03-02 2017-04-25 The Boeing Company System and method for navigating a 3-D environment using a multi-input interface
US8972275B2 (en) 2011-03-03 2015-03-03 Brightedge Technologies, Inc. Optimization of social media engagement
EP2498250B1 (en) 2011-03-07 2021-05-05 Accenture Global Services Limited Client and server system for natural language-based control of a digital network of devices
CN102122506B (zh) 2011-03-08 2013-07-31 天脉聚源(北京)传媒科技有限公司 一种语音识别的方法
US9081760B2 (en) 2011-03-08 2015-07-14 At&T Intellectual Property I, L.P. System and method for building diverse language models
US20120233266A1 (en) 2011-03-11 2012-09-13 Microsoft Corporation Peer-to-peer group with renegotiation of group owner
CN202092650U (zh) 2011-03-14 2011-12-28 深圳市车乐数码科技有限公司 一种带按键的语音导航的车载多媒体
US8849931B2 (en) 2011-03-15 2014-09-30 Idt Messaging, Llc Linking context-based information to text messages
US8606090B2 (en) 2011-03-17 2013-12-10 Sony Corporation Sport program chaptering
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US20120246133A1 (en) 2011-03-23 2012-09-27 Microsoft Corporation Online spelling correction/phrase completion system
US8868111B1 (en) 2011-03-23 2014-10-21 Dp Technologies, Inc. Method and apparatus to enable the use of a personal communication device with an integrated vehicle interface
US8862255B2 (en) 2011-03-23 2014-10-14 Audible, Inc. Managing playback of synchronized content
US20140012205A1 (en) * 2011-03-23 2014-01-09 Sanofi-Aventis Deutschland Gmbh Drug Delivery Device with Pivoting Protective Cap
US20120246064A1 (en) 2011-03-23 2012-09-27 Ebay, Inc. Customer refunds using payment service providers
US8766793B2 (en) 2011-03-25 2014-07-01 Microsoft Corporation Contextually-appropriate task reminders
US9202465B2 (en) 2011-03-25 2015-12-01 General Motors Llc Speech recognition dependent on text message content
CN202035047U (zh) 2011-03-29 2011-11-09 张磊 一种提取地址信息进行导航的移动终端
US9171546B1 (en) 2011-03-29 2015-10-27 Google Inc. Performing functions based on commands in context of telephonic communication
US9154555B2 (en) 2011-03-30 2015-10-06 Paypal, Inc. Device specific remote disabling of applications
JP2012211932A (ja) 2011-03-30 2012-11-01 Toshiba Corp 音声認識装置及び音声認識方法
US9280535B2 (en) 2011-03-31 2016-03-08 Infosys Limited Natural language querying with cascaded conditional random fields
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
EP2691885A4 (en) 2011-03-31 2015-09-30 Microsoft Technology Licensing Llc INCREASED CONVERSATIONAL UNDERSTANDING ARCHITECTURE
EP2691856A1 (en) 2011-03-31 2014-02-05 AOL Inc. Systems and methods for transferring application state between devices based on gestural input
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
KR101929533B1 (ko) 2011-04-01 2018-12-17 인터디지탈 패튼 홀딩스, 인크 공통 pdp 컨텍스트를 공유하기 위한 시스템 및 방법
US9337999B2 (en) 2011-04-01 2016-05-10 Intel Corporation Application usage continuum across platforms
US9098488B2 (en) 2011-04-03 2015-08-04 Microsoft Technology Licensing, Llc Translation of multilingual embedded phrases
US9612892B2 (en) 2011-04-04 2017-04-04 Hewlett Packard Enterprise Development Lp Creating a correlation rule defining a relationship between event types
US20120252367A1 (en) 2011-04-04 2012-10-04 Meditalk Devices, Llc Auditory Speech Module For Medical Devices
US20120316955A1 (en) 2011-04-06 2012-12-13 Yahoo! Inc. System and Method for Mobile Application Search
US8914275B2 (en) 2011-04-06 2014-12-16 Microsoft Corporation Text prediction
US9292877B2 (en) 2011-04-13 2016-03-22 Longsand Limited Methods and systems for generating concept-based hash tags
CN102137193A (zh) 2011-04-13 2011-07-27 深圳凯虹移动通信有限公司 一种移动通讯终端及其通讯控制方法
US20120265784A1 (en) 2011-04-15 2012-10-18 Microsoft Corporation Ordering semantic query formulation suggestions
US9366749B2 (en) 2011-04-15 2016-06-14 Qualcomm Incorporated Device position estimates from motion and ambient light classifiers
US9648107B1 (en) 2011-04-22 2017-05-09 Angel A. Penilla Methods and cloud systems for using connected object state data for informing and alerting connected vehicle drivers of state changes
US9493130B2 (en) 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
WO2012148904A1 (en) 2011-04-25 2012-11-01 Veveo, Inc. System and method for an intelligent personal timeline assistant
US9065660B2 (en) 2011-04-26 2015-06-23 Alcatel Lucent Usage monitoring after rollover
US9444692B2 (en) 2011-04-26 2016-09-13 Openet Telecom Ltd. Systems, devices and methods of crowd-sourcing across multiple domains
US9110556B2 (en) 2011-04-28 2015-08-18 Nokia Technologies Oy Method and apparatus for increasing the functionality of an electronic device in a locked state
CN102841736A (zh) 2011-05-03 2012-12-26 宏达国际电子股份有限公司 手持式电子装置及其网页书签存取方法
CN102870065B (zh) 2011-05-04 2016-01-20 黑莓有限公司 用于调整图形用户界面上显示的图形数据的呈现的方法
KR101257479B1 (ko) * 2011-05-04 2013-04-24 허순영 텔레비젼 리모컨 기능을 가진 스마트폰 및 스마트 폰에서 실행 가능한 프로그램으로 구현되는 텔레비젼의 원격 제어 방법
US8150385B1 (en) 2011-05-09 2012-04-03 Loment, Inc. Automated reply messages among end user communication devices
US8171137B1 (en) 2011-05-09 2012-05-01 Google Inc. Transferring application state across devices
KR101760422B1 (ko) 2011-05-11 2017-07-31 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101233561B1 (ko) 2011-05-12 2013-02-14 엔에이치엔(주) 단어 수준의 후보 생성에 기초한 음성 인식 시스템 및 방법
EP2707872A2 (en) 2011-05-12 2014-03-19 Johnson Controls Technology Company Adaptive voice recognition systems and methods
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US8839303B2 (en) 2011-05-13 2014-09-16 Google Inc. System and method for enhancing user search results by determining a television program currently being displayed in proximity to an electronic device
EP2707821A4 (en) 2011-05-13 2015-04-08 David Plimpton CALENDAR-BASED SEARCH ENGINE
US20120290291A1 (en) 2011-05-13 2012-11-15 Gabriel Lee Gilbert Shelley Input processing for character matching and predicted word matching
US8793624B2 (en) 2011-05-18 2014-07-29 Google Inc. Control of a device using gestures
US8972240B2 (en) 2011-05-19 2015-03-03 Microsoft Corporation User-modifiable word lattice display for editing documents and search queries
EP2712189A4 (en) 2011-05-20 2015-04-01 Japan Broadcasting Corp DEVICE AND PROGRAM FOR CONTROLLING PROGRAM SWITCHES
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9236045B2 (en) 2011-05-23 2016-01-12 Nuance Communications, Inc. Methods and apparatus for proofing of a text input
US20120304124A1 (en) 2011-05-23 2012-11-29 Microsoft Corporation Context aware input engine
US9361282B2 (en) 2011-05-24 2016-06-07 Lg Electronics Inc. Method and device for user interface
US8731936B2 (en) 2011-05-26 2014-05-20 Microsoft Corporation Energy-efficient unobtrusive identification of a speaker
US9164983B2 (en) 2011-05-27 2015-10-20 Robert Bosch Gmbh Broad-coverage normalization system for social media language
US9268857B2 (en) 2011-06-03 2016-02-23 Facebook, Inc. Suggesting search results to users before receiving any search query from the users
TWI488174B (zh) 2011-06-03 2015-06-11 Apple Inc 自動地建立文字資料與音訊資料間之映射
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US20120310642A1 (en) 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data
US8751971B2 (en) 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US20120317498A1 (en) 2011-06-07 2012-12-13 Research In Motion Limited Electronic communication device and method for displaying icons
US8781841B1 (en) 2011-06-07 2014-07-15 Cisco Technology, Inc. Name recognition of virtual meeting participants
US20120316774A1 (en) 2011-06-09 2012-12-13 Microsoft Corporation Automatic navigation to a prior known location
US8732319B2 (en) 2011-06-10 2014-05-20 Qualcomm Incorporated Context awareness proximity-based establishment of wireless communication connection
WO2012170817A1 (en) 2011-06-10 2012-12-13 Google Inc. Augmenting statistical machine translation with linguistic knowledge
US20120316875A1 (en) 2011-06-10 2012-12-13 Red Shift Company, Llc Hosted speech handling
US9082408B2 (en) 2011-06-13 2015-07-14 Mmodal Ip Llc Speech recognition using loosely coupled components
US20120323967A1 (en) 2011-06-14 2012-12-20 Microsoft Corporation Spelling Using a Fuzzy Pattern Search
US20130158977A1 (en) 2011-06-14 2013-06-20 Andrew Senior System and Method for Evaluating Speech Exposure
US20120321112A1 (en) 2011-06-16 2012-12-20 Apple Inc. Selecting a digital stream based on an audio sample
US20120324391A1 (en) 2011-06-16 2012-12-20 Microsoft Corporation Predictive word completion
US9201862B2 (en) 2011-06-16 2015-12-01 Asociacion Instituto Tecnologico De Informatica Method for symbolic correction in human-machine interfaces
CN102237088B (zh) 2011-06-17 2013-10-23 盛乐信息技术(上海)有限公司 语音识别多信息文本获取装置及方法
US20120329529A1 (en) 2011-06-21 2012-12-27 GreatCall, Inc. Gesture activate help process and system
KR101850124B1 (ko) 2011-06-24 2018-04-19 구글 엘엘씨 교차-언어 쿼리 제안을 위한 쿼리 번역 평가
US10984387B2 (en) 2011-06-28 2021-04-20 Microsoft Technology Licensing, Llc Automatic task extraction and calendar entry
EP2892209B1 (en) 2011-06-30 2016-11-09 Huawei Technologies Co., Ltd. Method, apparatus, and system for transmitting media data based on OTT
US20130007240A1 (en) 2011-06-30 2013-01-03 At&T Intellectual Property I, L.P. Systems and methods to provide availability notifications for denied content requests
US20130006633A1 (en) 2011-07-01 2013-01-03 Qualcomm Incorporated Learning speech models for mobile device users
DE102011078642A1 (de) 2011-07-05 2013-01-10 Robert Bosch Gmbh Verfahren zum Prüfen eines m aus n Codes
US9582598B2 (en) 2011-07-05 2017-02-28 Visa International Service Association Hybrid applications utilizing distributed models and views apparatuses, methods and systems
US20140100847A1 (en) 2011-07-05 2014-04-10 Mitsubishi Electric Corporation Voice recognition device and navigation device
US9367824B2 (en) 2011-07-05 2016-06-14 Sap Se Provisioning and performing action items
US20130010575A1 (en) 2011-07-07 2013-01-10 International Business Machines Corporation Systems and methods of managing electronic calendar applications
US8682670B2 (en) 2011-07-07 2014-03-25 International Business Machines Corporation Statistical enhancement of speech output from a statistical text-to-speech synthesis system
US8209183B1 (en) 2011-07-07 2012-06-26 Google Inc. Systems and methods for correction of text from different input types, sources, and contexts
US8665212B2 (en) 2011-07-08 2014-03-04 Blackberry Limited Systems and methods for locking an electronic device
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US8812474B2 (en) 2011-07-14 2014-08-19 Nuance Communications, Inc. Methods and apparatus for identifying and providing information sought by a user
US20130024277A1 (en) 2011-07-18 2013-01-24 Teletech Holdings, Inc. Platform to provide advertisements to users of registered products
DE102012212514A1 (de) 2011-07-18 2013-02-21 Logitech Europe S.A. Fernbedienungs-Benutzerschnittstelle für Handgerät
CA2747153A1 (en) 2011-07-19 2013-01-19 Suleman Kaheer Natural language processing dialog system for obtaining goods, services or information
US20130024576A1 (en) 2011-07-22 2013-01-24 Microsoft Corporation Proximity-Based Detection
US20130031476A1 (en) 2011-07-25 2013-01-31 Coin Emmett Voice activated virtual assistant
US8781810B2 (en) 2011-07-25 2014-07-15 Xerox Corporation System and method for productive generation of compound words in statistical machine translation
US8732028B2 (en) 2011-07-26 2014-05-20 Expose Retail Strategies Inc. Scheduling of order processing for remotely ordered goods
US9009041B2 (en) 2011-07-26 2015-04-14 Nuance Communications, Inc. Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data
US8260117B1 (en) 2011-07-26 2012-09-04 Ooyala, Inc. Automatically recommending content
US9292112B2 (en) 2011-07-28 2016-03-22 Hewlett-Packard Development Company, L.P. Multimodal interface
US20130030936A1 (en) 2011-07-28 2013-01-31 American Express Travel Related Services Company, Inc. Systems and methods for generating and using a digital pass
US9983785B2 (en) * 2011-07-28 2018-05-29 Hewlett-Packard Development Company, L.P. Input mode of a device
WO2013013290A1 (en) 2011-07-28 2013-01-31 Research In Motion Limited Methods and devices for facilitating communications
EP2551784A1 (en) 2011-07-28 2013-01-30 Roche Diagnostics GmbH Method of controlling the display of a dataset
US20130030789A1 (en) 2011-07-29 2013-01-31 Reginald Dalce Universal Language Translator
US20130031216A1 (en) 2011-07-29 2013-01-31 Myxer, Inc. Systems and methods for generation of customized media playlists
CN102905499B (zh) 2011-07-29 2015-12-09 纬创资通股份有限公司 竖卡模块及电子装置
US20130030913A1 (en) 2011-07-29 2013-01-31 Guangyu Zhu Deriving Ads Ranking of Local Advertisers based on Distance and Aggregate User Activities
US20130035117A1 (en) 2011-08-04 2013-02-07 GM Global Technology Operations LLC System and method for restricting driver mobile device feature usage while vehicle is in motion
WO2013022222A2 (en) 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP2555536A1 (en) 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022218A2 (en) 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8595015B2 (en) 2011-08-08 2013-11-26 Verizon New Jersey Inc. Audio communication assessment
CN102929710B (zh) 2011-08-09 2017-10-27 中兴通讯股份有限公司 一种调用应用模块的方法及移动终端
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
WO2013022135A1 (en) 2011-08-11 2013-02-14 Lg Electronics Inc. Electronic device and method of controlling the same
US8589160B2 (en) 2011-08-19 2013-11-19 Dolbey & Company, Inc. Systems and methods for providing an electronic dictation interface
KR101893151B1 (ko) 2011-08-21 2018-08-30 엘지전자 주식회사 영상 표시 장치, 단말 장치 및 그 동작 방법
US20130055099A1 (en) 2011-08-22 2013-02-28 Rose Yao Unified Messaging System with Integration of Call Log Data
US8943071B2 (en) 2011-08-23 2015-01-27 At&T Intellectual Property I, L.P. Automatic sort and propagation associated with electronic documents
JP5736276B2 (ja) 2011-08-23 2015-06-17 京セラ株式会社 携帯電子機器、制御方法、および、制御プログラム
US9195768B2 (en) 2011-08-26 2015-11-24 Amazon Technologies, Inc. Remote browsing session management
US20130055147A1 (en) 2011-08-29 2013-02-28 Salesforce.Com, Inc. Configuration, generation, and presentation of custom graphical user interface components for a virtual cloud-based application
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US20130054706A1 (en) 2011-08-29 2013-02-28 Mary Graham Modulation of Visual Notification Parameters Based on Message Activity and Notification Value
CN102955652A (zh) 2011-08-29 2013-03-06 王道平 一种拼音输入方法
US20130054631A1 (en) 2011-08-30 2013-02-28 Microsoft Corporation Adding social network data to search suggestions
US8819012B2 (en) 2011-08-30 2014-08-26 International Business Machines Corporation Accessing anchors in voice site content
US8554729B2 (en) 2011-08-31 2013-10-08 Google Inc. System and method for synchronization of actions in the background of an application
US8914288B2 (en) 2011-09-01 2014-12-16 At&T Intellectual Property I, L.P. System and method for advanced turn-taking for interactive spoken dialog systems
US20130061139A1 (en) 2011-09-01 2013-03-07 Google Inc. Server-based spell checking on a user device
US8660847B2 (en) 2011-09-02 2014-02-25 Microsoft Corporation Integrated local and cloud based speech recognition
KR101590386B1 (ko) * 2011-09-07 2016-02-01 네이버 주식회사 검색 서비스 제공 장치 및 방법
CN104025079A (zh) 2011-09-09 2014-09-03 谷歌公司 用于翻译网页的用户接口
US9596084B2 (en) 2011-09-09 2017-03-14 Facebook, Inc. Initializing camera subsystem for face detection based on sensor inputs
US8788979B2 (en) 2011-09-10 2014-07-22 Microsoft Corporation Secondary actions on a notification
US20130066832A1 (en) 2011-09-12 2013-03-14 Microsoft Corporation Application state synchronization
US10075533B2 (en) 2011-09-15 2018-09-11 Paypal, Inc. Method and apparatus for transferring the state of content using short codes
US20130073346A1 (en) 2011-09-16 2013-03-21 David Chun Identifying companies most closely related to a given company
US20130073286A1 (en) 2011-09-20 2013-03-21 Apple Inc. Consolidating Speech Recognition Results
US20130073293A1 (en) 2011-09-20 2013-03-21 Lg Electronics Inc. Electronic device and method for controlling the same
US9519453B2 (en) 2011-09-21 2016-12-13 Telefonaktiebolaget Lm Ericsson (Publ) Methods, devices and computer programs for transmitting or for receiving and playing media streams
US8699963B2 (en) 2011-09-22 2014-04-15 Blackberry Limited Mobile communication device with receiver speaker
US9129606B2 (en) 2011-09-23 2015-09-08 Microsoft Technology Licensing, Llc User query history expansion for improving language model adaptation
US8798995B1 (en) 2011-09-23 2014-08-05 Amazon Technologies, Inc. Key word determinations from voice data
US20130080251A1 (en) 2011-09-26 2013-03-28 Accenture Global Services Limited Product registration and tracking system
US8812301B2 (en) 2011-09-26 2014-08-19 Xerox Corporation Linguistically-adapted structural query annotation
KR20130032966A (ko) 2011-09-26 2013-04-03 엘지전자 주식회사 사용자 인터페이스 방법 및 장치
US8996381B2 (en) 2011-09-27 2015-03-31 Sensory, Incorporated Background speech recognition assistant
US8768707B2 (en) 2011-09-27 2014-07-01 Sensory Incorporated Background speech recognition assistant using speaker verification
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US20130086609A1 (en) 2011-09-29 2013-04-04 Viacom International Inc. Integration of an Interactive Virtual Toy Box Advertising Unit and Digital Media Content
CN108337380B (zh) 2011-09-30 2022-08-19 苹果公司 自动调整用户界面以用于免提交互
US8468022B2 (en) 2011-09-30 2013-06-18 Google Inc. Voice control for asynchronous notifications
US8452602B1 (en) 2011-09-30 2013-05-28 Google Inc. Structuring verbal commands to allow concatenation in a voice interface in a mobile device
US8452597B2 (en) 2011-09-30 2013-05-28 Google Inc. Systems and methods for continual speech recognition and detection in mobile computing devices
JP5698203B2 (ja) 2011-09-30 2015-04-08 アップル インコーポレイテッド バーチャルアシスタントのコマンド処理を容易にするためのコンテクスト情報の使用
AU2015203483A1 (en) 2011-09-30 2015-07-16 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
CN103035251A (zh) 2011-09-30 2013-04-10 西门子公司 一种建立语音转换模型的方法、语音转换的方法及系统
US8340975B1 (en) 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
US8386926B1 (en) 2011-10-06 2013-02-26 Google Inc. Network-based custom dictionary, auto-correction and text entry preferences
US9640175B2 (en) 2011-10-07 2017-05-02 Microsoft Technology Licensing, Llc Pronunciation learning from user correction
WO2013052867A2 (en) 2011-10-07 2013-04-11 Rogers Henk B Media tagging
US8738363B2 (en) 2011-10-13 2014-05-27 Xerox Corporation System and method for suggestion mining
US9021565B2 (en) 2011-10-13 2015-04-28 At&T Intellectual Property I, L.P. Authentication techniques utilizing a computing device
EP2766801A4 (en) * 2011-10-13 2015-04-22 Lg Electronics Inc INPUT INTERFACE CONTROL APPARATUS AND METHOD THEREOF
US20130097566A1 (en) 2011-10-17 2013-04-18 Carl Fredrik Alexander BERGLUND System and method for displaying items on electronic devices
US9253282B2 (en) 2011-10-18 2016-02-02 Qualcomm Incorporated Method and apparatus for generating, using, or updating an enriched user profile
US9686088B2 (en) 2011-10-19 2017-06-20 Facebook, Inc. Notification profile configuration based on device orientation
KR101873741B1 (ko) 2011-10-26 2018-07-03 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US8738376B1 (en) 2011-10-28 2014-05-27 Nuance Communications, Inc. Sparse maximum a posteriori (MAP) adaptation
US9223948B2 (en) 2011-11-01 2015-12-29 Blackberry Limited Combined passcode and activity launch modifier
US20130111330A1 (en) 2011-11-01 2013-05-02 Research In Motion Limited Accelerated compositing of fixed position elements on an electronic device
WO2013063697A1 (en) 2011-11-02 2013-05-10 Research In Motion Limited System and method for enabling voice and video communications using a messaging application
US8996350B1 (en) 2011-11-02 2015-03-31 Dub Software Group, Inc. System and method for automatic document management
US20130110943A1 (en) 2011-11-02 2013-05-02 Apple Inc. Notification and reminder generation, distribution, and storage system
US9471666B2 (en) 2011-11-02 2016-10-18 Salesforce.Com, Inc. System and method for supporting natural language queries and requests against a user's personal data cloud
CN103093334A (zh) 2011-11-04 2013-05-08 周超然 活动通知文本识别并自动转换为日历项的方法
JP5681611B2 (ja) 2011-11-09 2015-03-11 株式会社日立製作所 ナビゲーションシステム、ナビゲーション装置、方法及びサーバ
US9711137B2 (en) 2011-11-10 2017-07-18 At&T Intellectual Property I, Lp Network-based background expert
US8863202B2 (en) 2011-11-11 2014-10-14 Sony Corporation System and method for voice driven cross service search using second display
US8996651B2 (en) 2011-11-12 2015-03-31 Yang Pan System and method for delivering media assets in a cloud environment
WO2013075071A1 (en) 2011-11-18 2013-05-23 Ayman Hammad Mobile wallet store and service injection platform apparatuses, methods and systems
US8972263B2 (en) 2011-11-18 2015-03-03 Soundhound, Inc. System and method for performing dual mode speech recognition
KR101467519B1 (ko) 2011-11-21 2014-12-02 주식회사 케이티 음성 정보를 이용한 컨텐츠 검색 서버 및 방법
CN102510426A (zh) 2011-11-29 2012-06-20 安徽科大讯飞信息科技股份有限公司 个人助理应用访问方法及系统
WO2013082507A1 (en) 2011-11-30 2013-06-06 Decarta Systems and methods for performing geo-search and retrieval of electronic point-of-interest records using a big index
CN103135916A (zh) 2011-11-30 2013-06-05 英特尔公司 手持无线设备中的智能图形界面
KR101830656B1 (ko) 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9323746B2 (en) 2011-12-06 2016-04-26 At&T Intellectual Property I, L.P. System and method for collaborative language translation
KR101193668B1 (ko) 2011-12-06 2012-12-14 위준성 스마트 기기를 이용한 상황 인식 기반 외국어 습득 및 학습 서비스 제공 방법
US9214157B2 (en) 2011-12-06 2015-12-15 At&T Intellectual Property I, L.P. System and method for machine-mediated human-human conversation
US9082402B2 (en) 2011-12-08 2015-07-14 Sri International Generic virtual personal assistant platform
US9646313B2 (en) 2011-12-13 2017-05-09 Microsoft Technology Licensing, Llc Gesture-based tagging to view related content
US8666375B2 (en) 2011-12-14 2014-03-04 Realnetworks, Inc. Customizable media auto-reply systems and methods
US20130159847A1 (en) 2011-12-14 2013-06-20 International Business Machines Corporation Dynamic Personal Dictionaries for Enhanced Collaboration
US8868529B2 (en) 2011-12-16 2014-10-21 Sap Se N-dimensional locking
US9408011B2 (en) 2011-12-19 2016-08-02 Qualcomm Incorporated Automated user/sensor location recognition to customize audio performance in a distributed multi-sensor environment
US20150039295A1 (en) 2011-12-20 2015-02-05 Alona Soschen Natural language processor
CN202453859U (zh) 2011-12-20 2012-09-26 安徽科大讯飞信息科技股份有限公司 一种用于家电的语音交互装置
US8622836B2 (en) 2011-12-22 2014-01-07 Igt Use of wireless signal strength to determine connection
JP2013131087A (ja) * 2011-12-22 2013-07-04 Sharp Corp 表示装置
JP5715042B2 (ja) 2011-12-27 2015-05-07 京セラ株式会社 装置、方法、及びプログラム
JP2013134430A (ja) 2011-12-27 2013-07-08 Toyota Motor Corp コマンド処理装置、方法、及びプログラム
US8996729B2 (en) 2012-04-12 2015-03-31 Nokia Corporation Method and apparatus for synchronizing tasks performed by multiple devices
US20130173610A1 (en) 2011-12-29 2013-07-04 Microsoft Corporation Extracting Search-Focused Key N-Grams and/or Phrases for Relevance Rankings in Searches
US8818810B2 (en) 2011-12-29 2014-08-26 Robert Bosch Gmbh Speaker verification in a health monitoring system
US9218122B2 (en) 2011-12-29 2015-12-22 Rovi Guides, Inc. Systems and methods for transferring settings across devices based on user gestures
US9094534B2 (en) 2011-12-29 2015-07-28 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions with a user interface
US9836177B2 (en) 2011-12-30 2017-12-05 Next IT Innovation Labs, LLC Providing variable responses in a virtual-assistant environment
US9189252B2 (en) 2011-12-30 2015-11-17 Microsoft Technology Licensing, Llc Context-based device action prediction
US10739938B2 (en) 2012-01-05 2020-08-11 International Business Machines Corporation Customizing a tag cloud
JP5790509B2 (ja) 2012-01-05 2015-10-07 富士通株式会社 画像再生装置、画像再生プログラム、及び画像再生方法
JP5547216B2 (ja) * 2012-01-06 2014-07-09 株式会社東芝 電子機器及び表示制御方法
US8994560B2 (en) 2012-01-06 2015-03-31 International Business Machines Corporation Managing parking space availability
JP5887937B2 (ja) 2012-01-06 2016-03-16 株式会社リコー 出力制御システム、出力制御方法、出力制御装置、および出力制御プログラム
KR101590332B1 (ko) 2012-01-09 2016-02-18 삼성전자주식회사 영상장치 및 그 제어방법
US9547832B2 (en) 2012-01-10 2017-01-17 Oracle International Corporation Identifying individual intentions and determining responses to individual intentions
US8825020B2 (en) 2012-01-12 2014-09-02 Sensory, Incorporated Information access and device control using mobile phones and audio in the home environment
CN103209369A (zh) 2012-01-16 2013-07-17 晨星软件研发(深圳)有限公司 电子装置的声控系统以及相关控制方法
US8812302B2 (en) 2012-01-17 2014-08-19 Google Inc. Techniques for inserting diacritical marks to text input via a user device
US9418674B2 (en) 2012-01-17 2016-08-16 GM Global Technology Operations LLC Method and system for using vehicle sound information to enhance audio prompting
JP2013148419A (ja) 2012-01-18 2013-08-01 Clarion Co Ltd 誘導システム、携帯端末装置および車載装置
EP2618239B1 (en) 2012-01-19 2016-10-05 BlackBerry Limited Next letter prediction for virtual keyboard
US20130204813A1 (en) 2012-01-20 2013-08-08 Fluential, Llc Self-learning, context aware virtual assistants, systems and methods
US9099098B2 (en) 2012-01-20 2015-08-04 Qualcomm Incorporated Voice activity detection in presence of background noise
US8571528B1 (en) 2012-01-25 2013-10-29 Intuit Inc. Method and system to automatically create a contact with contact details captured during voice calls
WO2013113011A1 (en) 2012-01-26 2013-08-01 Telecommunication Systems, Inc. Natural navigational guidance
US20130197914A1 (en) 2012-01-26 2013-08-01 Microtechnologies Llc D/B/A Microtech Voice activated audio control system and associated method of use
JP5682578B2 (ja) 2012-01-27 2015-03-11 日本電気株式会社 音声認識結果修正支援システム、音声認識結果修正支援方法および音声認識結果修正支援プログラム
US8745760B2 (en) 2012-01-30 2014-06-03 Cisco Technology, Inc. Malware classification for unknown executable files
US20140310365A1 (en) 2012-01-31 2014-10-16 Global Relay Communications Inc. System and Method for Tracking Messages in a Messaging Service
US8626748B2 (en) 2012-02-03 2014-01-07 International Business Machines Corporation Combined word tree text visualization system
US9253135B2 (en) 2012-02-07 2016-02-02 Google Inc. Notification management
KR101900319B1 (ko) 2012-02-07 2018-09-19 삼성전자 주식회사 서비스 연동 수행 방법과 이를 위한 시스템
US8995960B2 (en) 2012-02-10 2015-03-31 Dedo Interactive, Inc. Mobile device authentication
CN102629246B (zh) 2012-02-10 2017-06-27 百纳(武汉)信息技术有限公司 识别浏览器语音命令的服务器及浏览器语音命令识别方法
US8533266B2 (en) 2012-02-14 2013-09-10 Google Inc. User presence detection and event discovery
US10209954B2 (en) 2012-02-14 2019-02-19 Microsoft Technology Licensing, Llc Equal access to speech and touch input
CN103247290A (zh) 2012-02-14 2013-08-14 富泰华工业(深圳)有限公司 通信装置及其控制方法
CN103259907A (zh) 2012-02-15 2013-08-21 深圳富泰宏精密工业有限公司 情景模式切换系统及方法
JP2013167806A (ja) 2012-02-16 2013-08-29 Toshiba Corp 情報通知支援装置、情報通知支援方法、および、プログラム
US8682932B2 (en) 2012-02-16 2014-03-25 Oracle International Corporation Mechanisms for searching enterprise data graphs
US8793136B2 (en) 2012-02-17 2014-07-29 Lg Electronics Inc. Method and apparatus for smart voice recognition
US8832092B2 (en) 2012-02-17 2014-09-09 Bottlenose, Inc. Natural language processing optimized for micro content
CN104115150B (zh) * 2012-02-17 2018-05-04 皇家飞利浦有限公司 急性肺损伤(ali)/急性呼吸窘迫整合征(ards)评估和监测
US8453058B1 (en) 2012-02-20 2013-05-28 Google Inc. Crowd-sourced audio shortcuts
US9064497B2 (en) 2012-02-22 2015-06-23 Htc Corporation Method and apparatus for audio intelligibility enhancement and computing apparatus
JP2013174987A (ja) * 2012-02-24 2013-09-05 Hitachi Consumer Electronics Co Ltd ネットワーク端末システム、及び端末装置
GB2503968B (en) 2012-02-24 2021-02-17 Blackberry Ltd Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
US9042867B2 (en) 2012-02-24 2015-05-26 Agnitio S.L. System and method for speaker recognition on mobile devices
KR101889836B1 (ko) 2012-02-24 2018-08-20 삼성전자주식회사 음성인식을 통한 단말기의 잠금 상태 해제 및 조작 방법 및 장치
JP6053097B2 (ja) 2012-02-28 2016-12-27 シャープ株式会社 機器操作システム、機器操作装置、サーバ、機器操作方法およびプログラム
US10984337B2 (en) 2012-02-29 2021-04-20 Microsoft Technology Licensing, Llc Context-based search query formation
US9026441B2 (en) 2012-02-29 2015-05-05 Nant Holdings Ip, Llc Spoken control for user construction of complex behaviors
US8543398B1 (en) 2012-02-29 2013-09-24 Google Inc. Training an automatic speech recognition system using compressed word frequencies
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US20130235987A1 (en) 2012-03-06 2013-09-12 Jose Arroniz-Escobar Automatic machine to machine distribution of subscriber contact information
EP2648364B1 (en) 2012-03-07 2018-06-06 Accenture Global Services Limited Communication collaboration
US8775177B1 (en) 2012-03-08 2014-07-08 Google Inc. Speech recognition process
US20130238326A1 (en) 2012-03-08 2013-09-12 Lg Electronics Inc. Apparatus and method for multiple device voice control
US9639174B2 (en) 2012-03-09 2017-05-02 Paypal, Inc. Mobile device display content based on shaking the device
SG11201404678RA (en) 2012-03-14 2014-09-26 Nec Corp Term synonym acquisition method and term synonym acquisition apparatus
WO2013138633A1 (en) 2012-03-15 2013-09-19 Regents Of The University Of Minnesota Automated verbal fluency assessment
KR101980173B1 (ko) 2012-03-16 2019-05-20 삼성전자주식회사 서드 파티 테스크 공급자들의 서비스 제공을 대행하는 협력적 퍼스널 어시스턴트 시스템 및 그에 따른 방법
EP2639792A1 (en) 2012-03-16 2013-09-18 France Télécom Voice control of applications by associating user input with action-context idendifier pairs
US9223497B2 (en) 2012-03-16 2015-12-29 Blackberry Limited In-context word prediction and word correction
JP5870790B2 (ja) 2012-03-19 2016-03-01 富士通株式会社 文章校正装置、及び文章校正方法
US8898064B1 (en) 2012-03-19 2014-11-25 Rawles Llc Identifying candidate passwords from captured audio
WO2013138999A1 (en) 2012-03-20 2013-09-26 Nokia Corporation Method and apparatus for providing group context sensing and inference
CN102663016B (zh) 2012-03-21 2015-12-16 上海触乐信息科技有限公司 电子设备上输入候选框进行输入信息扩展的系统及其方法
JP2013200423A (ja) 2012-03-23 2013-10-03 Toshiba Corp 音声対話支援装置、方法、およびプログラム
US9609395B2 (en) 2012-03-26 2017-03-28 Max Abecassis Second screen subtitles function
US9135955B2 (en) 2012-03-26 2015-09-15 Max Abecassis Playing a video presentation with playback functions
JP5965175B2 (ja) 2012-03-27 2016-08-03 ヤフー株式会社 応答生成装置、応答生成方法および応答生成プログラム
US8681950B2 (en) 2012-03-28 2014-03-25 Interactive Intelligence, Inc. System and method for fingerprinting datasets
WO2013144759A1 (en) 2012-03-29 2013-10-03 Telmap Ltd. Location-based assistance for personal planning
US9230257B2 (en) 2012-03-30 2016-01-05 Sap Se Systems and methods for customer relationship management
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
CN103366741B (zh) 2012-03-31 2019-05-17 上海果壳电子有限公司 语音输入纠错方法及系统
ITRM20120142A1 (it) 2012-04-05 2013-10-06 X2Tv S R L Procedimento e sistema per la raccolta in tempo reale di un feedback da parte del pubblico di una trasmissione televisiva o radiofonica
US8346563B1 (en) 2012-04-10 2013-01-01 Artificial Solutions Ltd. System and methods for delivering advanced natural language interaction applications
US8892419B2 (en) 2012-04-10 2014-11-18 Artificial Solutions Iberia SL System and methods for semiautomatic generation and tuning of natural language interaction applications
US8996356B1 (en) 2012-04-10 2015-03-31 Google Inc. Techniques for predictive input method editors
US20130275117A1 (en) 2012-04-11 2013-10-17 Morgan H. Winer Generalized Phonetic Transliteration Engine
US10964320B2 (en) 2012-04-13 2021-03-30 View, Inc. Controlling optically-switchable devices
US9685160B2 (en) 2012-04-16 2017-06-20 Htc Corporation Method for offering suggestion during conversation, electronic device using the same, and non-transitory storage medium
US20130282709A1 (en) 2012-04-18 2013-10-24 Yahoo! Inc. Method and system for query suggestion
US9223537B2 (en) 2012-04-18 2015-12-29 Next It Corporation Conversation user interface
US20130279724A1 (en) 2012-04-19 2013-10-24 Sony Computer Entertainment Inc. Auto detection of headphone orientation
WO2013155619A1 (en) 2012-04-20 2013-10-24 Sam Pasupalak Conversational agent
US20130283199A1 (en) 2012-04-24 2013-10-24 Microsoft Corporation Access to an Application Directly from a Lock Screen
US9117449B2 (en) 2012-04-26 2015-08-25 Nuance Communications, Inc. Embedded system for construction of small footprint speech recognition with user-definable constraints
TWI511537B (zh) 2012-04-27 2015-12-01 Wistron Corp 智慧型電視系統、智慧型電視、行動裝置及其輸入操作方法
BR112014018604B1 (pt) 2012-04-27 2022-02-01 Hewlett-Packard Development Company, L.P. Dispositivo de computação, método para receber entrada de áudio e meio legível por computador não volátil
US9785883B2 (en) 2012-04-27 2017-10-10 Excalibur Ip, Llc Avatars for use with personalized generalized content recommendations
CN102682771B (zh) 2012-04-27 2013-11-20 厦门思德电子科技有限公司 一种适用于云平台的多语音控制方法
US20130289991A1 (en) 2012-04-30 2013-10-31 International Business Machines Corporation Application of Voice Tags in a Social Media Context
US20130285916A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
KR101946364B1 (ko) 2012-05-01 2019-02-11 엘지전자 주식회사 적어도 하나의 마이크 센서를 갖는 모바일 디바이스 및 그 제어방법
US10088853B2 (en) 2012-05-02 2018-10-02 Honeywell International Inc. Devices and methods for interacting with an HVAC controller
CN103384290A (zh) 2012-05-03 2013-11-06 中兴通讯股份有限公司 具备定位导航功能的移动终端及其快捷定位导航的方法
US9058332B1 (en) 2012-05-04 2015-06-16 Google Inc. Blended ranking of dissimilar populations using an N-furcated normalization technique
CN102694909A (zh) 2012-05-07 2012-09-26 深圳桑菲消费通信有限公司 一种手机的智能锁屏系统和方法
KR101977072B1 (ko) 2012-05-07 2019-05-10 엘지전자 주식회사 음성 파일과 관련된 텍스트의 표시 방법 및 이를 구현한 전자기기
US9406299B2 (en) 2012-05-08 2016-08-02 Nuance Communications, Inc. Differential acoustic model representation and linear transform-based adaptation for efficient user profile update techniques in automatic speech recognition
US8732560B2 (en) 2012-05-08 2014-05-20 Infineon Technologies Ag Method and device for correction of ternary stored binary data
US9423870B2 (en) 2012-05-08 2016-08-23 Google Inc. Input determination method
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
US8725808B2 (en) 2012-05-10 2014-05-13 Intel Mobile Communications GmbH Method for transferring data between a first device and a second device
WO2013169043A1 (ko) 2012-05-10 2013-11-14 엘지전자 주식회사 Nfc를 이용한 콘텐트 다운로드 방법 및 장치
US9746916B2 (en) 2012-05-11 2017-08-29 Qualcomm Incorporated Audio user interaction recognition and application interface
JP2013238935A (ja) * 2012-05-11 2013-11-28 Sharp Corp 入力装置、入力装置の制御方法、制御プログラム、および記録媒体
US20130304476A1 (en) 2012-05-11 2013-11-14 Qualcomm Incorporated Audio User Interaction Recognition and Context Refinement
JP5996262B2 (ja) 2012-05-11 2016-09-21 シャープ株式会社 文字入力装置、電子機器、制御方法、制御プログラムおよび記録媒体
US9002768B2 (en) 2012-05-12 2015-04-07 Mikhail Fedorov Human-computer interface system
US8897822B2 (en) 2012-05-13 2014-11-25 Wavemarket, Inc. Auto responder
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US20130308922A1 (en) 2012-05-15 2013-11-21 Microsoft Corporation Enhanced video discovery and productivity through accessibility
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
US20130307855A1 (en) 2012-05-16 2013-11-21 Mathew J. Lamb Holographic story telling
TWI466101B (zh) 2012-05-18 2014-12-21 Asustek Comp Inc 語音識別方法及系統
CN103426428B (zh) 2012-05-18 2016-05-25 华硕电脑股份有限公司 语音识别方法及系统
US20120296638A1 (en) 2012-05-18 2012-11-22 Ashish Patwa Method and system for quickly recognizing and responding to user intents and questions from natural language input using intelligent hierarchical processing and personalized adaptive semantic interface
US9247306B2 (en) 2012-05-21 2016-01-26 Intellectual Ventures Fund 83 Llc Forming a multimedia product using video chat
US8484573B1 (en) 2012-05-23 2013-07-09 Google Inc. Predictive virtual keyboard
US9406084B2 (en) 2012-05-23 2016-08-02 Specialty's Café & Bakery, Inc. Methods for submitting a food order remotely
US8850037B2 (en) 2012-05-24 2014-09-30 Fmr Llc Communication session transfer between devices
US9374448B2 (en) 2012-05-27 2016-06-21 Qualcomm Incorporated Systems and methods for managing concurrent audio messages
US9173074B2 (en) 2012-05-27 2015-10-27 Qualcomm Incorporated Personal hub presence and response
US9582146B2 (en) 2012-05-29 2017-02-28 Nokia Technologies Oy Causing display of search results
US20130325436A1 (en) 2012-05-29 2013-12-05 Wright State University Large Scale Distributed Syntactic, Semantic and Lexical Language Models
KR20130133629A (ko) 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
TWI492221B (zh) 2012-05-30 2015-07-11 友達光電股份有限公司 遙控裝置、遙控系統及遙控裝置之控制方法
US9307293B2 (en) 2012-05-30 2016-04-05 Palo Alto Research Center Incorporated Collaborative video application for remote servicing
US8768693B2 (en) 2012-05-31 2014-07-01 Yahoo! Inc. Automatic tag extraction from audio annotated photos
US9620128B2 (en) 2012-05-31 2017-04-11 Elwha Llc Speech recognition adaptation systems based on adaptation data
US20130325447A1 (en) 2012-05-31 2013-12-05 Elwha LLC, a limited liability corporation of the State of Delaware Speech recognition adaptation systems based on adaptation data
CN102750087A (zh) 2012-05-31 2012-10-24 华为终端有限公司 控制语音识别功能的方法、装置和终端设备
US9123338B1 (en) 2012-06-01 2015-09-01 Google Inc. Background audio identification for speech disambiguation
CN103455234A (zh) 2012-06-01 2013-12-18 腾讯科技(深圳)有限公司 显示应用程序界面的方法及装置
US20130321267A1 (en) 2012-06-04 2013-12-05 Apple Inc. Dynamically changing a character associated with a key of a keyboard
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9311750B2 (en) 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US8725823B2 (en) 2012-06-05 2014-05-13 Forget You Not, LLC Location-based communications
US9043150B2 (en) 2012-06-05 2015-05-26 Apple Inc. Routing applications for navigation
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US8515750B1 (en) 2012-06-05 2013-08-20 Google Inc. Realtime acoustic adaptation using stability measures
US20130325343A1 (en) 2012-06-05 2013-12-05 Apple Inc. Mapping application with novel search field
US9135751B2 (en) * 2012-06-05 2015-09-15 Apple Inc. Displaying location preview
US9261961B2 (en) 2012-06-07 2016-02-16 Nook Digital, Llc Accessibility aids for users of electronic devices
US9071564B2 (en) 2012-06-07 2015-06-30 Apple Inc. Data synchronization using mail and push notification services
US9002380B2 (en) 2012-06-08 2015-04-07 Apple Inc. Proximity-based notifications in a mobile device
US20130332168A1 (en) 2012-06-08 2013-12-12 Samsung Electronics Co., Ltd. Voice activated search and control for applications
US9674331B2 (en) 2012-06-08 2017-06-06 Apple Inc. Transmitting data from an automated assistant to an accessory
US20130332159A1 (en) 2012-06-08 2013-12-12 Apple Inc. Using fan throttling to enhance dictation accuracy
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
WO2013185107A1 (en) 2012-06-08 2013-12-12 Spotify Ab Systems and methods for recognizing ambiguity in metadata
WO2013185109A2 (en) 2012-06-08 2013-12-12 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
EP2675147B1 (en) 2012-06-11 2022-03-23 Samsung Electronics Co., Ltd. Service providing system in a vehicle including display device and mobile device, and method for providing service using the same
US9916514B2 (en) 2012-06-11 2018-03-13 Amazon Technologies, Inc. Text recognition driven functionality
US9183845B1 (en) 2012-06-12 2015-11-10 Amazon Technologies, Inc. Adjusting audio signals based on a specific frequency range associated with environmental noise characteristics
JP5921348B2 (ja) 2012-06-13 2016-05-24 三菱電機株式会社 映像表示端末
WO2013185329A1 (en) 2012-06-14 2013-12-19 Nokia Corporation Method and apparatus for associating interest tags with media items based on social diffusions among users
CN104488275B (zh) 2012-06-14 2018-07-03 弗莱克斯电子有限责任公司 用于定制电视内容的方法和系统
US20130339454A1 (en) 2012-06-15 2013-12-19 Michael Walker Systems and methods for communicating between multiple access devices
JP5819261B2 (ja) 2012-06-19 2015-11-18 株式会社Nttドコモ 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
US9734839B1 (en) 2012-06-20 2017-08-15 Amazon Technologies, Inc. Routing natural language commands to the appropriate applications
US9185501B2 (en) 2012-06-20 2015-11-10 Broadcom Corporation Container-located information transfer module
US20130347018A1 (en) 2012-06-21 2013-12-26 Amazon Technologies, Inc. Providing supplemental content with active media
US20130347029A1 (en) 2012-06-21 2013-12-26 United Video Properties, Inc. Systems and methods for navigating to content without an advertisement
US20140012574A1 (en) 2012-06-21 2014-01-09 Maluuba Inc. Interactive timeline for presenting and organizing tasks
US20130346347A1 (en) 2012-06-22 2013-12-26 Google Inc. Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context
US8606577B1 (en) 2012-06-25 2013-12-10 Google Inc. Visual confirmation of voice recognized text input
US20130346068A1 (en) 2012-06-25 2013-12-26 Apple Inc. Voice-Based Image Tagging and Searching
US9305555B2 (en) 2012-06-25 2016-04-05 Mitsubishi Electric Corporation Onboard information device
US20130342672A1 (en) 2012-06-25 2013-12-26 Amazon Technologies, Inc. Using gaze determination with device input
US9813882B1 (en) 2012-06-25 2017-11-07 Amazon Technologies, Inc. Mobile notifications based upon notification content
US8819841B2 (en) 2012-06-26 2014-08-26 Google Inc. Automated accounts for media playback
US20150201064A1 (en) 2012-06-26 2015-07-16 Blackberry Limited Methods and apparatus to detect and add impact events to a calendar program
US20140006153A1 (en) 2012-06-27 2014-01-02 Infosys Limited System for making personalized offers for business facilitation of an entity and methods thereof
CN102801853B (zh) 2012-06-27 2017-02-15 宇龙计算机通信科技(深圳)有限公司 移动终端和自动触发任务执行方法
US9141504B2 (en) 2012-06-28 2015-09-22 Apple Inc. Presenting status data received from multiple devices
JP6050625B2 (ja) 2012-06-28 2016-12-21 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに情報通信システム
KR101961139B1 (ko) 2012-06-28 2019-03-25 엘지전자 주식회사 이동 단말기 및 그것의 음성 인식 방법
US20140002338A1 (en) 2012-06-28 2014-01-02 Intel Corporation Techniques for pose estimation and false positive filtering for gesture recognition
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
JP5852930B2 (ja) 2012-06-29 2016-02-03 Kddi株式会社 入力文字推定装置およびプログラム
US10620797B2 (en) 2012-06-29 2020-04-14 Spotify Ab Systems and methods for multi-context media control and playback
US9996628B2 (en) 2012-06-29 2018-06-12 Verisign, Inc. Providing audio-activated resource access for user devices based on speaker voiceprint
US9195383B2 (en) 2012-06-29 2015-11-24 Spotify Ab Systems and methods for multi-path control signals for media presentation devices
US9426229B2 (en) 2012-06-29 2016-08-23 Nokia Technologies Oy Apparatus and method for selection of a device for content sharing operations
US20140006012A1 (en) 2012-07-02 2014-01-02 Microsoft Corporation Learning-Based Processing of Natural Language Questions
US9536528B2 (en) 2012-07-03 2017-01-03 Google Inc. Determining hotword suitability
KR101972955B1 (ko) 2012-07-03 2019-04-26 삼성전자 주식회사 음성을 이용한 사용자 디바이스들 간 서비스 연결 방법 및 장치
CN103533143A (zh) 2012-07-03 2014-01-22 联想(北京)有限公司 一种信息处理方法及电子设备
KR20140004515A (ko) 2012-07-03 2014-01-13 삼성전자주식회사 디스플레이 장치, 대화형 시스템 및 응답 정보 제공 방법
US9064493B2 (en) 2012-07-09 2015-06-23 Nuance Communications, Inc. Detecting potential significant errors in speech recognition results
CN103543902A (zh) 2012-07-09 2014-01-29 上海博路信息技术有限公司 一种短信地址的地图显示方法
US20140019460A1 (en) 2012-07-12 2014-01-16 Yahoo! Inc. Targeted search suggestions
CN103544140A (zh) 2012-07-12 2014-01-29 国际商业机器公司 一种数据处理方法、展示方法和相应的装置
US9053708B2 (en) 2012-07-18 2015-06-09 International Business Machines Corporation System, method and program product for providing automatic speech recognition (ASR) in a shared resource environment
US9355157B2 (en) 2012-07-20 2016-05-31 Intertrust Technologies Corporation Information targeting systems and methods
US20140026101A1 (en) 2012-07-20 2014-01-23 Barnesandnoble.Com Llc Accessible Menu Navigation Techniques For Electronic Devices
US9442687B2 (en) 2012-07-23 2016-09-13 Korea Advanced Institute Of Science And Technology Method and apparatus for moving web object based on intent
US20140028477A1 (en) 2012-07-24 2014-01-30 Apple Inc. Vehicle location system
US9953584B2 (en) 2012-07-24 2018-04-24 Nook Digital, Llc Lighting techniques for display devices
KR101512278B1 (ko) 2012-07-25 2015-04-17 아로, 인코포레이티드 스토리라인을 생성하고, 사용자 루틴 및 개성을 모델링하고, 맞춤형 추천 에이전트를 생성하는 모바일 장치 데이터 사용
US8589911B1 (en) 2012-07-26 2013-11-19 Google Inc. Intent fulfillment
US8949334B2 (en) 2012-07-26 2015-02-03 Microsoft Corporation Push-based recommendations
JP2014026629A (ja) 2012-07-26 2014-02-06 Panasonic Corp 入力装置及び入力支援方法
US8442821B1 (en) 2012-07-27 2013-05-14 Google Inc. Multi-frame prediction for hybrid neural network/hidden Markov models
US8922034B2 (en) 2012-07-27 2014-12-30 Illinois Tool Works Inc. Power converter for engine generator
WO2014017134A1 (ja) 2012-07-27 2014-01-30 ソニー株式会社 情報処理システムおよび記憶媒体
US8990343B2 (en) 2012-07-30 2015-03-24 Google Inc. Transferring a state of an application from a first computing device to a second computing device
US20140039893A1 (en) 2012-07-31 2014-02-06 Sri International Personalized Voice-Driven User Interfaces for Remote Multi-User Services
US9465833B2 (en) 2012-07-31 2016-10-11 Veveo, Inc. Disambiguating user intent in conversational interaction system for large corpus information retrieval
US20140035823A1 (en) 2012-08-01 2014-02-06 Apple Inc. Dynamic Context-Based Language Determination
US8831957B2 (en) 2012-08-01 2014-09-09 Google Inc. Speech recognition models based on location indicia
US10108725B2 (en) 2012-08-02 2018-10-23 Rule 14 Real-time and adaptive data mining
US8953757B2 (en) 2012-08-06 2015-02-10 Angel.Com Incorporated Preloading contextual information for applications using a conversation assistant
US9390174B2 (en) 2012-08-08 2016-07-12 Google Inc. Search result ranking and presentation
TWI442081B (zh) 2012-08-10 2014-06-21 Acer Inc 多裝置間轉移工作的方法及手持通訊裝置
CN104704797B (zh) 2012-08-10 2018-08-10 纽昂斯通讯公司 用于电子设备的虚拟代理通信
US20140052791A1 (en) 2012-08-14 2014-02-20 International Business Machines Corporation Task Based Filtering of Unwanted Electronic Communications
US10163058B2 (en) 2012-08-14 2018-12-25 Sri International Method, system and device for inferring a mobile user's current context and proactively providing assistance
IN2015DN01946A (ja) 2012-08-15 2015-08-07 Ie Business Plains Llc
US20140053101A1 (en) 2012-08-15 2014-02-20 Ge Aviation Systems Llc Methods for displaying on a graphical user interface
KR101922464B1 (ko) 2012-08-16 2018-11-27 삼성전자주식회사 메시지 송수신 방법 및 그 전자장치
US9292487B1 (en) 2012-08-16 2016-03-22 Amazon Technologies, Inc. Discriminative language model pruning
WO2014028797A1 (en) 2012-08-16 2014-02-20 Nuance Communications, Inc. User interface for entertainment systems
US9497515B2 (en) 2012-08-16 2016-11-15 Nuance Communications, Inc. User interface for entertainment systems
US9031848B2 (en) 2012-08-16 2015-05-12 Nuance Communications, Inc. User interface for searching a bundled service content data source
CN102820033B (zh) 2012-08-17 2013-12-04 南京大学 一种声纹识别方法
US20140279739A1 (en) 2013-03-15 2014-09-18 InsideSales.com, Inc. Resolving and merging duplicate records using machine learning
US20160357790A1 (en) 2012-08-20 2016-12-08 InsideSales.com, Inc. Resolving and merging duplicate records using machine learning
US20150199960A1 (en) 2012-08-24 2015-07-16 Microsoft Corporation I-Vector Based Clustering Training Data in Speech Recognition
US9229924B2 (en) 2012-08-24 2016-01-05 Microsoft Technology Licensing, Llc Word detection and domain dictionary recommendation
US20150227505A1 (en) 2012-08-27 2015-08-13 Hitachi, Ltd. Word meaning relationship extraction device
US9049295B1 (en) 2012-08-28 2015-06-02 West Corporation Intelligent interactive voice response system for processing customer communications
US9026425B2 (en) 2012-08-28 2015-05-05 Xerox Corporation Lexical and phrasal feature domain adaptation in statistical machine translation
US9390370B2 (en) 2012-08-28 2016-07-12 International Business Machines Corporation Training deep neural network acoustic models using distributed hessian-free optimization
JP6393021B2 (ja) 2012-08-28 2018-09-19 京セラ株式会社 電子機器、制御方法、及び制御プログラム
CN104584601B (zh) 2012-08-28 2018-10-09 诺基亚技术有限公司 发现方法和用于发现的装置和系统
KR102081925B1 (ko) 2012-08-29 2020-02-26 엘지전자 주식회사 디스플레이 디바이스 및 스피치 검색 방법
CN102866828B (zh) 2012-08-29 2015-11-25 腾讯科技(深圳)有限公司 一种终端控制方法和设备
US9218333B2 (en) 2012-08-31 2015-12-22 Microsoft Technology Licensing, Llc Context sensitive auto-correction
US9424840B1 (en) 2012-08-31 2016-08-23 Amazon Technologies, Inc. Speech recognition platforms
US20140074589A1 (en) 2012-09-02 2014-03-13 Aaron David NIELSEN System and method for the selection and delivery of a customized consumer offer or engagement dialog by a live customer service representative in communication with a consumer
KR101398218B1 (ko) 2012-09-03 2014-05-22 경희대학교 산학협력단 감정 음성 인식장치 및 방법
CN103493500A (zh) 2012-09-04 2014-01-01 华为终端有限公司 媒体播放方法、控制点和终端
US8826415B2 (en) 2012-09-04 2014-09-02 Apple Inc. Automated device access
US9325809B1 (en) 2012-09-07 2016-04-26 Mindmeld, Inc. Audio recall during voice conversations
US9536049B2 (en) 2012-09-07 2017-01-03 Next It Corporation Conversational virtual healthcare assistant
JP5999839B2 (ja) * 2012-09-10 2016-09-28 ルネサスエレクトロニクス株式会社 音声案内システム及び電子機器
US20140074466A1 (en) 2012-09-10 2014-03-13 Google Inc. Answering questions using environmental context
EP2706458A1 (en) 2012-09-10 2014-03-12 Canon Kabushiki Kaisha Method and device for controlling communication between applications in a web runtime environment
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US8600746B1 (en) 2012-09-10 2013-12-03 Google Inc. Speech recognition parameter adjustment
US20150088523A1 (en) 2012-09-10 2015-03-26 Google Inc. Systems and Methods for Designing Voice Applications
US20140074470A1 (en) 2012-09-11 2014-03-13 Google Inc. Phonetic pronunciation
US20140074472A1 (en) 2012-09-12 2014-03-13 Chih-Hung Lin Voice control system with portable voice control device
WO2014040263A1 (en) 2012-09-14 2014-03-20 Microsoft Corporation Semantic ranking using a forward index
US20140078065A1 (en) 2012-09-15 2014-03-20 Ahmet Akkok Predictive Keyboard With Suppressed Keys
JP6057637B2 (ja) 2012-09-18 2017-01-11 株式会社アイ・オー・データ機器 携帯型情報端末装置、機能切替方法、および機能切替プログラム
WO2014047161A2 (en) 2012-09-18 2014-03-27 Google Inc. Posture-adaptive selection
US9081482B1 (en) 2012-09-18 2015-07-14 Google Inc. Text input suggestion ranking
US9519641B2 (en) 2012-09-18 2016-12-13 Abbyy Development Llc Photography recognition translation
US10656808B2 (en) 2012-09-18 2020-05-19 Adobe Inc. Natural language and user interface controls
US8823507B1 (en) 2012-09-19 2014-09-02 Amazon Technologies, Inc. Variable notification alerts
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8769651B2 (en) 2012-09-19 2014-07-01 Secureauth Corporation Mobile multifactor single-sign-on authentication
US9105268B2 (en) 2012-09-19 2015-08-11 24/7 Customer, Inc. Method and apparatus for predicting intent in IVR using natural language queries
KR101919792B1 (ko) 2012-09-20 2018-11-19 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US10042603B2 (en) 2012-09-20 2018-08-07 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
US9076450B1 (en) 2012-09-21 2015-07-07 Amazon Technologies, Inc. Directed audio for speech recognition
US20140211944A1 (en) 2012-09-24 2014-07-31 Daniel Joseph Lutz System and method of protecting, storing and decrypting keys over a computerized network
US8983383B1 (en) 2012-09-25 2015-03-17 Rawles Llc Providing hands-free service to multiple devices
US9092415B2 (en) 2012-09-25 2015-07-28 Rovi Guides, Inc. Systems and methods for automatic program recommendations based on user interactions
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
US8983836B2 (en) 2012-09-26 2015-03-17 International Business Machines Corporation Captioning using socially derived acoustic profiles
JP6068901B2 (ja) 2012-09-26 2017-01-25 京セラ株式会社 情報端末、音声操作プログラムおよび音声操作方法
CN104871576A (zh) 2012-09-27 2015-08-26 伊吉斯移动公司 包含近场通信的移动设备情境
US8498864B1 (en) 2012-09-27 2013-07-30 Google Inc. Methods and systems for predicting a text
JP2014072586A (ja) 2012-09-27 2014-04-21 Sharp Corp 表示装置、表示方法、テレビジョン受像機、プログラム、および、記録媒体
CN104469255A (zh) 2013-09-16 2015-03-25 杜比实验室特许公司 改进的音频或视频会议
US10096316B2 (en) 2013-11-27 2018-10-09 Sri International Sharing intents to provide virtual assistance in a multi-person dialog
US10824310B2 (en) 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
US9052964B2 (en) 2012-09-28 2015-06-09 International Business Machines Corporation Device operability enhancement with alternative device utilization
US8806613B2 (en) 2012-09-28 2014-08-12 Intel Corporation Intelligent task assignment and authorization systems and methods
KR20140042994A (ko) 2012-09-28 2014-04-08 한국전자통신연구원 가상 에이전트와의 대화 내용에서 자동으로 추출되는 개인 프로파일링 정보를 이용한 자동학습 기반의 인공지능 대화 시스템
US20140095171A1 (en) 2012-10-01 2014-04-03 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US10276157B2 (en) 2012-10-01 2019-04-30 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US20140095172A1 (en) 2012-10-01 2014-04-03 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US8645128B1 (en) 2012-10-02 2014-02-04 Google Inc. Determining pitch dynamics of an audio signal
US9367236B2 (en) 2012-10-05 2016-06-14 Google Inc. System and method for processing touch actions
KR102009423B1 (ko) 2012-10-08 2019-08-09 삼성전자주식회사 음성 인식을 이용한 미리 설정된 동작 모드의 수행 방법 및 장치
US9230560B2 (en) 2012-10-08 2016-01-05 Nant Holdings Ip, Llc Smart home automation systems and methods
US8606568B1 (en) 2012-10-10 2013-12-10 Google Inc. Evaluating pronouns in context
CN102915731B (zh) 2012-10-10 2019-02-05 百度在线网络技术(北京)有限公司 一种个性化的语音识别的方法及装置
US8543397B1 (en) 2012-10-11 2013-09-24 Google Inc. Mobile device voice activation
US10275513B1 (en) 2012-10-12 2019-04-30 Google Llc Providing application functionality
JP6066471B2 (ja) 2012-10-12 2017-01-25 本田技研工業株式会社 対話システム及び対話システム向け発話の判別方法
US8713433B1 (en) 2012-10-16 2014-04-29 Google Inc. Feature-based autocorrection
CN103727948B (zh) 2012-10-16 2016-08-17 北京掌行通信息技术有限公司 乘车导航的实时诱导方法
US8843845B2 (en) 2012-10-16 2014-09-23 Google Inc. Multi-gesture text input prediction
KR101451943B1 (ko) * 2012-10-16 2014-11-03 크루셜텍 (주) 화면 제어 방법 및 이를 구현하는 셋톱박스
CN102882752A (zh) 2012-10-19 2013-01-16 天津光宏科技有限公司 基于物联网及安卓系统的智能家居系统及控制方法
US9031293B2 (en) 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
EP2909699A1 (en) 2012-10-22 2015-08-26 VID SCALE, Inc. User presence detection in mobile devices
WO2014064531A1 (en) 2012-10-22 2014-05-01 Spotify Ab Systems and methods for pre-fetching media content
US9305439B2 (en) 2012-10-25 2016-04-05 Google Inc. Configurable indicator on computing device
US8527276B1 (en) 2012-10-25 2013-09-03 Google Inc. Speech synthesis using deep neural networks
US20150228274A1 (en) 2012-10-26 2015-08-13 Nokia Technologies Oy Multi-Device Speech Recognition
US9459176B2 (en) 2012-10-26 2016-10-04 Azima Holdings, Inc. Voice controlled vibration data analyzer systems and methods
US8655307B1 (en) 2012-10-26 2014-02-18 Lookout, Inc. System and method for developing, updating, and using user device behavioral context models to modify user, device, and application state, settings and behavior for enhanced user security
US20140122086A1 (en) 2012-10-26 2014-05-01 Microsoft Corporation Augmenting speech recognition with depth imaging
US9158560B2 (en) 2012-10-26 2015-10-13 Verizon Patent And Licensing Inc. Dynamic application arranger
KR20140054643A (ko) 2012-10-29 2014-05-09 삼성전자주식회사 음성인식장치 및 음성인식방법
WO2014070872A2 (en) 2012-10-30 2014-05-08 Robert Bosch Gmbh System and method for multimodal interaction with reduced distraction in operating vehicles
US10304465B2 (en) 2012-10-30 2019-05-28 Google Technology Holdings LLC Voice control user interface for low power mode
KR102117841B1 (ko) 2012-10-30 2020-06-02 삼성전자주식회사 전자장치 및 그 제어방법
KR101967917B1 (ko) 2012-10-30 2019-08-13 삼성전자주식회사 음성을 인식하는 전자 장치 및 방법
US20140122153A1 (en) 2012-10-31 2014-05-01 DoWhatILikeBest, LLC Favorite and serendipitous event correlation and notification
US9734151B2 (en) * 2012-10-31 2017-08-15 Tivo Solutions Inc. Method and system for voice based media search
US8606576B1 (en) 2012-11-02 2013-12-10 Google Inc. Communication log with extracted keywords from speech-to-text processing
US9093069B2 (en) 2012-11-05 2015-07-28 Nuance Communications, Inc. Privacy-sensitive speech model creation via aggregation of multiple user models
CN104903908A (zh) 2012-11-07 2015-09-09 英特托拉斯技术公司 个人数据管理系统及方法
JP6018881B2 (ja) 2012-11-07 2016-11-02 株式会社日立製作所 ナビゲーション装置、及びナビゲーション方法
KR101510860B1 (ko) 2012-11-08 2015-04-10 아주대학교산학협력단 사용자 의도 파악 어플리케이션 서비스 방법 및 서버와 이를 이용한 사용자 의도 파악 어플리케이션 서비스 시스템
US20140136987A1 (en) 2012-11-09 2014-05-15 Apple Inc. Generation of a user interface based on contacts
WO2014073825A1 (en) * 2012-11-09 2014-05-15 Lg Electronics Inc. Portable device and control method thereof
US9275642B2 (en) 2012-11-13 2016-03-01 Unified Computer Intelligence Corporation Voice-operated internet-ready ubiquitous computing device and method thereof
KR20140060995A (ko) 2012-11-13 2014-05-21 삼성전자주식회사 상황별 거절 메시지 제공 방법 및 이를 지원하는 단말기
US9247387B2 (en) 2012-11-13 2016-01-26 International Business Machines Corporation Proximity based reminders
KR101709187B1 (ko) 2012-11-14 2017-02-23 한국전자통신연구원 계층적 대화 태스크 라이브러리를 이용한 이중 대화관리 기반 음성대화시스템
KR20140061803A (ko) 2012-11-14 2014-05-22 삼성전자주식회사 프로젝션 장치
US9235321B2 (en) 2012-11-14 2016-01-12 Facebook, Inc. Animation sequence associated with content item
US9798799B2 (en) 2012-11-15 2017-10-24 Sri International Vehicle personal assistant that interprets spoken natural language input based upon vehicle context
US9085303B2 (en) 2012-11-15 2015-07-21 Sri International Vehicle personal assistant
US9032219B2 (en) 2012-11-16 2015-05-12 Nuance Communications, Inc. Securing speech recognition data
KR102028702B1 (ko) 2012-11-16 2019-10-04 삼성전자주식회사 현재의 상태에 따른 응답 메시지를 송신하는 전자 장치 및 방법
US9378456B2 (en) 2012-11-19 2016-06-28 Microsoft Technology Licensing, Llc Task completion
US8965754B2 (en) 2012-11-20 2015-02-24 International Business Machines Corporation Text prediction using environment hints
KR20140064246A (ko) 2012-11-20 2014-05-28 한국전자통신연구원 착용형 디스플레이 장치
JP2014102669A (ja) 2012-11-20 2014-06-05 Toshiba Corp 情報処理装置、情報処理方法およびプログラム
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9251713B1 (en) 2012-11-20 2016-02-02 Anthony J. Giovanniello System and process for assessing a user and for assisting a user in rehabilitation
KR101995428B1 (ko) 2012-11-20 2019-07-02 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2014078965A1 (en) 2012-11-22 2014-05-30 8303142 Canada Inc. System and method for managing several mobile devices simultaneously
WO2014084413A1 (ko) 2012-11-28 2014-06-05 엘지전자 주식회사 가전 기기 구동 장치 및 방법
WO2014142702A1 (en) 2013-03-15 2014-09-18 Obschestvo S Ogranichennoy Otvetstvennostiyu "Speaktoit" Selective speech recognition for chat and digital personal assistant systems
RU2530268C2 (ru) 2012-11-28 2014-10-10 Общество с ограниченной ответственностью "Спиктуит" Способ обучения информационной диалоговой системы пользователем
US20140146200A1 (en) 2012-11-28 2014-05-29 Research In Motion Limited Entries to an electronic calendar
US20140149118A1 (en) 2012-11-28 2014-05-29 Lg Electronics Inc. Apparatus and method for driving electric device using speech recognition
KR20210068622A (ko) 2012-11-29 2021-06-09 파세토, 인크. 여러 애플리케이션들을 디스플레이하기 위한 시스템 및 방법
US9589149B2 (en) 2012-11-30 2017-03-07 Microsoft Technology Licensing, Llc Combining personalization and privacy locally on devices
JP2014109889A (ja) 2012-11-30 2014-06-12 Toshiba Corp コンテンツ検索装置、コンテンツ検索方法及び制御プログラム
US9159319B1 (en) 2012-12-03 2015-10-13 Amazon Technologies, Inc. Keyword spotting with competitor models
US9549323B2 (en) 2012-12-03 2017-01-17 Samsung Electronics Co., Ltd. Method and mobile terminal for controlling screen lock
US9026429B2 (en) 2012-12-05 2015-05-05 Facebook, Inc. Systems and methods for character string auto-suggestion based on degree of difficulty
US9819786B2 (en) 2012-12-05 2017-11-14 Facebook, Inc. Systems and methods for a symbol-adaptable keyboard
US9244905B2 (en) 2012-12-06 2016-01-26 Microsoft Technology Licensing, Llc Communication context based predictive-text suggestion
US8615221B1 (en) 2012-12-06 2013-12-24 Google Inc. System and method for selection of notification techniques in an electronic device
US8930181B2 (en) 2012-12-06 2015-01-06 Prashant Parikh Automatic dynamic contextual data entry completion
US20140164476A1 (en) 2012-12-06 2014-06-12 At&T Intellectual Property I, Lp Apparatus and method for providing a virtual assistant
US20140163951A1 (en) 2012-12-07 2014-06-12 Xerox Corporation Hybrid adaptation of named entity recognition
US9471559B2 (en) 2012-12-10 2016-10-18 International Business Machines Corporation Deep analysis of natural language questions for question answering system
KR102091003B1 (ko) 2012-12-10 2020-03-19 삼성전자 주식회사 음성인식 기술을 이용한 상황 인식 서비스 제공 방법 및 장치
US9276802B2 (en) 2012-12-11 2016-03-01 Nuance Communications, Inc. Systems and methods for sharing information between virtual agents
US20140164532A1 (en) 2012-12-11 2014-06-12 Nuance Communications, Inc. Systems and methods for virtual agent participation in multiparty conversation
US9679300B2 (en) 2012-12-11 2017-06-13 Nuance Communications, Inc. Systems and methods for virtual agent recommendation for multiple persons
US9697827B1 (en) 2012-12-11 2017-07-04 Amazon Technologies, Inc. Error reduction in speech processing
US9704486B2 (en) 2012-12-11 2017-07-11 Amazon Technologies, Inc. Speech recognition power management
US9659298B2 (en) 2012-12-11 2017-05-23 Nuance Communications, Inc. Systems and methods for informing virtual agent recommendation
WO2014093339A1 (en) 2012-12-11 2014-06-19 Nuance Communications, Inc. System and methods for virtual agent recommendation for multiple persons
US20140164953A1 (en) 2012-12-11 2014-06-12 Nuance Communications, Inc. Systems and methods for invoking virtual agent
US9148394B2 (en) 2012-12-11 2015-09-29 Nuance Communications, Inc. Systems and methods for user interface presentation of virtual agent
US9117450B2 (en) 2012-12-12 2015-08-25 Nuance Communications, Inc. Combining re-speaking, partial agent transcription and ASR for improved accuracy / human guided ASR
US9190057B2 (en) 2012-12-12 2015-11-17 Amazon Technologies, Inc. Speech model retrieval in distributed speech recognition systems
US9558275B2 (en) 2012-12-13 2017-01-31 Microsoft Technology Licensing, Llc Action broker
US9185742B2 (en) 2012-12-13 2015-11-10 Google Technology Holdings LLC System and methods for a cloud based wireless personal area network service enabling context activity handoffs between devices
KR102090269B1 (ko) 2012-12-14 2020-03-17 삼성전자주식회사 정보 검색 방법, 그와 같은 기능을 갖는 디바이스 및 기록 매체
KR102014778B1 (ko) 2012-12-14 2019-08-27 엘지전자 주식회사 텍스트 메시징 서비스를 제공하는 디지털 디바이스 및 그 제어 방법
US9141660B2 (en) 2012-12-17 2015-09-22 International Business Machines Corporation Intelligent evidence classification and notification in a deep question answering system
US9213754B1 (en) 2012-12-17 2015-12-15 Google Inc. Personalizing content items
WO2014098477A1 (ko) 2012-12-18 2014-06-26 삼성전자 주식회사 홈 네트워크 시스템에서 홈 디바이스를 원격으로 제어하는 방법 및 장치
US9098467B1 (en) 2012-12-19 2015-08-04 Rawles Llc Accepting voice commands based on user identity
US9070366B1 (en) 2012-12-19 2015-06-30 Amazon Technologies, Inc. Architecture for multi-domain utterance processing
US20140179295A1 (en) 2012-12-20 2014-06-26 Enno Luebbers Deriving environmental context and actions from ad-hoc state broadcast
US8645138B1 (en) 2012-12-20 2014-02-04 Google Inc. Two-pass decoding for speech recognition of search and action requests
US8977555B2 (en) 2012-12-20 2015-03-10 Amazon Technologies, Inc. Identification of utterance subjects
WO2014096506A1 (en) 2012-12-21 2014-06-26 Nokia Corporation Method, apparatus, and computer program product for personalizing speech recognition
KR20140082157A (ko) 2012-12-24 2014-07-02 한국전자통신연구원 다중 음향 모델을 이용하여 음성을 인식하기 위한 장치 및 그 방법
JP2014126600A (ja) 2012-12-25 2014-07-07 Panasonic Corp 音声認識装置、音声認識方法、およびテレビ
JP2014124332A (ja) 2012-12-26 2014-07-07 Daiichi Shokai Co Ltd 遊技機
KR20170081744A (ko) 2012-12-29 2017-07-12 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
JP6138274B2 (ja) 2012-12-29 2017-05-31 アップル インコーポレイテッド ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
CN103020047A (zh) 2012-12-31 2013-04-03 威盛电子股份有限公司 修正语音应答的方法及自然语言对话系统
CN103021403A (zh) 2012-12-31 2013-04-03 威盛电子股份有限公司 基于语音识别的选择方法及其移动终端装置及信息系统
CN103077165A (zh) 2012-12-31 2013-05-01 威盛电子股份有限公司 自然语言对话方法及其系统
CN103049567A (zh) 2012-12-31 2013-04-17 威盛电子股份有限公司 检索方法、检索系统以及自然语言理解系统
US8571851B1 (en) 2012-12-31 2013-10-29 Google Inc. Semantic interpretation using user gaze order
KR20140088449A (ko) 2013-01-02 2014-07-10 엘지전자 주식회사 중앙 제어 장치 및 그것의 제어 방법
KR101892734B1 (ko) 2013-01-04 2018-08-28 한국전자통신연구원 음성 인식 시스템에서의 오류 수정 방법 및 그 장치
US9497137B2 (en) 2013-01-04 2016-11-15 Sookbox, LLC Digital content connectivity and control via a plurality of controllers that are treated discriminatively
KR20140089862A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR20140093303A (ko) 2013-01-07 2014-07-28 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR102030114B1 (ko) * 2013-01-07 2019-10-08 삼성전자주식회사 서버 및 그의 제어 방법
JPWO2014109104A1 (ja) 2013-01-08 2017-01-19 クラリオン株式会社 音声認識装置、音声認識プログラム及び音声認識方法
US20140195233A1 (en) 2013-01-08 2014-07-10 Spansion Llc Distributed Speech Recognition System
US9639322B2 (en) 2013-01-09 2017-05-02 Mitsubishi Electric Corporation Voice recognition device and display method
US20140198047A1 (en) 2013-01-14 2014-07-17 Nuance Communications, Inc. Reducing error rates for touch based keyboards
US9292489B1 (en) 2013-01-16 2016-03-22 Google Inc. Sub-lexical language models with word level pronunciation lexicons
US8731912B1 (en) 2013-01-16 2014-05-20 Google Inc. Delaying audio notifications
US8942674B2 (en) 2013-01-18 2015-01-27 Blackberry Limited Responding to incoming calls
US9047274B2 (en) 2013-01-21 2015-06-02 Xerox Corporation Machine translation-driven authoring system and method
JP2014140121A (ja) 2013-01-21 2014-07-31 Sharp Corp 会議支援システム
US20140203939A1 (en) 2013-01-21 2014-07-24 Rtc Inc. Control and monitoring of light-emitting-diode (led) bulbs
US9148499B2 (en) 2013-01-22 2015-09-29 Blackberry Limited Method and system for automatically identifying voice tags through user operation
EP4236281A3 (en) 2013-01-23 2023-10-11 BlackBerry Limited Event-triggered hands-free multitasking for media playback
US9530409B2 (en) 2013-01-23 2016-12-27 Blackberry Limited Event-triggered hands-free multitasking for media playback
CN103971680B (zh) 2013-01-24 2018-06-05 华为终端(东莞)有限公司 一种语音识别的方法、装置
US9165566B2 (en) 2013-01-24 2015-10-20 Microsoft Technology Licensing, Llc Indefinite speech inputs
DE102013001219B4 (de) 2013-01-25 2019-08-29 Inodyn Newmedia Gmbh Verfahren und System zur Sprachaktivierung eines Software-Agenten aus einem Standby-Modus
JP2014142566A (ja) * 2013-01-25 2014-08-07 Alpine Electronics Inc 音声認識システムおよび音声認識方法
JP6251958B2 (ja) 2013-01-28 2017-12-27 富士通株式会社 発話解析装置、音声対話制御装置、方法、及びプログラム
US9971495B2 (en) 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
JP6115152B2 (ja) 2013-01-29 2017-04-19 コニカミノルタ株式会社 情報処理システム、情報処理装置、情報処理端末及びプログラム
WO2014119889A1 (en) 2013-01-31 2014-08-07 Samsung Electronics Co., Ltd. Method of displaying user interface on device, and device
KR20140098947A (ko) 2013-01-31 2014-08-11 삼성전자주식회사 광고 제공 시스템, 사용자 단말 및 광고 제공 방법
JP2014150323A (ja) 2013-01-31 2014-08-21 Sharp Corp 文字入力装置
US20140222435A1 (en) 2013-02-01 2014-08-07 Telenav, Inc. Navigation system with user dependent language mechanism and method of operation thereof
US10055091B2 (en) 2013-02-01 2018-08-21 Microsoft Technology Licensing, Llc Autosave and manual save modes for software applications
US9292492B2 (en) 2013-02-04 2016-03-22 Microsoft Technology Licensing, Llc Scaling statistical language understanding systems across domains and intents
US20140218372A1 (en) * 2013-02-05 2014-08-07 Apple Inc. Intelligent digital assistant in a desktop environment
US8694315B1 (en) 2013-02-05 2014-04-08 Visa International Service Association System and method for authentication using speaker verification techniques and fraud model
WO2014124337A2 (en) 2013-02-07 2014-08-14 Opanga Networks, Inc. Transparent media delivery and proxy
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US20140223481A1 (en) 2013-02-07 2014-08-07 United Video Properties, Inc. Systems and methods for updating a search request
US9519858B2 (en) 2013-02-10 2016-12-13 Microsoft Technology Licensing, Llc Feature-augmented neural networks and applications of same
US9842489B2 (en) 2013-02-14 2017-12-12 Google Llc Waking other devices for additional data
US9408040B2 (en) 2013-02-14 2016-08-02 Fuji Xerox Co., Ltd. Systems and methods for room-level location using WiFi
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US10078437B2 (en) 2013-02-20 2018-09-18 Blackberry Limited Method and apparatus for responding to a notification via a capacitive physical keyboard
US20140236986A1 (en) 2013-02-21 2014-08-21 Apple Inc. Natural language document search
US9621619B2 (en) 2013-02-21 2017-04-11 International Business Machines Corporation Enhanced notification for relevant communications
US9019129B2 (en) 2013-02-21 2015-04-28 Apple Inc. Vehicle location in weak location signal scenarios
US9734819B2 (en) 2013-02-21 2017-08-15 Google Technology Holdings LLC Recognizing accented speech
US10585568B1 (en) 2013-02-22 2020-03-10 The Directv Group, Inc. Method and system of bookmarking content in a mobile device
US9672822B2 (en) 2013-02-22 2017-06-06 Next It Corporation Interaction with a portion of a content item through a virtual assistant
US20140245140A1 (en) 2013-02-22 2014-08-28 Next It Corporation Virtual Assistant Transfer between Smart Devices
US9484023B2 (en) 2013-02-22 2016-11-01 International Business Machines Corporation Conversion of non-back-off language models for efficient speech decoding
US20140304086A1 (en) 2013-02-25 2014-10-09 Turn Inc. Methods and systems for modeling campaign goal adjustment
US9865266B2 (en) 2013-02-25 2018-01-09 Nuance Communications, Inc. Method and apparatus for automated speaker parameters adaptation in a deployed speaker verification system
KR101383552B1 (ko) 2013-02-25 2014-04-10 미디어젠(주) 다중 명령어가 포함된 단일 문장의 음성인식방법
US9330659B2 (en) 2013-02-25 2016-05-03 Microsoft Technology Licensing, Llc Facilitating development of a spoken natural language interface
US9172747B2 (en) 2013-02-25 2015-10-27 Artificial Solutions Iberia SL System and methods for virtual assistant networks
CN104007832B (zh) 2013-02-25 2017-09-01 上海触乐信息科技有限公司 连续滑行输入文本的方法、系统及设备
US9280981B2 (en) 2013-02-27 2016-03-08 Blackberry Limited Method and apparatus for voice control of a mobile device
US10354677B2 (en) 2013-02-28 2019-07-16 Nuance Communications, Inc. System and method for identification of intent segment(s) in caller-agent conversations
US9691382B2 (en) 2013-03-01 2017-06-27 Mediatek Inc. Voice control device and method for deciding response of voice control according to recognized speech command and detection output derived from processing sensor data
US9218819B1 (en) 2013-03-01 2015-12-22 Google Inc. Customizing actions based on contextual data and voice-based inputs
US9251467B2 (en) 2013-03-03 2016-02-02 Microsoft Technology Licensing, Llc Probabilistic parsing
US9460715B2 (en) 2013-03-04 2016-10-04 Amazon Technologies, Inc. Identification using audio signatures and additional characteristics
US9554050B2 (en) 2013-03-04 2017-01-24 Apple Inc. Mobile device using images and location for reminders
US9886968B2 (en) 2013-03-04 2018-02-06 Synaptics Incorporated Robust speech boundary detection system and method
US9293129B2 (en) 2013-03-05 2016-03-22 Microsoft Technology Licensing, Llc Speech recognition assisted evaluation on text-to-speech pronunciation issue detection
KR101952179B1 (ko) 2013-03-05 2019-05-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9454957B1 (en) 2013-03-05 2016-09-27 Amazon Technologies, Inc. Named entity resolution in spoken language processing
US10795528B2 (en) 2013-03-06 2020-10-06 Nuance Communications, Inc. Task assistant having multiple visual displays
CN104038621A (zh) 2013-03-06 2014-09-10 三星电子(中国)研发中心 在通信终端中管理事件信息的装置及方法
US10223411B2 (en) 2013-03-06 2019-03-05 Nuance Communications, Inc. Task assistant utilizing context for improved interaction
US9313261B2 (en) 2013-03-07 2016-04-12 Qualcomm Incorporated System and methods of transferring tasks from a first mobile device to a second mobile device
US9990611B2 (en) 2013-03-08 2018-06-05 Baydin, Inc. Systems and methods for incorporating calendar functionality into electronic messages
US20140279622A1 (en) 2013-03-08 2014-09-18 Sudhakar Bharadwaj System and method for semantic processing of personalized social data and generating probability models of personal context to generate recommendations in searching applications
US9496968B2 (en) 2013-03-08 2016-11-15 Google Inc. Proximity detection by mobile devices
US20140257902A1 (en) 2013-03-08 2014-09-11 Baydin, Inc. Systems and methods for incorporating calendar functionality into electronic messages
US8964947B1 (en) 2013-03-11 2015-02-24 Amazon Technologies, Inc. Approaches for sharing data between electronic devices
KR102113272B1 (ko) 2013-03-11 2020-06-02 삼성전자주식회사 전자장치에서 복사/붙여넣기 방법 및 장치
US9761225B2 (en) 2013-03-11 2017-09-12 Nuance Communications, Inc. Semantic re-ranking of NLU results in conversational dialogue applications
US11393461B2 (en) 2013-03-12 2022-07-19 Cerence Operating Company Methods and apparatus for detecting a voice command
US9477753B2 (en) 2013-03-12 2016-10-25 International Business Machines Corporation Classifier-based system combination for spoken term detection
US9129013B2 (en) 2013-03-12 2015-09-08 Nuance Communications, Inc. Methods and apparatus for entity detection
US9076459B2 (en) 2013-03-12 2015-07-07 Intermec Ip, Corp. Apparatus and method to classify sound to detect speech
US10229697B2 (en) 2013-03-12 2019-03-12 Google Technology Holdings LLC Apparatus and method for beamforming to obtain voice and noise signals
US9112984B2 (en) 2013-03-12 2015-08-18 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
EP2946383B1 (en) 2013-03-12 2020-02-26 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US9361885B2 (en) 2013-03-12 2016-06-07 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US9514741B2 (en) 2013-03-13 2016-12-06 Nuance Communications, Inc. Data shredding for speech recognition acoustic model training under data retention restrictions
US9135248B2 (en) 2013-03-13 2015-09-15 Arris Technology, Inc. Context demographic determination system
US10219100B2 (en) 2013-03-13 2019-02-26 Aliphcom Determining proximity for devices interacting with media devices
US20140274005A1 (en) 2013-03-13 2014-09-18 Aliphcom Intelligent connection management in wireless devices
US9282423B2 (en) 2013-03-13 2016-03-08 Aliphcom Proximity and interface controls of media devices for media presentations
US9378739B2 (en) 2013-03-13 2016-06-28 Nuance Communications, Inc. Identifying corresponding positions in different representations of a textual work
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US9247309B2 (en) 2013-03-14 2016-01-26 Google Inc. Methods, systems, and media for presenting mobile content corresponding to media content
US9123345B2 (en) 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Voice interface systems and methods
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9189196B2 (en) 2013-03-14 2015-11-17 Google Inc. Compartmentalized self registration of external devices
US9842584B1 (en) 2013-03-14 2017-12-12 Amazon Technologies, Inc. Providing content on multiple devices
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US20140267599A1 (en) 2013-03-14 2014-09-18 360Brandvision, Inc. User interaction with a holographic poster via a secondary mobile device
US9524489B2 (en) 2013-03-14 2016-12-20 Samsung Electronics Co., Ltd. Computing system with task transfer mechanism and method of operation thereof
US10133546B2 (en) 2013-03-14 2018-11-20 Amazon Technologies, Inc. Providing content on multiple devices
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
KR20140112910A (ko) 2013-03-14 2014-09-24 삼성전자주식회사 입력 제어 방법 및 이를 지원하는 전자 장치
US20140278349A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Language Model Dictionaries for Text Predictions
WO2014160309A1 (en) 2013-03-14 2014-10-02 Advanced Search Laboratories, Inc. Method and apparatus for human-machine interaction
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
AU2014227586C1 (en) 2013-03-15 2020-01-30 Apple Inc. User training by intelligent digital assistant
US20150314454A1 (en) 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US20160132046A1 (en) 2013-03-15 2016-05-12 Fisher-Rosemount Systems, Inc. Method and apparatus for controlling a process plant with wearable mobile control devices
EP3101392B1 (en) 2013-03-15 2021-12-15 Apple Inc. Mapping application with turn-by-turn navigation mode for output to vehicle display
US9201865B2 (en) 2013-03-15 2015-12-01 Bao Tran Automated assistance for user request that determines semantics by domain, task, and parameter
US9303997B2 (en) 2013-03-15 2016-04-05 Apple Inc. Prediction engine
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9378065B2 (en) 2013-03-15 2016-06-28 Advanced Elemental Technologies, Inc. Purposeful computing
US10638198B2 (en) 2013-03-15 2020-04-28 Ebay Inc. Shoppable video
CN105144133B (zh) 2013-03-15 2020-11-20 苹果公司 对中断进行上下文相关处理
US20140282203A1 (en) 2013-03-15 2014-09-18 Research In Motion Limited System and method for predictive text input
US20140267933A1 (en) 2013-03-15 2014-09-18 Toshiba America Information Systems, Inc. Electronic Device with Embedded Macro-Command Functionality
US9305374B2 (en) 2013-03-15 2016-04-05 Apple Inc. Device, method, and graphical user interface for adjusting the appearance of a control
US9176649B2 (en) 2013-03-15 2015-11-03 American Megatrends, Inc. Method and apparatus of remote management of computer system using voice and gesture based input
US9558743B2 (en) 2013-03-15 2017-01-31 Google Inc. Integration of semantic context information
US9886160B2 (en) 2013-03-15 2018-02-06 Google Llc Managing audio at the tab level for user notification and control
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014139173A1 (en) 2013-03-15 2014-09-18 Google Inc. Virtual keyboard input for international languages
US20140279787A1 (en) 2013-03-15 2014-09-18 Ximplar Limited Systems And Methods for an Adaptive Application Recommender
US9317585B2 (en) 2013-03-15 2016-04-19 Google Inc. Search query suggestions based on personal information
US20140282178A1 (en) 2013-03-15 2014-09-18 Microsoft Corporation Personalized community model for surfacing commands within productivity application user interfaces
US9189157B2 (en) 2013-03-15 2015-11-17 Blackberry Limited Method and apparatus for word prediction selection
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
EP4012719A1 (en) 2013-03-15 2022-06-15 Adityo Prakash Systems and methods for facilitating integrated behavioral support
US9299041B2 (en) 2013-03-15 2016-03-29 Business Objects Software Ltd. Obtaining data from unstructured data for a structured data collection
WO2014143959A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Volume control for mobile device using a wireless device
US20140288939A1 (en) 2013-03-20 2014-09-25 Navteq B.V. Method and apparatus for optimizing timing of audio commands based on recognized audio patterns
US9479499B2 (en) 2013-03-21 2016-10-25 Tencent Technology (Shenzhen) Company Limited Method and apparatus for identity authentication via mobile capturing code
US20140298395A1 (en) 2013-03-27 2014-10-02 Tencent Technology (Shenzhen) Company Limited Methods and systems for playing video on multiple terminals
JP6221301B2 (ja) 2013-03-28 2017-11-01 富士通株式会社 音声処理装置、音声処理システムおよび音声処理方法
JP6115941B2 (ja) 2013-03-28 2017-04-19 Kddi株式会社 対話シナリオにユーザ操作を反映させる対話プログラム、サーバ及び方法
CN103236260B (zh) 2013-03-29 2015-08-12 京东方科技集团股份有限公司 语音识别系统
US20140297288A1 (en) 2013-03-29 2014-10-02 Orange Telephone voice personal assistant
KR102050814B1 (ko) 2013-04-02 2019-12-02 삼성전자주식회사 그룹 대화에서 사적 대화 제공 장치 및 방법
JP2014203207A (ja) 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2014162570A1 (ja) 2013-04-04 2014-10-09 パイオニア株式会社 表示制御装置、表示制御方法、表示制御プログラムおよびコンピュータが読み取り可能な記録媒体
US9462115B2 (en) 2013-04-04 2016-10-04 James S. Rand Unified communications system and method
US9300718B2 (en) 2013-04-09 2016-03-29 Avaya Inc. System and method for keyword-based notification and delivery of content
CN103198831A (zh) 2013-04-10 2013-07-10 威盛电子股份有限公司 语音操控方法与移动终端装置
US10027723B2 (en) 2013-04-12 2018-07-17 Provenance Asset Group Llc Method and apparatus for initiating communication and sharing of content among a plurality of devices
WO2014169269A1 (en) 2013-04-12 2014-10-16 Nant Holdings Ip, Llc Virtual teller systems and methods
US9875494B2 (en) 2013-04-16 2018-01-23 Sri International Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant
US8825474B1 (en) 2013-04-16 2014-09-02 Google Inc. Text suggestion output using past interaction data
EP2987109A4 (en) 2013-04-16 2016-12-14 Imageware Systems Inc BIOMETRIC ADMISSION AND AUTHENTICATION SUBJECT TO CONDITIONS AND SITUATIONS
US20150193392A1 (en) 2013-04-17 2015-07-09 Google Inc. User Interface for Quickly Checking Agenda and Creating New Events
US9760644B2 (en) 2013-04-17 2017-09-12 Google Inc. Embedding event creation link in a document
US10445115B2 (en) 2013-04-18 2019-10-15 Verint Americas Inc. Virtual assistant focused user interfaces
NL2010662C2 (en) 2013-04-18 2014-10-21 Bosch Gmbh Robert Remote maintenance.
US9075435B1 (en) 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
US20140315492A1 (en) 2013-04-22 2014-10-23 Salesforce.Com, Inc. Content delivery to a secondary device via a primary device
US9177318B2 (en) 2013-04-22 2015-11-03 Palo Alto Research Center Incorporated Method and apparatus for customizing conversation agents based on user characteristics using a relevance score for automatic statements, and a response prediction function
US9110889B2 (en) 2013-04-23 2015-08-18 Facebook, Inc. Methods and systems for generation of flexible sentences in a social networking system
CN104125322A (zh) 2013-04-24 2014-10-29 腾讯科技(深圳)有限公司 来电和短信控制方法及移动终端
DE102013007502A1 (de) 2013-04-25 2014-10-30 Elektrobit Automotive Gmbh Computer-implementiertes Verfahren zum automatischen Trainieren eins Dialogsystems und Dialogsystem zur Erzeugung von semantischen Annotationen
ES2558759T3 (es) * 2013-04-29 2016-02-08 Swisscom Ag Método; dispositivo electrónico y sistema para la introducción de texto por vía remota
CN103280217B (zh) 2013-05-02 2016-05-04 锤子科技(北京)有限公司 一种移动终端的语音识别方法及其装置
US9384751B2 (en) 2013-05-06 2016-07-05 Honeywell International Inc. User authentication of voice controlled devices
US9472205B2 (en) 2013-05-06 2016-10-18 Honeywell International Inc. Device voice recognition systems and methods
US9064495B1 (en) 2013-05-07 2015-06-23 Amazon Technologies, Inc. Measurement of user perceived latency in a cloud based speech application
US20140337621A1 (en) 2013-05-07 2014-11-13 Serguei Nakhimov Wearable communication device, security complex and user interface
DK2994908T3 (da) 2013-05-07 2019-09-23 Veveo Inc Grænseflade til inkrementel taleinput med realtidsfeedback
KR20140132246A (ko) 2013-05-07 2014-11-17 삼성전자주식회사 오브젝트 선택 방법 및 오브젝트 선택 장치
US9223898B2 (en) 2013-05-08 2015-12-29 Facebook, Inc. Filtering suggested structured queries on online social networks
US9923849B2 (en) 2013-05-09 2018-03-20 Ebay Inc. System and method for suggesting a phrase based on a context
EP2801974A3 (en) 2013-05-09 2015-02-18 DSP Group Ltd. Low power activation of a voice activated device
JP2014219614A (ja) 2013-05-10 2014-11-20 アルパイン株式会社 オーディオ装置、ビデオ装置及びコンピュータプログラム
US9081411B2 (en) 2013-05-10 2015-07-14 Sri International Rapid development of virtual personal assistant applications
US9489625B2 (en) 2013-05-10 2016-11-08 Sri International Rapid development of virtual personal assistant applications
CN103246638B (zh) 2013-05-13 2017-09-01 小米科技有限责任公司 一种信息粘贴方法和装置
US20140337751A1 (en) 2013-05-13 2014-11-13 Microsoft Corporation Automatic creation of calendar items
US20140343943A1 (en) 2013-05-14 2014-11-20 Saudi Arabian Oil Company Systems, Computer Medium and Computer-Implemented Methods for Authenticating Users Using Voice Streams
US8918272B2 (en) 2013-05-14 2014-12-23 Sony Corporation Method and apparatus for finding a lost vehicle
US9293138B2 (en) 2013-05-14 2016-03-22 Amazon Technologies, Inc. Storing state information from network-based user devices
US20140347181A1 (en) 2013-05-21 2014-11-27 Michael Edward Smith Luna Sensor-enabled media device
US20140344205A1 (en) 2013-05-15 2014-11-20 Aliphcom Smart media device ecosystem using local and remote data sources
EP2997444A4 (en) 2013-05-16 2016-12-14 Intel Corp PROCESS FOR NATURAL USER INTERFACE ENTRY ON THE BASIS OF A CONTEXT
US9514470B2 (en) 2013-05-16 2016-12-06 Microsoft Technology Licensing, Llc Enhanced search suggestion for personal information services
KR101334342B1 (ko) 2013-05-16 2013-11-29 주식회사 네오패드 문자 입력 장치 및 문자 입력 방법
US9495266B2 (en) 2013-05-16 2016-11-15 Advantest Corporation Voice recognition virtual test engineering assistant
US9432499B2 (en) 2013-05-18 2016-08-30 Loralee Hajdu Peripheral specific selection of automated response messages
CN105122353B (zh) 2013-05-20 2019-07-09 英特尔公司 用于语音识别的计算装置和用于计算装置上的语音识别的方法
US9466294B1 (en) 2013-05-21 2016-10-11 Amazon Technologies, Inc. Dialog management system
US9188445B2 (en) 2013-05-21 2015-11-17 Honda Motor Co., Ltd. System and method for storing and recalling location data
US20150199077A1 (en) 2013-05-23 2015-07-16 Google Inc. Scheduling and viewing a calender event using time zones based on a user's location at event time
US9747900B2 (en) 2013-05-24 2017-08-29 Google Technology Holdings LLC Method and apparatus for using image data to aid voice recognition
US20140350933A1 (en) 2013-05-24 2014-11-27 Samsung Electronics Co., Ltd. Voice recognition apparatus and control method thereof
US20140351760A1 (en) 2013-05-24 2014-11-27 Google Inc. Order-independent text input
KR102161230B1 (ko) * 2013-05-28 2020-09-29 삼성전자주식회사 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
US9710147B2 (en) 2013-05-29 2017-07-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
US20140358523A1 (en) 2013-05-30 2014-12-04 Wright State University Topic-specific sentiment extraction
US20140359637A1 (en) 2013-06-03 2014-12-04 Microsoft Corporation Task continuance across devices
US10282213B2 (en) 2013-06-03 2019-05-07 Avaya Inc. System and method for conversational configuration of applications
US20140358519A1 (en) 2013-06-03 2014-12-04 Xerox Corporation Confidence-driven rewriting of source texts for improved translation
US9294455B2 (en) 2013-06-04 2016-03-22 Google Inc. Maintaining video conference session continuity during transfer of session to alternative device
US9286029B2 (en) 2013-06-06 2016-03-15 Honda Motor Co., Ltd. System and method for multimodal human-vehicle interaction and belief tracking
KR101995660B1 (ko) 2013-06-07 2019-07-02 애플 인크. 지능형 자동 어시스턴트
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9267805B2 (en) 2013-06-07 2016-02-23 Apple Inc. Modeling significant locations
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
KR101816375B1 (ko) 2013-06-08 2018-01-08 애플 인크. 제한된 주의 산만 및 비제한된 주의 산만 컨텍스트에 대해 상이한 사용자 인터페이스를 제공하는 애플리케이션 게이트웨이
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US20140365459A1 (en) 2013-06-08 2014-12-11 Apple Inc. Harvesting Addresses
US9495620B2 (en) 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278592B2 (en) 2013-06-09 2017-09-07 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9477393B2 (en) 2013-06-09 2016-10-25 Apple Inc. Device, method, and graphical user interface for displaying application status information
US10481769B2 (en) 2013-06-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing navigation and search functionalities
KR20140144104A (ko) 2013-06-10 2014-12-18 삼성전자주식회사 전자기기 및 이의 서비스 제공 방법
CN104240701B (zh) * 2013-06-10 2019-12-06 青海科瑞特富创业管理股份有限公司 汉语自然人语音控制洗衣机工作的方法
WO2014199596A1 (ja) 2013-06-10 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 話者識別方法、話者識別装置及び話者識別システム
US9449600B2 (en) 2013-06-11 2016-09-20 Plantronics, Inc. Character data entry
US9892115B2 (en) 2013-06-11 2018-02-13 Facebook, Inc. Translation training with cross-lingual multi-media support
US9508040B2 (en) 2013-06-12 2016-11-29 Microsoft Technology Licensing, Llc Predictive pre-launch for applications
EP3008964B1 (en) 2013-06-13 2019-09-25 Apple Inc. System and method for emergency calls initiated by voice command
US9665662B1 (en) 2013-06-13 2017-05-30 DataRPM Corporation Methods and system for providing real-time business intelligence using natural language queries
US9311414B2 (en) 2013-06-14 2016-04-12 Google Inc. Systems and methods of selecting content based on aggregate entity co-occurrence
CN103292437B (zh) 2013-06-17 2016-01-20 广东美的制冷设备有限公司 语音交互式空调器及其控制方法
US9728184B2 (en) 2013-06-18 2017-08-08 Microsoft Technology Licensing, Llc Restructuring deep neural network acoustic models
US9437186B1 (en) 2013-06-19 2016-09-06 Amazon Technologies, Inc. Enhanced endpoint detection for speech recognition
WO2014203495A1 (ja) 2013-06-19 2014-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声対話方法、及び機器
US9633317B2 (en) 2013-06-20 2017-04-25 Viv Labs, Inc. Dynamically evolving cognitive architecture system based on a natural language intent interpreter
US20140379334A1 (en) 2013-06-20 2014-12-25 Qnx Software Systems Limited Natural language understanding automatic speech recognition post processing
KR20140147587A (ko) 2013-06-20 2014-12-30 한국전자통신연구원 Wfst를 이용한 음성 끝점 검출 장치 및 방법
KR102160767B1 (ko) 2013-06-20 2020-09-29 삼성전자주식회사 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
US10474961B2 (en) 2013-06-20 2019-11-12 Viv Labs, Inc. Dynamically evolving cognitive architecture system based on prompting for additional user input
US9311298B2 (en) 2013-06-21 2016-04-12 Microsoft Technology Licensing, Llc Building conversational understanding systems using a toolset
US10051072B2 (en) 2013-06-21 2018-08-14 Google Llc Detecting co-presence in the physical world
JP6171617B2 (ja) 2013-06-24 2017-08-02 日本電気株式会社 応答対象音声判定装置、応答対象音声判定方法および応答対象音声判定プログラム
JP2015012301A (ja) 2013-06-26 2015-01-19 京セラ株式会社 携帯電話機、携帯端末、音声操作プログラムおよび音声操作方法
US10496743B2 (en) 2013-06-26 2019-12-03 Nuance Communications, Inc. Methods and apparatus for extracting facts from a medical text
US20150006148A1 (en) 2013-06-27 2015-01-01 Microsoft Corporation Automatically Creating Training Data For Language Identifiers
US8947596B2 (en) 2013-06-27 2015-02-03 Intel Corporation Alignment of closed captions
US9747899B2 (en) 2013-06-27 2017-08-29 Amazon Technologies, Inc. Detecting self-generated wake expressions
RU2637874C2 (ru) 2013-06-27 2017-12-07 Гугл Инк. Генерирование диалоговых рекомендаций для чатовых информационных систем
CN105340011B (zh) 2013-06-28 2020-08-18 哈曼国际工业有限公司 链接设备的无线控制
US9741339B2 (en) 2013-06-28 2017-08-22 Google Inc. Data driven word pronunciation learning and scoring with crowd sourcing based on the word's phonemes pronunciation scores
US9646606B2 (en) 2013-07-03 2017-05-09 Google Inc. Speech recognition using domain knowledge
JP2015014960A (ja) 2013-07-05 2015-01-22 ソニー株式会社 情報処理装置、および記憶媒体
DE102014109121B4 (de) 2013-07-10 2023-05-04 Gm Global Technology Operations, Llc Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
JP6102588B2 (ja) 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9396727B2 (en) 2013-07-10 2016-07-19 GM Global Technology Operations LLC Systems and methods for spoken dialog service arbitration
CN103365279A (zh) 2013-07-10 2013-10-23 崔海伟 智能家居系统的状态反馈系统、方法及状态检测装置
WO2015006196A1 (en) 2013-07-11 2015-01-15 Mophie, Inc. Method and system for communicatively coupling a wearable computer with one or more non-wearable computers
WO2015005927A1 (en) 2013-07-11 2015-01-15 Intel Corporation Device wake and speaker verification using the same audio input
TWI508057B (zh) 2013-07-15 2015-11-11 Chunghwa Picture Tubes Ltd 語音辨識系統以及方法
US9305554B2 (en) 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
US9711148B1 (en) 2013-07-18 2017-07-18 Google Inc. Dual model speaker identification
US9311912B1 (en) 2013-07-22 2016-04-12 Amazon Technologies, Inc. Cost efficient distributed text-to-speech processing
US20150032238A1 (en) 2013-07-23 2015-01-29 Motorola Mobility Llc Method and Device for Audio Input Routing
US9407950B2 (en) 2013-07-23 2016-08-02 Microsoft Technology Licensing, Llc Controlling devices in entertainment environment
KR102089444B1 (ko) 2013-07-25 2020-03-16 삼성전자 주식회사 음성 인식 기능을 지원하는 전자 기기의 음성 입력 제어 방법 및 장치 장치
US9772994B2 (en) 2013-07-25 2017-09-26 Intel Corporation Self-learning statistical natural language processing for automatic production of virtual personal assistants
CN103412789B (zh) 2013-07-26 2016-09-21 宇龙计算机通信科技(深圳)有限公司 一种启动应用程序的方法、系统及移动终端
US9247219B2 (en) 2013-07-26 2016-01-26 SkyBell Technologies, Inc. Doorbell communication systems and methods
US8947530B1 (en) 2013-07-26 2015-02-03 Joseph Frank Scalisi Smart lock systems and methods
US9335983B2 (en) 2013-07-28 2016-05-10 Oded Haim Breiner Method and system for displaying a non-installed android application and for requesting an action from a non-installed android application
JP6370033B2 (ja) 2013-07-29 2018-08-08 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9575720B2 (en) 2013-07-31 2017-02-21 Google Inc. Visual confirmation for a recognized voice-initiated action
US9311915B2 (en) 2013-07-31 2016-04-12 Google Inc. Context-based speech recognition
TWI516698B (zh) 2013-07-31 2016-01-11 Apex Medical Corp Air cushion device and its vent valve
US20150039606A1 (en) 2013-08-01 2015-02-05 Vamsi Krishna Salaka Search phrase modification
TWI601032B (zh) 2013-08-02 2017-10-01 晨星半導體股份有限公司 應用於聲控裝置的控制器與相關方法
KR20150017156A (ko) 2013-08-06 2015-02-16 삼성전자주식회사 휴대단말기에서 추천어를 제공하는 방법 및 장치
EP3031211B1 (en) 2013-08-06 2020-11-11 Saronikos Trading and Services, Unipessoal Lda. System for controlling electronic devices by means of voice commands, more specifically a remote control to control a plurality of electronic devices by means of voice commands
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US20150046828A1 (en) 2013-08-08 2015-02-12 Samsung Electronics Co., Ltd. Contextualizing sensor, service and device data with mobile devices
CN103414949B (zh) * 2013-08-09 2016-06-01 冠捷显示科技(厦门)有限公司 一种基于智能电视的多媒体编辑系统与方法
US9264862B2 (en) 2013-08-15 2016-02-16 Apple Inc. Determining exit from a vehicle
KR20150020872A (ko) 2013-08-19 2015-02-27 현대자동차주식회사 차량 기능 제어를 위한 제어 장치 및 제어 방법
CN103780970B (zh) 2013-08-20 2018-03-16 华为终端(东莞)有限公司 一种媒体播放的方法、装置和系统
CN104426841A (zh) 2013-08-21 2015-03-18 阿里巴巴集团控股有限公司 设置背景图像的方法及相关的服务器和系统
US10054327B2 (en) 2013-08-21 2018-08-21 Honeywell International Inc. Devices and methods for interacting with an HVAC controller
JP2015041845A (ja) 2013-08-21 2015-03-02 カシオ計算機株式会社 文字入力装置及びプログラム
US9161188B2 (en) 2013-08-22 2015-10-13 Yahoo! Inc. System and method for automatically suggesting diverse and personalized message completions
EP2862164B1 (en) 2013-08-23 2017-05-31 Nuance Communications, Inc. Multiple pass automatic speech recognition
EP3040985B1 (en) 2013-08-26 2023-08-23 Samsung Electronics Co., Ltd. Electronic device and method for voice recognition
US9729592B2 (en) 2013-08-27 2017-08-08 Persais, Llc System and method for distributed virtual assistant platforms
CN104423780B (zh) 2013-08-27 2020-07-14 北京三星通信技术研究有限公司 一种终端设备及其应用程序的关联显示方法
US20150066817A1 (en) 2013-08-27 2015-03-05 Persais, Llc System and method for virtual assistants with shared capabilities
CN104427104B (zh) 2013-08-28 2018-02-27 联想(北京)有限公司 一种信息处理方法及电子设备
KR102147935B1 (ko) 2013-08-29 2020-08-25 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치
MY175230A (en) 2013-08-29 2020-06-16 Panasonic Ip Corp America Device control method, display control method, and purchase payment method
US20150066506A1 (en) 2013-08-30 2015-03-05 Verint Systems Ltd. System and Method of Text Zoning
CN112989840A (zh) 2013-08-30 2021-06-18 英特尔公司 用于虚拟个人助理的可扩展上下文感知的自然语言交互
US10867597B2 (en) 2013-09-02 2020-12-15 Microsoft Technology Licensing, Llc Assignment of semantic labels to a sequence of words using neural network architectures
US9316400B2 (en) 2013-09-03 2016-04-19 Panasonic Intellctual Property Corporation of America Appliance control method, speech-based appliance control system, and cooking appliance
US9633669B2 (en) 2013-09-03 2017-04-25 Amazon Technologies, Inc. Smart circular audio buffer
EP3605286B1 (en) 2013-09-03 2021-02-17 Apple Inc. User interface for manipulating user interface objects
US10001817B2 (en) 2013-09-03 2018-06-19 Apple Inc. User interface for manipulating user interface objects with magnetic properties
KR102065409B1 (ko) 2013-09-04 2020-01-13 엘지전자 주식회사 이동단말기 및 그 제어방법
WO2015035098A2 (en) 2013-09-04 2015-03-12 Zero360, Inc. Processing system and method
GB2517952B (en) 2013-09-05 2017-05-31 Barclays Bank Plc Biometric verification using predicted signatures
US9208779B2 (en) 2013-09-06 2015-12-08 Google Inc. Mixture of n-gram language models
US9460704B2 (en) 2013-09-06 2016-10-04 Google Inc. Deep networks for unit selection speech synthesis
JP6295554B2 (ja) 2013-09-06 2018-03-20 株式会社リコー プログラム、情報処理装置
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US20150140934A1 (en) 2013-09-10 2015-05-21 Playtabase, LLC Wireless motion activated user device with bi-modality communication
US9485708B2 (en) 2013-09-10 2016-11-01 Qualcomm Incorporated Systems and methods for concurrent service discovery and minimum spanning tree formation for service delivery
US20150074524A1 (en) 2013-09-10 2015-03-12 Lenovo (Singapore) Pte. Ltd. Management of virtual assistant action items
CN104700832B (zh) 2013-12-09 2018-05-25 联发科技股份有限公司 语音关键字检测系统及方法
US9343068B2 (en) 2013-09-16 2016-05-17 Qualcomm Incorporated Method and apparatus for controlling access to applications having different security levels
US9600228B2 (en) 2013-09-16 2017-03-21 Here Global B.V. Enhanced system and method for static query generation and entry
US9240182B2 (en) 2013-09-17 2016-01-19 Qualcomm Incorporated Method and apparatus for adjusting detection threshold for activating voice assistant function
US9755605B1 (en) 2013-09-19 2017-09-05 Amazon Technologies, Inc. Volume control
JP2015060423A (ja) * 2013-09-19 2015-03-30 株式会社東芝 音声翻訳装置、音声翻訳方法およびプログラム
EP3047481A4 (en) 2013-09-20 2017-03-01 Amazon Technologies Inc. Local and remote speech processing
CN104463552B (zh) 2013-09-22 2018-10-02 中国电信股份有限公司 日历提醒生成方法和装置
US20150088511A1 (en) 2013-09-24 2015-03-26 Verizon Patent And Licensing Inc. Named-entity based speech recognition
US10134395B2 (en) 2013-09-25 2018-11-20 Amazon Technologies, Inc. In-call virtual assistants
US9418650B2 (en) 2013-09-25 2016-08-16 Verizon Patent And Licensing Inc. Training speech recognition using captions
US9401881B2 (en) 2013-09-26 2016-07-26 International Business Machines Corporation Automatic question generation and answering based on monitored messaging sessions
US20150092520A1 (en) 2013-09-27 2015-04-02 Google Inc. Adaptive Trigger Point For Smartwatch Gesture-to-Wake
US9443527B1 (en) 2013-09-27 2016-09-13 Amazon Technologies, Inc. Speech recognition capability generation and control
CN104516522B (zh) 2013-09-29 2018-05-01 北京三星通信技术研究有限公司 九宫格键盘输入的方法和装置
US9344755B2 (en) 2013-09-30 2016-05-17 Sonos, Inc. Fast-resume audio playback
US20150095278A1 (en) 2013-09-30 2015-04-02 Manyworlds, Inc. Adaptive Probabilistic Semantic System and Method
US20150095031A1 (en) 2013-09-30 2015-04-02 At&T Intellectual Property I, L.P. System and method for crowdsourcing of word pronunciation verification
US20150095268A1 (en) 2013-10-02 2015-04-02 Apple Inc. Intelligent multi-user task planning
KR101772044B1 (ko) 2013-10-02 2017-08-28 에스케이테크엑스 주식회사 거절메시지 전송 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체
US20150100537A1 (en) 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US20150100983A1 (en) 2013-10-06 2015-04-09 Yang Pan Personal Mobile Device as Ad hoc Set-Top Box for Television
US9436918B2 (en) 2013-10-07 2016-09-06 Microsoft Technology Licensing, Llc Smart selection of text spans
KR101480474B1 (ko) 2013-10-08 2015-01-09 엘지전자 주식회사 오디오 재생장치와 이를 포함하는 시스템
US20150100313A1 (en) 2013-10-09 2015-04-09 Verizon Patent And Licensing, Inc. Personification of computing devices for remote access
EP3055786A4 (en) 2013-10-09 2017-05-17 Google, Inc. Automatic definition of entity collections
KR102114219B1 (ko) 2013-10-10 2020-05-25 삼성전자주식회사 오디오 시스템 및 오디오 출력 방법, 그리고 스피커 장치
KR101506510B1 (ko) 2013-10-10 2015-03-30 송철호 음성인식 홈 네트워크 시스템
EP3058446B1 (en) 2013-10-14 2024-06-05 Verizon Patent and Licensing Inc. Systems and methods for providing context-based user interface
US8996639B1 (en) 2013-10-15 2015-03-31 Google Inc. Predictive responses to incoming communications
US9063640B2 (en) 2013-10-17 2015-06-23 Spotify Ab System and method for switching between media items in a plurality of sequences of media items
US9461945B2 (en) 2013-10-18 2016-10-04 Jeffrey P. Phillips Automated messaging response
US9143907B1 (en) 2013-10-21 2015-09-22 West Corporation Providing data messaging support by intercepting and redirecting received short message service (SMS) messages
JP6280342B2 (ja) 2013-10-22 2018-02-14 株式会社Nttドコモ 機能実行指示システム及び機能実行指示方法
US20150120723A1 (en) 2013-10-24 2015-04-30 Xerox Corporation Methods and systems for processing speech queries
JP2015083938A (ja) 2013-10-25 2015-04-30 三菱電機株式会社 ナビゲーションシステム
AU2014342551B2 (en) 2013-10-28 2017-08-03 Nant Holdings Ip, Llc Intent engines systems and method
US20150120296A1 (en) 2013-10-29 2015-04-30 At&T Intellectual Property I, L.P. System and method for selecting network-based versus embedded speech processing
US10055681B2 (en) 2013-10-31 2018-08-21 Verint Americas Inc. Mapping actions and objects to tasks
US20150123898A1 (en) 2013-10-31 2015-05-07 Lg Electronics Inc. Digital device and control method thereof
US9183830B2 (en) 2013-11-01 2015-11-10 Google Inc. Method and system for non-parametric voice conversion
US9942396B2 (en) 2013-11-01 2018-04-10 Adobe Systems Incorporated Document distribution and interaction
US10019985B2 (en) 2013-11-04 2018-07-10 Google Llc Asynchronous optimization for sequence training of neural networks
FR3012895B1 (fr) 2013-11-05 2015-12-25 Commissariat Energie Atomique Procede et programme d'ordinateur pour l'execution deportee de taches informatiques d'un equipement sans fil
US10088973B2 (en) 2013-11-08 2018-10-02 Google Llc Event scheduling presentation in a graphical user interface environment
US9600474B2 (en) 2013-11-08 2017-03-21 Google Inc. User interface for realtime language translation
US9547644B2 (en) 2013-11-08 2017-01-17 Google Inc. Presenting translations of text depicted in images
US10311482B2 (en) 2013-11-11 2019-06-04 At&T Intellectual Property I, Lp Method and apparatus for adjusting a digital assistant persona
JP6493866B2 (ja) 2013-11-12 2019-04-03 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理方法、およびプログラム
US10430024B2 (en) 2013-11-13 2019-10-01 Microsoft Technology Licensing, Llc Media item selection using user-specific grammar
GB2520266A (en) 2013-11-13 2015-05-20 Ibm Cursor-Based Character input interface
US9361084B1 (en) 2013-11-14 2016-06-07 Google Inc. Methods and systems for installing and executing applications
US10454783B2 (en) 2014-02-05 2019-10-22 Apple Inc. Accessory management system using environment model
US10110932B2 (en) 2013-11-18 2018-10-23 Cable Television Laboratories, Inc. Session administration
US9898554B2 (en) 2013-11-18 2018-02-20 Google Inc. Implicit question query identification
US9443522B2 (en) 2013-11-18 2016-09-13 Beijing Lenovo Software Ltd. Voice recognition method, voice controlling method, information processing method, and electronic apparatus
US10058777B2 (en) 2013-11-21 2018-08-28 Tencent Technology (Shenzhen) Company Limited Task execution method, apparatus and system
US10162813B2 (en) 2013-11-21 2018-12-25 Microsoft Technology Licensing, Llc Dialogue evaluation via multiple hypothesis ranking
CN103593054B (zh) * 2013-11-25 2018-04-20 北京光年无限科技有限公司 一种结合情绪识别及输出的问答系统
US9451434B2 (en) 2013-11-27 2016-09-20 At&T Intellectual Property I, L.P. Direct interaction between a user and a communication network
US10079013B2 (en) 2013-11-27 2018-09-18 Sri International Sharing intents to provide virtual assistance in a multi-person dialog
US20150149354A1 (en) 2013-11-27 2015-05-28 Bank Of America Corporation Real-Time Data Recognition and User Interface Field Updating During Voice Entry
US9698999B2 (en) 2013-12-02 2017-07-04 Amazon Technologies, Inc. Natural language control of secondary device
US9110635B2 (en) 2013-12-03 2015-08-18 Lenova (Singapore) Pte. Ltd. Initiating personal assistant application based on eye tracking and gestures
US8719039B1 (en) 2013-12-05 2014-05-06 Google Inc. Promoting voice actions to hotwords
CN103645876B (zh) 2013-12-06 2017-01-18 百度在线网络技术(北京)有限公司 语音输入方法和装置
US9215510B2 (en) 2013-12-06 2015-12-15 Rovi Guides, Inc. Systems and methods for automatically tagging a media asset based on verbal input and playback adjustments
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
WO2015085237A1 (en) 2013-12-06 2015-06-11 Adt Us Holdings, Inc. Voice activated application for mobile devices
US20150160855A1 (en) 2013-12-10 2015-06-11 Google Inc. Multiple character input with a single selection
US20150162001A1 (en) 2013-12-10 2015-06-11 Honeywell International Inc. System and method for textually and graphically presenting air traffic control voice information
GB201321927D0 (en) 2013-12-11 2014-01-22 Touchtype Ltd System and method for inputting text into electronic devices
US9900177B2 (en) 2013-12-11 2018-02-20 Echostar Technologies International Corporation Maintaining up-to-date home automation models
US9696886B2 (en) 2013-12-12 2017-07-04 Google Technology Holdings LLC Systems and methods for communicating task reminders on portable electronic devices
US9208153B1 (en) 2013-12-13 2015-12-08 Symantec Corporation Filtering relevant event notifications in a file sharing and collaboration environment
US20170017501A1 (en) 2013-12-16 2017-01-19 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
KR20160101079A (ko) 2013-12-16 2016-08-24 뉘앙스 커뮤니케이션즈, 인코포레이티드 가상 어시스턴트를 제공하기 위한 시스템 및 방법
US9479931B2 (en) 2013-12-16 2016-10-25 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US9804820B2 (en) 2013-12-16 2017-10-31 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US9251492B2 (en) 2013-12-16 2016-02-02 Nuiku, Inc. Customized-enterprise-software integration systems and methods
US9571645B2 (en) 2013-12-16 2017-02-14 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US9721570B1 (en) 2013-12-17 2017-08-01 Amazon Technologies, Inc. Outcome-oriented dialogs on a speech recognition platform
WO2015092943A1 (en) 2013-12-17 2015-06-25 Sony Corporation Electronic devices and methods for compensating for environmental noise in text-to-speech applications
GB2523984B (en) 2013-12-18 2017-07-26 Cirrus Logic Int Semiconductor Ltd Processing received speech data
KR101510013B1 (ko) * 2013-12-18 2015-04-07 현대자동차주식회사 자동차의 조작계 터치패드를 이용한 멀티 조작 시스템 및 방법
US9741343B1 (en) 2013-12-19 2017-08-22 Amazon Technologies, Inc. Voice interaction application selection
US10565268B2 (en) 2013-12-19 2020-02-18 Adobe Inc. Interactive communication augmented with contextual information
EP3084760A4 (en) 2013-12-20 2017-08-16 Intel Corporation Transition from low power always listening mode to high power speech recognition mode
US10811013B1 (en) 2013-12-20 2020-10-20 Amazon Technologies, Inc. Intent-specific automatic speech recognition result generation
KR102179506B1 (ko) 2013-12-23 2020-11-17 삼성전자 주식회사 전자장치 및 그 제어방법
CN203721183U (zh) 2013-12-25 2014-07-16 安徽科大讯飞信息科技股份有限公司 一种语音唤醒装置
JP2015127758A (ja) 2013-12-27 2015-07-09 シャープ株式会社 応答制御装置、制御プログラム
JP6121896B2 (ja) 2013-12-27 2017-04-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理システム
KR102092164B1 (ko) * 2013-12-27 2020-03-23 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
US9640181B2 (en) 2013-12-27 2017-05-02 Kopin Corporation Text editing with gesture control and natural speech
US9460735B2 (en) 2013-12-28 2016-10-04 Intel Corporation Intelligent ancillary electronic device
US20150278737A1 (en) 2013-12-30 2015-10-01 Google Inc. Automatic Calendar Event Generation with Structured Data from Free-Form Speech
US9390726B1 (en) 2013-12-30 2016-07-12 Google Inc. Supplementing speech commands with gestures
US10078489B2 (en) 2013-12-30 2018-09-18 Microsoft Technology Licensing, Llc Voice interface to a social networking service
US9274673B2 (en) * 2013-12-31 2016-03-01 Google Inc. Methods, systems, and media for rewinding media content based on detected audio events
US9471875B2 (en) 2013-12-31 2016-10-18 International Business Machines Corporation Using ontologies to comprehend regular expressions
US9830044B2 (en) 2013-12-31 2017-11-28 Next It Corporation Virtual assistant team customization
US9152307B2 (en) 2013-12-31 2015-10-06 Google Inc. Systems and methods for simultaneously displaying clustered, in-line electronic messages in one display
US9304657B2 (en) 2013-12-31 2016-04-05 Abbyy Development Llc Audio tagging
US9424241B2 (en) 2013-12-31 2016-08-23 Barnes & Noble College Booksellers, Llc Annotation mode including multiple note types for paginated digital content
US9742836B2 (en) 2014-01-03 2017-08-22 Yahoo Holdings, Inc. Systems and methods for content delivery
JP6318621B2 (ja) 2014-01-06 2018-05-09 株式会社デンソー 音声処理装置、音声処理システム、音声処理方法、音声処理プログラム
US20150193379A1 (en) 2014-01-06 2015-07-09 Apple Inc. System and method for cognizant time-based reminders
US9037455B1 (en) 2014-01-08 2015-05-19 Google Inc. Limiting notification interruptions
US8938394B1 (en) 2014-01-09 2015-01-20 Google Inc. Audio triggers based on context
US9924215B2 (en) 2014-01-09 2018-03-20 Hsni, Llc Digital media content management system and method
US9443516B2 (en) 2014-01-09 2016-09-13 Honeywell International Inc. Far-field speech recognition systems and methods
US20150201077A1 (en) 2014-01-12 2015-07-16 Genesys Telecommunications Laboratories, Inc. Computing suggested actions in caller agent phone calls by using real-time speech analytics and real-time desktop analytics
US10360907B2 (en) 2014-01-14 2019-07-23 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9514748B2 (en) 2014-01-15 2016-12-06 Microsoft Technology Licensing, Llc Digital personal assistant interaction with impersonations and rich multimedia in responses
US8868409B1 (en) 2014-01-16 2014-10-21 Google Inc. Evaluating transcriptions with a semantic parser
US20150199965A1 (en) 2014-01-16 2015-07-16 CloudCar Inc. System and method for recognition and automatic correction of voice commands
US9336300B2 (en) 2014-01-17 2016-05-10 Facebook, Inc. Client-side search templates for online social networks
CN104794122B (zh) 2014-01-20 2020-04-17 腾讯科技(北京)有限公司 一种位置信息推荐方法、装置和系统
KR102210433B1 (ko) 2014-01-21 2021-02-01 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
CN103744761B (zh) 2014-01-22 2017-02-08 广东欧珀移动通信有限公司 一种控制多台移动终端自动执行任务的方法及系统
CN106415721B (zh) 2014-01-22 2019-08-16 苹果公司 音频数据传输的协调切换
EP3097458B1 (en) 2014-01-22 2019-07-24 Sony Corporation Directing audio output based on gestures
CN103760984A (zh) 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 人机对话系统
US9858039B2 (en) 2014-01-28 2018-01-02 Oracle International Corporation Voice recognition of commands extracted from user interface screen devices
US11386886B2 (en) 2014-01-28 2022-07-12 Lenovo (Singapore) Pte. Ltd. Adjusting speech recognition using contextual information
US10019060B2 (en) 2014-01-30 2018-07-10 Duane Matthew Cash Mind-controlled virtual assistant on a smartphone device
JP6296813B2 (ja) 2014-01-30 2018-03-20 キヤノン株式会社 情報処理端末、情報処理端末の制御方法およびプログラム
US20160173960A1 (en) 2014-01-31 2016-06-16 EyeGroove, Inc. Methods and systems for generating audiovisual media items
US10978060B2 (en) 2014-01-31 2021-04-13 Hewlett-Packard Development Company, L.P. Voice input command
US10096040B2 (en) 2014-01-31 2018-10-09 Walmart Apollo, Llc Management of the display of online ad content consistent with one or more performance objectives for a webpage and/or website
US9292488B2 (en) 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system
US10028008B2 (en) 2014-02-04 2018-07-17 Google Llc Persistent media player
US10157272B2 (en) 2014-02-04 2018-12-18 Qualcomm Incorporated Systems and methods for evaluating strength of an audio password
US10050926B2 (en) 2014-02-05 2018-08-14 Facebook, Inc. Ideograms based on sentiment analysis
JP2015149568A (ja) 2014-02-05 2015-08-20 キヤノン株式会社 画像形成装置、その制御方法およびプログラム
US20150334346A1 (en) 2014-05-16 2015-11-19 Elwha Llc Systems and methods for automatically connecting a user of a hands-free intercommunication system
KR20150092996A (ko) 2014-02-06 2015-08-17 삼성전자주식회사 디스플레이 장치 및 이를 이용한 전자 장치의 제어 방법
JP6188831B2 (ja) 2014-02-06 2017-08-30 三菱電機株式会社 音声検索装置および音声検索方法
US20150228281A1 (en) 2014-02-07 2015-08-13 First Principles,Inc. Device, system, and method for active listening
US9576588B2 (en) 2014-02-10 2017-02-21 Apple Inc. Close-talk detector for personal listening device with adaptive active noise control
US9837075B2 (en) 2014-02-10 2017-12-05 Mitsubishi Electric Research Laboratories, Inc. Statistical voice dialog system and method
WO2015123390A1 (en) 2014-02-12 2015-08-20 Quixey, Inc. Query cards
US9037967B1 (en) 2014-02-18 2015-05-19 King Fahd University Of Petroleum And Minerals Arabic spell checking technique
US10469428B2 (en) 2014-02-21 2019-11-05 Samsung Electronics Co., Ltd. Apparatus and method for transmitting message
US9589562B2 (en) 2014-02-21 2017-03-07 Microsoft Technology Licensing, Llc Pronunciation learning through correction logs
WO2015127404A1 (en) 2014-02-24 2015-08-27 Microsoft Technology Licensing, Llc Unified presentation of contextually connected information to improve user efficiency and interaction performance
US20150243279A1 (en) 2014-02-26 2015-08-27 Toytalk, Inc. Systems and methods for recommending responses
US9495959B2 (en) 2014-02-27 2016-11-15 Ford Global Technologies, Llc Disambiguation of dynamic commands
US20150248651A1 (en) 2014-02-28 2015-09-03 Christine E. Akutagawa Social networking event planning
US10389876B2 (en) 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
US10757201B2 (en) 2014-03-01 2020-08-25 Microsoft Technology Licensing, Llc Document and content feed
US9412363B2 (en) 2014-03-03 2016-08-09 Microsoft Technology Licensing, Llc Model based approach for on-screen item selection and disambiguation
US9848253B2 (en) 2014-03-03 2017-12-19 Sony Corporation Information processing apparatus, information processing method, and program
US9489171B2 (en) * 2014-03-04 2016-11-08 Microsoft Technology Licensing, Llc Voice-command suggestions based on user identity
US9574890B2 (en) 2014-03-04 2017-02-21 Qualcomm Incorporated Reduced power consumption and improved user experience when navigating along familiar routes
US20150256873A1 (en) 2014-03-04 2015-09-10 Microsoft Technology Licensing, Llc Relayed voice control of devices
US9582246B2 (en) 2014-03-04 2017-02-28 Microsoft Technology Licensing, Llc Voice-command suggestions based on computer context
US10409454B2 (en) 2014-03-05 2019-09-10 Samsung Electronics Co., Ltd. Smart watch device and user interface thereof
US9286910B1 (en) 2014-03-13 2016-03-15 Amazon Technologies, Inc. System for resolving ambiguous queries based on user context
CN103885663A (zh) 2014-03-14 2014-06-25 深圳市东方拓宇科技有限公司 一种生成和播放音乐的方法及其对应终端
US9405377B2 (en) 2014-03-15 2016-08-02 Microsoft Technology Licensing, Llc Trainable sensor-based gesture recognition
CN103841268A (zh) 2014-03-17 2014-06-04 联想(北京)有限公司 信息处理方法和信息处理装置
US9430186B2 (en) 2014-03-17 2016-08-30 Google Inc Visual indication of a recognized voice-initiated action
US10102274B2 (en) 2014-03-17 2018-10-16 NLPCore LLC Corpus search systems and methods
CN103885608A (zh) 2014-03-19 2014-06-25 百度在线网络技术(北京)有限公司 一种输入方法及系统
US9734817B1 (en) 2014-03-21 2017-08-15 Amazon Technologies, Inc. Text-to-speech task scheduling
US9336306B2 (en) 2014-03-21 2016-05-10 International Business Machines Corporation Automatic evaluation and improvement of ontologies for natural language processing tasks
US9966079B2 (en) 2014-03-24 2018-05-08 Lenovo (Singapore) Pte. Ltd. Directing voice input based on eye tracking
WO2015144621A1 (en) 2014-03-26 2015-10-01 Sony Corporation Electronic device and method for controlling the electronic device
US9916839B1 (en) 2014-03-27 2018-03-13 Amazon Technologies, Inc. Shared audio functionality based on device grouping
US9431021B1 (en) 2014-03-27 2016-08-30 Amazon Technologies, Inc. Device grouping for audio based interactivity
IN2014DE00899A (ja) 2014-03-28 2015-10-02 Samsung Electronics Co Ltd
US9710546B2 (en) 2014-03-28 2017-07-18 Microsoft Technology Licensing, Llc Explicit signals personalized search
RU2014111971A (ru) 2014-03-28 2015-10-10 Юрий Михайлович Буров Способ и система голосового интерфейса
GB2545548A (en) 2014-03-29 2017-06-21 Camelot Uk Bidco Ltd Improved method, system and software for searching, identifying, retrieving and presenting electronic documents
US9196243B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Method and system for efficient spoken term detection using confusion networks
CN106663424B (zh) 2014-03-31 2021-03-05 三菱电机株式会社 意图理解装置以及方法
US10749989B2 (en) 2014-04-01 2020-08-18 Microsoft Technology Licensing Llc Hybrid client/server architecture for parallel processing
US20150278370A1 (en) 2014-04-01 2015-10-01 Microsoft Corporation Task completion for natural language input
US9286892B2 (en) 2014-04-01 2016-03-15 Google Inc. Language modeling in speech recognition
CN103902373B (zh) 2014-04-02 2017-09-29 百度在线网络技术(北京)有限公司 智能终端控制方法、服务器和智能终端
US10992609B2 (en) 2014-04-02 2021-04-27 CloLa, Inc. Text-messaging based concierge services
JP2017513405A (ja) 2014-04-02 2017-05-25 ソニー株式会社 電力効率の良い近接検出
US20150286627A1 (en) 2014-04-03 2015-10-08 Adobe Systems Incorporated Contextual sentiment text analysis
US9519644B2 (en) 2014-04-04 2016-12-13 Facebook, Inc. Methods and devices for generating media items
KR20150115555A (ko) 2014-04-04 2015-10-14 삼성전자주식회사 전자 장치 및 그의 정보 제공 방법
KR102249086B1 (ko) 2014-04-04 2021-05-10 삼성전자주식회사 레코딩 지원 전자장치 및 방법
US9383827B1 (en) 2014-04-07 2016-07-05 Google Inc. Multi-modal command display
JP6282516B2 (ja) 2014-04-08 2018-02-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 複数機器の音声操作システム、音声操作方法及び、プログラム
CN104978963A (zh) 2014-04-08 2015-10-14 富士通株式会社 语音识别装置、方法以及电子设备
US9542948B2 (en) 2014-04-09 2017-01-10 Google Inc. Text-dependent speaker identification
US20150294516A1 (en) 2014-04-10 2015-10-15 Kuo-Ching Chiang Electronic device with security module
US9888452B2 (en) 2014-04-10 2018-02-06 Twin Harbor Labs Llc Methods and apparatus notifying a user of the operating condition of a household appliance
WO2015157013A1 (en) 2014-04-11 2015-10-15 Analog Devices, Inc. Apparatus, systems and methods for providing blind source separation services
CN108551675B (zh) 2014-04-14 2022-04-15 创新先进技术有限公司 一种应用客户端、服务端及对应的Portal认证方法
US9582499B2 (en) 2014-04-14 2017-02-28 Xerox Corporation Retrieval of domain relevant phrase tables
US20150294086A1 (en) 2014-04-14 2015-10-15 Elwha Llc Devices, systems, and methods for automated enhanced care rooms
US10540979B2 (en) 2014-04-17 2020-01-21 Qualcomm Incorporated User interface for secure access to a device using speaker verification
US20150302856A1 (en) 2014-04-17 2015-10-22 Qualcomm Incorporated Method and apparatus for performing function by speech input
US10770075B2 (en) 2014-04-21 2020-09-08 Qualcomm Incorporated Method and apparatus for activating application by speech input
US20150302316A1 (en) 2014-04-22 2015-10-22 Google Inc. System and method for determining unwanted phone messages
KR20150122561A (ko) 2014-04-23 2015-11-02 삼성전자주식회사 디바이스 및 상기 디바이스에서의 착신 호출 처리 방법
US9607613B2 (en) 2014-04-23 2017-03-28 Google Inc. Speech endpointing based on word comparisons
CN105025051A (zh) 2014-04-24 2015-11-04 深圳市赛格导航科技股份有限公司 一种云端语音服务提供方法和系统
US20150310862A1 (en) 2014-04-24 2015-10-29 Microsoft Corporation Deep learning for semantic parsing including semantic utterance classification
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
US9478247B2 (en) 2014-04-28 2016-10-25 Sonos, Inc. Management of media content playback
US9520127B2 (en) 2014-04-29 2016-12-13 Microsoft Technology Licensing, Llc Shared hidden layer combination for speech recognition systems
US8976063B1 (en) 2014-04-29 2015-03-10 Google Inc. Automated detection of vehicle parking and location
KR102248474B1 (ko) 2014-04-30 2021-05-07 삼성전자 주식회사 음성 명령 제공 방법 및 장치
US9600600B2 (en) 2014-04-30 2017-03-21 Excalibur Ip, Llc Method and system for evaluating query suggestions quality
US10789304B2 (en) 2014-05-06 2020-09-29 Oath Inc. Method and system for measuring user engagement with content items
US9501163B2 (en) 2014-05-06 2016-11-22 Symbol Technologies, Llc Apparatus and method for activating a trigger mechanism
KR102282487B1 (ko) 2014-05-08 2021-07-26 삼성전자주식회사 애플리케이션 실행 장치 및 방법
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9459889B2 (en) 2014-05-19 2016-10-04 Qualcomm Incorporated Systems and methods for context-aware application control
US10726831B2 (en) 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
KR102216048B1 (ko) 2014-05-20 2021-02-15 삼성전자주식회사 음성 명령 인식 장치 및 방법
KR102223278B1 (ko) 2014-05-22 2021-03-05 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
WO2015179632A1 (en) 2014-05-22 2015-11-26 Scheffler Lee J Methods and systems for neural and cognitive processing
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9990433B2 (en) 2014-05-23 2018-06-05 Samsung Electronics Co., Ltd. Method for searching and device thereof
KR102329420B1 (ko) 2014-05-23 2021-11-22 엘지전자 주식회사 이동단말기 및 그 제어방법
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9437189B2 (en) 2014-05-29 2016-09-06 Google Inc. Generating language models
WO2015183699A1 (en) 2014-05-30 2015-12-03 Apple Inc. Predictive messaging method
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9519634B2 (en) 2014-05-30 2016-12-13 Educational Testing Service Systems and methods for determining lexical associations among words in a corpus
US10033818B2 (en) 2014-05-30 2018-07-24 Apple Inc. Using listen ranges to deliver content to electronic devices from local caching servers
TWI520007B (zh) 2014-05-30 2016-02-01 由田新技股份有限公司 眼控密碼輸入設備、方法、電腦可讀取紀錄媒體及電腦程式產品
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
EP3108342B1 (en) 2014-05-30 2019-10-23 Apple Inc. Transition from use of one device to another
US10387451B2 (en) 2014-05-30 2019-08-20 Apple Inc. Synchronization system for multiple client devices
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10237711B2 (en) 2014-05-30 2019-03-19 Apple Inc. Dynamic types for activity continuation between electronic devices
US9380123B2 (en) 2014-05-30 2016-06-28 Apple Inc. Activity continuation between electronic devices
US10579212B2 (en) 2014-05-30 2020-03-03 Apple Inc. Structured suggestions
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US11088807B2 (en) 2014-05-30 2021-08-10 Apple Inc. Application-level acknowledgements
US9887949B2 (en) 2014-05-31 2018-02-06 Apple Inc. Displaying interactive notifications on touch sensitive devices
US10318016B2 (en) 2014-06-03 2019-06-11 Harman International Industries, Incorporated Hands free device with directional interface
GB2526805A (en) 2014-06-03 2015-12-09 Nokia Technologies Oy Methods, apparatuses and computer programs for adapting content
US9654536B2 (en) 2014-06-04 2017-05-16 Sonos, Inc. Cloud queue playback policy
US8995972B1 (en) 2014-06-05 2015-03-31 Grandios Technologies, Llc Automatic personal assistance between users devices
EP3158691B1 (en) 2014-06-06 2024-09-25 Google LLC Proactive environment-based chat information system
JP6307356B2 (ja) 2014-06-06 2018-04-04 株式会社デンソー 運転コンテキスト情報生成装置
US10325205B2 (en) 2014-06-09 2019-06-18 Cognitive Scale, Inc. Cognitive information processing system environment
CN104380254B (zh) 2014-06-11 2017-09-22 华为技术有限公司 快速启动应用服务的方法和终端
US10127901B2 (en) 2014-06-13 2018-11-13 Microsoft Technology Licensing, Llc Hyper-structure recurrent neural networks for text-to-speech
CN104090652B (zh) 2014-06-13 2017-07-21 北京搜狗科技发展有限公司 一种语音输入方法和装置
US20150364140A1 (en) 2014-06-13 2015-12-17 Sony Corporation Portable Electronic Equipment and Method of Operating a User Interface
US10250538B2 (en) 2014-06-14 2019-04-02 Trisha N. Prabhu Detecting messages with offensive content
KR20150144668A (ko) 2014-06-17 2015-12-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CH709795B1 (fr) 2014-06-18 2021-02-26 Katia Sa Procédé et système de filtrage d'appels téléphoniques entrants indésirables.
US20150370787A1 (en) 2014-06-18 2015-12-24 Microsoft Corporation Session Context Modeling For Conversational Understanding Systems
US9462112B2 (en) 2014-06-19 2016-10-04 Microsoft Technology Licensing, Llc Use of a digital assistant in communications
US10186282B2 (en) 2014-06-19 2019-01-22 Apple Inc. Robust end-pointing of speech signals using speaker recognition
US9390706B2 (en) 2014-06-19 2016-07-12 Mattersight Corporation Personality-based intelligent personal assistant system and methods
CN104036774B (zh) 2014-06-20 2018-03-06 国家计算机网络与信息安全管理中心 藏语方言识别方法及系统
US9632748B2 (en) 2014-06-24 2017-04-25 Google Inc. Device designation for audio input monitoring
US20150371529A1 (en) 2014-06-24 2015-12-24 Bose Corporation Audio Systems and Related Methods and Devices
US9384738B2 (en) 2014-06-24 2016-07-05 Google Inc. Dynamic threshold for speaker verification
US10783166B2 (en) 2014-06-24 2020-09-22 Google Llc List accumulation and reminder triggering
US9807559B2 (en) 2014-06-25 2017-10-31 Microsoft Technology Licensing, Llc Leveraging user signals for improved interactions with digital personal assistant
US20150379118A1 (en) 2014-06-27 2015-12-31 United Video Properties, Inc. Methods and systems for generating playlists based on activities being performed by a user
US10402453B2 (en) 2014-06-27 2019-09-03 Nuance Communications, Inc. Utilizing large-scale knowledge graphs to support inference at scale and explanation generation
US20150381923A1 (en) 2014-06-27 2015-12-31 United Video Properties, Inc. Methods and systems for adjusting a play length of a media asset based user actions
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR102261552B1 (ko) 2014-06-30 2021-06-07 삼성전자주식회사 음성 명령어 제공 방법 및 이를 지원하는 전자 장치
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
WO2016004396A1 (en) 2014-07-02 2016-01-07 Christopher Decharms Technologies for brain exercise training
US11330100B2 (en) 2014-07-09 2022-05-10 Ooma, Inc. Server based intelligent personal assistant services
US20160012038A1 (en) 2014-07-10 2016-01-14 International Business Machines Corporation Semantic typing with n-gram analysis
US10321204B2 (en) * 2014-07-11 2019-06-11 Lenovo (Singapore) Pte. Ltd. Intelligent closed captioning
US9665248B2 (en) 2014-07-15 2017-05-30 Google Inc. Adaptive background playback behavior
US10506273B2 (en) 2014-07-15 2019-12-10 Verizon Patent And Licensing Inc. Using a media client device to present media content from a mobile device
KR20160009344A (ko) 2014-07-16 2016-01-26 삼성전자주식회사 귓속말 인식 방법 및 장치
CN104113471B (zh) 2014-07-18 2018-06-05 广州三星通信技术研究有限公司 通讯连接异常时的信息处理方法和装置
EP3170062B1 (en) 2014-07-18 2019-08-21 Apple Inc. Raise gesture detection in a device
US9257120B1 (en) 2014-07-18 2016-02-09 Google Inc. Speaker verification using co-location information
US9560402B2 (en) 2014-07-23 2017-01-31 Highlands Technologies Solutions Methods for displaying personalized messages, images and the like at event centers including cinema
US20160028666A1 (en) 2014-07-24 2016-01-28 Framy Inc. System and method for instant messaging
US9301256B2 (en) 2014-07-24 2016-03-29 Verizon Patent And Licensing Inc. Low battery indication for callers to mobile device
US20160086116A1 (en) 2014-07-27 2016-03-24 Supriya Rao Method and system of an automatically managed calendar and contextual task list
US9325842B1 (en) 2014-07-28 2016-04-26 Google Inc. Systems and methods for associating a string with a content item
US10178229B2 (en) 2014-07-29 2019-01-08 United Efficiency, Inc. System for limiting mobile phone distraction in motor vehicles and / or within fixed locations
WO2016018057A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing function of mobile terminal
US20160034811A1 (en) 2014-07-31 2016-02-04 Apple Inc. Efficient generation of complementary acoustic models for performing automatic speech recognition system combination
WO2016017997A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
CN104123191A (zh) 2014-07-31 2014-10-29 北京智谷睿拓技术服务有限公司 任务迁移控制方法、装置和系统
US9377871B2 (en) 2014-08-01 2016-06-28 Nuance Communications, Inc. System and methods for determining keyboard input in the presence of multiple contact points
US9898175B2 (en) 2014-08-05 2018-02-20 Fibar Group S.A. Home network manager for home automation
US9874997B2 (en) 2014-08-08 2018-01-23 Sonos, Inc. Social playback queues
US9548066B2 (en) 2014-08-11 2017-01-17 Amazon Technologies, Inc. Voice application architecture
US9767794B2 (en) 2014-08-11 2017-09-19 Nuance Communications, Inc. Dialog flow management in hierarchical task dialogs
US9361442B2 (en) 2014-08-12 2016-06-07 International Business Machines Corporation Triggering actions on a user device based on biometrics of nearby individuals
US10243891B2 (en) 2014-08-14 2019-03-26 Oath Inc. Cross-device integration system and method
US9838999B2 (en) 2014-08-14 2017-12-05 Blackberry Limited Portable electronic device and method of controlling notifications
WO2016028793A1 (en) 2014-08-18 2016-02-25 Interdigital Patent Holdings, Inc. Injecting streaming media into a playlist
JP6044604B2 (ja) 2014-08-18 2016-12-14 カシオ計算機株式会社 端末装置、およびプログラム
US10345767B2 (en) 2014-08-19 2019-07-09 Samsung Electronics Co., Ltd. Apparatus and method for gamification of sensor data interpretation in smart home
KR20160023089A (ko) 2014-08-21 2016-03-03 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
US20160055240A1 (en) 2014-08-22 2016-02-25 Microsoft Corporation Orphaned utterance detection system and method
CN105472587A (zh) 2014-08-26 2016-04-06 小米科技有限责任公司 来电处理方法和装置
DE202015005999U1 (de) 2014-08-26 2015-11-26 Apple Inc. Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
US10068008B2 (en) 2014-08-28 2018-09-04 Microsoft Technologies Licensing, LLC Spelling correction of email queries
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9990610B2 (en) 2014-08-29 2018-06-05 Google Llc Systems and methods for providing suggested reminders
CN105471705B (zh) 2014-09-03 2021-03-23 腾讯科技(深圳)有限公司 一种基于即时通讯的智能控制方法、设备及系统
CN104243699A (zh) 2014-09-04 2014-12-24 宇龙计算机通信科技(深圳)有限公司 一种来电拒接后的提醒方法、系统及移动终端
US9959863B2 (en) 2014-09-08 2018-05-01 Qualcomm Incorporated Keyword detection using speaker-independent keyword models for user-designated keywords
WO2016037311A1 (en) 2014-09-09 2016-03-17 Microsoft Technology Licensing, Llc Variable-component deep neural network for robust speech recognition
US20160071517A1 (en) 2014-09-09 2016-03-10 Next It Corporation Evaluating Conversation Data based on Risk Factors
US10204622B2 (en) 2015-09-10 2019-02-12 Crestron Electronics, Inc. Acoustic sensory network
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10171558B2 (en) 2014-09-12 2019-01-01 Microsoft Technology Licensing, Llc Cross device application discovery and control
US10261672B1 (en) 2014-09-16 2019-04-16 Amazon Technologies, Inc. Contextual launch interfaces
CN105490890A (zh) 2014-09-16 2016-04-13 中兴通讯股份有限公司 智能家庭终端及其控制方法
US9548979B1 (en) 2014-09-19 2017-01-17 United Services Automobile Association (Usaa) Systems and methods for authentication program enrollment
US9778736B2 (en) 2014-09-22 2017-10-03 Rovi Guides, Inc. Methods and systems for calibrating user devices
JP6052814B2 (ja) 2014-09-24 2016-12-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 音声認識モデルの構築方法、音声認識方法、コンピュータ・システム、音声認識装置、プログラムおよび記録媒体
US9508028B2 (en) 2014-09-24 2016-11-29 Nuance Communications, Inc. Converting text strings into number strings, such as via a touchscreen input
US10317992B2 (en) 2014-09-25 2019-06-11 Microsoft Technology Licensing, Llc Eye gaze for spoken language understanding in multi-modal conversational interactions
US20160094889A1 (en) 2014-09-29 2016-03-31 Rovi Guides, Inc. Systems and methods for determining whether to merge search queries based on contextual information
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646634B2 (en) 2014-09-30 2017-05-09 Google Inc. Low-rank hidden input layer for speech recognition neural network
US9378740B1 (en) 2014-09-30 2016-06-28 Amazon Technologies, Inc. Command suggestions during automatic speech recognition
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
JP6448971B2 (ja) 2014-09-30 2019-01-09 シャープ株式会社 対話装置
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9578156B2 (en) 2014-09-30 2017-02-21 Samsung Electronics Co., Ltd. Method and apparatus for operating an electronic device
US9830321B2 (en) 2014-09-30 2017-11-28 Rovi Guides, Inc. Systems and methods for searching for a media asset
EP3201913A4 (en) 2014-10-01 2018-06-06 Xbrain Inc. Voice and connection platform
US9559993B2 (en) 2014-10-02 2017-01-31 Oracle International Corporation Virtual agent proxy in a real-time chat service
US20160099984A1 (en) 2014-10-03 2016-04-07 Across Lab, Inc. Method and apparatus for remote, multi-media collaboration, including archive and search capability
US9318107B1 (en) 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
US9812128B2 (en) 2014-10-09 2017-11-07 Google Inc. Device leadership negotiation among voice interface devices
US9424841B2 (en) 2014-10-09 2016-08-23 Google Inc. Hotword detection on multiple devices
US9741344B2 (en) 2014-10-20 2017-08-22 Vocalzoom Systems Ltd. System and method for operating devices using voice commands
US20160117386A1 (en) 2014-10-22 2016-04-28 International Business Machines Corporation Discovering terms using statistical corpus analysis
CN104360990A (zh) 2014-10-27 2015-02-18 深圳市金立通信设备有限公司 一种编辑内容的方法
US9576575B2 (en) 2014-10-27 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Providing voice recognition shortcuts based on user verbal input
CN104464733B (zh) 2014-10-28 2019-09-20 百度在线网络技术(北京)有限公司 一种语音对话的多场景管理方法及装置
CN104460593B (zh) 2014-10-29 2017-10-10 小米科技有限责任公司 模式切换方法及装置
US9880714B2 (en) 2014-10-30 2018-01-30 Ebay Inc. Dynamic loading of contextual ontologies for predictive touch screen typing
US10089364B2 (en) 2014-10-31 2018-10-02 Kabushiki Kaisha Toshiba Item recommendation device, item recommendation method, and computer program product
CN104374399A (zh) 2014-10-31 2015-02-25 北京搜狗科技发展有限公司 一种导航信息显示方法和装置
US9646611B2 (en) 2014-11-06 2017-05-09 Microsoft Technology Licensing, Llc Context-based actions
US9678946B2 (en) 2014-11-10 2017-06-13 Oracle International Corporation Automatic generation of N-grams and concept relations from linguistic input data
GB2532075A (en) 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
US10572589B2 (en) 2014-11-10 2020-02-25 International Business Machines Corporation Cognitive matching of narrative data
EP3218837A4 (en) 2014-11-11 2018-04-11 Webee LLC Systems and methods for smart spaces
US10228904B2 (en) 2014-11-12 2019-03-12 Lenovo (Singapore) Pte. Ltd. Gaze triggered voice recognition incorporating device velocity
US9542927B2 (en) 2014-11-13 2017-01-10 Google Inc. Method and system for building text-to-speech voice from diverse recordings
US20160139662A1 (en) 2014-11-14 2016-05-19 Sachin Dabhade Controlling a visual device based on a proximity between a user and the visual device
US10116748B2 (en) 2014-11-20 2018-10-30 Microsoft Technology Licensing, Llc Vehicle-based multi-modal interface
US9361126B1 (en) 2014-11-24 2016-06-07 International Business Machines Corporation Device driver aggregation in operating system deployment
US9258604B1 (en) 2014-11-24 2016-02-09 Facebook, Inc. Commercial detection based on audio fingerprinting
US9886430B2 (en) 2014-11-25 2018-02-06 Microsoft Technology Licensing, Llc Entity based content selection
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US9812126B2 (en) 2014-11-28 2017-11-07 Microsoft Technology Licensing, Llc Device arbitration for listening devices
US10192549B2 (en) 2014-11-28 2019-01-29 Microsoft Technology Licensing, Llc Extending digital personal assistant action providers
KR20160065503A (ko) 2014-12-01 2016-06-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
AU2015355209B2 (en) 2014-12-01 2019-08-29 Inscape Data, Inc. System and method for continuous media segment identification
US10587541B2 (en) 2014-12-02 2020-03-10 Facebook, Inc. Device, method, and graphical user interface for lightweight messaging
US9241073B1 (en) 2014-12-09 2016-01-19 Ringcentral, Inc. Systems and methods for managing an event scheduling request in a telephony system
US20160162464A1 (en) 2014-12-09 2016-06-09 Idibon, Inc. Techniques for combining human and machine learning in natural language processing
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9466297B2 (en) 2014-12-09 2016-10-11 Microsoft Technology Licensing, Llc Communication system
US20160170966A1 (en) 2014-12-10 2016-06-16 Brian Kolo Methods and systems for automated language identification
CN111414222A (zh) 2014-12-11 2020-07-14 微软技术许可有限责任公司 能够实现可动作的消息传送的虚拟助理系统
KR20160071732A (ko) 2014-12-12 2016-06-22 삼성전자주식회사 음성 입력을 처리하는 방법 및 장치
US9912758B2 (en) 2014-12-16 2018-03-06 Yahoo Holdings, Inc. Continuing an application session on a different device
US9904673B2 (en) 2014-12-17 2018-02-27 International Business Machines Corporation Conversation advisor
CN107004405A (zh) 2014-12-18 2017-08-01 三菱电机株式会社 语音识别装置和语音识别方法
US9552816B2 (en) 2014-12-19 2017-01-24 Amazon Technologies, Inc. Application focus in speech-based systems
US9911415B2 (en) 2014-12-19 2018-03-06 Lenovo (Singapore) Pte. Ltd. Executing a voice command during voice input
JP6504808B2 (ja) 2014-12-22 2019-04-24 キヤノン株式会社 撮像装置、音声コマンド機能の設定方法、コンピュータプログラム、及び記憶媒体
US9690542B2 (en) 2014-12-22 2017-06-27 Microsoft Technology Licensing, Llc Scaling digital personal assistant agents across devices
KR20160076201A (ko) 2014-12-22 2016-06-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10672390B2 (en) 2014-12-22 2020-06-02 Rovi Guides, Inc. Systems and methods for improving speech recognition performance by generating combined interpretations
US9811312B2 (en) 2014-12-22 2017-11-07 Intel Corporation Connected device voice command support
US10229356B1 (en) 2014-12-23 2019-03-12 Amazon Technologies, Inc. Error tolerant neural network model compression
US9483388B2 (en) 2014-12-29 2016-11-01 Quixey, Inc. Discovery of application states
US9837081B2 (en) 2014-12-30 2017-12-05 Microsoft Technology Licensing, Llc Discovering capabilities of third-party voice-enabled resources
CN107112016B (zh) 2015-01-05 2020-12-29 谷歌有限责任公司 多模态状态循环
US9959129B2 (en) 2015-01-09 2018-05-01 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
WO2016114428A1 (ko) 2015-01-16 2016-07-21 삼성전자 주식회사 문법 모델을 이용하여 음성인식을 수행하는 방법 및 디바이스
KR102305584B1 (ko) 2015-01-19 2021-09-27 삼성전자주식회사 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치
CN104575501B (zh) 2015-01-19 2017-11-03 北京云知声信息技术有限公司 一种收音机语音操控指令解析方法及系统
US9367541B1 (en) 2015-01-20 2016-06-14 Xerox Corporation Terminological adaptation of statistical machine translation system through automatic generation of phrasal contexts for bilingual terms
CN105869641A (zh) 2015-01-22 2016-08-17 佳能株式会社 语音识别装置及语音识别方法
US9947313B2 (en) 2015-01-26 2018-04-17 William Drewes Method for substantial ongoing cumulative voice recognition error reduction
US20160224682A1 (en) 2015-01-30 2016-08-04 Linkedln Corporation Relevance driven aggregation of federated content items in a social network
CN104573472A (zh) 2015-01-30 2015-04-29 深圳市中兴移动通信有限公司 移动终端及其操作方法
US9424412B1 (en) 2015-02-02 2016-08-23 Bank Of America Corporation Authenticating customers using biometrics
US20160227107A1 (en) 2015-02-02 2016-08-04 Lenovo (Singapore) Pte. Ltd. Method and device for notification preview dismissal
US20160225372A1 (en) 2015-02-03 2016-08-04 Samsung Electronics Company, Ltd. Smart home connected device contextual learning using audio commands
US9613022B2 (en) 2015-02-04 2017-04-04 Lenovo (Singapore) Pte. Ltd. Context based customization of word assistance functions
US10062061B2 (en) 2015-02-05 2018-08-28 Conduent Business Services, Llc Pay-by-phone parking system aided by a vision based monitoring device
CN104679472A (zh) 2015-02-13 2015-06-03 百度在线网络技术(北京)有限公司 人机语音交互方法和装置
US10121472B2 (en) 2015-02-13 2018-11-06 Knowles Electronics, Llc Audio buffer catch-up apparatus and method with two microphones
KR101678087B1 (ko) 2015-02-16 2016-11-23 현대자동차주식회사 차량 및 그 제어방법
KR20160101826A (ko) 2015-02-17 2016-08-26 삼성전자주식회사 멀티 유저 기반의 전자 장치
JP2016151928A (ja) 2015-02-18 2016-08-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9554356B2 (en) 2015-02-19 2017-01-24 Microsoft Technology Licensing, Llc Personalized reminders
WO2016134183A1 (en) 2015-02-19 2016-08-25 Digital Reasoning Systems, Inc. Systems and methods for neural language modeling
US9928232B2 (en) 2015-02-27 2018-03-27 Microsoft Technology Licensing, Llc Topically aware word suggestions
WO2016137272A1 (ko) 2015-02-27 2016-09-01 삼성전자 주식회사 복수의 운영체제가 설치된 디바이스를 제어하는 방법 및 디바이스
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9911412B2 (en) 2015-03-06 2018-03-06 Nuance Communications, Inc. Evidence-based natural language input recognition
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10254911B2 (en) 2015-03-08 2019-04-09 Apple Inc. Device configuration user interface
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US20160266871A1 (en) 2015-03-11 2016-09-15 Adapx, Inc. Speech recognizer for multimodal systems and signing in/out with and /or for a digital pen
US9805713B2 (en) 2015-03-13 2017-10-31 Google Inc. Addressing missing features in models
US10031722B1 (en) 2015-03-17 2018-07-24 Amazon Technologies, Inc. Grouping devices for voice control
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
WO2016150350A1 (zh) 2015-03-20 2016-09-29 柳州桂通科技股份有限公司 一种多媒体多信息同步重现的方法和系统
CN104869342A (zh) * 2015-06-09 2015-08-26 柳州桂通科技股份有限公司 一种多媒体多信息同步重现的方法及其应用
US20160286045A1 (en) 2015-03-23 2016-09-29 Vonage Network Llc System and method for providing an informative message when rejecting an incoming call
US9703394B2 (en) 2015-03-24 2017-07-11 Google Inc. Unlearning techniques for adaptive language models in text entry
US10063510B2 (en) 2015-03-24 2018-08-28 Facebook, Inc. Techniques to share and remix media through a messaging system
US9672725B2 (en) 2015-03-25 2017-06-06 Microsoft Technology Licensing, Llc Proximity-based reminders
US20160285816A1 (en) 2015-03-25 2016-09-29 Facebook, Inc. Techniques for automated determination of form responses
US10261482B2 (en) 2015-03-26 2019-04-16 Ca, Inc. Initiating actions on wearable devices
US10133538B2 (en) 2015-03-27 2018-11-20 Sri International Semi-supervised speaker diarization
US20160293157A1 (en) 2015-03-30 2016-10-06 Google Inc. Contextual Voice Action History
US10192546B1 (en) 2015-03-30 2019-01-29 Amazon Technologies, Inc. Pre-wakeword speech processing
TWI525532B (zh) 2015-03-30 2016-03-11 Yu-Wei Chen Set the name of the person to wake up the name for voice manipulation
US9484021B1 (en) 2015-03-30 2016-11-01 Amazon Technologies, Inc. Disambiguation in speech recognition
EP3282447B1 (en) 2015-03-31 2020-08-26 Sony Corporation PROGRESSIVE UTTERANCE ANALYSIS FOR SUCCESSIVELY DISPLAYING EARLY SUGGESTIONS BASED ON PARTIAL SEMANTIC PARSES FOR VOICE CONTROL. &#xA;REAL TIME PROGRESSIVE SEMANTIC UTTERANCE ANALYSIS FOR VISUALIZATION AND ACTIONS CONTROL.
US20160322044A1 (en) 2015-04-01 2016-11-03 Elwha Llc Networked User Command Recognition
US20170032783A1 (en) 2015-04-01 2017-02-02 Elwha Llc Hierarchical Networked Command Recognition
US10095683B2 (en) 2015-04-10 2018-10-09 Facebook, Inc. Contextual speller models on online social networks
CA2982196C (en) 2015-04-10 2022-07-19 Huawei Technologies Co., Ltd. Speech recognition method, speech wakeup apparatus, speech recognition apparatus, and terminal
US9678664B2 (en) 2015-04-10 2017-06-13 Google Inc. Neural network for keyboard input decoding
US10021209B2 (en) 2015-04-10 2018-07-10 Open Text Sa Ulc Systems and methods for caching of managed content in a distributed environment using a multi-tiered architecture
US10049099B2 (en) 2015-04-10 2018-08-14 Facebook, Inc. Spell correction with hidden markov models on online social networks
US20160299977A1 (en) 2015-04-13 2016-10-13 Quixey, Inc. Action-Based App Recommendation Engine
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10218651B2 (en) 2015-04-20 2019-02-26 Oracle International Corporation Virtual assistance for chat agents
KR102269035B1 (ko) 2015-04-21 2021-06-24 삼성전자주식회사 서버 및 서버의 그룹 액션 제어방법
US9472196B1 (en) 2015-04-22 2016-10-18 Google Inc. Developer voice actions system
CN104836909B (zh) 2015-04-27 2018-05-11 广东小天才科技有限公司 一种来电自动接通的方法及装置
US10109277B2 (en) 2015-04-27 2018-10-23 Nuance Communications, Inc. Methods and apparatus for speech recognition using visual information
US10083213B1 (en) 2015-04-27 2018-09-25 Intuit Inc. Method and system for routing a question based on analysis of the question content and predicted user satisfaction with answer content before the answer content is generated
WO2016175354A1 (ko) 2015-04-29 2016-11-03 주식회사 아카인텔리전스 인공지능 대화 장치 및 방법
US11010768B2 (en) 2015-04-30 2021-05-18 Oracle International Corporation Character-based attribute value extraction system
GB2537903B (en) 2015-04-30 2019-09-04 Toshiba Res Europe Limited Device and method for a spoken dialogue system
US9953063B2 (en) 2015-05-02 2018-04-24 Lithium Technologies, Llc System and method of providing a content discovery platform for optimizing social network engagements
US20160328205A1 (en) 2015-05-05 2016-11-10 Motorola Mobility Llc Method and Apparatus for Voice Operation of Mobile Applications Having Unnamed View Elements
US9892363B2 (en) 2015-05-07 2018-02-13 Truemotion, Inc. Methods and systems for sensor-based driving data collection
CN104867492B (zh) 2015-05-07 2019-09-03 科大讯飞股份有限公司 智能交互系统及方法
US9953648B2 (en) 2015-05-11 2018-04-24 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
US10685471B2 (en) 2015-05-11 2020-06-16 Facebook, Inc. Methods and systems for playing video while transitioning from a content-item preview to the content item
US9906482B2 (en) 2015-05-13 2018-02-27 The Travelers Indemnity Company Predictive electronic message management systems and controllers
US20160337299A1 (en) 2015-05-13 2016-11-17 Google Inc. Prioritized notification display
US9761220B2 (en) 2015-05-13 2017-09-12 Microsoft Technology Licensing, Llc Language modeling based on spoken and unspeakable corpuses
US10133613B2 (en) 2015-05-14 2018-11-20 Microsoft Technology Licensing, Llc Digital assistant extensibility to third party applications
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
KR20160136013A (ko) 2015-05-19 2016-11-29 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP3300074B1 (en) 2015-05-19 2019-08-21 Sony Corporation Information processing apparatus
US10446142B2 (en) 2015-05-20 2019-10-15 Microsoft Technology Licensing, Llc Crafting feedback dialogue with a digital assistant
US10061848B2 (en) 2015-05-22 2018-08-28 Microsoft Technology Licensing, Llc Ontology-crowd-relevance deep response generation
US10097973B2 (en) 2015-05-27 2018-10-09 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
CN107851217A (zh) 2015-05-27 2018-03-27 奥瑞恩实验室 可穿戴个人通信节点的智能代理特征
US9408182B1 (en) 2015-05-28 2016-08-02 Google Inc. Third party action triggers
US9552547B2 (en) 2015-05-29 2017-01-24 Sas Institute Inc. Normalizing electronic communications using a neural-network normalizer and a neural-network flagger
US10200543B2 (en) 2015-06-01 2019-02-05 Huawei Technologies Co., Ltd. Method and apparatus for customer service management for a wireless communication network
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10755032B2 (en) 2015-06-05 2020-08-25 Apple Inc. Indexing web pages with deep links
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US9529500B1 (en) 2015-06-05 2016-12-27 Apple Inc. Application recommendation based on detected triggering events
CN107683459B (zh) 2015-06-05 2020-04-17 苹果公司 基于可佩戴设备的状态改变伴随通信设备行为
US10505884B2 (en) 2015-06-05 2019-12-10 Microsoft Technology Licensing, Llc Entity classification and/or relationship identification
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9865265B2 (en) 2015-06-06 2018-01-09 Apple Inc. Multi-microphone speech recognition systems and related techniques
US20160357861A1 (en) 2015-06-07 2016-12-08 Apple Inc. Natural language event detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160365101A1 (en) 2015-06-15 2016-12-15 Motorola Mobility Llc Enabling Event Driven Voice Interaction with a Device
US20160371250A1 (en) 2015-06-16 2016-12-22 Microsoft Technology Licensing, Llc Text suggestion using a predictive grammar model
US20160372112A1 (en) 2015-06-18 2016-12-22 Amgine Technologies (Us), Inc. Managing Interactions between Users and Applications
US9818409B2 (en) 2015-06-19 2017-11-14 Google Inc. Context-dependent modeling of phonemes
US9767386B2 (en) 2015-06-23 2017-09-19 Adobe Systems Incorporated Training a classifier algorithm used for automatically generating tags to be applied to images
CN104951077A (zh) 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备
KR102317526B1 (ko) 2015-06-25 2021-10-26 엘지전자 주식회사 헤드셋 및 그 제어 방법
US10462743B2 (en) 2015-06-25 2019-10-29 Intel IP Corporation Mobile communications device and a method for controlling a mobile communications device receiver
US20160379638A1 (en) 2015-06-26 2016-12-29 Amazon Technologies, Inc. Input speech quality matching
US10325590B2 (en) 2015-06-26 2019-06-18 Intel Corporation Language model modification for local speech recognition systems using remote sources
US20160379641A1 (en) 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Auto-Generation of Notes and Tasks From Passive Recording
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10134425B1 (en) 2015-06-29 2018-11-20 Amazon Technologies, Inc. Direction-based speech endpointing
US10121471B2 (en) 2015-06-29 2018-11-06 Amazon Technologies, Inc. Language model speech endpointing
US10019992B2 (en) 2015-06-29 2018-07-10 Disney Enterprises, Inc. Speech-controlled actions based on keywords and context thereof
US9881613B2 (en) 2015-06-29 2018-01-30 Google Llc Privacy-preserving training corpus selection
US9536527B1 (en) 2015-06-30 2017-01-03 Amazon Technologies, Inc. Reporting operational metrics in speech-based systems
JP6655635B2 (ja) 2015-06-30 2020-02-26 ケー4コネクト インコーポレイテッド アドレス指定可能ホームオートメーション(ha)デバイスのユーザ選択可能リストに基づく所望シーン実現を含むhaシステム、及び関連方法
KR102371188B1 (ko) 2015-06-30 2022-03-04 삼성전자주식회사 음성 인식 장치 및 방법과 전자 장치
US9998597B2 (en) 2015-07-06 2018-06-12 Nuance Communications, Inc. Systems and methods for facilitating communication using an interactive communication system
US10073887B2 (en) 2015-07-06 2018-09-11 Conduent Business Services, Llc System and method for performing k-nearest neighbor search based on minimax distance measure and efficient outlier detection
CN105100356B (zh) 2015-07-07 2018-04-06 上海斐讯数据通信技术有限公司 一种音量自动调节的方法和系统
JP2017019331A (ja) 2015-07-08 2017-01-26 Ntn株式会社 車両用モータ駆動装置
US20170011303A1 (en) 2015-07-09 2017-01-12 Qualcomm Incorporated Contact-Based Predictive Response
US10249297B2 (en) 2015-07-13 2019-04-02 Microsoft Technology Licensing, Llc Propagating conversational alternatives using delayed hypothesis binding
CN104967748B (zh) 2015-07-13 2018-10-23 宁波萨瑞通讯有限公司 一种安全操作应用服务的方法
US10426037B2 (en) 2015-07-15 2019-09-24 International Business Machines Corporation Circuitized structure with 3-dimensional configuration
CN106373575B (zh) 2015-07-23 2020-07-21 阿里巴巴集团控股有限公司 一种用户声纹模型构建方法、装置及系统
US10686738B2 (en) 2015-07-24 2020-06-16 Facebook, Inc. Providing personal assistant service via messaging
US10311384B2 (en) 2015-07-29 2019-06-04 Microsoft Technology Licensing, Llc Automatic creation and maintenance of a taskline
KR20170014297A (ko) 2015-07-29 2017-02-08 엘지전자 주식회사 와치 타입의 이동 단말기 및 그 제어 방법
US10255921B2 (en) 2015-07-31 2019-04-09 Google Llc Managing dialog data providers
US9691361B2 (en) 2015-08-03 2017-06-27 International Business Machines Corporation Adjusting presentation of content on a display
US20170039283A1 (en) 2015-08-03 2017-02-09 Microsoft Technology Licensing, Llc Searching Based on the Persona of Another
JP5906345B1 (ja) 2015-08-05 2016-04-20 株式会社Cygames 操作履歴に基づいてタッチ対象を予測するプログラム、電子装置、システム及び制御方法
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
KR102386854B1 (ko) 2015-08-20 2022-04-13 삼성전자주식회사 통합 모델 기반의 음성 인식 장치 및 방법
US10572073B2 (en) 2015-08-24 2020-02-25 Sony Corporation Information processing device, information processing method, and program
US10362978B2 (en) 2015-08-28 2019-07-30 Comcast Cable Communications, Llc Computational model for mood
US20170061423A1 (en) 2015-09-01 2017-03-02 Bank Of America Corporation Use of wearable as an account control system
US10339917B2 (en) 2015-09-03 2019-07-02 Google Llc Enhanced speech endpointing
US9531862B1 (en) 2015-09-04 2016-12-27 Vishal Vadodaria Contextual linking module with interactive intelligent agent for managing communications with contacts and navigation features
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
CN106534469A (zh) 2015-09-11 2017-03-22 昆明我行科技有限公司 一种为智能手机实现电话通讯功能扩展的方法及电子设备
US10026399B2 (en) 2015-09-11 2018-07-17 Amazon Technologies, Inc. Arbitration between voice-enabled devices
US9736318B2 (en) 2015-09-16 2017-08-15 International Business Machines Corporation Adaptive voice-text transmission
US9875081B2 (en) 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
US9665567B2 (en) 2015-09-21 2017-05-30 International Business Machines Corporation Suggesting emoji characters based on current contextual emotional state of user
US20170085547A1 (en) 2015-09-22 2017-03-23 International Business Machines Corporation Storing, indexing and recalling data based on brain activity
US9734142B2 (en) 2015-09-22 2017-08-15 Facebook, Inc. Universal translation
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9990040B2 (en) 2015-09-25 2018-06-05 Immersion Corporation Haptic CAPTCHA
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US20170091612A1 (en) 2015-09-30 2017-03-30 Apple Inc. Proactive assistant with memory assistance
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US20170092278A1 (en) 2015-09-30 2017-03-30 Apple Inc. Speaker recognition
US10425768B2 (en) 2015-09-30 2019-09-24 Lenovo (Singapore) Pte. Ltd. Adjusting audio output volume based on a detected presence of another device
US10970646B2 (en) 2015-10-01 2021-04-06 Google Llc Action suggestions for user-selected content
US20170102837A1 (en) 2015-10-07 2017-04-13 Spotify Ab Dynamic control of playlists using wearable devices
US10083685B2 (en) 2015-10-13 2018-09-25 GM Global Technology Operations LLC Dynamically adding or removing functionality to speech recognition systems
US10891106B2 (en) 2015-10-13 2021-01-12 Google Llc Automatic batch voice commands
KR102405793B1 (ko) 2015-10-15 2022-06-08 삼성전자 주식회사 음성 신호 인식 방법 및 이를 제공하는 전자 장치
KR102112814B1 (ko) 2015-10-21 2020-05-19 구글 엘엘씨 다이얼로그 시스템들에서의 파라미터 수집 및 자동 다이얼로그 생성
US20180315416A1 (en) 2015-10-22 2018-11-01 Knowles Electronics, Llc Microphone with programmable phone onset detection engine
CA3001869C (en) 2015-10-26 2021-03-16 Anmol WALIA Method and apparatus for facilitating customer intent prediction
US10146874B2 (en) 2015-10-28 2018-12-04 Fujitsu Limited Refining topic representations
CN106657521A (zh) 2015-10-30 2017-05-10 中兴通讯股份有限公司 一种智能设备语音交流方法、装置和系统
US20170125016A1 (en) 2015-11-02 2017-05-04 Le Holdings (Beijing) Co., Ltd. Method and electronic device for processing voice messages
US9691378B1 (en) 2015-11-05 2017-06-27 Amazon Technologies, Inc. Methods and devices for selectively ignoring captured audio data
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US9804681B2 (en) 2015-11-10 2017-10-31 Motorola Mobility Llc Method and system for audible delivery of notifications partially presented on an always-on display
KR102432620B1 (ko) 2015-11-12 2022-08-16 삼성전자주식회사 외부 객체의 근접에 따른 동작을 수행하는 전자 장치 및 그 방법
US10769189B2 (en) 2015-11-13 2020-09-08 Microsoft Technology Licensing, Llc Computer speech recognition and semantic understanding from activity patterns
US10546028B2 (en) 2015-11-18 2020-01-28 International Business Machines Corporation Method for personalized breaking news feed
US9940934B2 (en) 2015-11-18 2018-04-10 Uniphone Software Systems Adaptive voice authentication system and method
US9697393B2 (en) 2015-11-20 2017-07-04 Symbol Technologies, Llc Methods and systems for adjusting mobile-device operating parameters based on housing-support type
US10255611B2 (en) 2015-11-20 2019-04-09 International Business Machines Corporation Determining pricing using categorized costs with tree structures
CN106773742B (zh) 2015-11-23 2019-10-25 宏碁股份有限公司 语音控制方法及语音控制系统
US9792907B2 (en) 2015-11-24 2017-10-17 Intel IP Corporation Low resource key phrase detection for wake on voice
CN105897675A (zh) 2015-11-27 2016-08-24 乐视云计算有限公司 视频服务提供方法、访问鉴权方法及服务器和系统
CN105430186A (zh) 2015-11-27 2016-03-23 东莞酷派软件技术有限公司 一种拒接短信的发送方法及系统
KR102450853B1 (ko) 2015-11-30 2022-10-04 삼성전자주식회사 음성 인식 장치 및 방법
US9946862B2 (en) 2015-12-01 2018-04-17 Qualcomm Incorporated Electronic device generating notification based on context data in response to speech phrase from user
US10546015B2 (en) 2015-12-01 2020-01-28 Facebook, Inc. Determining and utilizing contextual meaning of digital standardized image characters
US10229671B2 (en) 2015-12-02 2019-03-12 GM Global Technology Operations LLC Prioritized content loading for vehicle automatic speech recognition systems
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
KR102535044B1 (ko) 2015-12-08 2023-05-23 삼성전자주식회사 단말장치, 서버 및 이벤트 제안방법
US10796693B2 (en) 2015-12-09 2020-10-06 Lenovo (Singapore) Pte. Ltd. Modifying input based on determined characteristics
US9990921B2 (en) 2015-12-09 2018-06-05 Lenovo (Singapore) Pte. Ltd. User focus activated voice recognition
US10685170B2 (en) 2015-12-16 2020-06-16 Microsoft Technology Licensing, Llc Dynamic content layout generator
US9830449B1 (en) 2015-12-16 2017-11-28 Amazon Technologies, Inc. Execution locations for request-driven code
US10013416B1 (en) 2015-12-18 2018-07-03 Amazon Technologies, Inc. Language based solution agent
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
KR102423588B1 (ko) 2015-12-28 2022-07-22 삼성전자주식회사 정보 제공 방법 및 장치
CA3009758A1 (en) 2015-12-29 2017-07-06 Mz Ip Holdings, Llc Systems and methods for suggesting emoji
US9716795B1 (en) 2015-12-30 2017-07-25 Qualcomm Incorporated Diversion of a call to a wearable device
US10002607B2 (en) 2016-01-05 2018-06-19 Microsoft Technology Licensing, Llc Cross device companion application for phone
US10382729B2 (en) 2016-01-06 2019-08-13 Vivint, Inc. Home automation system-initiated calls
US20170193083A1 (en) 2016-01-06 2017-07-06 International Business Machines Corporation Identifying message content related to an event utilizing natural language processing and performing an action pertaining to the event
JP2017123564A (ja) 2016-01-07 2017-07-13 ソニー株式会社 制御装置、表示装置、方法及びプログラム
US9747289B2 (en) 2016-01-13 2017-08-29 Disney Enterprises, Inc. System and method for proximity-based personalized content recommendations
US9792534B2 (en) 2016-01-13 2017-10-17 Adobe Systems Incorporated Semantic natural language vector space
CN105718448B (zh) 2016-01-13 2019-03-19 北京新美互通科技有限公司 一种对输入字符进行自动翻译的方法和装置
US20170206899A1 (en) 2016-01-20 2017-07-20 Fitbit, Inc. Better communication channel for requests and responses having an intelligent agent
US20170235361A1 (en) 2016-01-20 2017-08-17 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Interaction based on capturing user intent via eye gaze
KR102490548B1 (ko) 2016-01-25 2023-01-19 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US9922647B2 (en) 2016-01-29 2018-03-20 International Business Machines Corporation Approach to reducing the response time of a speech interface
US10182155B2 (en) 2016-02-03 2019-01-15 At&T Intellectual Property I, L.P. Directing care calls using historical call backs, demographics and real time attributes
KR102495523B1 (ko) 2016-02-04 2023-02-03 삼성전자 주식회사 음성 명령을 처리하는 방법 및 이를 제공하는 전자 장치
US10055489B2 (en) 2016-02-08 2018-08-21 Ebay Inc. System and method for content-based media analysis
US9858927B2 (en) 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US10431218B2 (en) 2016-02-15 2019-10-01 EVA Automation, Inc. Integration and probabilistic control of electronic devices
US9858129B2 (en) 2016-02-16 2018-01-02 International Business Machines Corporation Dynamic copy content retrieval
US11023680B2 (en) 2016-02-17 2021-06-01 The King Abdulaziz City For Science And Technology (Kacst) Method and system for detecting semantic errors in a text using artificial neural networks
KR20170096774A (ko) 2016-02-17 2017-08-25 이준영 전자기기의 사용자 행동기반 정황인식 작동모드
WO2017141502A1 (ja) 2016-02-18 2017-08-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9820039B2 (en) 2016-02-22 2017-11-14 Sonos, Inc. Default playback devices
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US20180063308A1 (en) 2016-02-23 2018-03-01 Bioworld Merchandising System and Method for Voice Recognition
US9779735B2 (en) 2016-02-24 2017-10-03 Google Inc. Methods and systems for detecting and processing speech signals
US20170249309A1 (en) 2016-02-29 2017-08-31 Microsoft Technology Licensing, Llc Interpreting and Resolving Conditional Natural Language Queries
US9922648B2 (en) 2016-03-01 2018-03-20 Google Llc Developer voice actions system
US20170263254A1 (en) 2016-03-10 2017-09-14 lntel IP Corporation Malware-proof privacy indicator
US10404829B2 (en) 2016-03-11 2019-09-03 Wipro Limited Method and system for achieving improved quality of service (QoS) for content delivery in a SDN controller based communication network
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
DK201670539A1 (en) 2016-03-14 2017-10-02 Apple Inc Dictation that allows editing
EP3394852B1 (en) 2016-03-14 2022-09-21 Apple Inc. Identification of voice inputs providing credentials
US10210862B1 (en) 2016-03-21 2019-02-19 Amazon Technologies, Inc. Lattice decoding and result confirmation using recurrent neural networks
US10304444B2 (en) 2016-03-23 2019-05-28 Amazon Technologies, Inc. Fine-grained natural language understanding
US11089132B2 (en) 2016-03-29 2021-08-10 Microsoft Technology Licensing, Llc Extensibility for context-aware digital personal assistant
US20170286397A1 (en) 2016-03-30 2017-10-05 International Business Machines Corporation Predictive Embeddings
US10979843B2 (en) 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
EP3434024B1 (en) 2016-04-21 2023-08-02 Hewlett-Packard Development Company, L.P. Electronic device microphone listening modes
US20170308609A1 (en) 2016-04-21 2017-10-26 Microsoft Technology Licensing, Llc Multi-result ranking exploration
US10353947B2 (en) 2016-04-25 2019-07-16 Adobe Inc. Relevancy evaluation for image search results
US20170311005A1 (en) 2016-04-26 2017-10-26 Szu-Tung Lin Method of wireless audio transmission and playback
US10431205B2 (en) 2016-04-27 2019-10-01 Conduent Business Services, Llc Dialog device with dialog support generated using a mixture of language models combined using a recurrent neural network
EP3452935B1 (en) 2016-05-06 2023-09-13 The Board of Trustees of the Leland Stanford Junior University Mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
US20180284735A1 (en) 2016-05-09 2018-10-04 StrongForce IoT Portfolio 2016, LLC Methods and systems for industrial internet of things data collection in a network sensitive upstream oil and gas environment
US10535343B2 (en) 2016-05-10 2020-01-14 Google Llc Implementations for voice assistant on devices
RU2632144C1 (ru) 2016-05-12 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Компьютерный способ создания интерфейса рекомендации контента
US10534635B2 (en) 2016-05-13 2020-01-14 Sap Se Personal digital assistant
US20170329466A1 (en) 2016-05-13 2017-11-16 Sap Se User interface application and digital assistant
US10217464B2 (en) 2016-05-13 2019-02-26 Koninklijke Philips N.V. Vocabulary generation system
KR20170128820A (ko) 2016-05-16 2017-11-24 엘지전자 주식회사 이동단말기 및 그 제어방법
US11416212B2 (en) 2016-05-17 2022-08-16 Microsoft Technology Licensing, Llc Context-based user agent
US10965800B2 (en) 2016-05-20 2021-03-30 Huawei Technologies Co., Ltd. Interaction method in call and device
US10417566B2 (en) 2016-05-22 2019-09-17 Microsoft Technology Licensing, Llc Self-learning technique for training a PDA component and a simulated user component
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US10832665B2 (en) 2016-05-27 2020-11-10 Centurylink Intellectual Property Llc Internet of things (IoT) human interface apparatus, system, and method
US9922655B2 (en) 2016-05-31 2018-03-20 International Business Machines Corporation System, method, and recording medium for controlling dialogue interruptions by a speech output device
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
KR20190016536A (ko) 2016-06-06 2019-02-18 시러스 로직 인터내셔널 세미컨덕터 리미티드 보이스 사용자 인터페이스
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
CN107480161A (zh) 2016-06-08 2017-12-15 苹果公司 用于媒体探究的智能自动化助理
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10148546B2 (en) 2016-06-09 2018-12-04 Apple Inc. Scheduling processing tasks based on predicted context
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10592601B2 (en) 2016-06-10 2020-03-17 Apple Inc. Multilingual word prediction
US10127926B2 (en) 2016-06-10 2018-11-13 Google Llc Securely executing voice actions with speaker identification and authentication input types
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
CN113238707A (zh) 2016-06-11 2021-08-10 苹果公司 具有数字助理的应用集成
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
AU2017100486C4 (en) 2016-06-11 2019-09-05 Apple Inc. Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
CN110058834B (zh) 2016-06-11 2022-06-17 苹果公司 智能设备仲裁和控制
DK201670609A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US10117046B2 (en) 2016-06-12 2018-10-30 Apple Inc. Discrete location classification
WO2017218194A1 (en) 2016-06-12 2017-12-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10257314B2 (en) 2016-06-22 2019-04-09 Microsoft Technology Licensing, Llc End-to-end user experiences with a digital assistant
US10332513B1 (en) 2016-06-27 2019-06-25 Amazon Technologies, Inc. Voice enablement and disablement of speech processing functionality
US10271093B1 (en) 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US11232136B2 (en) 2016-06-27 2022-01-25 Google Llc Contextual voice search suggestions
US10200397B2 (en) 2016-06-28 2019-02-05 Microsoft Technology Licensing, Llc Robust matching for identity screening
US9990176B1 (en) 2016-06-28 2018-06-05 Amazon Technologies, Inc. Latency reduction for content playback
US10783151B1 (en) 2016-06-29 2020-09-22 Amazon Technologies, Inc. Popularity-based content feed management system
GB201611380D0 (en) 2016-06-30 2016-08-17 Microsoft Technology Licensing Llc Artificial neural network with side input for language modelling and prediction
US10491598B2 (en) 2016-06-30 2019-11-26 Amazon Technologies, Inc. Multi-factor authentication to access services
US20180007096A1 (en) 2016-06-30 2018-01-04 Microsoft Technology Licensing, Llc Weighted data center reselection
US9934777B1 (en) 2016-07-01 2018-04-03 Amazon Technologies, Inc. Customized speech processing language models
WO2018009397A1 (en) 2016-07-06 2018-01-11 Pcms Holdings, Inc. System and method for customizing smart home speech interfaces using personalized speech profiles
US10489516B2 (en) 2016-07-13 2019-11-26 Fujitsu Social Science Laboratory Limited Speech recognition and translation terminal, method and non-transitory computer readable medium
US10467114B2 (en) 2016-07-14 2019-11-05 International Business Machines Corporation Hierarchical data processor tester
US11211168B2 (en) 2016-07-19 2021-12-28 Northwestern University Systems and methods for identifying content based on user interactions
US9825801B1 (en) 2016-07-22 2017-11-21 Spotify Ab Systems and methods for using seektables to stream media items
US10303772B2 (en) 2016-07-29 2019-05-28 International Business Machines Corporation Measuring mutual understanding in human-computer conversation
US10387461B2 (en) 2016-08-16 2019-08-20 Google Llc Techniques for suggesting electronic messages based on user activity and other context
US9967382B2 (en) 2016-08-19 2018-05-08 Amazon Technologies, Inc. Enabling voice control of telephone device
US20180060312A1 (en) 2016-08-23 2018-03-01 Microsoft Technology Licensing, Llc Providing ideogram translation
US10110272B2 (en) 2016-08-24 2018-10-23 Centurylink Intellectual Property Llc Wearable gesture control device and method
US11200026B2 (en) 2016-08-26 2021-12-14 Bragi GmbH Wireless earpiece with a passive virtual assistant
US10313779B2 (en) 2016-08-26 2019-06-04 Bragi GmbH Voice assistant system for wireless earpieces
US10192551B2 (en) 2016-08-30 2019-01-29 Google Llc Using textual input and user state information to generate reply content to present in response to the textual input
US10217462B2 (en) 2016-08-31 2019-02-26 Microsoft Technology Licensing, Llc Automating natural language task/dialog authoring by leveraging existing content
US10546066B2 (en) 2016-08-31 2020-01-28 Microsoft Technology Licensing, Llc End-to-end learning of dialogue agents for information access
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
CN107809372A (zh) 2016-09-08 2018-03-16 阿里巴巴集团控股有限公司 活动提醒消息的生成方法、活动提醒方法及装置
KR102301339B1 (ko) 2016-09-09 2021-09-10 아너 디바이스 컴퍼니 리미티드 알림을 푸시하는 방법 및 장치, 이동 단말 및 그래픽 사용자 인터페이스
US10403273B2 (en) 2016-09-09 2019-09-03 Oath Inc. Method and system for facilitating a guided dialog between a user and a conversational agent
US20180089166A1 (en) 2016-09-23 2018-03-29 Apple Inc. User interface for providing text prediction
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10846618B2 (en) 2016-09-23 2020-11-24 Google Llc Smart replies using an on-device model
US9786271B1 (en) 2016-09-28 2017-10-10 International Business Machines Corporation Voice pattern coding sequence and cataloging voice matching system
US20180088969A1 (en) 2016-09-28 2018-03-29 Lenovo (Singapore) Pte. Ltd. Method and device for presenting instructional content
WO2018067528A1 (en) 2016-10-03 2018-04-12 Google Llc Device leadership negotiation among voice interface devices
US10304463B2 (en) 2016-10-03 2019-05-28 Google Llc Multi-user personalization at a voice interface device
WO2018067350A1 (en) 2016-10-03 2018-04-12 Google Llc. Processing voice commands based on device topology
JP2018063537A (ja) 2016-10-12 2018-04-19 株式会社東芝 ホームネットワーク、電子機器、処理装置および表示方法
US10372814B2 (en) 2016-10-18 2019-08-06 International Business Machines Corporation Methods and system for fast, adaptive correction of misspells
US11392598B2 (en) 2016-10-19 2022-07-19 Ebay Inc. Applying a quantitative range for qualitative terms
CN106484139B (zh) 2016-10-19 2019-01-29 北京新美互通科技有限公司 表情符号推荐方法及装置
US10678502B2 (en) 2016-10-20 2020-06-09 Qualcomm Incorporated Systems and methods for in-ear control of remote devices
US10950230B2 (en) 2016-10-28 2021-03-16 Panasonic Intellectual Property Corporation Of America Information processing device and information processing method
US10469665B1 (en) 2016-11-01 2019-11-05 Amazon Technologies, Inc. Workflow based communications routing
US20180121432A1 (en) 2016-11-02 2018-05-03 Microsoft Technology Licensing, Llc Digital assistant integration with music services
US10783883B2 (en) 2016-11-03 2020-09-22 Google Llc Focus session at a voice interface device
US10777201B2 (en) 2016-11-04 2020-09-15 Microsoft Technology Licensing, Llc Voice enabled bot platform
US10776714B2 (en) 2016-11-04 2020-09-15 Google Llc Constructing and processing computational graphs for dynamically structured machine learning models
US10127908B1 (en) 2016-11-11 2018-11-13 Amazon Technologies, Inc. Connected accessory for a voice-controlled device
US10515632B2 (en) 2016-11-15 2019-12-24 At&T Intellectual Property I, L.P. Asynchronous virtual assistant
KR102501714B1 (ko) 2016-11-16 2023-02-21 삼성전자주식회사 사용자의 음성 입력에 대한 답변 메시지를 제공하는 디바이스 및 방법
US10170110B2 (en) 2016-11-17 2019-01-01 Robert Bosch Gmbh System and method for ranking of hybrid speech recognition results with neural networks
US10332523B2 (en) 2016-11-18 2019-06-25 Google Llc Virtual assistant identification of nearby computing devices
US10230841B2 (en) 2016-11-22 2019-03-12 Apple Inc. Intelligent digital assistant for declining an incoming call
WO2018098301A1 (en) 2016-11-23 2018-05-31 Abraham Joseph Kinney Detection of authorized user presence and handling of unauthenticated monitoring system commands
US10242443B2 (en) 2016-11-23 2019-03-26 General Electric Company Deep learning medical systems and methods for medical procedures
US10331791B2 (en) 2016-11-23 2019-06-25 Amazon Technologies, Inc. Service for developing dialog-driven applications
KR20180060328A (ko) 2016-11-28 2018-06-07 삼성전자주식회사 멀티 모달 입력을 처리하는 전자 장치, 멀티 모달 입력을 처리하는 방법 및 멀티 모달 입력을 처리하는 서버
GB201620235D0 (en) 2016-11-29 2017-01-11 Microsoft Technology Licensing Llc Neural network data entry system
US9934785B1 (en) 2016-11-30 2018-04-03 Spotify Ab Identification of taste attributes from an audio signal
US11144825B2 (en) 2016-12-01 2021-10-12 University Of Southern California Interpretable deep learning framework for mining and predictive modeling of health care data
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US20180158548A1 (en) 2016-12-07 2018-06-07 B9 Systems, LLC Data processing systems for scheduling work shifts, such as physician work shifts
JP6795387B2 (ja) 2016-12-14 2020-12-02 パナソニック株式会社 音声対話装置、音声対話方法、音声対話プログラム及びロボット
US10521245B2 (en) 2016-12-18 2019-12-31 Oracle International Corporation Method and system for recursive plug-in application recipe generation
US10109275B2 (en) 2016-12-19 2018-10-23 Asapp, Inc. Word hash language model
US10216832B2 (en) 2016-12-19 2019-02-26 Interactions Llc Underspecification of intents in a natural language processing system
US11237696B2 (en) 2016-12-19 2022-02-01 Google Llc Smart assist for repeated actions
JP2018101828A (ja) 2016-12-19 2018-06-28 船井電機株式会社 制御装置
JP2018101242A (ja) 2016-12-20 2018-06-28 株式会社リコー 情報処理装置、情報処理方法及びプログラム。
US10032451B1 (en) 2016-12-20 2018-07-24 Amazon Technologies, Inc. User recognition for speech processing systems
US20190182176A1 (en) 2016-12-21 2019-06-13 Facebook, Inc. User Authentication with Voiceprints on Online Social Networks
WO2018118442A1 (en) 2016-12-21 2018-06-28 Google Llc Acoustic-to-word neural network speech recognizer
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10186266B1 (en) 2016-12-28 2019-01-22 Amazon Technologies, Inc. Message playback using a shared device
JP6725008B2 (ja) 2016-12-29 2020-07-15 ヤマハ株式会社 コマンドデータ送信装置、ローカルエリア装置、機器制御システム、コマンドデータ送信装置の制御方法、ローカルエリア装置の制御方法、機器制御方法、及びプログラム
US10831366B2 (en) 2016-12-29 2020-11-10 Google Llc Modality learning on mobile devices
US10210864B2 (en) 2016-12-29 2019-02-19 T-Mobile Usa, Inc. Voice command for communication between related devices
US10268680B2 (en) 2016-12-30 2019-04-23 Google Llc Context-aware human-to-computer dialog
US10115396B2 (en) 2017-01-03 2018-10-30 Logitech Europe, S.A. Content streaming system
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US9747083B1 (en) 2017-01-23 2017-08-29 Essential Products, Inc. Home device application programming interface
US10136364B2 (en) 2017-01-24 2018-11-20 Essential Products, Inc. Media and communications in a connected environment
US10146768B2 (en) 2017-01-25 2018-12-04 Google Llc Automatic suggested responses to images received in messages using language model
US11151130B2 (en) 2017-02-04 2021-10-19 Tata Consultancy Services Limited Systems and methods for assessing quality of input text using recurrent neural networks
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
CN106776581B (zh) 2017-02-21 2020-01-24 浙江工商大学 基于深度学习的主观性文本情感分析方法
US11314898B2 (en) 2017-02-28 2022-04-26 Samsung Electronics Co., Ltd. Operating method of electronic device for function execution based on voice command in locked state and electronic device supporting the same
KR20180101063A (ko) 2017-03-03 2018-09-12 삼성전자주식회사 사용자 입력을 처리하는 전자 장치 및 그 방법
DE102017203570A1 (de) 2017-03-06 2018-09-06 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur darstellung von empfohlenen bedienhandlungen eines vorschlagssystems und interaktion mit dem vorschlagssystem
US10096319B1 (en) 2017-03-13 2018-10-09 Amazon Technologies, Inc. Voice-based determination of physical and emotional characteristics of users
US10074371B1 (en) 2017-03-14 2018-09-11 Amazon Technologies, Inc. Voice control of remote device by disabling wakeword detection
US20180268106A1 (en) 2017-03-17 2018-09-20 Orbit Healthcare, Inc. System and method for connecting patients, medical service providers, and medical insurance providers
US20180270343A1 (en) 2017-03-20 2018-09-20 Motorola Mobility Llc Enabling event-driven voice trigger phrase on an electronic device
US10547729B2 (en) 2017-03-27 2020-01-28 Samsung Electronics Co., Ltd. Electronic device and method of executing function of electronic device
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US20180285056A1 (en) 2017-03-28 2018-10-04 Microsoft Technology Licensing, Llc Accessory human interface device
US10468032B2 (en) 2017-04-10 2019-11-05 Intel Corporation Method and system of speaker recognition using context aware confidence modeling
US10013979B1 (en) 2017-04-17 2018-07-03 Essential Products, Inc. Expanding a set of commands to control devices in an environment
KR102414122B1 (ko) 2017-04-19 2022-06-29 삼성전자주식회사 사용자 발화를 처리하는 전자 장치 및 그 동작 방법
KR102298947B1 (ko) 2017-04-28 2021-09-08 삼성전자주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
US10282416B2 (en) 2017-05-05 2019-05-07 Apple Inc. Unified framework for text conversion and prediction
US10902855B2 (en) 2017-05-08 2021-01-26 Motorola Mobility Llc Methods and devices for negotiating performance of control operations with acoustic signals
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US20180330714A1 (en) 2017-05-12 2018-11-15 Apple Inc. Machine learned systems
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10366692B1 (en) 2017-05-15 2019-07-30 Amazon Technologies, Inc. Accessory for a voice-controlled device
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US10009666B1 (en) 2017-05-16 2018-06-26 Google Llc Cross-device handoffs
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
EP3427484B1 (en) 2017-05-16 2023-09-27 Apple Inc. Methods and interfaces for home media control
US11048995B2 (en) 2017-05-16 2021-06-29 Google Llc Delayed responses by computational assistant
WO2018213415A1 (en) 2017-05-16 2018-11-22 Apple Inc. Far-field extension for digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10395659B2 (en) 2017-05-16 2019-08-27 Apple Inc. Providing an auditory-based interface of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10170137B2 (en) 2017-05-18 2019-01-01 International Business Machines Corporation Voice signal component forecaster
US20180336439A1 (en) 2017-05-18 2018-11-22 Intel Corporation Novelty detection using discriminator of generative adversarial network
US10521512B2 (en) 2017-05-26 2019-12-31 Bose Corporation Dynamic text-to-speech response from a smart speaker
US20180349447A1 (en) 2017-06-02 2018-12-06 Apple Inc. Methods and systems for customizing suggestions using user-specific information
US20180349472A1 (en) 2017-06-02 2018-12-06 Apple Inc. Methods and systems for providing query suggestions
US20180349346A1 (en) 2017-06-02 2018-12-06 Apple Inc. Lattice-based techniques for providing spelling corrections
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10410635B2 (en) 2017-06-09 2019-09-10 Soundhound, Inc. Dual mode speech recognition
US20180357073A1 (en) 2017-06-13 2018-12-13 Motorola Solutions, Inc Method, device, and system for electronic digital assistant for natural language detection of a user status change and corresponding modification of a user interface
US10990930B2 (en) 2017-06-19 2021-04-27 International Business Machines Corporation Autonomous event generator
US10453451B2 (en) 2017-07-05 2019-10-22 Comcast Cable Communications, Llc Methods and systems for using voice to control multiple devices
US20190013025A1 (en) 2017-07-10 2019-01-10 Google Inc. Providing an ambient assist mode for computing devices
US20190019077A1 (en) 2017-07-17 2019-01-17 Cisco Technology, Inc. Automatic configuration of cognitive assistant
CN107450800A (zh) 2017-07-25 2017-12-08 维沃移动通信有限公司 一种任务设置方法、移动终端及计算机可读存储介质
CN107545262B (zh) 2017-07-31 2020-11-06 华为技术有限公司 一种在自然场景图像中检测文本的方法及装置
US10467552B2 (en) 2017-07-31 2019-11-05 Pearson Education, Inc. System and method for automatic content provisioning
US10783149B2 (en) 2017-08-02 2020-09-22 Microsoft Technology Licensing, Llc Dynamic productivity content rendering based upon user interaction patterns
US11294530B2 (en) 2017-08-07 2022-04-05 Microsoft Technology Licensing, Llc Displaying a translucent version of a user interface element
US11972327B2 (en) 2017-08-25 2024-04-30 Samsung Electronics Co., Ltd. Method for automating actions for an electronic device
KR102426704B1 (ko) 2017-08-28 2022-07-29 삼성전자주식회사 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
JP6929168B2 (ja) 2017-08-31 2021-09-01 キヤノン株式会社 音声制御デバイス、印刷装置、それらの制御方法およびプログラム
US10796687B2 (en) 2017-09-06 2020-10-06 Amazon Technologies, Inc. Voice-activated selective memory for voice-capturing devices
US10438594B2 (en) 2017-09-08 2019-10-08 Amazon Technologies, Inc. Administration of privileges by speech for voice assistant system
US11004444B2 (en) 2017-09-08 2021-05-11 Amazon Technologies, Inc. Systems and methods for enhancing user experience by communicating transient errors
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10719507B2 (en) 2017-09-21 2020-07-21 SayMosaic Inc. System and method for natural language processing
CN107786730B (zh) 2017-09-27 2021-06-25 珠海市魅族科技有限公司 一种任务管理方法及终端
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US11450314B2 (en) 2017-10-03 2022-09-20 Google Llc Voice user interface shortcuts for an assistant application
CN111201693B (zh) 2017-10-09 2022-06-10 声音生命股份有限公司 实现无线能量接收的接收装置
KR102421255B1 (ko) 2017-10-17 2022-07-18 삼성전자주식회사 음성 신호를 제어하기 위한 전자 장치 및 방법
JP7063990B2 (ja) 2017-10-21 2022-05-09 アップル インコーポレイテッド 共用デバイス上の仮想アシスタントシステム用の個人ドメイン
US10680978B2 (en) 2017-10-23 2020-06-09 Microsoft Technology Licensing, Llc Generating recommended responses based on historical message data
CN107623616A (zh) 2017-10-27 2018-01-23 成都密为科技有限公司 智能网关和具有智能网关的取电开关
US20190129615A1 (en) 2017-10-30 2019-05-02 Futurewei Technologies, Inc. Apparatus and method for simplifying repeat performance of a prior performed task based on a context of a mobile device
US10152966B1 (en) 2017-10-31 2018-12-11 Comcast Cable Communications, Llc Preventing unwanted activation of a hands free device
US9967381B1 (en) 2017-11-03 2018-05-08 Republic Wireless, Inc. Virtual telephony assistant
US10685648B2 (en) 2017-11-08 2020-06-16 International Business Machines Corporation Sensor fusion model to enhance machine conversational awareness
US10515640B2 (en) 2017-11-08 2019-12-24 Intel Corporation Generating dialogue based on verification scores
CN107871500B (zh) 2017-11-16 2021-07-20 百度在线网络技术(北京)有限公司 一种播放多媒体的方法和装置
US10521946B1 (en) 2017-11-21 2019-12-31 Amazon Technologies, Inc. Processing speech to drive animations on avatars
US10013654B1 (en) 2017-11-29 2018-07-03 OJO Labs, Inc. Cooperatively operating a network of supervised learning processors to concurrently distribute supervised learning processor training and provide predictive responses to input data
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
JP6962158B2 (ja) 2017-12-01 2021-11-05 ヤマハ株式会社 機器制御システム、機器制御方法、及びプログラム
CN107919123B (zh) 2017-12-07 2022-06-03 北京小米移动软件有限公司 多语音助手控制方法、装置及计算机可读存储介质
US10971173B2 (en) 2017-12-08 2021-04-06 Google Llc Signal processing coordination among digital voice assistant computing devices
WO2019112625A1 (en) 2017-12-08 2019-06-13 Google Llc Signal processing coordination among digital voice assistant computing devices
US11182122B2 (en) 2017-12-08 2021-11-23 Amazon Technologies, Inc. Voice control of computing devices
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US10664540B2 (en) 2017-12-15 2020-05-26 Intuit Inc. Domain specific natural language understanding of customer intent in self-help
US11409816B2 (en) 2017-12-19 2022-08-09 Motorola Solutions, Inc. Methods and systems for determining an action to be taken in response to a user query as a function of pre-query context information
US11221669B2 (en) 2017-12-20 2022-01-11 Microsoft Technology Licensing, Llc Non-verbal engagement of a virtual assistant
US10170135B1 (en) 2017-12-29 2019-01-01 Intel Corporation Audio gait detection and identification
US10685225B2 (en) 2017-12-29 2020-06-16 Wipro Limited Method and system for detecting text in digital engineering drawings
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10524040B2 (en) 2018-01-29 2019-12-31 Apple Inc. Headphones with orientation sensors
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US11145298B2 (en) 2018-02-13 2021-10-12 Roku, Inc. Trigger word detection with multiple digital assistants
US11195000B2 (en) 2018-02-13 2021-12-07 FLIR Belgium BVBA Swipe gesture detection systems and methods
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US11044364B2 (en) 2018-03-15 2021-06-22 Ways Investments, LLC System, method, and apparatus for providing help
US10674014B2 (en) 2018-03-15 2020-06-02 Ways Investments, LLC System, method, and apparatus for providing help
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
CN108647681B (zh) 2018-05-08 2019-06-14 重庆邮电大学 一种带有文本方向校正的英文文本检测方法
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
AU2019100576C4 (en) 2018-06-03 2020-01-30 Apple Inc. Accelerated task performance
US10818296B2 (en) 2018-06-21 2020-10-27 Intel Corporation Method and system of robust speaker recognition activation
WO2020010530A1 (en) 2018-07-10 2020-01-16 Microsoft Technology Licensing, Llc Automatically generating motions of an avatar
US20200019609A1 (en) 2018-07-13 2020-01-16 Asapp, Inc. Suggesting a response to a message by selecting a template using a neural network
US10721190B2 (en) 2018-07-31 2020-07-21 Microsoft Technology Licensing, Llc Sequence to sequence to classification model for generating recommended messages
GB2576016B (en) 2018-08-01 2021-06-23 Arm Ip Ltd Voice assistant devices
US10885277B2 (en) 2018-08-02 2021-01-05 Google Llc On-device neural networks for natural language understanding
JP7159355B2 (ja) 2018-08-23 2022-10-24 グーグル エルエルシー マルチアシスタント環境の特性によるアシスタント応答性の規制
TWI683306B (zh) 2018-08-28 2020-01-21 仁寶電腦工業股份有限公司 多語音助理之控制方法
US20200092625A1 (en) 2018-09-13 2020-03-19 Hayes S. Raffle Smart device cover
US10958301B2 (en) 2018-09-18 2021-03-23 Roku, Inc. Audio synchronization of a dumb speaker and a smart speaker using a spread code
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US20200127988A1 (en) 2018-10-19 2020-04-23 Apple Inc. Media intercom over a secure device to device communication channel
KR102608470B1 (ko) 2018-10-23 2023-12-01 삼성전자주식회사 데이터 인식 장치 및 방법과 트레이닝 장치 및 방법
US11196863B2 (en) 2018-10-24 2021-12-07 Verint Americas Inc. Method and system for virtual assistant conversations
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11238850B2 (en) 2018-10-31 2022-02-01 Walmart Apollo, Llc Systems and methods for e-commerce API orchestration using natural language interfaces
CN109447234B (zh) 2018-11-14 2022-10-21 腾讯科技(深圳)有限公司 一种模型训练方法、合成说话表情的方法和相关装置
TWI682325B (zh) 2018-11-20 2020-01-11 新唐科技股份有限公司 辨識系統及辨識方法
US20200175566A1 (en) 2018-11-30 2020-06-04 International Business Machines Corporation Adding and prioritizing items in a product list
EP3752931A1 (en) 2018-12-06 2020-12-23 Google LLC Pre-emptively initializing an automated assistant routine and/or dismissing a scheduled alarm
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
WO2020117296A1 (en) 2018-12-07 2020-06-11 Google Llc Conditionally assigning various automated assistant function(s) to interaction with a peripheral assistant control device
CN109657629B (zh) 2018-12-24 2021-12-07 科大讯飞股份有限公司 一种文本行提取方法及装置
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US10937425B2 (en) 2019-01-10 2021-03-02 Dell Products L.P. Systems and methods for selectively activating and interacting with a speech recognition service during application runtime without interrupting execution of the application
US12080395B2 (en) 2019-03-01 2024-09-03 Cambia Health Solutions, Inc. Systems and methods for management of clinical queues
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11467646B2 (en) 2019-03-28 2022-10-11 Lenovo (Singapore) Pte. Ltd. Context data sharing
US11258865B2 (en) 2019-03-28 2022-02-22 Servicenow, Inc. Automated integration with cloud-based services
CN110135411B (zh) 2019-04-30 2021-09-10 北京邮电大学 名片识别方法和装置
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US20200379640A1 (en) 2019-05-29 2020-12-03 Apple Inc. User-realistic path synthesis via multi-task generative adversarial networks for continuous path keyboard input
US20200380389A1 (en) 2019-05-31 2020-12-03 Apple Inc. Sentiment and intent analysis for customizing suggestions using user-specific information
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11887585B2 (en) 2019-05-31 2024-01-30 Apple Inc. Global re-ranker
DK180649B1 (en) 2019-05-31 2021-11-11 Apple Inc Voice assistant discoverability through on-device targeting and personalization
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
CN110647274A (zh) 2019-08-15 2020-01-03 华为技术有限公司 一种界面显示方法及设备
CN110531860B (zh) 2019-09-02 2020-07-24 腾讯科技(深圳)有限公司 一种基于人工智能的动画形象驱动方法和装置
CN110825469A (zh) 2019-09-18 2020-02-21 华为技术有限公司 语音助手显示方法及装置
CN110598671B (zh) 2019-09-23 2022-09-27 腾讯科技(深圳)有限公司 基于文本的虚拟形象行为控制方法、设备和介质
US20210090314A1 (en) 2019-09-25 2021-03-25 Apple Inc. Multimodal approach for avatar animation
US10757499B1 (en) 2019-09-25 2020-08-25 Sonos, Inc. Systems and methods for controlling playback and other features of a wireless headphone

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12033633B1 (en) * 2019-03-26 2024-07-09 Amazon Technologies, Inc. Ambient device state content display

Also Published As

Publication number Publication date
DK201970273A1 (en) 2019-06-04
DK201670575A1 (en) 2017-03-27
DK201570826A1 (en) 2017-03-27
DK201770287A1 (en) 2017-05-08
AU2016247040B2 (en) 2017-11-16
US20170068423A1 (en) 2017-03-09
US20240134506A1 (en) 2024-04-25
KR20170036805A (ko) 2017-04-03
KR20210090727A (ko) 2021-07-20
AU2024201697A1 (en) 2024-04-04
AU2018260958B2 (en) 2020-05-07
US10331312B2 (en) 2019-06-25
CN107003797A (zh) 2017-08-01
JP2017215971A (ja) 2017-12-07
KR20220047896A (ko) 2022-04-19
JP2018502345A (ja) 2018-01-25
US20190310765A1 (en) 2019-10-10
CN113687746A (zh) 2021-11-23
CN107577385B (zh) 2022-01-18
KR102277920B1 (ko) 2021-07-16
AU2016247040A1 (en) 2017-03-23
KR20170100067A (ko) 2017-09-01
KR20240116592A (ko) 2024-07-29
AU2022204891A1 (en) 2022-07-28
EP3291564A1 (en) 2018-03-07
CN107003797B (zh) 2021-08-13
US20210191603A1 (en) 2021-06-24
WO2017044257A1 (en) 2017-03-16
AU2018260958A1 (en) 2018-12-13
US10956006B2 (en) 2021-03-23
JP6779257B2 (ja) 2020-11-04
AU2020207867A1 (en) 2020-08-13
JP2023099020A (ja) 2023-07-11
AU2017204359B2 (en) 2018-08-09
AU2022204891B2 (en) 2023-12-14
KR20200011555A (ko) 2020-02-03
KR102594066B1 (ko) 2023-10-25
KR102385459B1 (ko) 2022-04-12
KR102688593B1 (ko) 2024-07-26
US20170285915A1 (en) 2017-10-05
EP3167618A1 (en) 2017-05-17
DK178888B1 (en) 2017-05-01
US11853536B2 (en) 2023-12-26
CN113687747A (zh) 2021-11-23
KR20230151069A (ko) 2023-10-31
JP2018190431A (ja) 2018-11-29
JP2021012728A (ja) 2021-02-04
AU2020207867B2 (en) 2022-04-07
AU2017204359A1 (en) 2017-07-20
DK179111B1 (en) 2017-11-06
US10379715B2 (en) 2019-08-13
CN107577385A (zh) 2018-01-12

Similar Documents

Publication Publication Date Title
JP6635982B2 (ja) メディア環境内におけるインテリジェント自動アシスタント
JP6542983B2 (ja) メディア検索及び再生のためのインテリジェント自動アシスタント
US11838579B2 (en) Intelligent automated assistant for TV user interactions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170621

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180827

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20181026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191217

R150 Certificate of patent or registration of utility model

Ref document number: 6635982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250