JP7159400B2 - 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム - Google Patents
自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム Download PDFInfo
- Publication number
- JP7159400B2 JP7159400B2 JP2021103081A JP2021103081A JP7159400B2 JP 7159400 B2 JP7159400 B2 JP 7159400B2 JP 2021103081 A JP2021103081 A JP 2021103081A JP 2021103081 A JP2021103081 A JP 2021103081A JP 7159400 B2 JP7159400 B2 JP 7159400B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- user
- utterance
- input
- media guidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 152
- 230000008451 emotion Effects 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 description 246
- 238000004891 communication Methods 0.000 description 55
- 230000008569 process Effects 0.000 description 50
- 238000012545 processing Methods 0.000 description 15
- 238000013459 approach Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 6
- 238000012552 review Methods 0.000 description 5
- 238000004883 computer application Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013549 information retrieval technique Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 244000187656 Eucalyptus cornuta Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002772 conduction electron Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/081—Search algorithms, e.g. Baum-Welch or Viterbi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Telephone Function (AREA)
Description
発話を受信する。第1の発話は、例えば、ユーザによって話された言葉を含み得る。例えば、第1の発話は、「オースティンについての番組を見せて」であり得る。
の時間差が閾値時間未満であることを決定する。例えば、時間差が10秒であり、閾値時間が20秒である場合、メディアガイドアプリケーションは、時間差が閾値時間未満であることを決定し得る。
、ユーザの顔の第2の画像を捕捉し、第2の画像内のユーザの顔の第2の相対サイズを決定する。例えば、ユーザ入力デバイスが携帯電話である場合、携帯電話は、そのカメラを使用して、ユーザの顔の画像を捕捉し得る。例えば、ユーザは、テレビ上でメディアアセットを視聴していることもあり、テレビは、統合型カメラを有し、カメラを使用してユーザの顔の画像を捕捉し得る。例えば、ユーザは、コンピュータ上でメディアアセットを視聴していることもあり、コンピュータは、統合型カメラを有し、カメラを使用してユーザの顔の画像を捕捉し得る。例えば、メディアガイドアプリケーションは、画像内のユーザの顔によって占有されるピクセルの数を数えることによって、画像内のユーザの顔の相対サイズを計算し得る。
第1の発話は、例えば、ユーザによって話された言葉を含み得る。例えば、第1の発話は、「オースティンについての番組を見せて」であり得る。
例えば、ユーザ入力デバイスが第1の時間と第2の時間との間に1m/秒の速度で移動した場合、第2の加速は、1m/秒2であり得る。
するために、メディアガイドアプリケーションは、顔認識技法を使用してユーザの顔の画像を分析し、怒りおよび悲しみ等の表情を検出し得る。例えば、第1の入力が「ボストンについての番組を見せて」であり、第2の入力が「オースティン」である場合、メディアガイドアプリケーションは、「ボストン」を「オースティン」と置換し、加速の差が閾値加速を上回ること、および画像内のユーザの顔が不満な感情に関連付けられていることに基づいて、「オースティンについての番組を見せて」という訂正された入力を生成し得る。
ベルを測定するために、ユーザ入力デバイスは、第1の発話が受信されているときに、オーディオ録音を捕捉し、オーディオ録音の中の音声を除外し、本オーディオ録音の中の残留信号の平均出力を測定し得る。いくつかの実施形態では、メディアガイドアプリケーションは、第1の発話が受信されている間の環境雑音レベルと基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較する。例えば、環境雑音レベル差が0.1mWであり、閾値環境雑音レベルが0.01mWである場合、メディアガイドアプリケーションは、0.1mWを0.01mWと比較し得る。いくつかの実施形態では、第1の発話が受信されている間の環境雑音レベルと基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することに基づいて、メディアガイドアプリケーションは、環境雑音レベル差が閾値環境雑音レベルを上回ることを決定する。例えば、環境雑音レベル差が0.1mWであり、閾値環境雑音レベルが0.01mWである場合、メディアガイドアプリケーションは、0.1mWが0.01mWを上回ることを決定し得る。いくつかの実施形態では、メディアガイドは、環境雑音レベル差が閾値環境雑音レベルを上回ることを決定することにさらに基づいて、訂正された入力を生成する。例えば、第1の入力が「ボストンについての番組を見せて」であり、第2の入力が「オースティン」である場合、メディアガイドアプリケーションは、「ボストン」を「オースティン」と置換し、加速の差が閾値加速を上回ること、および環境雑音レベル差が閾値環境雑音レベルを上回ることに基づいて、「オースティンについての番組を見せて」という訂正された入力を生成し得る。
意図するという明示的指示としての役割を果たすことができる。そのような語句がない場合、新しい検索を開始すること、または前の検索から結果をフィルタ処理することとは対照的に、ユーザが後続の発話で入力を訂正することを意図するかどうかを決定することは、困難であり得る。説明されるシステムおよび方法は、「そうではなくて」または「言おうとしたのは~」等の語句以外に、他の指示を使用し、ユーザが後続の発話で入力を訂正することを意図するかどうかを決定する。例えば、結果の提示と後続の発話との間の時間差、および結果の提示と後続の発話との間のユーザ入力デバイスの加速の差は、ユーザが後続の発話で入力を訂正することを意図するかどうかを決定するために使用されることができる。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成されており、前記方法は、
第1の発話を受信することと、
自動発話認識を使用して、前記第1の発話に基づいて第1の入力を生成することと、
前記第1の入力に基づく検索結果を表示のために生成することと、
第2の発話を受信することと、
前記検索結果が表示されたときと前記第2の発話が受信されたときとの間の時間差が閾値時間未満であるかどうかを決定することと、
前記検索結果が表示されたときと前記第2の発話が受信されたときとの間の前記時間差が前記閾値時間未満であることを決定することに基づいて、前記第2の発話に基づいて前
記第1の入力を訂正することと
を含む、方法。
(項目2)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成されており、前記方法は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
データベースから、前記第1の入力に基づく検索結果を読み出すことと、
前記制御回路を使用して、前記検索結果を表示のために生成することと、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
前記制御回路および自動発話認識を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記制御回路を使用して、前記第2の発話が受信された第2の時間を決定することと、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の時間差を閾値時間と比較することと、
前記第2の時間と前記第1の時間との間の前記時間差を前記閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することと、
前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成することと
を含む、方法。
(項目3)
前記訂正された入力を生成することは、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づく、項目2に記載の方法。
(項目4)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することは、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することを含む、項目3に記載の方法。
(項目5)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉することをさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づく、項目2に記載の方法。
(項目6)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決
定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づく、項目2に記載の方法。(項目7)
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差を他の閾値時間と比較することと、
前記第2の時間と前記第1の時間との間の前記時間差を前記他の閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することと、
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することにさらに基づく、項目2に記載の方法。
(項目8)
ユーザに関連付けられた複数の入力間の平均時間に基づいて、前記閾値時間を調節することをさらに含む、項目2に記載の方法。
(項目9)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づく、項目2に記載の方法。
(項目10)
前記第2の発話が受信されたときの前記第2の時間を決定することは、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定することを含む、項目2に記載の方法。
(項目11)
前記検索結果が表示のために生成された前記第1の時間を決定することは、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出することを含む、項目2に記載の方法。
(項目12)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正するためのシステムであって、前記入力は、自動発話認識を使用して生成されており、前記システムは、
データベースを記憶しているメモリと、
制御回路と通信しているユーザ入力デバイスと
を備え、
前記制御回路は、
前記ユーザ入力デバイスを介して、第1の発話を受信することと、
自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
前記データベースから、前記第1の入力に基づく検索結果を読み出すことと、
前記検索結果を表示のために生成することと、
前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
自動発話認識を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記第2の発話が受信された第2の時間を決定することと、
前記第2の時間と前記第1の時間との間の時間差を閾値時間と比較することと、
前記第2の時間と前記第1の時間との間の前記時間差を前記閾値時間と比較することに基づいて、前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することと、
前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することに基づいて、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成することと
を行うように構成されている、システム。
(項目13)
前記制御回路は、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目12に記載のシステム。
(項目14)
前記制御回路は、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定する場合、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定するように構成されている、項目13に記載のシステム。
(項目15)
前記制御回路は、前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉するようにさらに構成され、
前記制御回路は、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目12に記載のシステム。
(項目16)
前記制御回路は、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することと
を行うようにさらに構成され、
前記制御回路は、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目12に記載のシステム。
(項目17)
前記制御回路は、
前記第2の時間と前記第1の時間との間の前記時間差を他の閾値時間と比較することと、
前記第2の時間と前記第1の時間との間の前記時間差を前記他の閾値時間と比較することに基づいて、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することと
を行うようにさらに構成され、
前記制御回路は、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目12に記載のシステム。
(項目18)
前記制御回路は、ユーザに関連付けられた複数の入力間の平均時間に基づいて、前記閾値時間を調節するようにさらに構成されている、項目12に記載のシステム。
(項目19)
前記制御回路は、
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することと
を行うようにさらに構成され、
前記制御回路は、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目12に記載のシステム。
(項目20)
前記制御回路は、前記第2の発話が受信されたときの前記第2の時間を決定する場合、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定するように構成されている、項目12に記載のシステム。
(項目21)
前記制御回路は、前記検索結果が表示のために生成された前記第1の時間を決定する場合、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出するように構成されている、項目12に記載のシステム。
(項目22)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成されており、前記方法は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
データベースから、前記制御回路を使用して、前記第1の入力に基づく検索結果を読み出すことと、
前記制御回路を使用して、前記検索結果を表示のために生成することと、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
前記制御回路および自動発話認識を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記制御回路を使用して、前記第2の発話が受信された第2の時間を決定することと、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の時間差を閾値時間と比較することと、
前記第2の時間と前記第1の時間との間の前記時間差を前記閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することと、
前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成することと
を含む、方法。
(項目23)
前記訂正された入力を生成することは、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づく、項目22に記載の方法。
(項目24)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することは、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することを含む、項目23に記載の方法。
(項目25)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉することをさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づく、項目22-24のいずれかに記載の方法。
(項目26)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の
前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づく、項目22-25のいずれかに記載の方法。
(項目27)
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差を他の閾値時間と比較することと、
前記第2の時間と前記第1の時間との間の前記時間差を前記他の閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することと
をさらに含み、前記訂正された入力を生成することは、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することにさらに基づく、項目22-26のいずれかに記載の方法。
(項目28)
ユーザに関連付けられた複数の入力間の平均時間に基づいて、前記閾値時間を調節することをさらに含む、項目22-27のいずれかに記載の方法。
(項目29)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づく、項目22-28のいずれかに記載の方法。
(項目30)
前記第2の発話が受信されたときの前記第2の時間を決定することは、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定することを含む、項目22-29のいずれかに記載の方法。
(項目31)
前記検索結果が表示のために生成された前記第1の時間を決定することは、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出することを含む、項目22-30のいずれかに記載の方法。
(項目32)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、入力を訂正するための装置であって、前記入力は、自動発話認識を使用して生成されており、前記装置は、
ユーザ入力デバイスを介して、第1の発話を受信する手段と、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定する手段と、
データベースから、前記第1の入力に基づく検索結果を読み出す手段と、
前記制御回路を使用して、前記検索結果を表示のために生成する手段と、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定する手段と、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信する手段と、
前記制御回路および自動発話認識を使用して、前記第2の発話に基づいて第2の入力を決定する手段と、
前記制御回路を使用して、前記第2の発話が受信された第2の時間を決定する手段と、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の時間差を閾値時間と比較する手段と、
前記第2の時間と前記第1の時間との間の前記時間差を前記閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定する手段と、
前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成する手段と
を備えている、装置。
(項目33)
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目32に記載の装置。
(項目34)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定する前記手段は、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定する手段を備えている、項目33に記載の装置。
(項目35)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉する手段をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目32に記載の装置。
(項目36)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉する手段と、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定する手段と、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉する手段と、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定する手段と、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較する手段と、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を
使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定する手段と
をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目32に記載の装置。
(項目37)
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差を他の閾値時間と比較する手段と、
前記第2の時間と前記第1の時間との間の前記時間差を前記他の閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定する手段と
をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目32に記載の装置。
(項目38)
ユーザに関連付けられた複数の入力間の平均時間に基づいて、前記閾値時間を調節する手段をさらに備えている、項目32に記載の装置。
(項目39)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定する手段と、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定する手段と、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較する手段と、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定する手段と
をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目32に記載の装置。
(項目40)
前記第2の発話が受信されたときの前記第2の時間を決定する前記手段は、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定する手段を備えている、項目32に記載の装置。
(項目41)
前記検索結果が表示のために生成された前記第1の時間を決定する前記手段は、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出する手段を備えている、項目32に記載の装置。
(項目42)
エンコードされた命令を有するメモリを備えている非一過性の機械読み取り可能な媒体であって、前記命令は、ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正するためのものであり、前記入力は、自動発話認識を使用して生成されており、前記非一過性の機械読み取り可能な媒体は、
ユーザ入力デバイスを介して、第1の発話を受信するための命令と、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定
するための命令と、
データベースから、前記第1の入力に基づく検索結果を読み出すための命令と、
前記制御回路を使用して、前記検索結果を表示のために生成するための命令と、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定するための命令と、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信するための命令と、
前記制御回路および自動発話認識を使用して、前記第2の発話に基づいて第2の入力を決定するための命令と、
前記制御回路を使用して、前記第2の発話が受信された第2の時間を決定するための命令と、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の時間差を閾値時間と比較するための命令と、
前記第2の時間と前記第1の時間との間の前記時間差を前記閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定するための命令と、
前記第2の時間と前記第1の時間との間の前記時間差が前記閾値時間未満であることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成するための命令と
を備えている、非一過性の機械読み取り可能な媒体。
(項目43)
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。
(項目44)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定するための前記命令は、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定するための命令を備えている、項目43に記載の非一過性の機械読み取り可能な媒体。
(項目45)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉するための命令をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。
(項目46)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉するための命令と、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定するための命令と、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉するための命令と、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決
定するための命令と、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較するための命令と、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定するための命令と
をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。
(項目47)
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差を他の閾値時間と比較するための命令と、
前記第2の時間と前記第1の時間との間の前記時間差を前記他の閾値時間と比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定するための命令と
をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記他の閾値時間を上回ることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。
(項目48)
ユーザに関連付けられた複数の入力間の平均時間に基づいて、前記閾値時間を調節するための命令をさらに備えている、項目42に記載の非一過性の機械読み取り可能な媒体。(項目49)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定するための命令と、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定するための命令と、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較するための命令と、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定するための命令と
をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。
(項目50)
前記第2の発話が受信されたときの前記第2の時間を決定するための前記命令は、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。(項目51)
前記検索結果が表示のために生成された前記第1の時間を決定するための前記命令は、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出するための命令を備えている、項目42に記載の非一過性の機械読み取り可能な媒体。
(項目52)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成されており、前記方法は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
自動発話認識を使用して、前記第1の発話に基づいて第1の入力を生成することと、
前記第1の入力に基づく検索結果を表示のために生成することと、
前記ユーザ入力デバイスを介して、第2の発話を受信することと、
前記検索結果が表示されたときと前記第2の発話が受信されたときとの間の前記ユーザ入力デバイスの加速の差が閾値加速を上回るかどうかを決定することと、
前記検索結果が表示されたときと前記第2の発話が受信されたときとの間の前記ユーザ入力デバイスの前記加速の差が前記閾値加速を上回ることを決定することに基づいて、前記第2の発話に基づいて前記第1の入力を訂正することと
を含む、方法。
(項目53)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成されており、前記方法は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
データベースから、前記第1の入力に基づく検索結果を読み出すことと、
前記制御回路を使用して、前記検索結果を表示のために生成することと、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の時間における前記ユーザ入力デバイスの第1の加速を測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
前記制御回路を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記制御回路および自動発話認識を使用して、前記第2の発話が受信された第2の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの第2の加速を測定することと、
前記制御回路を使用して、前記第2の加速と前記第1の加速との間の加速の差を決定することと、
前記第2の加速と前記第1の加速との間の前記加速の差を決定することに基づいて、前記制御回路を使用して、前記加速の差を閾値加速と比較することと、
前記加速の差を前記閾値加速と比較することに基づいて、前記制御回路を使用して、前記加速の差が前記閾値加速を上回ることを決定することと、
前記加速の差が前記閾値加速を上回ることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成することと
を含む、方法。
(項目54)
前記訂正された入力を生成することは、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づく、項目53に記載の方法。
(項目55)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することは、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することを含む、項目54に記載の方法。
(項目56)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉することをさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づく、項目53に記載の方法。
(項目57)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づく、項目53に記載の方法。
(項目58)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づく、項目53に記載の方法。
(項目59)
前記第2の発話が受信されたときの前記第2の時間を決定することは、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定することを含む、項目53に記載の方法。
(項目60)
前記検索結果が表示のために生成された前記第1の時間を決定することは、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出することを含む、項目53に記載の方法。
(項目61)
前記ユーザ入力デバイスは、加速度計を備えている携帯電話である、項目53に記載の方法。
(項目62)
前記第2の加速を測定することは、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの最大加速を測定することを含む、項目53に記載の方法。
(項目63)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正するためのシステムであって、前記入力は、自動発話認識を使用して生成されており、前記システムは、
データベースを記憶しているメモリと、
制御回路と通信しているユーザ入力デバイスと
を備え、
前記制御回路は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
データベースから、前記第1の入力に基づく検索結果を読み出すことと、
前記制御回路を使用して、前記検索結果を表示のために生成することと、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の時間における前記ユーザ入力デバイスの第1の加速を測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
前記制御回路を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記制御回路および自動発話認識を使用して、前記第2の発話が受信された第2の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの第2の加速を測定することと、
前記制御回路を使用して、前記第2の加速と前記第1の加速との間の加速の差を決定することと、
前記第2の加速と前記第1の加速との間の前記加速の差を決定することに基づいて、前記制御回路を使用して、前記加速の差を閾値加速と比較することと、
前記加速の差を前記閾値加速と比較することに基づいて、前記制御回路を使用して、前記加速の差が前記閾値加速を上回ることを決定することと、
前記加速の差が前記閾値加速を上回ることを決定することに基づいて、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成することと
を行うように構成されている、システム。
(項目64)
前記制御回路は、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目63に記載のシステム。
(項目65)
前記制御回路は、検索結果をブラウズすることに関連付けられたいかなる入力も、前記
第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定する場合、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定するように構成されている、項目64に記載のシステム。
(項目66)
前記制御回路は、前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉するようにさらに構成され、
前記制御回路は、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目63に記載のシステム。
(項目67)
前記制御回路は、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することと
を行うようにさらに構成され、
前記制御回路は、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目63に記載のシステム。
(項目68)
前記制御回路は、
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することと
を行うようにさらに構成され、
前記制御回路は、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するように構成されている、項目63に記載のシステム。
(項目69)
前記制御回路は、前記第2の発話が受信されたときの前記第2の時間を決定する場合、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定するように構成されている、項目63に記載のシステム。
(項目70)
前記制御回路は、前記検索結果が表示のために生成された前記第1の時間を決定する場合、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出するように構成されている、項目63に記載のシステム。
(項目71)
前記ユーザ入力デバイスは、加速度計を備えている携帯電話である、項目63に記載のシステム。
(項目72)
前記制御回路は、前記第2の加速を測定する場合、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの最大加速を測定するように構成されている、項目63に記載のシステム。
(項目73)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成されており、前記方法は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
データベースから、前記制御回路を使用して、前記第1の入力に基づく検索結果を読み出すことと、
前記制御回路を使用して、前記検索結果を表示のために生成することと、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の時間における前記ユーザ入力デバイスの第1の加速を測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
前記制御回路を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記制御回路および自動発話認識を使用して、前記第2の発話が受信された第2の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの第2の加速を測定することと、
前記制御回路を使用して、前記第2の加速と前記第1の加速との間の加速の差を決定することと、
前記第2の加速と前記第1の加速との間の前記加速の差を決定することに基づいて、前記制御回路を使用して、前記加速の差を閾値加速と比較することと、
前記加速の差を前記閾値加速と比較することに基づいて、前記制御回路を使用して、前記加速の差が前記閾値加速を上回ることを決定することと、
前記加速の差が前記閾値加速を上回ることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成することと
を含む、方法。
(項目74)
前記訂正された入力を生成することは、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づく、項目73に記載の方法。
(項目75)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することは、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することを含む、項目74に記載の方法。
(項目76)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉することをさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づく、項目73-75のいずれかに記載の方法。
(項目77)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づく、項目73-76のいずれかに記載の方法。
(項目78)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づく、項目73-77のいずれかに記載の方法。
(項目79)
前記第2の発話が受信されたときの前記第2の時間を決定することは、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定することを含む、項目73-78のいずれかに記載の方法。
(項目80)
前記検索結果が表示のために生成された前記第1の時間を決定することは、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出することを含む、項目73-79のいずれかに記載の方法。
(項目81)
前記ユーザ入力デバイスは、加速度計を備えている携帯電話である、項目73-80のいずれかに記載の方法。
(項目82)
前記第2の加速を測定することは、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの最大加速を測定することを含む、項目73-81のいずれかに記載の方法。
(項目83)
ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、入力を訂正するための装置であって、前記入力は、自動発話認識を使用して生成されており、前記装置は、
ユーザ入力デバイスを介して、第1の発話を受信する手段と、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定する手段と、
データベースから、前記第1の入力に基づく検索結果を読み出す手段と、
前記制御回路を使用して、前記検索結果を表示のために生成する手段と、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定する手段と、
前記ユーザ入力デバイスを介して、前記第1の時間における前記ユーザ入力デバイスの第1の加速を測定する手段と、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信する手段と、
前記制御回路を使用して、前記第2の発話に基づいて第2の入力を決定する手段と、
前記制御回路および自動発話認識を使用して、前記第2の発話が受信された第2の時間を決定する手段と、
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの第2の加速を測定する手段と、
前記制御回路を使用して、前記第2の加速と前記第1の加速との間の加速の差を決定する手段と、
前記第2の加速と前記第1の加速との間の前記加速の差を決定することに基づいて、前記制御回路を使用して、前記加速の差を閾値加速と比較する手段と、
前記加速の差を前記閾値加速と比較することに基づいて、前記制御回路を使用して、前記加速の差が前記閾値加速を上回ることを決定する手段と、
前記加速の差が前記閾値加速を上回ることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成する手段と
を備えている、装置。
(項目84)
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目83に記載の装置。
(項目85)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定する前記手段は、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定する手段を備えている、項目84に記載の装置。
(項目86)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉する手段をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記画像内の前
記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目83に記載の装置。
(項目87)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉する手段と、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定する手段と、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉する手段と、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定する手段と、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較する手段と、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定する手段と
をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目83に記載の装置。
(項目88)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定する手段と、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定する手段と、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較する手段と、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定する手段と
をさらに備え、
前記訂正された入力を生成する前記手段は、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づいて、前記訂正された入力を生成する手段を備えている、項目83に記載の装置。
(項目89)
前記第2の発話が受信されたときの前記第2の時間を決定する前記手段は、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定する手段を備えている、項目83に記載の装置。
(項目90)
前記検索結果が表示のために生成された前記第1の時間を決定する前記手段は、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出する手段を備えている、項目83に記載の装置。
(項目91)
前記ユーザ入力デバイスは、加速度計を備えている携帯電話である、項目83に記載の装置。
(項目92)
前記第2の加速を測定する前記手段は、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの最大加速を測定する手段を備えている、項目83に記載の装置。
(項目93)
エンコードされた命令を有するメモリを備えている非一過性の機械読み取り可能な媒体であって、前記命令は、ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正するためのものであり、前記入力は、自動発話認識を使用して生成されており、前記非一過性の機械読み取り可能な媒体は、
ユーザ入力デバイスを介して、第1の発話を受信するための命令と、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定するための命令と、
データベースから、前記第1の入力に基づく検索結果を読み出すための命令と、
前記制御回路を使用して、前記検索結果を表示のために生成するための命令と、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定するための命令と、
前記ユーザ入力デバイスを介して、前記第1の時間における前記ユーザ入力デバイスの第1の加速を測定するための命令と、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信するための命令と、
前記制御回路を使用して、前記第2の発話に基づいて第2の入力を決定するための命令と、
前記制御回路および自動発話認識を使用して、前記第2の発話が受信された第2の時間を決定するための命令と、
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの第2の加速を測定するための命令と、
前記制御回路を使用して、前記第2の加速と前記第1の加速との間の加速の差を決定するための命令と、
前記第2の加速と前記第1の加速との間の前記加速の差を決定することに基づいて、前記制御回路を使用して、前記加速の差を閾値加速と比較するための命令と、
前記加速の差を前記閾値加速と比較することに基づいて、前記制御回路を使用して、前記加速の差が前記閾値加速を上回ることを決定するための命令と、
前記加速の差が前記閾値加速を上回ることを決定することに基づいて、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部と置換することによって、訂正された入力を前記第1の入力に基づいて生成するための命令と
を備えている、非一過性の機械読み取り可能な媒体。
(項目94)
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。
(項目95)
検索結果をブラウズすることに関連付けられたいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定するための前記命令は、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または前記検索結果を再生することを行うためのいかなる入力も、前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定するための命令を備えている、項目94に記載の非一過性の機械読み取り可能な媒体。
(項目96)
前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉するための命令をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。
(項目97)
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉するための命令と、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定するための命令と、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉するための命令と、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定するための命令と、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較するための命令と、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差を前記閾値相対サイズと比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定するための命令と
をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。
(項目98)
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定するための命令と、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定するための命令と、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較するための命令と、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差を前記閾値環境雑音レベルと比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定するための命令と
をさらに備え、
前記訂正された入力を生成するための前記命令は、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルを上回ることを決定することにさらに基づいて、前記訂正された入力を生成するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。
(項目99)
前記第2の発話が受信されたときの前記第2の時間を決定するための前記命令は、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。(項目100)
前記検索結果が表示のために生成された前記第1の時間を決定するための前記命令は、前記制御回路を使用して、表示画面のピクセルに伝送される信号が前記第1の時間に続いて最初に変化した時間を検出するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。
(項目101)
前記ユーザ入力デバイスは、加速度計を備えている携帯電話である、項目93に記載の
非一過性の機械読み取り可能な媒体。
(項目102)
前記第2の加速を測定するための前記命令は、前記第1の時間と前記第2の時間との間における前記ユーザ入力デバイスの最大加速を測定するための命令を備えている、項目93に記載の非一過性の機械読み取り可能な媒体。
第2の入力120を生成し得る。故に、図1の実施例では、メディアガイドアプリケーションは、第2の発話116の中の「オースティン」を正確に認識した。第2の発話116を話すことによって、ユーザは、第2の発話116で第1の入力108のエラーを訂正しようとしている場合がある。図1の実施例では、ユーザは、第2の発話116の「オースティン」で、第1の発話106から不正確に生成された第1の入力108の中の「ボストン」を訂正しようとしている場合がある。しかしながら、第2の発話116は、ユーザが第2の発話116で第1の入力108のエラーを訂正することを意図するかどうか、またはユーザが、例えば、新しい検索を開始するか、もしくは前もって提示された検索結果112をフィルタ処理するかどうかという明示的指示が欠如し得る。例えば、図1では、第2の発話116は、ユーザが「オースティン」で「ボストン」を訂正することを意図するという明示的指示を表し得る、「そうではなくて」または「言おうとしたのは~」等の語句が欠如する。本曖昧性を解決するために、メディアガイドアプリケーションは、ユーザが第2の発話116(図1の実施例では「オースティン」)を話した第2の時間114とメディアガイドアプリケーションが検索結果112(図1の実施例では、ボストンについての番組)を表示のために生成した第1の時間110との間の時間差118を計算し得る。メディアガイドアプリケーションは、時間差118を閾値時間と比較し、時間差118が閾値時間未満である場合、ユーザが第2の発話116で第1の入力108を訂正することを意図したと予測し得る。故に、メディアガイドアプリケーションは、第1の入力108の一部を第2の入力120の一部と置換することによって、第1の入力108に基づいて訂正された入力122を生成し得る。図1では、例えば、メディアガイドアプリケーションは、第1の入力108の中の「ボストン」を第2の入力120からの「オースティン」と置換し、訂正された入力122を生成し得る。
ザの発話を受信するユーザ入力デバイスの加速を示す、加速軸203も含む。加速軸204上に示される加速は、3次元空間内の単一の方向へのユーザ入力デバイスの加速であり得る。時間204では、ユーザは、図2の実施例では「オースティンについての番組を見せて」である、第1の発話206を話す。メディアガイドアプリケーションは、自動発話認識を使用し、第1の発話206に基づいて、図2の実施例では「ボストンについての番組を見せて」である、第1の入力208を生成し得る。故に、図2の実施例では、メディアガイドアプリケーションは、第1の発話206の中の「オースティン」を「ボストン」として不正確に認識した。第1の時間210では、メディアガイドアプリケーションは、図2の実施例ではボストンについての番組である、検索結果212を表示のために生成することによって、第1の入力208に応答する。第2の時間214では、ユーザは、図2の実施例では「オースティン」である、第2の発話216を話す。メディアガイドアプリケーションは、自動発話認識を使用し、第2の発話216に基づいて、図2の実施例では「オースティン」である、第2の入力220を生成し得る。第2の発話216を話すことによって、ユーザは、第2の発話216で第1の入力208のエラーを訂正しようとしている場合がある。図2の実施例では、ユーザは、第2の発話216の「オースティン」で、第1の発話206から不正確に生成された第1の入力208の中の「ボストン」を訂正しようとしている場合がある。しかしながら、第2の発話216は、ユーザが第2の発話216で第1の入力208のエラーを訂正することを意図するかどうか、またはユーザが、例えば、新しい検索を開始するか、もしくは前もって提示された検索結果212をフィルタ処理するかどうかという明示的指示が欠如し得る。例えば、図2では、第2の発話216は、ユーザが「オースティン」で「ボストン」を訂正することを意図するという明示的指示を表し得る、「そうではなくて」または「言おうとしたのは~」等の語句が欠如する。本曖昧性を解決するために、メディアガイドアプリケーションは、ユーザが第2の発話216(図2の実施例では「オースティン」)を話した第2の時間214とメディアガイドアプリケーションが検索結果212(図2の実施例では、ボストンについての番組)を表示のために生成した第1の時間210との間のユーザ入力デバイスの加速の差218を計算し得る。例えば、図2では、メディアガイドアプリケーションは、第2の加速217と第1の加速213との間の加速の差218を計算し得る。メディアガイドアプリケーションは、加速の差218を閾値時間と比較し、加速の差218が閾値時間を上回る場合、ユーザが第2の発話216で第1の入力208を訂正することを意図したと予測し得る。故に、メディアガイドアプリケーションは、第1の入力208の一部を第2の入力220の一部と置換することによって、第1の入力208および第2の入力220に基づいて、訂正された入力222を生成し得る。図2では、例えば、メディアガイドアプリケーションは、第1の入力208の中の「ボストン」を第2の入力220からの「オースティン」と置換し、訂正された入力222を生成し得る。
on speech recognition technique.” International Journal of Computer Applications 10.3 (2010): 16-24(その開示がその全体として参照することによって本明細書に組み込まれる)に説明されるもの等の公知の自動発話認識技法を使用して、第1の発話106をテキストに変換することによって、第1の入力108を決定し得る。例えば、第1の発話106が「オースティンについての番組を見せて」である場合、メディアガイドアプリケーションは、第1の入力108を「ボストンについての番組を見せて」であると決定し、それによって、第1の発話106の中の「オースティン」を「ボストン」として不正確に認識し得る。
表示させる。例えば、第1の発話106が受信されるとき、表示画面のピクセルに伝送される信号は、いかなる結果もまだ読み出されていないため変化しなくてもよい。しかしながら、検索結果112が読み出され、表示画面上に表示される準備ができると、表示画面のピクセルに伝送される信号は、検索結果112を表示するために変化し得る。表示画面のピクセルに伝送される信号が変化するときに、第1の発話106が受信された後の初期時間は、表示されている検索結果112を表し得る。したがって、表示画面のピクセルに伝送される信号が変化するときに、第1の発話106が受信された後の初期時間は、検索結果112が表示のために生成された第1の時間110と見なされることができる。いくつかの実施形態では、メディアガイドアプリケーションは、第1の時間110を決定するときに、検索結果112に関連付けられないクロック、カーソル、および他の項目等の項目の表示の変化を表す、表示画面のピクセルに伝送される信号の変化を無視し得る。
on speech recognition technique.” International Journal of Computer Applications 10.3 (2010): 16-24に説明されるもの等の公知の自動発話認識技法を使用して、第2の発話116をテキストに変換することによって、第2の入力120を決定し得る。例えば、第2の発話116が「オースティン」である場合、メディアガイドアプリケーションは、第2の入力120を「オースティン」であると決定し、それによって、第2の発話116の中の「オースティン」を正確に認識し得る。
施形態では、メディアガイドアプリケーションは、ユーザ入力デバイスにおける入力の量が第1の時間110に続く第1の時間に関して閾値量を超えるときを検出することによって、最も早い発音を検出し得る。
2を見た後にすぐに(すなわち、閾値時間よりも小さい時間量)不正確に認識された第1の発話106を訂正し得る。
る、検索結果112の説明を読む、検索結果112を開く、検索結果112を再生する等をしなくてもよい。代わりに、ユーザは、第2の発話116を話し、検索結果112をブラウズすることに関連付けられるユーザ入力デバイスを介していかなる入力も入力することなく、検索結果112を見た後に不正確に認識された第1の発話106を訂正し得る。
facial images using committee neural networks.” Biomedical Engineering Online 8.1 (2009): 16(その内容がその全体として参照することによって本明細書に組み込まれる)の中の方法等の顔の画像内で表情を検出する任意の方法を使用し得る。いくつかの実施形態では、メディアガイドアプリケーションは、不満な顔の表情を検出することに加えて/その代わりに、不平を言うこと等の不満な音を検出し得る。
プリケーションは、画像内のユーザの顔によって占有されるピクセルの数を数えることによって、画像内のユーザの顔の相対サイズを計算し得る。第1および第2の画像内のユーザの顔の相対サイズを決定するために、メディアガイドアプリケーションは、図9-10を参照して説明される方法を使用し得る。いくつかの実施形態では、メディアガイドアプリケーションは、ユーザの顔の第1の相対サイズとユーザの顔の第2の相対サイズとの間の相対サイズ差を閾値相対サイズと比較し得る。メディアガイドアプリケーションは、第2の相対サイズから第1の相対サイズを減算することによって相対サイズ差を算出し得る。例えば、第1の相対サイズが3メガピクセルであり、第2の相対サイズが4メガピクセルである場合、メディアガイドアプリケーションは、相対サイズ差を1メガピクセルであると算出し得る。いくつかの実施形態では、メディアガイドアプリケーションは、相対サイズ差を閾値相対サイズと比較するステップに基づいて、相対サイズ差が閾値相対サイズを上回ることを決定し得る。例えば、相対サイズ差が1メガピクセルであり、閾値相対サイズが0.5メガピクセルである場合、メディアガイドアプリケーションは、相対サイズ差が閾値相対サイズを上回ることを決定し得る。いくつかの実施形態では、メディアガイドアプリケーションは、相対サイズ差が閾値相対サイズを上回ることを決定することに基づいて、訂正された入力122を生成し得る。
16を伴って第1の発話106を継続することを意図している。故に、メディアガイドアプリケーションは、第2の時間114と第1の時間110との間の時間差118を、閾値時間よりも小さい第2の閾値時間と比較し得る。時間差118が第2の閾値時間未満またはそれと等しい場合、これは、検索結果112が提示された後にすぐにユーザが第2の発話116を話した、おそらく、検索結果112が提示された後に検索結果112を閲覧するには早すぎたことを示し得る。故に、これは、ユーザがまだ第1の発話106を話し終わっておらず、メディアガイドアプリケーションが第2の発話116で第1の発話106を訂正するべきではないことを示し得る。しかしながら、時間差118が第2の閾値時間を上回るが、依然として閾値時間未満である場合、これは、ユーザが合理的な時間量後に第2の発話116を話し、検索結果112を簡潔に閲覧し、それらが第1の発話106に合致しないことを決定することを示し得る。故に、これは、ユーザが第2の発話116で第1の発話106を訂正することを意図したことを示し得る。
SoxまたはChicago White Soxという意味でしたか?」等の曖昧性を除去する質問をユーザに提示し得る。ユーザは、「Boston Red Sox」等の第2の発話116でこの曖昧性を除去する質問に応答し得る。メディアガイドアプリケーションが曖昧性を除去する質問を提示した場合において、メディアガイドアプリケーションは、第1の時間110と第2の時間114との間の時間差118にもかかわらず、第2の発話116が第1の入力108を訂正するために使用されるべきではなく、むしろその曖昧性を除去する、または検索結果112をフィルタ処理するために使用されるべきであることを自動的に考慮し得る。
on speech recognition technique.” International Journal of Computer Applications 10.3 (2010): 16-24(その開示がその全体として参照することによって本明細書に組み込まれる)に説明されるもの等の公知の自動発話認識技法を使用して、第1の発話206をテキストに変換することによって、第1の入力208を決定し得る。例えば、第1の発話206が「オースティンについての番組を見せて」である場合、メディアガイドアプリケーションは、第1の入力208を「ボストンについての番組を見せて」であると決定し、それによって、第1の発話206の中の「オースティン」を「ボストン」として不正確に認識し得る。
ガイドアプリケーションは、表示画面(例えば、ディスプレイ512)のピクセルに伝送される信号が第1の時間210に続いて最初に変化する時間を検出することによって、第1の時間210を決定し得る。いくつかの実施形態では、表示画面のピクセルに(例えば、処理回路506から)伝送される信号は、表示画面を変化させ、例えば、新しい項目を表示させる。例えば、第1の発話206が受信されるとき、表示画面のピクセルに伝送される信号は、いかなる結果もまだ読み出されていないため変化しなくてもよい。しかしながら、検索結果212が読み出され、表示画面上に表示される準備ができると、表示画面のピクセルに伝送される信号は、検索結果212を表示するために変化し得る。表示画面のピクセルに伝送される信号が変化するときに、第1の発話206が受信された後の初期時間は、表示されている検索結果212を表し得る。したがって、表示画面のピクセルに伝送される信号が変化するときに、第1の発話206が受信された後の初期時間は、検索結果212が表示のために生成された第1の時間210と見なされることができる。いくつかの実施形態では、メディアガイドアプリケーションは、第1の時間210を決定するときに、検索結果212に関連付けられないクロック、カーソル、および他の項目の表示の変化を表す、表示画面のピクセルに伝送される信号の変化を無視し得る。
on speech recognition technique.” International Journal of Computer Applications 10.3 (2010): 16-24に説明されるもの等の公知の自動発話認識技法を使用して、第2の発話216をテキストに変換することによって、第2の入力220を決定し得る。例えば、第2の発話216が「オースティン」である場合、メディアガイドアプリケーションは、第2の入力220を「オースティン」であると決定し、それによって、第2の発話216の中の「オースティン」を正確に認識し得る。
けられる入力は、表示された検索結果212を上または下にスクロールするための入力、検索結果212を開くための入力、検索結果212を再生するための入力、および検索結果212の説明を読むための入力を含み得る。メディアガイドアプリケーションは、第1の時間210と第2の時間214との間でユーザ入力デバイスを介して受信される入力を監視し、受信された入力のタイプのうちのいずれも検索結果212をブラウズすることに関連付けられないことを決定し得る。
facial images using committee neural networks.” Biomedical Engineering Online 8.1 (2009): 16(その内容がその全体として参照することによって本明細書に組み込まれる)の中の方法等の顔の画像内で表情を検出する任意の方法を使用し得る。いくつかの実施形態では、メディアガイドアプリケーションは、不満な顔の表情を検出することに加えて/その代わりに、不平を言うこと等の不満な音を検出し得る。
どうかを示し得るため、役立ち得る。第1の発話206が不正確に認識され、提示される検索結果212が、ユーザが意図したものに合致しない場合、ユーザは、不満になり得、したがって、ユーザの顔は、不満な表情を呈し得る。第1の発話206が正確に認識され、提示される検索結果212が、ユーザが意図したものに合致する場合、ユーザは、満足し得、したがって、ユーザの顔は、不満な表情を呈さないこともある。
ルを測定するために、ユーザ入力デバイスは、ユーザがいかなる入力も話していないときに、基準オーディオ録音を捕捉し得る。メディアガイドアプリケーションは、基準オーディオ録音の中の平均出力を測定することによって、本基準オーディオ録音の中の基準環境雑音レベルを決定し得る。いくつかの実施形態では、メディアガイドアプリケーションは、ユーザ入力デバイスを介して、第1の発話206が受信されている間の環境雑音レベルを測定し得る。いくつかの実施形態では、第1の発話206が受信されている間の環境雑音レベルを測定するために、ユーザ入力デバイスは、米国特許出願公開第2005/0182504号および米国特許出願公開第2008/0134866号で議論されるもの等の任意の公知の技法を使用して、第1の発話206が受信されているときにオーディオ録音を捕捉し、オーディオ録音の中の音声を除外し得る。メディアガイドアプリケーションは、次いで、オーディオ録音の中の残留信号の平均出力を測定し、本オーディオ録音の中の環境雑音レベルを決定し得る。いくつかの実施形態では、メディアガイドアプリケーションは、第1の発話206が受信されている間の環境雑音レベルと基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較し得る。いくつかの実施形態では、第1の発話106が受信されている間の環境雑音レベルと基準環境雑音レベルとの間の環境雑音レベル差を閾値環境雑音レベルと比較するステップに基づいて、メディアガイドアプリケーションは、環境雑音レベル差が閾値環境雑音レベルを上回ることを決定し得る。例えば、環境雑音レベル差が0.1mWであり、閾値環境雑音レベルが0.01mWである場合、メディアガイドアプリケーションは、0.1mWが0.01mWを上回ることを決定し得る。いくつかの実施形態では、メディアガイドアプリケーションは、環境雑音レベル差が閾値環境雑音レベルを上回ることを決定することに基づいて、訂正された入力222を生成し得る。
、ウェブサイト、記事、書籍、電子書籍、ブログ、チャットセッション、ソーシャルメディア、アプリケーション、ゲーム、および/または任意の他のメディアもしくはマルチメディア、ならびに/もしくはそれらの組み合わせ等の電子的に消費可能なユーザアセットを意味すると理解されたい。ガイドアプリケーションはまた、ユーザが、コンテンツ間をナビゲートし、それを特定することを可能にする。本明細書で参照されるように、用語「マルチメディア」は、上記で説明される少なくとも2つの異なるコンテンツ形態、例えば、テキスト、オーディオ、画像、ビデオ、または双方向コンテンツ形態を利用する、コンテンツを意味すると理解されたい。コンテンツは、ユーザ機器デバイスによって、録画、再生、表示、またはアクセスされ得るが、また、ライブパーフォーマンスの一部であることもできる。
ranos」および「Curb Your Enthusiasm」を提供するHBO On Demand)によって提供される映画または任意の他のコンテンツを含み得る。HBO ON DEMANDは、Time Warner Company L.P. et al.によって所有されるサービスマークであり、THE SOPRANOSおよびCURB YOUR ENTHUSIASMは、Home Box Office, Inc.によって所有される商標である。インターネットコンテンツは、チャットセッションまたはウェブキャスト等のウェブイベント、もしくはインターネットウェブサイトまたは他のインターネットアクセス(例えば、FTP)を通してストリーミングコンテンツまたはダウンロード可能なコンテンツとしてオンデマンドで利用可能なコンテンツを含み得る。
トロールオプション、インターネットオプション、クラウドベースのオプション、デバイス同期オプション、第2の画面デバイスオプション、種々のタイプのメディアガイドデータ表示にアクセスするオプション、プレミアムサービスをサブスクライブするオプション、ユーザのプロファイルを編集するオプション、ブラウザオーバーレイにアクセスするオプション、または他のオプションを含み得る。
述されているコンテンツをユーザに示す他のタイプのコンテンツを含む、グラフィック画像を提供し得る。グラフィックリスト項目はまた、それぞれ、リスト項目に関連付けられるコンテンツに関するさらなる情報を提供するように、テキストを伴ってもよい。例えば、リスト項目408は、メディア部分414およびテキスト部分416を含む、2つ以上の部分を含み得る。メディア部分414および/またはテキスト部分416は、コンテンツをフル画面で視聴するように、またはメディア部分414に表示されるコンテンツに関連する情報を閲覧するように(例えば、ビデオが表示されるチャネルのリスト項目を閲覧するように)、選択可能であり得る。
命令に基づき得る。
信し得る。ユーザ入力インターフェース510は、リモートコントロール、マウス、トラックボール、キーパッド、キーボード、タッチスクリーン、タッチパッド、スタイラス入力、ジョイスティック、音声認識インターフェース、または他のユーザ入力インターフェース等の任意の好適なユーザインターフェースであり得る。ディスプレイ512は、独立型デバイスとして提供される、またはユーザ機器デバイス500の他の要素と統合され得る。例えば、ディスプレイ512は、タッチスクリーンまたはタッチセンサ式ディスプレイであり得る。そのような状況では、ユーザ入力インターフェース510は、ディスプレイ512と統合される、または組み合わせられ得る。ディスプレイ512は、モニタ、テレビ、モバイルデバイス用液晶ディスプレイ(LCD)、非晶質シリコンディスプレイ、低温ポリシリコンディスプレイ、電子インクディスプレイ、電気泳動ディスプレイ、アクティブマトリクスディスプレイ、エレクトロウェッティングディスプレイ、電気流体ディスプレイ、ブラウン管ディスプレイ、発光ダイオードディスプレイ、エレクトロルミネセントディスプレイ、プラズマディスプレイパネル、高性能アドレッシングディスプレイ、薄膜トランジスタディスプレイ、有機発光ダイオードディスプレイ、表面伝導型電子放出素子ディスプレイ(SED)、レーザテレビ、カーボンナノチューブ、量子ドットディスプレイ、干渉変調器ディスプレイ、もしくは視覚的画像を表示するための任意の他の好適な機器のうちの1つ以上のものであり得る。いくつかの実施形態では、ディスプレイ512は、HDTV対応型であり得る。いくつかの実施形態では、ディスプレイ512は、3Dディスプレイであってもよく、双方向メディアガイドアプリケーションおよび任意の好適なコンテンツは、3Dで表示され得る。ビデオカードまたはグラフィックカードは、ディスプレイ512への出力を生成し得る。ビデオカードは、3Dシーンおよび2Dグラフィックのレンダリングの加速、MPEG-2/MPEG-4デコード、TV出力、または複数のモニタを接続する能力等の種々の機能を提供し得る。ビデオカードは、制御回路504に関連して上記で説明される任意の処理回路であり得る。ビデオカードは、制御回路504と統合され得る。スピーカ514は、ユーザ機器デバイス500の他の要素と統合されたものとして提供され得る、または独立型ユニットであり得る。ディスプレイ512上に表示されるビデオおよび他のコンテンツのオーディオコンポーネントは、スピーカ514を通して再生され得る。いくつかの実施形態では、オーディオは、スピーカ514を介して音声を処理および出力する、受信機(図示せず)に配布され得る。
下記で議論される表示を生成し得る。クライアントデバイスは、遠隔サーバによって生成される表示を受信してもよく、表示のコンテンツを機器デバイス500上でローカルで表示し得る。このように、命令の処理が、サーバによって遠隔で実施される一方、結果として生じる表示は、機器デバイス500上にローカルで提供される。機器デバイス500は、入力インターフェース510を介して、ユーザからの入力を受信し、対応する表示を処理および生成するために、それらの入力を遠隔サーバに伝送し得る。例えば、機器デバイス500は、上/下ボタンが入力インターフェース510を介して選択されたことを示す、通信を遠隔サーバに伝送し得る。遠隔サーバは、その入力に従って命令を処理し、入力に対応するアプリケーションの表示を生成し得る(例えば、カーソルを上/下に移動させる表示)。生成された表示は、次いで、ユーザへの提示のために、機器デバイス500に伝送される。
いる。加えて、各ユーザは、2つ以上のタイプのユーザ機器デバイスと、また、各タイプのユーザ機器デバイスのうちの2つ以上のものとを利用し得る。
)、赤外線、IEEE 802-11x等)等の他の短距離ポイントツーポイント通信パス、または有線もしくは無線パスを介した他の短距離通信等を介して、相互に直接通信し得る。BLUETOOTH(登録商標)は、Bluetooth(登録商標) SIG,
INC.によって所有される認証マークである。ユーザ機器デバイスはまた、通信ネットワーク614を介した間接パスを通して、相互に直接通信し得る。
デジタル信号を使用して、帯域外デジタル信号を使用して、または任意の他の好適なデータ伝送技術によって、ユーザ機器に提供され得る。番組スケジュールデータおよび他のメディアガイドデータは、複数のアナログまたはデジタルテレビチャネル上でユーザ機器に提供され得る。
トアプリケーションとして、および遠隔サーバの制御回路上で起動するサーバアプリケーション(例えば、メディアガイドデータソース618)として部分的に遠隔サーバ上で、実装され得る。遠隔サーバの制御回路(メディアガイドデータソース618等)によって実行されると、メディアガイドアプリケーションは、制御回路に、ガイドアプリケーション表示を生成し、生成された表示をユーザ機器デバイスに伝送するように命令し得る。サーバアプリケーションは、メディアガイドデータソース618の制御回路に、ユーザ機器上での記憶のためのデータを伝送するように命令し得る。クライアントアプリケーションは、受信用ユーザ機器の制御回路に、ガイドアプリケーション表示を生成するように命令し得る。
ンテンツを伝送し得る。例えば、ユーザは、ユーザコンピュータ機器から携帯用ビデオプレーヤまたは携帯用音楽プレーヤにコンテンツを伝送し得る。
コンテンツは、接続されたデバイス上で他者によって視聴するために配布される。これらのクラウドベースのサービスは、ユーザ機器デバイスが、コンテンツをローカルで記憶し、ローカルで記憶されたコンテンツにアクセスするのではなく、コンテンツをクラウドに記憶し、コンテンツをクラウドから受信することを可能にし得る。
された言葉を含み得る。第1の発話は、メディアアセット等の項目の検索を開始することをユーザによって意図され得る。例えば、第1の発話は、「オースティンについての番組を見せて」であり得る。
に続く最も早い発音が起こった時間を測定することによって、第2の時間を決定し得る。例えば、制御回路504が午前10:00:00に検索結果を表示のために生成し、ユーザからの次の発音が「オースティン」であった場合、制御回路504は、「オースティン」の中の最初の「Au(オー)」という音が午前10:00:00に起こったことを測定し、午前10:00:00を第2の時間と見なし得る。
ば、制御回路504は、公知の自動発話認識技法を使用して、第1の発話をテキストに変換することによって、第1の入力を決定し得る。例えば、第1の発話が「オースティンについての番組を見せて」である場合、制御回路504は、第1の入力を「ボストンについての番組を見せて」であると決定し、それによって、第1の発話の中の「オースティン」を「ボストン」として不正確に認識し得る。
例えば、制御回路504が午前10:00:00に検索結果を表示のために生成し、ユーザからの次の発音が「オースティン」であった場合、制御回路504は、「オースティン」の中の最初の「Au(オー)」という音が午前10:00:00に起こったことを測定し、午前10:00:00を第2の時間と見なし得る。
バーティカルアドレスを表す、アドレス(6,0)を有する。複数のピクセル900は、オブジェクト906を含む。オブジェクト906は、単純な形状として示されるが、本明細書に説明される方法は、オブジェクト906が顔である場合に同等に適用される。オブジェクト906の縁は、縁検出、限定ではないが、自己学習システム(例えば、ニューラルネットワーク)を含む、パターン認識、および/または任意の他の好適な技法もしくは方法を使用して、決定される。オブジェクト906が顔である場合、これは、Yang,
Ming-Hsuan, David J. Kriegman, and Narendra Ahuja. “Detecting faces in images: A survey.” IEEE Transactions on pattern analysis and machine intelligence 24 A (2002): 34-58(その内容がそれらの全体として参照することによって本明細書に組み込まれる)に説明されるもの等の任意の顔検出方法を使用して、検出され得る。オブジェクト906の左縁は、アドレス(1,1)、(1,2)、(1,3)、および(1,4)にピクセルを含むことが決定され、底縁は、アドレス(1,1)、(2,1)、(3,1)、および(4,1)にピクセルを含むことが決定され、右縁は、アドレス(4,1)、(4,2)、(4,3)、(3,3)、および(3,4)にピクセルを含むことが決定され、上縁は、アドレス(1,4)、(2,4)、(3,4)、(3,3)、および(4,3)にピクセルを含むことが決定される。オブジェクト906はまた、縁の内部にピクセル、すなわち、アドレス(2,2)、(2,3)、および(3,2)にピクセルを含む。故に、オブジェクト906が発生する、複数のピクセル900のうちのピクセルのサブセットは、(1,1)、(1,2)、(1,3)、(1,4)、(2,1)、(2,2)、(2,3)、(2,4)、(3,1)、(3,2)、(3,3)、(3,4)、(4,1)、(4,2)、および(4,3)である。オブジェクト906の相対サイズは、オブジェクト906が発生する、複数のピクセル900のうちのピクセルの数と見なされ得る。図9の実施例では、オブジェクト906が発生する、複数のピクセル900のうちのピクセルの数は、15である。
上回る場合には、アドレス(left_test_h,left_test_v)を伴うピクセルが、shapeに追加され、プロセスは、行1016に戻る。上記の実施例に従って、right_testのホリゾンタル成分は、4であり、left_test_hは、2であるため、(2,2)が、shapeに追加され、プロセスは、行1016に戻る。行16-22を通した後続の行程では、(3,2)が、shapeに追加されるであろう。後続の行程では、left_test_hがright_testのホリゾンタル成分4に等しいであろうため、行1018内の条件文は、真ではなく、したがって、プロセスは、(1,3)等のleftの別の要素が選定される、行1006に進むであろう。leftの各要素が行1006において選定されると、プロセスは、重複がshapeから除去される、行1032に進むであろう。本プロセスは、上および底縁に関して同様に繰り返されると、オブジェクトが発生する、複数のピクセルのうちのピクセルのサブセットを含むshapeをもたらすであろう。shapeの要素の数は、次いで、オブジェクト906の相対サイズと見なされ得る。
Claims (9)
- ユーザが発話を用いて入力を訂正することを意図したという明示的指示が前記発話の中にない場合、前記発話に基づいて、前記入力を訂正する方法であって、前記入力は、自動発話認識を使用して生成され、前記方法は、
ユーザ入力デバイスを介して、第1の発話を受信することと、
制御回路および自動発話認識を使用して、前記第1の発話に基づいて第1の入力を決定することと、
データベースから、前記第1の入力に基づく検索結果を読み出すことと、
前記制御回路を使用して、前記検索結果を表示のために生成することと、
前記制御回路を使用して、前記検索結果が表示のために生成された第1の時間を決定することと、
前記ユーザ入力デバイスを介して、前記第1の発話を受信することに続いて、第2の発話を受信することと、
前記制御回路および自動発話認識を使用して、前記第2の発話に基づいて第2の入力を決定することと、
前記制御回路を使用して、前記第2の発話が受信された第2の時間を決定することと、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の時間差を計算することと、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が閾値時間未満であるか否かを決定することと、
前記制御回路を使用して、前記検索結果に関連付けられた入力が前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することと、
前記時間差が前記閾値時間未満であることを決定すること、かつ、前記検索結果に関連付けられた入力が前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することに応答して、前記制御回路を使用して、前記第1の入力の一部を前記第2の入力の一部に置換することによって、前記第1の入力に基づいて訂正された入力を生成することと
を含む、方法。 - 前記検索結果に関連付けられた入力が前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することは、前記検索結果をスクロールすること、前記検索結果の説明を読むこと、前記検索結果を開くこと、または、前記検索結果を再生することを行うための入力が前記第1の時間と前記第2の時間との間に前記ユーザ入力デバイスを介して受信されなかったことを決定することを含む、請求項1に記載の方法。
- 前記方法は、前記ユーザ入力デバイスを介して、前記第1の時間と前記第2の時間との間にユーザの顔の画像を捕捉することをさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記画像内の前記ユーザの顔が不満な感情に関連付けられていることを決定することにさらに基づく、請求項1に記載の方法。 - 前記方法は、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間にユーザの顔の第1の画像を捕捉することと、
前記制御回路を使用して、前記第1の画像内の前記ユーザの顔の第1の相対サイズを決定することと、
前記ユーザ入力デバイスを介して、前記第2の発話が受信されている間に前記ユーザの顔の第2の画像を捕捉することと、
前記制御回路を使用して、前記第2の画像内の前記ユーザの顔の第2の相対サイズを決定することと、
前記制御回路を使用して、前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の相対サイズ差と閾値相対サイズとを比較することと、
前記ユーザの顔の前記第1の相対サイズと前記ユーザの顔の前記第2の相対サイズとの間の前記相対サイズ差と前記閾値相対サイズとを比較することに基づいて、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズよりも大きいことを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記相対サイズ差が前記閾値相対サイズよりも大きいことを決定することにさらに基づく、請求項1に記載の方法。 - 前記方法は、
前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差ともう1つの閾値時間とを比較することと、
前記第2の時間と前記第1の時間との間の前記時間差と前記もう1つの閾値時間とを比較することに基づいて、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記もう1つの閾値時間よりも大きいことを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記第2の時間と前記第1の時間との間の前記時間差が前記もう1つの閾値時間よりも大きいことを決定することにさらに基づく、請求項1に記載の方法。 - 前記方法は、ユーザに関連付けられた複数の入力間の平均時間に基づいて、前記閾値時間を調節することをさらに含む、請求項1に記載の方法。
- 前記方法は、
前記ユーザ入力デバイスを介して、基準環境雑音レベルを測定することと、
前記ユーザ入力デバイスを介して、前記第1の発話が受信されている間の環境雑音レベルを測定することと、
前記制御回路を使用して、前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の環境雑音レベル差と閾値環境雑音レベルとを比較することと、
前記第1の発話が受信されている間の前記環境雑音レベルと前記基準環境雑音レベルとの間の前記環境雑音レベル差と前記閾値環境雑音レベルとを比較することに基づいて、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルよりも大きいことを決定することと
をさらに含み、
前記訂正された入力を生成することは、前記制御回路を使用して、前記環境雑音レベル差が前記閾値環境雑音レベルよりも大きいことを決定することにさらに基づく、請求項1に記載の方法。 - 前記第2の発話が受信された前記第2の時間を決定することは、前記ユーザ入力デバイスを介して、前記第1の時間に続く最も早い発音が受信された時間を測定することを含む、請求項1に記載の方法。
- 前記検索結果が表示のために生成された前記第1の時間を決定することは、前記制御回路を使用して、前記第1の時間に続いて、表示画面のピクセルに伝送される信号が最初に変化した時間を検出することを含む、請求項1に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021103081A JP7159400B2 (ja) | 2017-05-24 | 2021-06-22 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2017/034229 WO2018217194A1 (en) | 2017-05-24 | 2017-05-24 | Methods and systems for correcting, based on speech, input generated using automatic speech recognition |
JP2019564454A JP7119008B2 (ja) | 2017-05-24 | 2017-05-24 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
JP2021103081A JP7159400B2 (ja) | 2017-05-24 | 2021-06-22 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564454A Division JP7119008B2 (ja) | 2017-05-24 | 2017-05-24 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021144250A JP2021144250A (ja) | 2021-09-24 |
JP2021144250A5 JP2021144250A5 (ja) | 2022-08-23 |
JP7159400B2 true JP7159400B2 (ja) | 2022-10-24 |
Family
ID=59055274
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564454A Active JP7119008B2 (ja) | 2017-05-24 | 2017-05-24 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
JP2021103081A Active JP7159400B2 (ja) | 2017-05-24 | 2021-06-22 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564454A Active JP7119008B2 (ja) | 2017-05-24 | 2017-05-24 | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム |
Country Status (7)
Country | Link |
---|---|
US (2) | US11521608B2 (ja) |
EP (1) | EP3631794A1 (ja) |
JP (2) | JP7119008B2 (ja) |
KR (2) | KR102428911B1 (ja) |
CN (1) | CN110663079A (ja) |
CA (1) | CA3002383A1 (ja) |
WO (1) | WO2018217194A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7131077B2 (ja) * | 2018-05-24 | 2022-09-06 | カシオ計算機株式会社 | 会話装置、ロボット、会話装置制御方法及びプログラム |
US10831442B2 (en) * | 2018-10-19 | 2020-11-10 | International Business Machines Corporation | Digital assistant user interface amalgamation |
US11277692B2 (en) | 2019-03-27 | 2022-03-15 | Panasonic Corporation | Speech input method, recording medium, and speech input device |
JP7411422B2 (ja) * | 2019-03-27 | 2024-01-11 | パナソニックホールディングス株式会社 | 音声入力方法、プログラム及び音声入力装置 |
US11263198B2 (en) | 2019-09-05 | 2022-03-01 | Soundhound, Inc. | System and method for detection and correction of a query |
EP3790000A1 (en) * | 2019-09-05 | 2021-03-10 | SoundHound, Inc. | System and method for detection and correction of a speech query |
JP7363307B2 (ja) * | 2019-09-30 | 2023-10-18 | 日本電気株式会社 | 音声チャットボットにおける認識結果の自動学習装置及び方法、並びにコンピュータプログラム及び記録媒体 |
US11721322B2 (en) * | 2020-02-28 | 2023-08-08 | Rovi Guides, Inc. | Automated word correction in speech recognition systems |
CN111326140B (zh) * | 2020-03-12 | 2023-05-30 | 科大讯飞股份有限公司 | 语音识别结果判别方法、纠正方法、装置、设备及存储介质 |
US20220139373A1 (en) * | 2020-07-08 | 2022-05-05 | Google Llc | Identification and utilization of misrecognitions in automatic speech recognition |
KR102458830B1 (ko) * | 2020-11-16 | 2022-10-26 | 주식회사 솔트룩스 | 사용자 중심의 음성 대화 시스템 |
KR20220119219A (ko) * | 2021-02-19 | 2022-08-29 | 삼성전자주식회사 | 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법 |
US20220300560A1 (en) * | 2021-03-18 | 2022-09-22 | Amazon Technologies, Inc. | Voice search refinement resolution |
US11854544B1 (en) | 2021-06-11 | 2023-12-26 | Amazon Technologies, Inc. | Entity resolution of product search filters |
CN115841814A (zh) * | 2021-09-18 | 2023-03-24 | 华为技术有限公司 | 语音交互方法及电子设备 |
US11657803B1 (en) * | 2022-11-02 | 2023-05-23 | Actionpower Corp. | Method for speech recognition by using feedback information |
CN115798465B (zh) * | 2023-02-07 | 2023-04-07 | 天创光电工程有限公司 | 一种语音输入方法、系统及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003316386A (ja) | 2002-04-24 | 2003-11-07 | Toshiba Corp | 音声認識方法および音声認識装置および音声認識プログラム |
JP2004510209A (ja) | 2000-09-29 | 2004-04-02 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 発声された番号シーケンスの分析方法及び装置 |
JP2006209069A (ja) | 2004-12-28 | 2006-08-10 | Advanced Telecommunication Research Institute International | 音声区間検出装置および音声区間検出プログラム |
JP2010128015A (ja) | 2008-11-25 | 2010-06-10 | Toyota Central R&D Labs Inc | 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム |
US9123339B1 (en) | 2010-11-23 | 2015-09-01 | Google Inc. | Speech recognition using repeated utterances |
JP2016180917A (ja) | 2015-03-25 | 2016-10-13 | 日本電信電話株式会社 | 言い直し検出装置、音声認識システム、言い直し検出方法、プログラム |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
MX355835B (es) | 1998-07-17 | 2018-05-02 | Rovi Guides Inc | Un sistema de guias de programacion televisiva interactivas que tiene multiples dispositivos dentro de una residencia de un grupo familiar. |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
CN101257609B (zh) | 2001-02-21 | 2014-03-19 | 联合视频制品公司 | 具有个人视频记录特征的交互式节目导视器的系统和方法 |
JP2005084253A (ja) * | 2003-09-05 | 2005-03-31 | Matsushita Electric Ind Co Ltd | 音響処理装置、方法、プログラム及び記憶媒体 |
US20050182504A1 (en) | 2004-02-18 | 2005-08-18 | Bailey James L. | Apparatus to produce karaoke accompaniment |
KR100819848B1 (ko) | 2005-12-08 | 2008-04-08 | 한국전자통신연구원 | 발화검증을 위한 임계치값 자동 갱신을 이용한 음성인식장치 및 방법 |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
JP5089955B2 (ja) | 2006-10-06 | 2012-12-05 | 三菱電機株式会社 | 音声対話装置 |
US20080134866A1 (en) | 2006-12-12 | 2008-06-12 | Brown Arnold E | Filter for dynamic creation and use of instrumental musical tracks |
WO2009001138A1 (en) | 2007-06-28 | 2008-12-31 | Taptu Ltd | Search result ranking |
US20090006368A1 (en) | 2007-06-29 | 2009-01-01 | Microsoft Corporation | Automatic Video Recommendation |
US20090228273A1 (en) | 2008-03-05 | 2009-09-10 | Microsoft Corporation | Handwriting-based user interface for correction of speech recognition errors |
JP2011059194A (ja) | 2009-09-07 | 2011-03-24 | Sharp Corp | 制御装置、画像形成装置、画像形成装置の制御方法、プログラムおよび記録媒体 |
US8990241B2 (en) | 2010-12-23 | 2015-03-24 | Yahoo! Inc. | System and method for recommending queries related to trending topics based on a received query |
US8805751B2 (en) | 2011-10-13 | 2014-08-12 | Verizon Patent And Licensing Inc. | User class based media content recommendation methods and systems |
US8249876B1 (en) * | 2012-01-03 | 2012-08-21 | Google Inc. | Method for providing alternative interpretations of a voice input to a user |
EP2645364B1 (en) * | 2012-03-29 | 2019-05-08 | Honda Research Institute Europe GmbH | Spoken dialog system using prominence |
US20130294755A1 (en) | 2012-05-03 | 2013-11-07 | United Video Properties, Inc. | Systems and methods for preventing access to a media asset segment during a fast-access playback operation |
US20130347038A1 (en) | 2012-06-21 | 2013-12-26 | United Video Properties, Inc. | Systems and methods for searching for media based on derived attributes |
US9424233B2 (en) | 2012-07-20 | 2016-08-23 | Veveo, Inc. | Method of and system for inferring user intent in search input in a conversational interaction system |
WO2014025012A1 (ja) * | 2012-08-10 | 2014-02-13 | 株式会社ホンダアクセス | 音声認識方法及び音声認識装置 |
US9237386B2 (en) | 2012-08-31 | 2016-01-12 | Google Inc. | Aiding discovery of program content by providing deeplinks into most interesting moments via social media |
WO2014068788A1 (ja) * | 2012-11-05 | 2014-05-08 | 三菱電機株式会社 | 音声認識装置 |
US9462342B2 (en) | 2013-01-24 | 2016-10-04 | Surewaves Mediatech Private Limited | System and method for recommending on demand multimedia content based on event information |
DK2994908T3 (da) * | 2013-05-07 | 2019-09-23 | Veveo Inc | Grænseflade til inkrementel taleinput med realtidsfeedback |
US9712482B2 (en) | 2014-02-18 | 2017-07-18 | Veveo, Inc. | Methods and systems for recommending concept clusters based on availability |
US9715875B2 (en) * | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US20150382061A1 (en) | 2014-06-30 | 2015-12-31 | Sling Media, Inc. | Spoiler mitigation methods and systems |
WO2016020464A1 (en) | 2014-08-05 | 2016-02-11 | Piksel, Inc | Context driven recommendation for content delivery and display system |
US9514743B2 (en) | 2014-08-29 | 2016-12-06 | Google Inc. | Query rewrite corrections |
JP6284462B2 (ja) * | 2014-09-22 | 2018-02-28 | 株式会社日立製作所 | 音声認識方法、及び音声認識装置 |
US10284916B2 (en) | 2014-11-19 | 2019-05-07 | Comcast Cable Communications, Llc | Personalized menus and media content interface |
JP6514503B2 (ja) * | 2014-12-25 | 2019-05-15 | クラリオン株式会社 | 意図推定装置、および意図推定システム |
US10068023B2 (en) | 2014-12-30 | 2018-09-04 | Rovi Guides, Inc. | Systems and methods for updating links between keywords associated with a trending topic |
US9648386B2 (en) | 2014-12-30 | 2017-05-09 | Echostar Technologies L.L.C. | Protection from spoilers |
US11290783B2 (en) | 2015-03-17 | 2022-03-29 | Comcast Cable Communications, Llc | Real-time recommendations for altering content output |
EP3089159B1 (en) * | 2015-04-28 | 2019-08-28 | Google LLC | Correcting voice recognition using selective re-speak |
US10339917B2 (en) * | 2015-09-03 | 2019-07-02 | Google Llc | Enhanced speech endpointing |
US20170069309A1 (en) * | 2015-09-03 | 2017-03-09 | Google Inc. | Enhanced speech endpointing |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
JP6751658B2 (ja) * | 2016-11-15 | 2020-09-09 | クラリオン株式会社 | 音声認識装置、音声認識システム |
US10741175B2 (en) * | 2016-11-30 | 2020-08-11 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for natural language understanding using sensor input |
US11475884B2 (en) * | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
-
2017
- 2017-05-24 CN CN201780091144.4A patent/CN110663079A/zh active Pending
- 2017-05-24 KR KR1020197037888A patent/KR102428911B1/ko active IP Right Grant
- 2017-05-24 US US16/607,958 patent/US11521608B2/en active Active
- 2017-05-24 EP EP17729960.9A patent/EP3631794A1/en active Pending
- 2017-05-24 CA CA3002383A patent/CA3002383A1/en active Pending
- 2017-05-24 JP JP2019564454A patent/JP7119008B2/ja active Active
- 2017-05-24 KR KR1020227026541A patent/KR20220114094A/ko active Application Filing
- 2017-05-24 WO PCT/US2017/034229 patent/WO2018217194A1/en active Application Filing
-
2021
- 2021-06-22 JP JP2021103081A patent/JP7159400B2/ja active Active
-
2022
- 2022-11-07 US US17/981,964 patent/US20230138030A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004510209A (ja) | 2000-09-29 | 2004-04-02 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 発声された番号シーケンスの分析方法及び装置 |
JP2003316386A (ja) | 2002-04-24 | 2003-11-07 | Toshiba Corp | 音声認識方法および音声認識装置および音声認識プログラム |
JP2006209069A (ja) | 2004-12-28 | 2006-08-10 | Advanced Telecommunication Research Institute International | 音声区間検出装置および音声区間検出プログラム |
JP2010128015A (ja) | 2008-11-25 | 2010-06-10 | Toyota Central R&D Labs Inc | 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム |
US9123339B1 (en) | 2010-11-23 | 2015-09-01 | Google Inc. | Speech recognition using repeated utterances |
JP2016180917A (ja) | 2015-03-25 | 2016-10-13 | 日本電信電話株式会社 | 言い直し検出装置、音声認識システム、言い直し検出方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018217194A1 (en) | 2018-11-29 |
EP3631794A1 (en) | 2020-04-08 |
US11521608B2 (en) | 2022-12-06 |
US20200143806A1 (en) | 2020-05-07 |
KR20220114094A (ko) | 2022-08-17 |
JP2021144250A (ja) | 2021-09-24 |
JP2020522733A (ja) | 2020-07-30 |
CN110663079A (zh) | 2020-01-07 |
JP7119008B2 (ja) | 2022-08-16 |
KR102428911B1 (ko) | 2022-08-03 |
CA3002383A1 (en) | 2018-11-24 |
KR20200010455A (ko) | 2020-01-30 |
US20230138030A1 (en) | 2023-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7159400B2 (ja) | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム | |
US11792476B2 (en) | System and methods for disambiguating an ambiguous entity in a search query based on the gaze of a user | |
US10182266B2 (en) | Systems and methods for automatically enabling subtitles based on detecting an accent | |
US10564928B2 (en) | Systems and methods for generating a volume- based response for multiple voice-operated user devices | |
US10311862B2 (en) | Systems and methods for conversations with devices about media using interruptions and changes of subjects | |
US10142585B2 (en) | Methods and systems for synching supplemental audio content to video content | |
US9852774B2 (en) | Methods and systems for performing playback operations based on the length of time a user is outside a viewing area | |
US12057103B2 (en) | Systems and methods for identifying content corresponding to a language spoken in a household | |
US20150379132A1 (en) | Systems and methods for providing context-specific media assets | |
US20160309214A1 (en) | Method of synchronizing alternate audio content with video content | |
US12062358B2 (en) | Systems and methods for adjusting dubbed speech based on context of a scene | |
US9398343B2 (en) | Methods and systems for providing objects that describe media assets | |
US11343563B2 (en) | Methods and systems for verifying media guidance data | |
US10405062B2 (en) | Systems and methods for generating a set of custom keywords based on a media asset |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220819 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |