JP6545716B2 - 改善された音声認識を容易にする視覚的コンテンツの修正 - Google Patents

改善された音声認識を容易にする視覚的コンテンツの修正 Download PDF

Info

Publication number
JP6545716B2
JP6545716B2 JP2016567801A JP2016567801A JP6545716B2 JP 6545716 B2 JP6545716 B2 JP 6545716B2 JP 2016567801 A JP2016567801 A JP 2016567801A JP 2016567801 A JP2016567801 A JP 2016567801A JP 6545716 B2 JP6545716 B2 JP 6545716B2
Authority
JP
Japan
Prior art keywords
visual content
user
visual
display
layout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016567801A
Other languages
English (en)
Other versions
JP2017525002A (ja
JP2017525002A5 (ja
Inventor
ストーク,アンドレアス
ツヴァイク,ジェフリー
スレニー,マルコム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017525002A publication Critical patent/JP2017525002A/ja
Publication of JP2017525002A5 publication Critical patent/JP2017525002A5/ja
Application granted granted Critical
Publication of JP6545716B2 publication Critical patent/JP6545716B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Rehabilitation Tools (AREA)
  • Eye Examination Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Road Signs Or Road Markings (AREA)
  • Digital Computer Display Output (AREA)

Description

[0001] 自動音声認識(ASR: automatic speech recognition)システムは、ユーザによって示される口頭による発話を認識するように構成されている。より詳細には、マイクロフォンは、オーディオを取り込むことに応じて電気信号を生成し、そこでは、オーディオは、口頭による発話を含んでいる。電気信号は、処理されて、オーディオからノイズをフィルタにかけ、また口頭による発話を認識するために使用され得る特徴を抽出する。ASRシステムの性能(例えば、スピードおよび正確さ)が、最近の数年間にわたって非常に改善されたが、大規模な語彙集が考慮されるときに、ASRシステムが、特定のアクセントまたは方言を表している適切なトレーニングデータを用いてトレーニングされてきていないとき、あるいは他の準最適の条件が存在するときに、従来のASRシステムは、困難であり続ける。さらに、ASRシステムは、発話が、混雑した空港において、走行中の自動車においてなどで示されるときなど、騒音の多い環境の中で示される口頭による発話を認識することが、多くの場合に困難である。
[0002] 以下は、本明細書においてより詳細に説明される主題についての簡潔な概要である。この概要は、特許請求の範囲についての範囲について限定することを意図してはいない。
[0003] ディスプレイの上に表示するためのページを受信することを容易にする技術が、本明細書において説明されており、そのページは、お互いに第1の距離にある第1の視覚的要素と、第2の視覚的要素とを含んでいる。ページは、修正されて、修正されたページを生成しており、修正されたページは、お互いに第2の距離にある第1の視覚的要素と、第2の視覚的要素とを含んでおり、そこでは、ページの修正は、第1の視覚的要素に対応する少なくとも1つのワードと、第2の視覚的要素に対応する少なくとも1つのワードとの間の発音の類似性に基づいている。次いで、ページは、ディスプレイの上に表示されるようにさせられる。
[0004]視覚的コンテンツを修正するように構成されている例示のシステムの機能ブロック図である。 [0005]視覚的コンテンツのレイアウトを修正するように構成されている例示のレイアウトジェネレータコンポーネントの機能ブロック図である。 [0006]推定された視覚的注意に基づいてカスタマイズされ得る自動音声認識(ASR)システムの機能ブロック図である。 [0007]レイアウトジェネレータコンポーネントによって実行される、視覚的コンテンツの例示の修正を示す図である。 [0008]レイアウトジェネレータコンポーネントによって実行される、視覚的コンテンツの別の例示の修正を示す図である。 [0009]ユーザに対するグラフィカルフィードバックの提供を示す図である。 [0010]ユーザによって見られている曖昧性を除去することを容易にするために視覚的コンテンツを修正するための例示の方法を示す流れ図である。 [0011]視覚的コンテンツの中の要素の間の混同しやすさを示している値に基づいて、視覚的コンテンツのレイアウトを修正するための例示の方法を示す流れ図である。 [0012]例示のコンピューティングシステムを示す図である。
[0013] 視覚的コンテンツを修正することに関する様々な技術が、次に図面を参照して説明され、そこでは、同様な参照数字を使用して、全体を通して同様な要素を意味している。以下の説明においては、説明の目的のために、非常に多くの特定の詳細が、説明されて、1つまたは複数の態様についての完全な理解を提供している。しかしながら、そのような態様(単数または複数)は、これらの特定の詳細なしに、実行され得ることは、明らかである可能性がある。他の例では、よく知られている構造およびデバイスが、1つまたは複数の態様を説明することを容易にするためにブロック図形式で示される。さらに、ある種のシステムコンポーネントによって実行されているように説明される機能は、複数のコンポーネントによって実行され得ることを理解すべきである。同様に、例えば、コンポーネントは、複数のコンポーネントによって実行されているように説明される機能を実行するように構成されていることもある。
[0014] さらに、用語「または」は、排他的な「または」ではなくて包含的な「または」を意味することを意図している。すなわち、そうでないように指定されない限り、またはコンテキストから明らかでない限り、熟語「Xは、AまたはBを使用する」は、自然の包含的並べ替えのうちの任意のものを意味することを意図している。すなわち、熟語「Xは、AまたはBを使用する」は、以下のインスタンス、すなわち、Xは、Aを使用する;Xは、Bを使用する;あるいはXは、AとBとの両方を使用する、のうちのどれかによって満たされる。さらに、本出願と添付の特許請求の範囲とにおいて使用されるような冠詞「a(1つの)」と「an(1つの)」とは、そうでないように指定されない限り、または単数形を対象とすることがコンテキストから明らかでない限り、「1つまたは複数の」を意味するように、一般的に解釈されるべきである。
[0015] さらに、本明細書において使用されるように、用語「コンポーネント」と「システム」とは、プロセッサによって実行されるときに、ある種の機能を実行されるようにさせるコンピュータ実行可能命令を用いて構成されているコンピュータ読取り可能データストレージを包含することを意図している。コンピュータ実行可能命令は、ルーチン、関数などを含むことができる。コンポーネントまたはシステムが、単一のデバイスの上にローカライズされ、またはいくつかのデバイスを通して分散され得ることも、理解すべきである。さらに、本明細書において使用されるように、用語「例示の」は、例証として、または何かの例としての役割を果たすことを意味することを意図しており、また好みを示すことを意図してはいない。
[0016] ユーザが、口頭による発話を示すときに、ユーザの意図の曖昧性を除去することを容易にするために、ディスプレイの上の視覚的コンテンツを修正することに関する様々な技術が、本明細書において説明される。ユーザの意図の曖昧性を除去することは、ディスプレイの上で(時間とともに)示される視覚的コンテンツと協力して、ユーザによって示される口頭による発話を認識することを含んでいる。ディスプレイは、その上に視覚的コンテンツを提示するように構成されており、ここで、視覚的コンテンツは、テキスト、画像、フィールド(フォーム入力可能フィールド)、ビデオ、ボタン、プルダウンなどとすることができ、またはそれらを含むことができる。それに応じて、視覚的コンテンツは、ウェブページやアプリケーションのページ(例えば、ワードプロセッシングアプリケーション、スライドショープレゼンテーションアプリケーションなど)など、ディスプレイの上で提示されるべきページの中に含まれることもある。
[0017] ユーザの視覚的注意は、ディスプレイと相対的に監視される。例えば、ディスプレイは、それに近接した、またはその中に埋め込まれたカメラ(例えば、赤色−緑色−青色(RGB)カメラおよび/または深度カメラ)を有することができる。カメラは、信号(例えば、画像)を出力し、この信号は、分析されて、頭部の姿勢および方向を決定することができ、この頭部の姿勢および方向は、次には、ユーザの視覚的注意(例えば、注視方向)を推論するために利用される。別の例では、画像は、分析されて、ひとみ、虹彩、角膜など、目の部分を識別することができ、また視覚的注意は、目の識別された部分に基づいて、推論される可能性がある。
[0018] マイクロフォンは、ディスプレイに近接した環境においてオーディオを示している信号を生成するように構成されている。オーディオは、ユーザの口頭による発話を含むことができ、またマイクロフォンによって出力される信号は、ASRシステムに提供される可能性があり、このASRシステムは、口頭による発話を認識するように構成されている。本明細書において説明される技術は、視覚的注意の使用を容易にして、ユーザが口頭による発話を示すときに、ユーザの意図の曖昧性を除去する。しかしながら、視覚的注意の決定が、いささか不正確である可能性があるので、本明細書においてより詳細に説明される態様は、ディスプレイの上に提示するための視覚的コンテンツを修正することに関連しており、そこでは、この修正は、ユーザによって見られている視覚的要素の曖昧性を除去することを容易にするために着手される。
[0019] 一例によれば、ディスプレイの上に提示されるべき視覚的コンテンツは、第1のワードシーケンスと、第2のワードシーケンスとを含むことができ、そこでは、第1のワードシーケンスは、第2のワードシーケンスに、何らかのやり方で、混同を引き起こすほど類似している。例えば、第1のワードシーケンスは、第2のワードシーケンスに音響学的に類似していることがある。別の例では、第1のワードシーケンスと、第2のワードシーケンスとは、局所的に類似していることがある。視覚的コンテンツは、分析される可能性があり、またスコアが、視覚的要素の対のために生成される可能性があり、そこでは、スコアは、対の中の視覚的要素の間の(例えば、ASRシステムの観点からの)混同しやすさを示している。例えば、音響学的類似性は、ワードの発音を比較することに基づいて、スコアがつけられることもある。スコアに基づいて、視覚的コンテンツは、修正される可能性があり、そこでは、視覚的コンテンツの修正は、視覚的コンテンツの中の視覚的要素の間の距離を変更することを含むことができる。
[0020] 上記で説明される例を用いて継続すると、第1のワードシーケンスと、第2のワードシーケンスとの対のために計算されるスコアは、2つのワードシーケンスが、混同を引き起こすほど類似していることを示すことができ、またASRシステムについての曖昧性の起源とすることができる。スコアに基づいて、視覚的コンテンツは、第1のワードシーケンスが、第2のワードシーケンスから離れて位置づけられるように、修正される可能性がある。この修正された視覚的コンテンツは、次いで、ディスプレイの上に提示されることもある。ユーザが、ディスプレイを見ているときに、ユーザの視覚的注意は、監視される可能性があり、また監視された視覚的注意に基づいて、ユーザが、第2のワードシーケンスではなくて第1のワードシーケンスを見ていることが、(ある種の可能性で)確実にされる可能性がある。次いで、ASRシステムは、第1のワードシーケンスに基づいてカスタマイズされる可能性がある。言い換えれば、ユーザの現在のコンテキスト(例えば、ユーザが、ディスプレイの上で見ているもの)を使用して、ASRシステムをカスタマイズし、現れようとしている発話の改善された認識を容易にしている。要約すれば、次いで、視覚的コンテンツの修正が、着手されて、ユーザによって見られているものの曖昧性を除去することを容易にしており、これを次に使用して、ASRシステムをカスタマイズする。
[0021] 別の例では、キューが、ディスプレイの上に提示される視覚的要素に対して提供される可能性があり、ここでキューは、ユーザが視覚的要素に焦点を当てていると考えられることをユーザに通知する。キューは、オーディオキュー、グラフィカルアイコン(例えば、マウスポインタ)、視覚的要素の強調表示などとすることができる。それゆえに、ユーザが、口頭による発話を示すときに、ユーザは、ASRシステムが視覚的要素に基づいてカスタマイズされているという知識を有することができる。どの1つまたは複数の視覚的要素が、ユーザによって見られているかの曖昧性を除去する際にさらに支援するために、ジェスチャもまた認識される可能性がある。例えば、視覚的注意トラッキングに加えて、カメラによって取り込まれる画像を分析して、ユーザがどこを指しているか、どこで頷いているかなどを識別することができ、これらを次に使用して、ユーザによって焦点を当てられている視覚的要素を識別することができる。
[0022] 次に図1を参照すると、ディスプレイの上で提示される視覚的コンテンツを修正することを容易にする例示のシステム100が、示されており、そこでは視覚的コンテンツの修正が、着手されて、口頭による発話を示すユーザの意図の曖昧性を除去することを容易にしている。本システム100は、コンピューティングシステム102を含んでおり、このコンピューティングシステム102は、それだけには限定されないが、デスクトップコンピューティングデバイス、ラップトップコンピューティングデバイス、モバイルコンピューティングデバイス(モバイル電話やスレートコンピューティングデバイスなど)、ビデオゲームコンソール、セットトップボックス、テレビジョンなどとすることができる。他の例においては、コンピューティングシステム102は、いくつかのコンピューティングデバイスを通して分散されることもある。さらにまた、コンピューティングシステム102の少なくとも一部分は、データセンタの中に含まれることもある。コンピューティングシステム102は、プロセッサ104とメモリ106とを含んでおり、そこではメモリ106は、プロセッサ104によって実行されるコンポーネントおよび/またはシステムを備えている。そのようなコンポーネントとシステムとは、以下でより詳細に説明されるであろう。
[0023] 本システム100は、コンピューティングシステム102と通信しているディスプレイ108をさらに含んでいる。ディスプレイ108は、コンピューティングシステム102と別れているように示されているが、別の例においては、ディスプレイ108は、コンピューティングシステム102に組み込まれている可能性がある。したがって、例えば、ディスプレイ108は、モバイルコンピューティングデバイスのディスプレイ、ラップトップコンピューティングデバイスのディスプレイ、テレビジョンのディスプレイなどとすることができる。別の例においては、ディスプレイ108は、投影型ディスプレイとすることができる。
[0024] 本システム100は、カメラ110をさらに備えており、このカメラ110は、赤色−緑色−青色(RGB)カメラ、グレースケールカメラ、および/または深度カメラとすることができる。ユーザ112が、ディスプレイ108の上で提示される視覚的コンテンツを見るので、カメラ110は、ユーザ112(の少なくとも頭部)の画像を取り込むように構成されている。システム100はまた、ユーザ112および/またはディスプレイ108の近くに位置づけられたマイクロフォン114を含んでおり、またそれゆえに、ユーザ112によって示される口頭による発話を取り込むように構成されている。カメラ110およびマイクロフォン114は、ディスプレイ108および/またはコンピューティングシステム102とは別れているように、図1において示されているが、カメラ110および/またはマイクロフォン114は、ディスプレイ108および/またはコンピューティングシステム102の中に一体化される可能性があることを理解すべきである。
[0025] コンピューティングシステム102のメモリ106は、ディスプレイ108の上に提示されるべき視覚的コンテンツ116を含むことができる。一例においては、視覚的コンテンツ116は、ウェブページの中に含まれる可能性がある。それに応じて、視覚的コンテンツ116は、テキスト、画像、ビデオ、アニメーションなどを含むことができる。別の例では、視覚的コンテンツ116は、ワードプロセッシングアプリケーション、スプレッドシートアプリケーション、スライドショーアプリケーション、ビデオプレーヤーなどのコンピュータ実行可能アプリケーションによって表示されるように構成されている可能性がある。さらに別の例においては、視覚的コンテンツ116は、ビデオプログラム、広告、ビデオゲームの一部分、または他の適切な視覚的コンテンツとすることができる。視覚的コンテンツ116は、ワード、ワードのシーケンス、画像、ビデオクリップなど、いくつかの視覚的要素を含むことができる。視覚的コンテンツ116は、第1のレイアウトを有することができ、また複数の要素は、第1のレイアウトに従って視覚的コンテンツ116の中に含まれることもある。
[0026] メモリ106はまた、自動音声認識(ASR)システム118も含んでおり、この自動音声認識システム118は、マイクロフォン114の出力に基づいて、ユーザ112によって示される口頭による発話を認識するように構成されている。メモリ106はまた、カメラ110によって出力される画像(RGB画像および/または深度画像)に基づいてユーザ112の目の注視方向を識別するように構成されている視覚的注意トラッカーコンポーネント120も含んでいる。一例においては、視覚的注意トラッカーコンポーネント120は、ユーザ112の頭部の姿勢と回転とを識別することができ、また視覚的注意トラッカーコンポーネントは、ユーザ112の頭部の姿勢と回転とに基づいて、ユーザ112が、どこに焦点を当てているか(例えば、ユーザ112の注視方向)を推論することができる。別の例では、視覚的注意トラッカーコンポーネント120は、カメラ110によって出力される画像を分析することができ、またそのような画像におけるユーザ112の注視を識別することができる。例えば、注視トラッカーコンポーネント120は、ひとみ、虹彩、および/または角膜など、目の要素を識別することができ、またそのような目の要素の検出されたロケーション(例えば、頭部の姿勢および回転と組み合わせた)に基づいてユーザ112の注視方向を推論することができる。
[0027] カメラ110のロケーションが、ディスプレイ108に対して少なくともおおざっぱに知られており、またユーザ112のロケーションが、ディスプレイ108に対して少なくともおおざっぱに知られていることを仮定すると、視覚的注意トラッカーコンポーネント120は、ユーザ112によって見られているディスプレイ108の上のある領域を(例えば、ある適切な確率で)推定することができる。ディスプレイ108に対する視覚的注意トラッカーコンポーネント120の正確さは、キャリブレーションフェーズ中に(例えば、製造中または実際の使用中)に決定される可能性がある。そのような正確さは、ディスプレイ108のフォームファクタ(例えば、ディスプレイのサイズ)、カメラ110の分解能(深度またはRGBのいずれか)、プロセッサ104の能力、メモリ106のサイズなどの関数とすることができる。視覚的注意トラッカーコンポーネント120の正確さは、識別されるべき領域の境界(サイズ)を考慮に入れることができ、ここで、ユーザ112は、その領域における任意の視覚的要素を見ていることもある。
[0028] メモリ106は、レイアウトジェネレータコンポーネント122をさらに含むことができ、このレイアウトジェネレータコンポーネント122は、ASRと、視覚的注意の監視との両方をサポートするコンピューティングデバイスの中に包含するために特によく適している。レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を修正して、修正された視覚的コンテンツ(これはまた、「新しい」視覚的コンテンツと称されることもある)を生成するように構成されており、そこでは、レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116がディスプレイ108の上で提示されることに先立って、そのような修正を実行する。レイアウトジェネレータコンポーネント122は、ユーザ112が、ディスプレイ108を見ており、かつ/またはそれ以外の方法でディスプレイと対話している(例えば、ディスプレイの上で示されるコンテンツに対して口頭による発話を発行している)ときに、そのような修正を実行して、ユーザ112の意図の曖昧さを除去することを容易にしている。
[0029] 一般に、レイアウトジェネレータコンポーネント122は、コンピューティングシステム102が、視覚的注意の監視をサポートすることを示す表示を受信する。レイアウトジェネレータコンポーネント122は、コンピューティングシステム102が、ASRシステム118を備えていることを示す表示を任意選択により受信することができる。レイアウトジェネレータコンポーネント122は、ディスプレイ108の上で提示されるべき視覚的コンテンツ116を受信し、またそのような視覚的コンテンツを修正して、視覚的コンテンツ116がディスプレイ108の上に提示されることに先立って、修正された(新しい)視覚的コンテンツを生成する。レイアウトジェネレータコンポーネント122は、(以下でより詳細に説明されることになるような)視覚的コンテンツ116の中の要素と、視覚的コンテンツ116の第1のレイアウトと、視覚的注意トラッカーコンポーネント120の上述の正確さとに基づいて、視覚的コンテンツ116を修正する。
[0030] その中の要素に基づいて視覚的コンテンツ116を修正することに関してより詳細にすると、レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を受信することができ、またその中の要素を識別することができる。レイアウトジェネレータコンポーネント122は、要素の間の距離を計算することができ、また要素の対について、ASRシステム118に関して対の中の要素の間の曖昧性を示している値を計算することができる。例えば、視覚的コンテンツ116の第1のレイアウトは、それらの発音が互いに類似している、互いに近くにある2つのワードシーケンスを含むことができ、それゆえに、そのようなシーケンスのうちの一方がユーザ112によって発話されるときに、ASRシステム118が、2つのワードシーケンスの間の曖昧性を除去することを困難にする可能性がある。レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を修正して、修正された視覚的コンテンツを生成することができ、そこでは、修正された視覚的コンテンツは、第2のレイアウトを有しており、またその第2のレイアウトの中では、2つのワードシーケンスが、互いにさらに離れるように移動される(または他のコンテンツから分離される)。それゆえに、レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を修正して、類似した発音を有するワードシーケンスが、互いにさらに離れるように移動されるようにさせている。
[0031] 別の例においては、レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116のズームレベルを変更することにより、視覚的コンテンツ116を修正することができる。すなわち、視覚的コンテンツ116は、それに割り当てられたデフォルトズームレベルを有することができる。レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を分析し、また互いに近くにあり、また何らかのやり方で、ASRシステム118に対して曖昧な可能性のあることもある要素をその中で識別することができる。レイアウトジェネレータコンポーネント122は、ディスプレイ108の上で提示されるときにそれらの要素が、互いに離れて位置づけられるように、視覚的コンテンツが、特定のロケーションにおいて「ズームイン」されるようにさせることができる。
[0032] メモリ106はまた、修正された視覚的コンテンツが、ディスプレイ108の上で提示されるようにさせるレンダリングコンポーネント124も含んでおり、ここで、修正された視覚的コンテンツは、ユーザ112によって見られる可能性がある。メモリ106は、ユーザ112の見ているコンテキストに基づいて(例えば、視覚的注意トラッカーコンポーネント120の出力に基づいて)ASRシステム118をカスタマイズするカスタマイザコンポーネント126をさらに含んでいる。ASRシステム118のカスタマイズは、1)ユーザの見ているコンテキストに基づいてASRシステム118におけるモデルの中の重みを修正することと、2)ASRシステム118の出力に重み付けすることと、3)ASRシステム118におけるモデルの中の重みを修正すること、およびASRシステム118の出力に重み付けすることとを包含することを意図している。
[0033] ユーザ112がディスプレイ108を見ているときのシステム100のオペレーションが、次に説明される。ユーザ112は、ディスプレイ108を見られるようにユーザ自身を位置づける。メモリ106は、ユーザ112に対するディスプレイ108の上に提示されるべき視覚的コンテンツ116を含んでいる。コンピューティングシステム102は、視覚的注意トラッキングをサポートし、またASRシステム118を備えているので、レイアウトジェネレータコンポーネント122は、修正のために視覚的コンテンツ116を分析するようにトリガされる可能性がある。レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を受信し、またユーザ112がそのような要素のうちの少なくとも1つに対して口頭による発話を示すときに、ASRシステム118に関して曖昧性を引き起こす可能性のある要素についての視覚的コンテンツ116をその中で検索する。例えば、レイアウトジェネレータコンポーネント122は、音響学的に類似したワードまたはワードシーケンス、局所的に類似している要素、互いに近くにあるフォーム入力可能フィールド、互いに近くにあるボタンなどを識別することができる。
[0034] 一例によれば、レイアウトジェネレータコンポーネント122は、ボックス−アンド−スプリングス−タイプモデルを使用することができ、そこでは、視覚的コンテンツ116の中の要素は、ASRシステム118に関するそれらの潜在的な曖昧性に基づいて、それらを押し離し、またはそれらを引き合わせる「スプリング」を用いて接続される。曖昧な要素が、互いに遠くに移動される距離は、視覚的注意トラッカーコンポーネント120の正確さの関数とすることができる(例えば、視覚的注意トラッキング能力がより正確になればなるほど、曖昧な要素は、遠くに離れるように移動される必要はより少なくなるが、視覚的注意トラッキングの正確さが減少するときに、曖昧な要素は、さらに離れるように移動される)。ASRシステム118は、異なるフォーム入力可能フィールドのために、それぞれ、異なる言語モデルを使用することができるので、それらの要素が、フォーム入力可能フィールドであるときに、視覚的コンテンツ116の中の要素を位置づけ直すことは、とりわけ有利である可能性がある。それゆえに、2つの異なる言語モデルに関連する2つのフォーム入力可能フィールドは、レイアウトジェネレータコンポーネント122によってさらに離れるように移動される可能性がある。
[0035] レンダリングコンポーネント124は、ディスプレイ108の上で修正された視覚的コンテンツ(レイアウトジェネレータコンポーネント122によって修正される)をレンダリングする。図1に示される例においては、修正された視覚的コンテンツは、要素128、130、および132を含むことができる。視覚的コンテンツ116においては、要素128と132とは、互いに隣接していることができる。しかしながら、レイアウトジェネレータコンポーネント122は、要素128と132とが、ASRシステム118に関して曖昧性を引き起こし得ることを確認した可能性がある(例えば、ASRシステム118は、口頭による発話を示すときに要素128または132のどちらをユーザ112が言及しているかを識別する困難さを有する可能性がある)。それゆえに、レイアウトジェネレータコンポーネント122は、要素128と、132とが、互いにさらに遠くに移動されるように、視覚的コンテンツ116を修正した。
[0036] 視覚的注意トラッカーコンポーネント120は、カメラ110から画像を受信し、またカメラ110によって出力される画像に基づいて、例えば、ユーザ112の注視方向を推定する。ユーザ112の注視の方向が、推定される可能性があるので、要素128〜132のうちの(もしあれば)どれが、ユーザ112によって見られているかに関する推定値が、生成される可能性がある。一例によれば、視覚的注意トラッカーコンポーネント120が、ユーザ112が特定の要素を見ていることを推定するときに、レイアウトジェネレータコンポーネント122は、視覚的注意トラッカーコンポーネント120が、ユーザ112が特定の要素を見ていることを推定したことをユーザ112に対して示す出力を生成することができる。レイアウトジェネレータコンポーネント122によって生成される出力は、聞こえる出力、特定の要素(例えば、カーソル)の上のグラフィカルアイコンの追加、特定の要素の強調表示などとすることができる。
[0037] カスタマイザコンポーネント126は、要素128〜132のうちのどれがユーザ112によって見られているかについての表示を受信することができる。この表示を受信することに応じて、カスタマイザコンポーネント126は、ユーザ112によって見られているディスプレイ108の上の要素に基づいて(視覚的注意トラッカーコンポーネント120によって決定されるように)ASRシステム118をカスタマイズすることができる。例えば、カスタマイザコンポーネントは、ユーザ112によって見られているように決定される要素に基づいて、ASRシステム118の音響学的モデル、用語集モデル、および/または言語モデルにおける重みを変更することができる。追加して、または代わりに、カスタマイザコンポーネント126は、ユーザ112によって見られているように決定される要素に基づいて、(場合によっては修正されていない)ASRシステム118の出力を選択することができる。カスタマイザコンポーネント126は、異なるコンテキストについてのASRシステム118の出力ラベルに重み付けすることができる。別の例においては、カスタマイザコンポーネント126は、ルールを使用して、ASRシステム118の出力を選択することができる(例えば、都市名を受信するように構成されているフォーム入力可能フィールドが、ユーザ112によって見られているときに、ルールは、都市名が、ASRシステム118の可能性のある出力から選択されるようにさせることができる)。効果的に、次いで、カスタマイザコンポーネント126は、コンテキスト−何をユーザ112が見ているかに基づいて、ASRシステム118をカスタマイズしており、それによってASRシステム118が、ユーザ112の口頭による発話を正しく認識することになる確率の向上を容易にしている。
[0038] ユーザ112が、口頭による発話を示すときに、マイクロフォン114は、そのような口頭による発話を取り込み、また口頭による発話を表している信号を出力することができる。カスタマイザコンポーネント126によってカスタマイズされるASRシステム118は、マイクロフォン114によって出力される信号に基づいて、口頭による発話を認識することができる。何がユーザ112によって見られているかを正確に決定する能力は、レイアウトジェネレータコンポーネント122によって実行される視覚的コンテンツ116の修正によって強化される。要約すれば、システム100は、曖昧な可能性のある要素が、視覚的注意トラッカーコンポーネント120が見られている要素の間で差別化することをより簡単にするのに十分に遠く離して移動されるように、視覚的コンテンツ116の修正をサポートする。レイアウトジェネレータコンポーネント122は、視覚的注意トラッカーコンポーネント120、ならびに視覚的コンテンツ116の要素およびレイアウトについての正確さを考慮に入れることにより、自動的にこのオペレーションを実行することができる。さらに、視覚的注意トラッカーコンポーネント120は、何がユーザ112によって見られているかについての知識を有することができるので、推論が、何についてユーザ112が話すことになるかについて行われる可能性がある。この情報は、ASRシステム118に対して提供される可能性があり、ユーザ112の意図を理解する際にASRシステム118を支援する。したがって、例えば、要素132が、宛先都市を受信するためのフォーム入力可能フィールドであり、また視覚的注意トラッカーコンポーネント120が、ユーザ112がそのようなフォーム入力可能フィールドを見ていることを決定するとき、そのときには、カスタマイザコンポーネント126は、ユーザ112が都市または空港の名前を含む口頭による発話を発行することになることを予測することができる。カスタマイザコンポーネント126は、このようにして、ASRシステム118の言語モデルを修正して、都市名および/または空港名に顕著に重み付けすることができる。
[0039] この例は、レンダリングの時に、視覚的コンテンツ116を修正することを考察したが、本明細書において説明される概念はまた、生成の時に視覚的コンテンツを修正するためにもよく適している。例えば、設計者は、ウェブページについてのレイアウトを生成することができ、またレイアウトジェネレータコンポーネント122は、レイアウトを受信することができる。次いで、レイアウトジェネレータコンポーネント122は、レイアウトに対する修正を行い、また設計者に対して修正を提示することができる(この設計者は、次いで、提案されたレイアウト変更を受け入れ、または拒否することを選択できる)。この場合にも、レイアウトジェネレータコンポーネント122は、これらのレイアウト変更を行って、ウェブページの視聴者によって示される口頭による発話を認識する際に、ASRシステム118を支援することができる。
[0040] さらに別の例によれば、視覚的注意を監視することに加えて、メモリ106は、ユーザ112がある要素を指し示すことなどのジェスチャを認識するように構成されているコンポーネント(図示されず)を含むことができる。ディスプレイ108の上でどこをユーザ112が指し示しているかと、どこをユーザ112が見ているかとについての認識の組合せを使用して、何がユーザ112にとって興味があるかを推論し、また何をユーザ112が次に述べようとしているかをさらに推論することができる。このようにして、カスタマイザコンポーネント126は、何がユーザ112にとって興味があることが推論されるかに基づいて、ASRシステム118をカスタマイズすることができる。
[0041] さらに、本明細書において説明される態様が、ASRシステム118に関して説明されたが、上記で説明されるようなレイアウト修正が、他のコンテキストにおいても使用され得ることを理解すべきである。例えば、携帯型個人情報端末が、ユーザからの口頭による発話の受信なしに、ユーザに対してデータを提供することができるように、例えば、コンピュータユーザの望みを予測するように構成されている携帯型個人情報端末が、開発された。視覚的コンテンツを修正して、ディスプレイの上で何をユーザが見ているかに関する曖昧性を低減させることができ、また携帯型個人情報端末は、修正されたレイアウトを使用してコンテンツを提供することができる。例えば、視覚的コンテンツ116は、2つの要素、すなわち、イタリアンレストランを表している第1の要素と、イタリアンフェスティバルを表している第2の要素とを含むことができる。レイアウトジェネレータコンポーネント122は、2つの要素が、互いにさらに遠くに移動されるようにさせることができ、このようにして、ユーザ112が第1の要素を見ていることが識別されるときに、携帯型個人情報端末は、レストランのためのメニューが提示されるようにさせることができ、またはユーザがレストランに予約することを望むかどうかをユーザ112に質問することができる。対照的に、ユーザ112が、第2の要素を見ていることが識別されるときに、携帯型個人情報端末は、フェスティバルの時間とロケーションとが、ディスプレイ108の上に提示されるようにさせることができる。
[0042] それゆえに、システム100は、視覚的コンテンツの中の第1の視覚的要素に対応する少なくとも1つのワードと、第2の視覚的要素に対応する少なくとも1つのワードとの間で、ASRシステム118の観点から、可能性のある曖昧性に基づいて、視覚的コンテンツ116を修正するための手段をサポートすることが、識別される可能性がある。一例においては、可能性のある曖昧性は、第1の視覚的要素に対応する少なくとも1つのワードと、第2の視覚的要素に対応する少なくとも1つのワードとの間の発音の間の類似性に基づいたものとすることができる。別の例においては、可能性のある曖昧性は、それぞれのタイプの視覚的要素(例えば、両方の視覚的要素は、フォーム入力可能フィールドである)の間の類似性に基づいたものとすることができる。システム100は、修正された視覚的コンテンツを表示するための手段をさらにサポートしており、ここでは、第1の視覚的要素と、第2の視覚的要素との間の距離が、変更した。
[0043] 次に図2を参照すると、レイアウトジェネレータコンポーネント122の機能ブロック図が、示されている。レイアウトジェネレータコンポーネント122は、正確さアナライザコンポーネント202を含んでいる。正確さアナライザコンポーネント202は、注視方向を(カメラ110によって出力される画像に基づいて)決定するときに、注視トラッカーコンポーネント120の精度(正確さ)を決定するように構成されている。例えば、正確さアナライザコンポーネント202は、ディスプレイ108のサイズ、カメラ110の分解能、プロセッサ104の処理能力、メモリ106のサイズ、ディスプレイ108からのユーザ112の距離などに基づいて、正確さを決定することができる。一例によれば、正確さアナライザコンポーネント202は、注視トラッカーコンポーネント120によって行われる注視方向の決定に対応するエラーの量を識別することができる。正確さアナライザコンポーネント202は、例えば、ユーザ112が(例えば、注視トラッカーコンポーネント120により)見ていることが決定されるディスプレイ108の上の位置の関数として、ディスプレイ108におけるピクセルの上で確率分布を出力することができる。
[0044] レイアウトジェネレータコンポーネント122はまた、視覚的コンテンツ116の中の要素を分析するコンテンツアナライザコンポーネント204を含んでいる。具体的には、上記で言及されるように、コンテンツアナライザコンポーネント204は、ASRシステム118(および/または携帯型個人情報端末)の観点から曖昧性を引き起こすことができる、視覚的コンテンツ116の中の要素を識別することができる。例えば、視覚的コンテンツ116は、互いに近くにある2つのフォーム入力可能フィールドを含むことができ、この2つのフォーム入力可能フィールドは、ASRシステム118の観点から曖昧性を引き起こす可能性がある。別の例においては、何らかのしきい値類似性を有するオブジェクトを含み、または言及する画像が、ASRシステム118の観点から曖昧性を引き起こす可能性がある。さらに別の例においては、音響学的に類似している2つのワード、またはワードの2つのシーケンスは、ASRシステム118の観点から曖昧性を引き起こす可能性がある。さらにまた別の例においては、局所的に類似している画像、ワード、またはワードのシーケンスは、ASRシステム118の観点から曖昧性を引き起こすことができる。
[0045] それに応じて、上記で説明される例によれば、コンテンツアナライザコンポーネント204は、ASRシステム118の観点から曖昧性を引き起こす可能性がある、視覚的コンテンツ116の中の要素を識別することができる。それゆえに、コンテンツアナライザコンポーネント204は、互いに比較的に近くにある視覚的コンテンツ116の中で類似した要素(例えば、フォーム入力可能フィールド)を識別することができる。さらに、コンテンツアナライザコンポーネント204は、視覚的コンテンツ116の中で言及されるワードまたはシーケンスの間の発音における類似性を示している値を計算することができる。例えば、ワードの発音は、値のベクトルによって表される可能性があり、また距離ベースのアルゴリズムを使用して、ベクトルの間の距離を計算することができる。同様に、コンテンツアナライザコンポーネント204は、互いに局所的に類似している、視覚的コンテンツ116の中の要素を識別することができる。さらに、コンテンツアナライザコンポーネント204は、ASRシステム118の観点から曖昧性を引き起こす可能性があるオブジェクトを言及し、または表現する視覚的コンテンツ116の中の画像を識別することができる。例えば、コンテンツアナライザコンポーネント204は、画像においてオブジェクト認識を実行するシステムを含み、またはそのシステムと通信していることができ、ここで、そのような認識は、画像のシグネチャ(例えば、カラーシグネチャ、勾配シグネチャなど)に基づいたものとすることができる。一例においては、視覚的コンテンツ116は、自動車を含み、または言及する第1の画像を有することができ、また星を含み、または言及する第2の画像を有することができる。コンテンツアナライザコンポーネント204は、2つの画像が、「car」と、「star」との発音の間の類似性に起因して、ASRシステム118の観点から曖昧性を引き起こす可能性があることを示す表示を出力することができる。
[0046] 上記で言及されるように、コンテンツアナライザコンポーネント204は、距離ベースのアルゴリズムを利用して、要素の対についての距離の値を計算することができ、ここで距離の値は、それらの要素の間の類似性を示している(またこのようにして、可能性のある曖昧性を示している)。そのような距離ベースのアルゴリズムは、要素(または要素の発音)が、ベクトルによって表される可能性がある場合に、よく適していることもあり、またベクトルの間の距離を使用して、ワードまたはワードシーケンスの間の(音響学的)類似性、画像の間の類似性などを決定することができる。2つの要素が、局所的に類似していることを決定することに関して、コンテンツアナライザコンポーネント204は、要素に(例えば、検索エンジンにより)割り当てられるトピックスにアクセスすることができる。2つの要素が、トピックを共有することが見出されるときに、コンテンツアナライザコンポーネント204は、2つの要素が局所的に類似していることを示している出力を生成することができる。コンテンツアナライザコンポーネント204はまた、視覚的コンテンツ116の中のメタデータを分析することもできる。例えば、画像と、ウェブページとは、多くの場合に、メタデータをその中に埋め込んでおり、またコンテンツアナライザコンポーネント204は、視覚的コンテンツ116の中の要素に割り当てられたメタデータを比較することができる。コンテンツアナライザコンポーネント204は、次いで、メタデータの比較に基づいて、要素の間の類似性を示している値を出力することができる。
[0047] レイアウトジェネレータコンポーネント122は、1)正確さアナライザコンポーネント202によって出力される正確さの情報と、2)コンテンツアナライザコンポーネント204によって出力される要素の対についての類似性の値(例えば、混同しやすさの値)とに基づいて、視覚的コンテンツ116を修正する修正器コンポーネント206をさらに備えている。例えば、正確さアナライザコンポーネント202が、視覚的注意トラッカーコンポーネント120が非常に正確であることを決定するとき、そのときにはコンテンツアナライザコンポーネント204が、視覚的コンテンツ116の中の2つの要素が、非常に類似している(またこのようにして、ASRシステム118の観点から曖昧性を引き起こす可能性がある)ことを決定するときでさえ、修正器コンポーネント206は、視覚的コンテンツ116の中の要素の位置を大幅に変更する必要はない。別の例においては、視覚的注意トラッカーコンポーネント120が、あまり正確ではなく、またコンテンツアナライザコンポーネント204が、ASRシステム118の観点から曖昧性を引き起こす2つの要素を識別するとき、そのときには、修正器コンポーネント206は、修正された視覚的コンテンツの中で、2つの要素が、互いにさらに遠くに配置されるように、視覚的コンテンツ116を修正することができる。
[0048] レイアウトジェネレータコンポーネント122はまた、要素がユーザ112によって見られているときに、何を視覚的注意トラッカーコンポーネント120が識別したかについてユーザ112に対してフィードバックを提供するフィードバックコンポーネント208を含むこともできる。例えば、視覚的注意トラッカーコンポーネント120が、ユーザ112が特定の要素を見ていることを確認するときに、フィードバックコンポーネント208は、ASRシステム118が、そのような要素に基づいた入力を期待するようにカスタマイズされていることをユーザ112に通知するフィードバックを生成することができる。出力は可聴式とすることができ、そこでは可聴式の出力は、視覚的注意トラッカーコンポーネント120が、ユーザ112が見ていることを確認した要素についてユーザ112に通知する。別の例においては、フィードバックコンポーネント208は、マウスポインタなどのグラフィカルアイコンが、要素の上に表示されるようにさせることができる。さらに別の例においては、要素は強調表示されることもある。強調表示の要素は、修正された視覚的コンテンツが、フォーム入力可能フィールドを含むときにとりわけ都合が良いこともある。フォーム入力可能フィールドの強調表示は、ASRシステム118がユーザ112から受信することを期待するコンテンツのタイプをユーザ112に対して示すことになる。例えば、フォーム入力可能フィールドが、エアラインの出発に対応する場合、フォーム入力可能フィールドは、ASRシステム118が、ロケーション(都市、空港コードなど)の名前を受信することを期待することをユーザ112に対して示して、強調表示される可能性がある。
[0049] 次に図3を参照すると、ASRシステム118とカスタマイザコンポーネント126とについての機能ブロック図が、示されている。ASRシステム118は、音響学的モデル302と、用語集モデル304と、言語モデル306とを含む。音響学的モデル302は、人間によって発せられる音響学的サウンド(音)をモデル化する。用語集モデル304は、音響学的なサウンドの、一般的には特定の言語におけるワードのシーケンスをモデル化する。言語モデル306は、特定の言語におけるワードのシーケンスをモデル化する。モデル302〜306のそれぞれは、重みがそれに割り当てられており、そこでは、重みは、何がモデル化されているか(例えば、場合によっては以前の観察に基づいて)を観察する確率を示している。いくつかの場合には、しかしながら、異なるコンテキストについての重みを変更することが望ましいこともある。
[0050] 視覚的注意トラッカーコンポーネント120は、決定された注視方向に基づいて、コンテキスト情報(例えば、何が、ディスプレイ108の上でユーザにとって興味があるか)を提供することができる。カスタマイザコンポーネント126は、ユーザ112が、現在見ており、または最近になって見たものについての表示を受信することができ、またそのような表示に基づいてASRシステム118をカスタマイズすることができる。例えば、カスタマイザコンポーネント126は、ユーザが現在見ており、または最近になって見たものに基づいて、モデル302〜306のうちの1つまたは複数についての重みをカスタマイズすることができる。例えば、ユーザ112が、出発の都市についてのフォーム入力可能フィールドを注視しているときに、言語モデル304および/または用語集モデル306は、ロケーション(例えば、空港および/または空港コードを有する都市)に対応するワードとワードシーケンスとに対してより高い重みを割り当てるようにカスタマイズされる可能性がある。別の例においては、視覚的注意トラッカーコンポーネント120が、ユーザ112が特定のレストランを記述している要素を見ていることを決定するときに、カスタマイザコンポーネント126は、このコンテキストを受信し、またASRシステム118のモデル302〜306のうちの1つまたは複数をアップデートして、ASRシステム118が、ユーザ112の口頭による発話において食料品をより高い可能性で認識するようにさせることができる。
[0051] さらに、上述されるように、カスタマイザコンポーネント126は、モデル302〜306に割り当てられた重みを修正するのではなく、またはモデル302〜306に割り当てられた重みを修正することに加えて、何がユーザ112によって見られているかについて視覚的注意トラッカーコンポーネント120から受信される表示に基づいて、ASRシステム118の出力を選択することができる。例えば、ASRシステム118は、可能性のあるワードおよび/またはワードシーケンスの上の確率分布を出力することができる。ワードまたはワードシーケンスが最も可能性の高いワードまたはワードシーケンスでないときでさえ、カスタマイザコンポーネント126は、ワードまたはワードシーケンスが、注視トラッカーコンポーネント120から受信される表示に基づいて、選択されるようにさせることができる。
[0052] 次に図4を参照すると、レイアウトジェネレータコンポーネント122によって実行され得る視覚的コンテンツの例示の修正が、示されている。この例においては、視覚的コンテンツ116は、3つの要素、すなわち、1)ワードシーケンス「Amber India−Mountain View」と、2)ワードシーケンス「Amber Moon Indian Restaurant」と、3)ワード「Sakoon」とを含む。コンテンツアナライザコンポーネント204は、要素1と2とは、互いに類似しているが、要素3は、要素1または要素2のいずれにも類似していないことを決定することができる。それに応じて、レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を修正して、修正された視覚的コンテンツ400を生成することができ、この修正された視覚的コンテンツ400は、同じ3つの要素を含んでいるが、第2のレイアウトで配置される。具体的には、要素1と2とが、互いに隣接している代わりに、要素3が、要素1と、要素2との間に位置づけられる。この修正された視覚的コンテンツ400は、視覚的注意トラッカーコンポーネント120が、ユーザ112が要素1を見ているときと、ユーザ112が要素2を見ているときとの間の曖昧性を除去する助けを行う。それに応じて、ユーザ112が、要素1を見ているときに、例えば、「make reservation for Amber India」を述べるときに、ASRシステム118は、ユーザ112の意図をよりよく確認するようにカスタマイズされる可能性がある。
[0053] 次に図5を参照すると、レイアウトジェネレータコンポーネント122によって実行され得る視覚的コンテンツの別の例示の修正が、示されている。この例においては、視覚的コンテンツ116は、2つの要素を、すなわち、出発都市を受信するように構成されている第1のフォーム入力可能フィールド502と、到着都市を受信するように構成されている第2のフォーム入力可能フィールド504とを含む。視覚的コンテンツ116においては、第1の要素502は、第2の要素504のすぐ近くにある。それに応じて、ユーザが、第1の要素502または第2の要素504のいずれかを見るときに、注視トラッカーコンポーネント120は、要素502または504のどちらをユーザ112が実際に見ているかを適切な信頼度で確認することができない可能性がある。
[0054] このようにして、レイアウトジェネレータコンポーネント122は、視覚的コンテンツ116を修正して、修正された視覚的レイアウト506を生成することができ、ここでは第1の要素502と、第2の要素504とは、互いに遠ざけられる。すなわち、視覚的コンテンツ116においては、第1の要素502は、第2の要素504から第1の距離にあるが、修正された視覚的コンテンツ506においては、第1の要素502は、第2の要素504から第2の距離にあり、第2の距離は、第1の距離よりも長い。この例においては、ユーザ112は、第1の要素502を見ることができ、また注視トラッカーコンポーネント120は、ユーザ112が、(第2の要素504ではなくて)第1の要素502を見ていることを比較的高い信頼度で確認することができる。ユーザ112が、出発都市の名前または空港コードを発話するときに、ASRシステム118は、ユーザ112によって発話される出発の都市または空港を認識することができ、また第1の要素502は、(第2の要素504ではなくて)ユーザ112によって発話される都市または空港を入力される可能性がある。
[0055] 次に図6を参照すると、レイアウトジェネレータコンポーネント122によって実行され得る視覚的コンテンツに対する別の例示の修正が、示されている。この例においては、レイアウトジェネレータコンポーネント122は、修正された視覚的コンテンツ506を受信し、この修正された視覚的コンテンツ506は、第1の要素502と、第2の要素504とを含む。レイアウトジェネレータコンポーネント122はまた、注視トラッカーコンポーネント122によって識別されるような注視入力を受信することもできる。注視入力を受信することに応じて、レイアウトジェネレータコンポーネント122は、要素502または504のどちらをユーザ112が見ているかを注視トラッカーコンポーネント120が推定したかについてユーザ112に通知する出力を提供することができる。この例においては、ユーザ112が、第1の要素502を見ていることが、推定され、またそれに応じて、第1の要素502は、強調表示される。そのときに、ユーザ112は、ユーザが口頭による発話を示すときに、そのような口頭による発話が、(要素504ではなくて)要素502へと入力されることになることを期待することができる。
[0056] 図7〜8は、ASRシステムをカスタマイズする目的のために、視覚的コンテンツの修正に関連した例示の方法を示すものである。それらの方法は、シーケンスにおいて実行される一連の動作であるように示され、また説明されているが、それらの方法は、シーケンスの順序によって限定されないことが、理解され、また認識されるべきである。例えば、いくつかの動作は、本明細書において説明される順序とは異なった順序で行われる可能性がある。さらに、ある動作は、別の動作と同時に行われる可能性がある。さらに、いくつかの例では、必ずしもすべての動作が、本明細書において説明される方法を実装するために必要とされるとは限らない可能性がある。
[0057] さらに、本明細書において説明される動作は、1つまたは複数のプロセッサによって実施され、かつ/または1つまたは複数のコンピュータ読取り可能媒体の上に記憶され得るコンピュータ実行可能命令とすることができる。コンピュータ実行可能命令は、ルーチン、サブルーチン、プログラム、および/または実行のスレッドなどを含むことができる。さらにまた、方法についての動作の結果は、コンピュータ読取り可能媒体に記憶され、かつ/またはディスプレイデバイスの上に表示されるなどの可能性がある。
[0058] 次に、図7を参照すると、視覚的コンテンツを修正するための例示の方法700が、示されている。方法700は、702において開始し、また704において、コンピューティングデバイスがASRシステムを備えていることを示す表示が、受信される。706において、視覚的注意がディスプレイに対して監視されることを示す表示が、受信され、また708において、ディスプレイの上での提示のための視覚的コンテンツが、受信される。
[0059] 710において、視覚的コンテンツが、ディスプレイの上で提示されるようにさせることに先立って、視覚的コンテンツは、修正されて、修正された視覚的コンテンツを生成する。この修正は、コンピューティングデバイスがASRシステムを備えていることを示す表示と、視覚的注意がディスプレイに対して監視されることを示す表示とに基づいている。上記で示されるように、修正は、視覚的コンテンツのレイアウトを変更して、第2のレイアウトを生成することを含むことができる。別の例においては、そのような修正は、視覚的コンテンツのためのデフォルトズームを変更することを含むことができる。712において、修正された視覚的コンテンツは、ディスプレイの上に提示されるようにさせられる。その後に、例えば、ディスプレイの視聴者の目の注視が、推定される可能性があり、また視聴者によって見られているように識別されるものに基づいて、ASRシステムは、カスタマイズされる可能性がある。本方法700は、714において完了する。
[0060] 次に図8を参照すると、視覚的コンテンツを修正するための別の例示の方法800が、示されている。方法800は、802において開始し、また804において、視覚的注意がディスプレイに対して監視されることを示す表示が、受信される。806において、音声入力がディスプレイの上のコンテンツに関して受信可能であることを示す表示が、受信される。808において、ページが、ディスプレイの上の提示のために受信され、そこでは、ページは、互いに第1の距離にある第1の視覚的要素と、第2の視覚的要素とを含む。例えば、ページは、ウェブページとすることができるが、本方法800は、そのように限定されてはいない。
[0061] 810においては、ページの上の第1の視覚的要素と、第2の視覚的要素との間で第1の距離を示している第1の値が、計算される。以上で示されるように、第1の視覚的要素と、第2の視覚的要素とは、それぞれ、第1のワードまたはワードシーケンスと、第2のワードまたはワードシーケンスとすることができる。別の例においては、第1の視覚的要素と、第2の視覚的要素とは、それぞれ、第1のフォーム入力可能フィールドと、第2のフォーム入力可能フィールドとすることができる。さらにまた、第1の視覚的要素と、第2の視覚的要素とは、それぞれ、第1の画像と、第2の画像とすることができる。ある要素はまた、これらのタイプの要素(または他の要素)の組合せとすることもできる。
[0062] 812において、第2の値が計算され、そこでは、第2の値は、第1の視覚的要素と、第2の視覚的要素との間の音響学的類似性を示している。814において、ページは、修正されて、修正されたページを生成し、そこでは、修正されたページは、互いに第2の距離にある第1の視覚的要素と、第2の視覚的要素とを含んでいる。さらに、814におけるページについて修正することは、それぞれ、810と812とにおいて計算される第1の値と、第2の値とに基づいている。816において、修正されたページは、ディスプレイの上に提示されるようにさせられる。本方法800は、818において完了する。
[0063] 様々な例が、次に説明される。
[0064] 実施例1
コンピューティングデバイスによって実行される方法であって、ディスプレイの上に提示するための視覚的コンテンツを受信するステップと、視覚的コンテンツが、ディスプレイの上に提示されるようにさせるステップに先立って、コンピューティングデバイスが自動音声認識(ASR)をサポートすること、およびコンピューティングデバイスが視覚的注意の監視をサポートすることに基づいて、視覚的コンテンツが、新しい視覚的コンテンツを生成するように修正するステップと、視覚的コンテンツを修正するステップに応じて、新しい視覚的コンテンツが、ディスプレイの上に提示されるようにさせるステップと、を含む方法。
[0065] 実施例2
視覚的コンテンツは、第1のレイアウトを有しており、またそこでは新しい視覚的コンテンツを生成するように視覚的コンテンツを修正するステップは、第1のレイアウトを第2のレイアウトに変換するステップを含む、実施例1に記載の方法。
[0066] 実施例3
第1のレイアウトは、その間に第1の距離を有する第1の要素と、第2の要素とを含み、またそこでは新しい視覚的コンテンツを生成するように視覚的コンテンツを修正するステップは、第2のレイアウトにおいて、第2の距離が、第2の要素から第1の要素を分離するように、第1の要素と、第2の要素との間の距離を変更するステップを含む、実施例1に記載の方法。
[0067] 実施例4
第1の要素は、第1のワードまたはワードシーケンスを含んでおり、第2の要素は、第2のワードまたはワードシーケンスを含んでおり、本方法は、第1のワードまたはワードシーケンスと、第2のワードまたはワードシーケンスとの間の音響学的類似性を示している値を計算するステップと、第1のワードまたはワードシーケンスと、第2のワードまたはワードシーケンスとの間の音響学的類似性を示している値に基づいて、修正された視覚的コンテンツを生成するように視覚的コンテンツを修正するステップとをさらに含む、実施例1に記載の方法。
[0068] 実施例5
視覚的コンテンツは、第1のズームレベルを有しており、またそこでは新しい視覚的コンテンツを生成するように視覚的コンテンツを修正するステップは、第1のズームレベルを第2のズームレベルに変更するステップを含む、実施例1〜4のいずれかに記載の方法。
[0069] 実施例6
ディスプレイの視聴者を含む画像を受信するステップと、画像に基づいて、見られているディスプレイの上に提示される新しい視覚的コンテンツの中の要素を識別するステップと、要素についての識別するステップに基づいて、ASRシステムをカスタマイズするステップとをさらに含む、実施例1〜5のいずれかに記載の方法。
[0070] 実施例7
マイクロフォンから口頭による発話を表す信号を受信するステップと、ASRシステムをカスタマイズするステップに応じて、口頭による発話を認識するステップとをさらに含む、実施例1〜6のいずれかに記載の方法。
[0071] 実施例8
ディスプレイの視聴者を含む信号を受信するステップと、信号に基づいて、新しい視覚的コンテンツの中の要素が見られていることを推定するステップと、要素が見られていることを推定するステップに応じて、要素が見られているように推定されたことを示す出力を生成するステップとをさらに含む、実施例1に記載の方法。
[0072] 実施例9
出力を生成するステップは、修正された視覚的コンテンツの中の要素に視覚的インジケータを割り当てるステップを含む、実施例8に記載の方法。
[0073] 実施例10
そこでは要素は、フォーム入力可能フィールドである、実施例8〜9のいずれかに記載の方法。
[0074] 実施例11
視覚的コンテンツは、第1のフォーム入力可能フィールドと、第2のフォーム入力可能フィールドとを含み、また新しい視覚的コンテンツを生成するように視覚的コンテンツを修正するステップは、第1のフォーム入力可能フィールドが、第2のフォーム入力可能フィールドからさらに遠くに位置づけられるように、第1のフォーム入力可能フィールドまたは第2のフォーム入力可能フィールドのうちの少なくとも一方を位置づけ直すステップを含む、実施例1〜10のいずれかに記載の方法。
[0075] 実施例12
プロセッサと、プロセッサによって実行される複数のコンポーネントを備えているメモリとを備えているコンピューティングデバイスであって、複数のコンポーネントは、ディスプレイの上で提示されるべきである視覚的コンテンツを受信するレイアウトジェネレータコンポーネントであって、視覚的コンテンツは、第1のレイアウトを有しており、レイアウトジェネレータコンポーネントは、視覚的コンテンツがディスプレイの上で提示されることに先立って、視覚的コンテンツが、修正されるときに、第2のレイアウトを有するように、視覚的コンテンツを修正し、レイアウトジェネレータコンポーネントは、ディスプレイに対して追跡されている視覚的注意に基づいて、視覚的コンテンツを修正し、そこでは第2のレイアウトは第1のレイアウトとは異なる、レイアウトジェネレータコンポーネントと、レイアウトジェネレータコンポーネントと通信しているレンダリングコンポーネントであって、レンダリングコンポーネントは、ディスプレイの上で提示するために第2のレイアウトを用いて視覚的コンテンツをレンダリングする、レンダリングコンポーネントとを備えている、コンピューティングデバイス。
[0076] 実施例13
複数のコンポーネントは、カメラから画像を受信する注視トラッカーコンポーネントをさらに備えており、注視トラッカーコンポーネントは、画像に基づいて、注視方向を識別し、注視トラッカーコンポーネントは、注視方向に基づいて、ディスプレイの上で見られている要素を推定し、そこではレイアウトジェネレータコンポーネントは、グラフィカルデータが、要素が見られているように推定されることを示すディスプレイの上に提示されるようにさせる、実施例12に記載のコンピューティングデバイス。
[0077] 実施例14
要素は、フォーム入力可能フィールドであり、またグラフィカルデータは、フォーム入力可能フィールドの強調表示である、実施例13に記載のコンピューティングデバイス。
[0078] 実施例15
複数のコンポーネントは、カメラから画像を受信する注視トラッカーコンポーネントをさらに備えており、注視トラッカーコンポーネントは、画像に基づいて、注視方向を識別し、注視トラッカーコンポーネントは、注視方向に基づいて、ディスプレイの上で見られている要素を推定し、メモリは、プロセッサによって実行される自動音声認識(ASR)システムをさらに備えており、ASRシステムは、オーディオ信号を受信し、またオーディオ信号の形で口頭による発話を認識するように構成されており、音声認識システムは、注視トラッカーコンポーネントによって見られているように推定される要素に基づいて、口頭による発話を認識する、実施例12〜14のいずれかに記載のコンピューティングデバイス。
[0079] 実施例16
複数のコンポーネントは、注視トラッカーコンポーネントによって見られているように推定される要素に基づいて、ASRシステムをカスタマイズするカスタマイザコンポーネントをさらに備えている、実施例15に記載のコンピューティングデバイス。
[0080] 実施例17
そこでは第1のレイアウトは、互いに対する第1の位置にある、第1の要素と、第2の要素とを含み、またそこでは第2のレイアウトは、互いに対する第2の位置にある第1の要素と、第2の要素とを含む、実施例12〜16のいずれかに記載のコンピューティングデバイス。
[0081] 実施例18
そこではレイアウトジェネレータコンポーネントは、第1の要素と、第2の要素との間の音響学的類似性を示している値に基づいて、視覚的コンテンツを修正する、実施例17に記載のコンピューティングデバイス。
[0082] 実施例19
視覚的コンテンツは、ディスプレイの上に表示されるべきであるウェブページの中に含まれる、実施例12〜18のいずれかに記載のコンピューティングデバイス。
[0083] 実施例20
プロセッサによって実行されるときに、ディスプレイの上に提示するための、互いに第1の距離にある第1の視覚的要素と、第2の視覚的要素とを含むページを受信するステップと、互いに第2の距離にある第1の視覚的要素と、第2の視覚的要素とを含む修正されたページを生成するようにページを修正するステップであって、ページの修正するステップは、第1の視覚的要素に対応する少なくとも1つのワードと、第2の視覚的要素に対応する少なくとも1つのワードとの間の発音の類似性に基づいている、修正するステップと、修正されたページが、ディスプレイの上に表示されるようにさせるステップと、を含む動作を、プロセッサが、実行するようにさせる命令を含むコンピュータ読取り可能ストレージ媒体。
[0084] 実施例21
コンピューティングシステムが、本明細書において説明され、そこではコンピューティングシステムは、視覚的注意トラッキングを実行するための手段と、自動音声認識を実行するための手段と、視覚的注意トラッキングを実行するための手段と自動音声認識を実行するための手段とに基づいてページのグラフィカルレイアウトを修正するための手段と、を備えている。
[0085] 次に図9を参照すると、本明細書において開示されるシステムおよび方法に従って、使用され得る例示のコンピューティングデバイス900の高レベル説明図が、示されている。例えば、コンピューティングデバイス900は、視覚的注意トラッキングをサポートするシステムの中で使用されることもある。別の例として、コンピューティングデバイス900は、ASRをサポートするシステムの中で使用される可能性がある。コンピューティングデバイス900は、メモリ904に記憶される命令を実行する少なくとも1つのプロセッサ902を含んでいる。命令は、例えば、上記で考察される1つまたは複数のコンポーネントによって実行されるように説明される機能を実装するための命令、あるいは上記で説明される1つまたは複数の方法を実装するための命令とすることができる。プロセッサ902は、システムバス906を経由してメモリ904にアクセスすることができる。実行可能な命令を記憶することに加えて、メモリ904はまた、視覚的コンテンツ、口頭による発話などを記憶することもできる。
[0086] コンピューティングデバイス900は、システムバス906を経由してプロセッサ902によってアクセス可能であるデータストア908をさらに含んでいる。データストア908は、実行可能な命令、視覚的コンテンツ、口頭による発話などを含むことができる。コンピューティングデバイス900はまた、外部デバイスが、コンピューティングデバイス900と通信することを可能にする入力インターフェース910を含んでいる。例えば、入力インターフェース910を使用して、外部コンピュータデバイスから、ユーザなどから命令を受信することができる。コンピューティングデバイス900はまた、コンピューティングデバイス900を1つまたは複数の外部デバイスとインターフェースさせる出力インターフェース912を含んでいる。例えば、コンピューティングデバイス900は、出力インターフェース912を経由してテキスト、画像などを表示することができる。
[0087] 入力インターフェース910および出力インターフェース912を経由してコンピューティングデバイス900と通信する外部デバイスは、ユーザが対話することができる実質的に任意のタイプのユーザインターフェースを提供する環境の中に含められ得ることが、企図される。ユーザインターフェースタイプの例は、グラフィカルユーザインターフェースと、自然のユーザインターフェースなどとを含む。例えば、グラフィカルユーザインターフェースは、キーボード、マウス、リモートコントロールなど、ユーザが使用する入力デバイス(単数または複数)から入力を受け入れ、またディスプレイなどの出力デバイスの上に出力を提供することができる。さらに、自然のユーザインターフェースは、ユーザが、キーボード、マウス、リモートコントロールなどの入力デバイスによって課される制約条件から自由なやり方で、コンピューティングデバイス900と対話することを可能にすることができる。もっと正確に言えば、自然のユーザインターフェースは、音声認識、タッチ認識およびスタイラス認識、スクリーン上と、スクリーンに対する隣接との両方のジェスチャ認識、エアジェスチャ、頭部および目の追跡、声および音声、ビジョン、タッチ、ジェスチャ、マシンインテリジェンスなどを利用することができる。
[0088] さらに、単一のシステムとして示されるが、コンピューティングデバイス900は、分散型システムとすることもできることを理解すべきである。このようにして、例えば、いくつかのデバイスは、ネットワーク接続を経由して通信することができ、またコンピューティングデバイス900によって実行されるように説明されるタスクを一括して実行することができる。
[0089] 本明細書において説明される様々な機能は、ハードウェア、ソフトウェア、またはその任意の組合せの形で実施される可能性がある。ソフトウェアの形で実施される場合、それらの機能は、コンピュータ読取り可能媒体の上に1つまたは複数の命令またはコードとして、記憶され、またはコンピュータ読取り可能媒体の上で1つまたは複数の命令またはコードとして、送信される可能性がある。コンピュータ読取り可能媒体は、コンピュータ読取り可能ストレージ媒体を含んでいる。コンピュータ読取り可能ストレージ媒体は、コンピュータによってアクセスされ得る任意の使用可能なストレージ媒体とすることができる。例として、また限定するものではないが、そのようなコンピュータ読取り可能ストレージ媒体は、RAM、ROM、EEPROM、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、あるいは命令もしくはデータ構造の形態で望ましいプログラムコードを搬送し、または記憶するために使用される可能性があり、またコンピュータによってアクセスされる可能性がある任意の他の媒体を備えることができる。ディスク(disk)およびディスク(disc)は、本明細書において使用されるように、コンパクトディスク(CD: compact disc)と、レーザディスク(laser disc)と、光ディスク(optical disc)と、デジタル多用途ディスク(DVD: digital versatile disc)と、フロッピーディスク(floppy disk)と、ブルーレイディスク(BD: Blue-ray disc)とを含んでおり、ここでディスク(disk)は、通常、磁気的にデータを再生し、またディスク(disc)は、通常、レーザを用いて光学的にデータを再生する。さらに、伝搬された信号は、コンピュータ読取り可能ストレージ媒体の範囲内に含まれてはいない。コンピュータ読取り可能媒体はまた、1つの場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含んでいる。接続は、例えば、通信媒体とすることができる。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL: digital subscriber line)、または赤外線、無線、マイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、そのときには同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、マイクロ波などのワイヤレス技術は、通信媒体の定義の中に含められる。上記の組合せもまた、コンピュータ読取り可能媒体の範囲内に含められるべきである。
[0090] 代わりに、または追加して、本明細書において説明される機能は、1つまたは複数のハードウェアロジックコンポーネントにより、少なくとも部分的に実行される可能性がある。例えば、また限定することなく、使用され得る例証的なタイプのロジックコンポーネントは、フィールドプログラマブルゲートアレイ(FPGA: Field-programmable Gate Arrays)、プログラム特定集積回路(ASIC: Program-specific Integrated Circuit)、プログラム特定標準製品(ASSP: Program-specific Standard Product)、システムオンチップシステム(SOC: System-on-a-chip system)、複合プログラマブルロジックデバイス(CPLD: Complex Programmable Logic Device)などを含む。
[0091] 上記で説明されたものは、1つまたは複数の実施形態の例を含んでいる。もちろん、上述された態様を説明する目的のために、上記のデバイスまたは方法のあらゆる考えることができる修正形態および変更形態を説明することは、可能ではないが、当業者なら、様々な態様の多数のさらなる修正形態および置換形態が可能であることを認識することができる。それに応じて、説明された態様は、添付の特許請求の範囲の精神および範囲内に含まれる、すべてのそのような変更形態と、修正形態と、変形形態とを包含することを意図している。さらに、用語「含む」が、詳細な説明または特許請求の範囲のいずれかにおいて使用される程度まで、そのような用語は、用語「備えている/含んでいる」が、請求項における移行ワードとして、使用されるときに解釈されるので、用語「備えている/含んでいる」と同様なやり方で包含的であることを意図している。

Claims (14)

  1. コンピューティングデバイスによって実行される方法であって、
    ディスプレイの上に提示するために視覚的コンテンツを受信するステップであって、前記視覚的コンテンツは、第1のレイアウトを有しており、前記第1のレイアウトは、その間に第1の距離を有する要素と、第2の要素とを含んでいる、ステップと、
    前記視覚的コンテンツが、前記ディスプレイの上に提示されるようにさせるステップに先立って、
    前記コンピューティングデバイスが自動音声認識(ASR)をサポートすること、
    前記コンピューティングデバイスが視覚的注意の監視をサポートすること、および
    前記要素と前記第2の要素との間の音響学的類似性を示す値を計算すること
    に基づいて、前記第1のレイアウトとは異なる第2のレイアウトを有する新しい視覚的コンテンツを生成するように前記視覚的コンテンツを修正するステップであって、前記第2のレイアウトは、その間に第2の距離を有する前記要素と、前記第2の要素とを含んでいる、ステップと、
    前記視覚的コンテンツを修正するステップに応じて、前記新しい視覚的コンテンツが、前記ディスプレイの上に提示されるようにさせるステップ
    含む方法。
  2. 視聴者が前記新しい視覚的コンテンツの要素を見ていることを推定するステップと、
    前記視聴者が前記新しい視覚的コンテンツの要素を見ていることを推定することに応じて、前記新しい視覚的コンテンツの前記要素に視覚的インジケータを割り当てるステップと
    さらに含む、請求項1に記載の方法。
  3. 記新しい視覚的コンテンツを生成するように前記視覚的コンテンツを修正するステップは、前記第2のレイアウトにおいて、前記第2の距離が、前記第2の要素から前記要素を分離するように、前記要素と、前記第2の要素との間の距離を変更するステップを含む、請求項に記載の方法。
  4. 前記要素は、第1のワードまたはワードシーケンスを含んでおり、前記第2の要素は、第2のワードまたはワードシーケンスを含んでおり、
    前記要素と前記第2の要素との間の音響学的類似性を示す値を計算することは、前記第1のワードまたはワードシーケンスと、前記第2のワードまたはワードシーケンスとの間の音響学的類似性を示値を計算することを含む、請求項に記載の方法。
  5. 前記視聴者によって見られていると推定される要素に基づいて、ASRシステムをカスタマイズするステップ
    をさらに含む、請求項に記載の方法。
  6. 前記新しい視覚的コンテンツの前記要素に前記視覚的インジケータを割り当てることに続いて、前記視聴者が前記新しい視覚的コンテンツの第2の要素を見ていることを推定するステップと、
    前記視聴者が前記第2の要素を見ていることを推定することに応じて、前記第2の要素に前記視覚的インジケータを割り当てて、前記要素から前記視覚的インジケータを取り除くステップと
    をさらに含む、請求項に記載の方法。
  7. 前記視覚的インジケータは強調表示である、請求項6に記載の方法。
  8. 前記視覚的コンテンツは、第1のフォーム入力可能フィールドと、第2のフォーム入力可能フィールドとを含んでおり、また前記新しい視覚的コンテンツを生成するように前記視覚的コンテンツを修正するステップは、前記第1のフォーム入力可能フィールドが、前記第2のフォーム入力可能フィールドからさらに遠くに位置づけられるように、前記第1のフォーム入力可能フィールドまたは前記第2のフォーム入力可能フィールドのうちの少なくとも一方を位置づけ直すステップを含む、請求項1に記載の方法。
  9. 少なくとも1つのプロセッサと、
    命令を記憶するメモリとを備えているコンピューティングデバイスであって、
    前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくともも1つのプロセッサに、
    ディスプレイの上に提示されるべき視覚的コンテンツを受信するステップであって、視覚的コンテンツは、第1のレイアウトを有しており、前記第1のレイアウトは、互いに対して第1の位置にある第1の要素と第2の要素とを含む、ステップと
    前記視覚的コンテンツが前記ディスプレイの上で提示されることに先立って、前記ディスプレイに対して追跡されている視覚的注意および前記第1の要素と前記第2の要素との間の音響学的類似性を示す値に基づいて、前記視覚的コンテンツが修正されるときに、前記第1のレイアウトとは異なる第2のレイアウトを有するように前記視覚的コンテンツを修正するステップであって、前記第2のレイアウトは、互いに対して第2の位置にある第1の要素と第2の要素とを含む、ステップと、
    前記ディスプレイの上で提示するために前記第2のレイアウトを用いて前記視覚的コンテンツをレンダリングするステップと
    を含む動作を実行させる、コンピューティングデバイス。
  10. 前記動作は、
    カメラから画像を受信するステップであって、前記画像は前記ディスプレイを見ているユーザを取り込む、ステップと、
    前記画像に基づいて、前記ユーザの注視方向を識別するステップと、
    前記注視方向に基づいて、前記ユーザによって見られている第1の要素を推定するステップと、
    前記第1の要素が前記ユーザによって見られているように推定されることを示すグラフィカルデータが、前記ディスプレイの上に提示されるようにさせるステップと
    をさらに含む、請求項9に記載のコンピューティングデバイス。
  11. 前記第1の要素は、フォーム入力可能フィールドであり、前記グラフィカルデータは、前記フォーム入力可能フィールドの強調表示である、請求項10に記載のコンピューティングデバイス。
  12. 前記動作は、
    カメラから画像を受信するステップであって、前記画像は前記ディスプレイを見ているユーザを取り込む、ステップと、
    前記画像に基づいて、前記ユーザの注視方向を識別するステップと、
    前記注視方向に基づいて、前記ユーザによって見られている第1の要素を推定するステップと、
    前記ユーザによって示される口頭による発話を含むオーディオ信号を受信するステップと、
    自動音声認識(ASR)システムが、前記ユーザによって見られているように推定される前記第1の要素に基づいて、前記オーディオ信号の前記口頭による発話を認識するステップと
    をさらに含む、請求項9に記載のコンピューティングデバイス。
  13. 前記動作は、前記ユーザによって見られているように推定される前記第1の要素に基づいて、前記ASRシステムをカスタマイズするステップをさらに含む、請求項12に記載のコンピューティングデバイス。
  14. 前記視覚的コンテンツは、前記ディスプレイの上に表示されることになるウェブページの中に含まれる、請求項9に記載のコンピューティングデバイス。
JP2016567801A 2014-06-06 2015-06-03 改善された音声認識を容易にする視覚的コンテンツの修正 Active JP6545716B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/297,742 2014-06-06
US14/297,742 US9583105B2 (en) 2014-06-06 2014-06-06 Modification of visual content to facilitate improved speech recognition
PCT/US2015/033865 WO2015187756A2 (en) 2014-06-06 2015-06-03 Modification of visual content to facilitate improved speech recognition

Publications (3)

Publication Number Publication Date
JP2017525002A JP2017525002A (ja) 2017-08-31
JP2017525002A5 JP2017525002A5 (ja) 2018-06-14
JP6545716B2 true JP6545716B2 (ja) 2019-07-17

Family

ID=54540159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567801A Active JP6545716B2 (ja) 2014-06-06 2015-06-03 改善された音声認識を容易にする視覚的コンテンツの修正

Country Status (11)

Country Link
US (1) US9583105B2 (ja)
EP (1) EP3152754B1 (ja)
JP (1) JP6545716B2 (ja)
KR (1) KR102393147B1 (ja)
CN (1) CN106463119B (ja)
AU (1) AU2015271726B2 (ja)
BR (1) BR112016026904B1 (ja)
CA (1) CA2948523C (ja)
MX (1) MX361307B (ja)
RU (1) RU2684475C2 (ja)
WO (1) WO2015187756A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9613267B2 (en) * 2012-05-31 2017-04-04 Xerox Corporation Method and system of extracting label:value data from a document
KR102342117B1 (ko) * 2015-03-13 2021-12-21 엘지전자 주식회사 단말기, 및 이를 구비하는 홈 어플라이언스 시스템
KR101904889B1 (ko) 2016-04-21 2018-10-05 주식회사 비주얼캠프 표시 장치와 이를 이용한 입력 처리 방법 및 시스템
WO2017183943A1 (ko) * 2016-04-21 2017-10-26 주식회사 비주얼캠프 표시 장치와 이를 이용한 입력 처리 방법 및 시스템
SG11201908535XA (en) * 2017-03-17 2019-10-30 Uilicious Private Ltd Systems, methods and computer readable media for ambiguity resolution in instruction statement interpretation
US10142686B2 (en) * 2017-03-30 2018-11-27 Rovi Guides, Inc. System and methods for disambiguating an ambiguous entity in a search query based on the gaze of a user
CN109445757B (zh) * 2018-09-21 2022-07-29 深圳变设龙信息科技有限公司 新设计图生成方法、装置及终端设备
JP7414231B2 (ja) 2019-07-11 2024-01-16 中部電力株式会社 マルチモーダル音声認識装置およびマルチモーダル音声認識方法
KR20210133600A (ko) * 2020-04-29 2021-11-08 현대자동차주식회사 차량 음성 인식 방법 및 장치

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3530591B2 (ja) * 1994-09-14 2004-05-24 キヤノン株式会社 音声認識装置及びこれを用いた情報処理装置とそれらの方法
US6629074B1 (en) * 1997-08-14 2003-09-30 International Business Machines Corporation Resource utilization indication and commit mechanism in a data processing system and method therefor
US7720682B2 (en) 1998-12-04 2010-05-18 Tegic Communications, Inc. Method and apparatus utilizing voice input to resolve ambiguous manually entered text input
DE50104533D1 (de) 2000-01-27 2004-12-23 Siemens Ag System und verfahren zur blickfokussierten sprachverarbeitung
US6741791B1 (en) * 2000-01-31 2004-05-25 Intel Corporation Using speech to select a position in a program
US7036080B1 (en) 2001-11-30 2006-04-25 Sap Labs, Inc. Method and apparatus for implementing a speech interface for a GUI
US20050182558A1 (en) * 2002-04-12 2005-08-18 Mitsubishi Denki Kabushiki Kaisha Car navigation system and speech recognizing device therefor
US7158779B2 (en) * 2003-11-11 2007-01-02 Microsoft Corporation Sequential multimodal input
CN102272827B (zh) * 2005-06-01 2013-07-10 泰吉克通讯股份有限公司 利用语音输入解决模糊的手工输入文本输入的方法和装置
US7627819B2 (en) * 2005-11-01 2009-12-01 At&T Intellectual Property I, L.P. Visual screen indicator
JP4399607B2 (ja) * 2006-02-13 2010-01-20 国立大学法人埼玉大学 視線制御表示装置と表示方法
BRPI0708456A2 (pt) * 2006-03-03 2011-05-31 Koninkl Philips Electronics Nv método para prover um sumário de diversas imagens, dispositivo adaptado para gerar um sumário de diversas imagens, sistema, código de programa executável por computador, e, portador de dados
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US20080141166A1 (en) * 2006-12-11 2008-06-12 Cisco Technology, Inc. Using images in alternative navigation
US7983915B2 (en) * 2007-04-30 2011-07-19 Sonic Foundry, Inc. Audio content search engine
JP5230120B2 (ja) * 2007-05-07 2013-07-10 任天堂株式会社 情報処理システム、情報処理プログラム
US20130125051A1 (en) * 2007-09-28 2013-05-16 Adobe Systems Incorporated Historical review using manipulable visual indicators
US8386260B2 (en) * 2007-12-31 2013-02-26 Motorola Mobility Llc Methods and apparatus for implementing distributed multi-modal applications
US8438485B2 (en) * 2009-03-17 2013-05-07 Unews, Llc System, method, and apparatus for generating, customizing, distributing, and presenting an interactive audio publication
US9197736B2 (en) 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
JP2012022589A (ja) * 2010-07-16 2012-02-02 Hitachi Ltd 商品選択支援方法
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9423870B2 (en) 2012-05-08 2016-08-23 Google Inc. Input determination method
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
KR102156175B1 (ko) * 2012-10-09 2020-09-15 삼성전자주식회사 멀티 모달리티를 활용한 유저 인터페이스를 제공하는 인터페이싱 장치 및 그 장치를 이용한 방법

Also Published As

Publication number Publication date
WO2015187756A3 (en) 2016-01-28
JP2017525002A (ja) 2017-08-31
EP3152754B1 (en) 2018-01-10
RU2684475C2 (ru) 2019-04-09
MX361307B (es) 2018-12-03
AU2015271726B2 (en) 2020-04-09
RU2016147071A3 (ja) 2018-12-29
AU2015271726A1 (en) 2016-11-17
KR20170016399A (ko) 2017-02-13
CA2948523C (en) 2021-12-07
KR102393147B1 (ko) 2022-04-29
WO2015187756A2 (en) 2015-12-10
CA2948523A1 (en) 2015-12-10
RU2016147071A (ru) 2018-06-01
US20150356971A1 (en) 2015-12-10
BR112016026904A2 (pt) 2017-08-15
US9583105B2 (en) 2017-02-28
BR112016026904A8 (pt) 2021-07-13
EP3152754A2 (en) 2017-04-12
MX2016016131A (es) 2017-03-08
CN106463119B (zh) 2020-07-10
CN106463119A (zh) 2017-02-22
BR112016026904B1 (pt) 2023-03-14

Similar Documents

Publication Publication Date Title
JP6545716B2 (ja) 改善された音声認識を容易にする視覚的コンテンツの修正
US11862151B2 (en) Low-latency intelligent automated assistant
EP3404653B1 (en) Methods and systems for phonetic matching in digital assistant services
US10255907B2 (en) Automatic accent detection using acoustic models
EP4078528A1 (en) Using text for avatar animation
US20170358301A1 (en) Digital assistant providing whispered speech
US20160093298A1 (en) Caching apparatus for serving phonetic pronunciations
EP3480811A1 (en) Multi-command single utterance input method
JP2017536600A (ja) 複数モードでの会話的対話における話された言語の理解のための凝視
EP3596728B1 (en) Low-latency intelligent automated assistant
WO2019087811A1 (ja) 情報処理装置、及び情報処理方法
US20200301659A1 (en) Graphical interface for speech-enabled processing
KR20150144031A (ko) 음성 인식을 이용하는 사용자 인터페이스 제공 방법 및 사용자 인터페이스 제공 장치
JP2020003926A (ja) 対話システムの制御方法、対話システム及びプログラム
EP4022424A1 (en) Rehearsal-based presentation assistance
JPWO2020116001A1 (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6545716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250