JP6125088B2 - 複数のデバイス上でコンテンツを提供すること - Google Patents

複数のデバイス上でコンテンツを提供すること Download PDF

Info

Publication number
JP6125088B2
JP6125088B2 JP2016502105A JP2016502105A JP6125088B2 JP 6125088 B2 JP6125088 B2 JP 6125088B2 JP 2016502105 A JP2016502105 A JP 2016502105A JP 2016502105 A JP2016502105 A JP 2016502105A JP 6125088 B2 JP6125088 B2 JP 6125088B2
Authority
JP
Japan
Prior art keywords
content
output
user
voice command
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016502105A
Other languages
English (en)
Other versions
JP2016519805A (ja
Inventor
マイケル ハート グレゴリー
マイケル ハート グレゴリー
イアン ブランクスティーン スコット
イアン ブランクスティーン スコット
ダニエル ティムセン ジョン
ダニエル ティムセン ジョン
ティモシー リンジー アラン
ティモシー リンジー アラン
デイビッド オーウェン ロバート
デイビッド オーウェン ロバート
ピーター ホッペ チャールズ
ピーター ホッペ チャールズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2016519805A publication Critical patent/JP2016519805A/ja
Application granted granted Critical
Publication of JP6125088B2 publication Critical patent/JP6125088B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)

Description

デスクトップ、タブレット、エンターテイメントシステム、携帯通信装置等のコンピューティングデバイスの普及に伴い、多くの家庭ではこれらのデバイスが配線され、接続されている。コンピューティングデバイスが発達するにつれ、ユーザーがそれらのデバイスと交信する多くの異なる方法、例えば、機械的手段(例えば、キーボード、マウス)、タッチスクリーン、身ぶり及びジェスチャーを介するもの等が導入されている。コンピューティングデバイスと交信する別の方法は、ユーザーがデバイスに話しかけ、それに対してデバイスが可聴信号(オーディオ)をユーザーに出力することである。しかしながら、いくつかの例では、特定のコンテンツが、オーディオ単独以外の形態で、最も良く出力される。
(関連出願)
本出願は、「複数のデバイス上でコンテンツを提供すること(Providing Content on Multiple Devices)」という名称で、2013年3月14日に出願された、米国特許出願第13/829,156号の優先権を主張するものであり、その全体は参照によって本願に組み込まれる。
詳細な説明は、添付の図面を参照して説明される。図面では、参照番号の左端の数字(複数可)は、参照番号が最初に現れる図面を特定する。異なる図面で同じ参照番号を使用することにより、類似または同一の構成要素または特徴を示す。
家庭環境内に設定された例示的な音声対話コンピューティングアーキテクチャを示す。アーキテクチャは、デバイスに音声コマンドを提供することができるユーザーと共に、物理的に家庭に位置付けられた音声制御デバイスを含む。また、デバイスは可聴出力をユーザーに返すことができ、環境内の別のデバイスにユーザー用の視覚コンテンツを出力するよう指示することができる。 第1の音声コマンドを受信し、それに応答して第1のデバイス上でオーディオコンテンツを出力し、視覚コンテンツの受信を要求する第2の音声コマンドを受信し、及び第2の音声コマンドに応答して第2のデバイス上で視覚コンテンツを出力するための、例示的なプロセスの流れ図を示す。 図1の音声制御デバイスがオーディオ(聴覚)コンテンツを出力し、ディスプレイ機能を有する別のデバイスに視覚コンテンツを出力するよう命令するそれぞれの方法を示す。 図1の音声制御デバイスがオーディオ(聴覚)コンテンツを出力し、ディスプレイ機能を有する別のデバイスに視覚コンテンツを出力するよう命令するそれぞれの方法を示す。 図1の音声制御デバイスがオーディオ(聴覚)コンテンツを出力し、ディスプレイ機能を有する別のデバイスに視覚コンテンツを出力するよう命令するそれぞれの方法を示す。 ディスプレイ機能を有するデバイスが、図3A〜Cのユーザーに、デバイスはユーザー視聴用の視覚コンテンツを有することを示し得る、3つの例示的な方法を示す。 可聴信号を受信し、そこでの発話を特定し、それに応答して、第1のデバイスに第1のコンテンツを出力させ、第2のデバイスに第2のコンテンツを出力させるための、例示的なプロセスの流れ図を示す。 第1のデバイス上で可聴的にコンテンツを出力し、ディスプレイ能力を有するデバイスにコンテンツの出力を移行することを要求する音声コマンドの特定に応答して、第2のデバイス上でコンテンツを視覚的に出力するための、例示的なプロセスの流れ図を示す。 第1のデバイスで音声コマンドを受信し、第1のデバイスで可聴コンテンツを出力し、第1のデバイスで第2の音声コマンドを受信し、それに応答して、第2のデバイス上に記憶されているアプリケーションに、第1の音声コマンドと関連付けられた視覚コンテンツを表示するよう命令するための、例示的なプロセスの流れ図を示す。 図1の音声制御デバイスで実装される選択された機能的な構成要素のブロック図を示す。
本開示の一部は、ユーザーから音声コマンドを受信し、それに応答して、第1のテバイスを使用して可聴コンテンツをユーザーに提供し、第2のデバイスを使用して視覚コンテンツをユーザーに提供するための技術を記載する。いくつかの例では、第1のテバイスは、ユーザーの発話を含む可聴信号を生成するためのマイク、ならびに発話中に特定された音声コマンドに応答して可聴コンテンツを出力するためのスピーカーを含む。しかしながら、第1のテバイスはグラフィックコンテンツを表示するためのディスプレイを含まなくてもよい。このように、第1のテバイスは、ディスプレイを含み及び第1のテバイスに最も近いデバイスを特定するように構成され得る。第1のデバイスは、1つ以上のそれらの他のデバイスに、ユーザーの音声コマンドと関連付けられた視覚コンテンツを出力するよう命令することができる。
例えば、ユーザーが以下の音声コマンドを第1のデバイスに提供し、第1のデバイスがその音声コマンドを解読すると想定する:「ベンジャミンフランクリンとは誰ですか?」。それに応答して、第1のデバイスはベンジャミンフランクリンについてのコンテンツ、例えば、ベンジャミンフランクリンが何で有名であるかについての要約等を得ることができる。その上、第1のデバイスまたは別の媒介デバイスは、近傍の第2のデバイスに、ベンジャミンフランクリンに関する追加の情報、例えば、ベンジャミンフランクリンの生涯についての詳細を特定するウェブページを表示するよう、命令することができる。第1のデバイスは、ユーザーの最初の音声コマンドに応答して、またはユーザが発生させる引き続く音声コマンド(例えば、「この情報を私のタブレットに移動させて下さい」)に応答して、この命令を提供することができる。一実施例では、第1のデバイスは、ディスプレイ機能を備えたデバイスであって、音声コマンドを発生させるユーザーと関連付けられており、第1のデバイス及びユーザーと同じ環境内に存在する1つ以上のデバイスを(命令の対象として)特定することができる。第1のデバイスは、例えば、ユーザーの電話、ユーザーのタブレットまたはノート型パソコン、ユーザーのデスクトップコンピュータ、ユーザーの電子ブックリーダーデバイス、または他の任意のクライアントコンピューティングデバイスに対して、ベンジャミンフランクリンに関する視覚コンテンツを表示するよう命令することができる。
いくつかの例では、第1のデバイスは、ユーザーが音声コマンドを発生させた直後に、この命令を自動的に提供することができる。例えば、第1のデバイスは、第1のデバイスが可聴コンテンツを出力する前、後にまたは出力中に、ユーザーのタブレットコンピューティングデバイスに、ベンジャミンフランクリンに関する詳細を表示するよう、単に命令することができる。他の例では、ユーザーからの追加声コマンドの受信に応答して、デバイスはこの命令を提供することができる。例えば、ベンジャミンフランクリンの要約の出力が終了した後、第1のデバイスは可聴的に以下の質問を出力することができる:「あなたのタブレットで追加の情報をご覧になりたいですか?」。ユーザーが肯定的に応答する場合、デバイスは第2のデバイスに、追加のコンテンツを表示するような命令を提供することができる。別の実施例では、第1のデバイスが可聴コンテンツを出力する前、出力中、または後に、ユーザーは単に要求を発生させることができる。例えば、ユーザーは以下のように述べることができる:「この情報を私のタブレットに移動させて下さい。」。
加えて、第2のテバイスは、多くの方法で、この情報を表示することができる。いくつかの例では、第2のデバイスは、第1のデバイスと交信するように明確に構成されたアプリケーション(例えば、コンパニオン(companion:連携)アプリケーション)を記憶する。したがって、このコンパニオンアプリケーションはこれらのタイプの命令を受信し、ユーザーのコマンドと関連付けられた適切な情報を表示するよう構成される。例えば、このアプリケーションは、ベンジャミンフランクリンについての情報を含むウェブサイト、アプリケーション、または他の目的地に導く1つ以上のリンクを表示することができる。付加的にまたは代替として、このアプリケーションはこの情報、例えば、ベンジャミンフランクリンについての詳細な情報を、直接取り込んで表示することができる。
いくつかの例では、前述のアプリケーションは、第1のデバイスまたは別のデバイスによって解読された音声コマンドの1つ以上の解釈を表示することができる。それによって、ユーザーは音声コマンドを修正することができ、ユーザーからの発話を含む後続の音声信号の発話認識に使用される発話認識モデルの訓練を補助することができる。また、ユーザーは選択することもでき、これは音声コマンドが正しく解釈されたことの確認となる。アプリケーションが1つまたは複数の音声コマンドの解釈を表示する例では、アプリケーションはまた、それぞれの解釈と関連付けられたそれぞれの検索結果を表示することもできる。検索結果は、ウェブリンク、デバイス上にローカルに記憶されたコンテンツまたはアプリケーションへのリンク、画像、ビデオなどを含むことができる。
第2のデバイスが第1のデバイスと交信するよう明確に構成されたアプリケーションを記憶しているか否かに関わらず、また、第2のデバイスが情報を表示するためにブラウザーや他のコンテキスト固有のアプリケーションを使用しているか否かに関わらず、ユーザーは複数の方法でこの情報にアクセスすることができる。いくつかの実装形態では、第1のデバイスからの命令を受信した直後に、第2のデバイスは起動し、直接情報を表示させる(または、第2のデバイスが既に起動している場合、単に情報を表示させる)。他の例では、第2のデバイスは、ユーザーの音声コマンドと関連付けられたコンテンツ(例えば、ベンジャミンフランクリンに関する詳細)を、第2のデバイスの「ロックスクリーン」上で、表示することができる。その後、ユーザーがデバイスを解除するとき、第2のデバイスは、対象に関するさらに多くの詳細を(例えば、上記のアプリケーション上で、ベンジャミンフランクリンに関するウェブページ上で等)、表示することができる。別の実施例では、第2のデバイスは、デバイスの通知領域または通知トレイに通知を単に表示することができる。例えば、第2のデバイスは、その通知を、デバイスがテキストメッセージ、電子メール、電話コール、ボイスメール等を受信するときに表示される通知と一緒に表示することができる。その後、第2のデバイスは、通知領域から通知をユーザーが選択した直後に、視覚的な情報の全てを表示することができる。
上記の実施例は、可聴コンテンツの出力から視覚コンテンツの出力への移行について記載するが、本明細書中に記載の技術によって、視覚コンテンツの表示から可聴コンテンツの出力への移行、第1のデバイス上での視覚コンテンツの表示から第2のデバイス上の視覚コンテンツの表示への移行、または第1のデバイス上での可聴コンテンツの出力から第2のデバイス上での可聴コンテンツの出力への移行も可能である。それらの例では、ユーザーは、音声コマンド、物理的またはソフトボタンの有効化、ジェスチャー、またはマウスクリック等を介して、移行を開始することができる。
上記実施例では、ユーザーが、ユーザーと関連付けられた1つのデバイスから同じユーザーの別のデバイスにコンテンツを移行することが記載されているが、加えて、他の実施例では、ユーザーは、別のユーザーと関連付けられたデバイスに、コンテンツを移行することができる。例えば、第1のユーザーは、第1のデバイスを介して、新聞の記事を視聴していると想定する。第1のユーザーは、例えば、音声コマンドを介して、記事を第2のユーザーと関連付けられたデバイスに移行することによって、記事の共有を要求できる。本技術は、コンテンツまたはコンテンツにアクセスするため通知を第2のユーザーのデバイスに提供することができ、それによって、第2のユーザーがコンテンツの表示あるいは出力を要求した場合に、それらを行うことができる。
上記及び下記に記載されるデバイス及び技術は、異なるアーキテクチャと様々な状況において実装することができる。一つの非限定的例示の実装例について以下に記載する。本技術は音声制御デバイスを参照して記載されるが、これらの技術は、音声をキャプチャすることができる他の任意のタイプのクライアントコンピューティングデバイスに適用可能であることを明確に理解されたい。
図1は、ユーザー104を含む家庭環境102内に設置された、例示的な音声対話コンピューティングアーキテクチャ100を示す。また、このアーキテクチャ100は、ユーザー104が交信可能な電子音声制御デバイス106も含む。例示された実装例では、音声制御デバイス106を、家庭環境102の部屋内のテーブル上に配置する。他の実装例では、それを多くの位置(例えば、天井、壁、照明器具内、テーブルの真下、椅子の下等)に配置または設置することができる。さらに、単一の部屋に2つ以上のデバイス106を配置することができる、または、ユーザーが複数の部屋から交信するのに対応するために、1つのデバイスを使用することができる。
一般に、音声制御デバイス106は、少なくとも1つのマイクロフォン108を有するマイクロフォンユニットと、少なくとも1つのスピーカー110を有するスピーカーユニットと、を含み、ユーザー104及び/または他のユーザーとのオーディオ交信を容易にする。いくつかの例では、音声制御デバイス106を、触覚入力構成要素(例えば、キーボード、キーパッド、タッチスクリーン、ジョイスティック、コントロールボタン等)またはディスプレイなしで実装する。特定の実装例では、1つ以上の触覚入力構成要素のうちの限定した1組を採用することができる(例えば、構成設定を開始する、電源をオン/オフにする等の専用ボタン)。それにも関わらず、ユーザーが電子デバイス106と交信する主要な潜在的な唯一のモードは、音声入力及び可聴出力を介するものである。音声制御デバイス106の一例示的な実装例が、図8を参照して、以下により詳細に提供される。
音声制御デバイス106のマイクロフォン(複数可)108は、環境102からの可聴信号、例えば、ユーザー104から発せられた音を検出し、対応するオーディオ信号を生成する。図示のように、音声制御デバイス106は、プロセッサ112と、発話認識エンジン116を記憶する、さもなければそれにアクセスするメモリ114と、を含む。本明細書で使用されるように、プロセッサは、複数のプロセッサ及び/または複数のコアを有するプロセッサを含むことができる。発話認識エンジン116は、環境102内の音、例えば、ユーザー104が発した発語等に基づいて、マイク(複数可)によって生成された信号上で音声認識を実行する。例えば、エンジン116は、ユーザーの発話(すなわち、音声コマンド)と非音声コマンド(例えば、ユーザーの拍手、テーブルを叩く音等)のいずれも特定することができる。音声制御デバイス106は、この音声、例えば、ユーザー104の発話の認識に応答して、特定のアクションを実行することができる。例えば、デバイス106と交信するとき、ユーザーは所定のコマンド(例えば、「起動」、「スリープ」等)を伝えることができる、またはカジュアルな会話スタイルを使用することができる(例えば、「私は映画に行きたい。地元の映画館で何が上映されているかを教えて下さい。」)。
いくつかの例では、音声制御デバイス106は、環境102から離れたコンピューティングリソース118と連携して動作することができる、または、さもなければ、それを利用することができる。例えば、音声制御デバイス106は、ネットワーク120を介して、リモートコンピューティングリソース118に接続することができる。図示のように、リモートコンピューティングリソース118は、1つ以上のサーバー122(1)、122(2)・・・、122(P)として実装されることができ、いくつかの例では、プロセッサ、ストレージ、ソフトウェア、データアクセス等の、インターネット等のネットワークを介して維持され、アクセス可能なコンピューティングインフラストラクチャーとして実装されたネットワークアクセス可能なコンピューティングプラットフォームの一部を形成することができる。リモートコンピューティングリソース118では、エンドユーザーがサービスを提供するシステムの物理的位置及び構成について知識を得る必要がない。これらのリモートコンピューティングリソース118と関連付けられた一般的な表現には、「オンデマンドコンピューティング」、「サービスとしてのソフトウェア(SaaS)」、「プラットフォームコンピューティング」、「ネットワークアクセス可能なプラットフォーム」、「クラウドサービス」、「データセンター」等が含まれる。
サーバー122(1)〜(P)には、音声制御デバイス106のメモリ114を参照して説明した構成要素のいくつかまたは全てを記憶することができる、または、さもなければ、それらにアクセスすることができるプロセッサ124及びメモリ126が含まれる。いくつかの例では、メモリ126は、オーディオ信号をデバイス106から受信して、オーディオ(例えば、発話)を認識し、応答して潜在的にアクションを実行させるための別の発話認識エンジン128にアクセスする、またはそれを利用する。いくつかの実施例では、リモートコンピューティングリソース118の計算能力が音声制御デバイス106の計算能力をはるかに超えることを考慮して、音声制御デバイス106は、音声データを、処理用リモートコンピューティングリソース118にアップロードすることができる。したがって、音声制御デバイス106は、環境102からキャプチャされたオーディオ信号に対して比較的複雑な分析を実行するためにリモートコンピューティングリソース118の発話認識エンジン128を利用することができる。一例では、発話認識エンジン116は、比較的基本的な音声認識、例えば、デバイスによるオーディオ出力を変更するための非声コマンドの特定、及び、認識されたとき、デバイス106に音声をリモートコンピューティングリソース118に提供させる、所定の音声コマンドの特定等を行う。リモートコンピューティングリソース118の発話認識エンジン128は、これらの受信された音声信号上で発話認識を行い、ユーザー104からの声コマンドを特定することができる。例えば、いくつかの実施例では、エンジン116は単にキーワードスポッターとして機能して1つ以上の所定の発語を特定することができ、エンジン128はデバイス106が生成する音声信号によって示される発話内でワードを特定することができる。これらの実施例では、発話認識エンジン116をデバイス106上に設けることが極めて単純かつ安価であるという前提において、音声制御デバイス106の費用を低減することができる。
発話認識がローカルに発生するか、環境102から離れて発生するかに関わらず、音声制御デバイス106はユーザー104からの声入力を受信することができ、デバイス106及び/またはリソース118は、発話認識を行い、ユーザーの操作要求またはコマンドを解釈することができる。要求は、本質的に操作のタイプのもの、例えば、認証、データベースの質問、エンターテイメントのリクエスト及び購入(例えば、ゲームすること、及び、音楽、映画、または他のコンテンツを検索して再生すること等)、個人情報の管理(例えば、スケジュール調整、メモ取り等)、オンラインショッピング、金融取引等のものであり得る。
有線技術(例えば、ワイヤ、USB、光ファイバーケーブル等)、無線技術(RF、WiFi、携帯電話、衛星、ブルートゥース等)、または他の接続技術によって、音声制御デバイス106はネットワーク120に通信可能に接続することができる。ネットワーク120は、データ及び/または音声ネットワークを含む任意のタイプの通信ネットワークを示し、有線インフラストラクチャー(例えば、ケーブル、CAT5、光ファイバーケーブル等)、無線インフラストラクチャー(例えば、RF、WiFi、携帯電話、マイクロ波、衛星、ブルートゥース等)、及び/または他の接続技術を使用して実装可能である。
図示のように、音声制御デバイス106のメモリ114は、発話認識エンジン116を記憶する、または、さもなければ、それにアクセスし、メディアプレーヤーも含むこともできる。メディアプレーヤーは、任意のタイプのコンテンツを、デバイス106の任意のタイプの出力構成要素上に出力するように機能することができる。例えば、メディアプレーヤーはビデオの音声またはスタンドアロン型の音声を、スピーカー(複数可)110を介して、出力することができる。例えば、ユーザー104は、デバイス106と(例えば、聴覚的に)交信して、メディアプレーヤーに特定の歌または他の音声ファイルを出力するよう命令することができる。逆に、デバイス106は、ユーザーと交信のやり取りを行うとき、メディアプレーヤーを利用して音声をユーザーに再生し返すことできる。
いくつかの例では、上述のように、音声制御デバイスはまた、環境102内で、例えば、図示のデバイス130等の他のデバイスと交信し、デバイス106の能力を補完することができる。例えば、デバイス106は、そのスピーカー(複数可)110を利用して可聴コンテンツを出力することができ、環境内の他のデバイスのディスプレイを利用して、補足的コンテンツを提供することができる。図示のように、デバイス106のメモリ114はまた、コンテンツ移行エンジン132を記憶する、またはそれにアクセスする。コンテンツ移行エンジン132は、環境内の他のデバイス、例えば、デバイス130と交信して、他のデバイスに追加のコンテンツの出力を命令するように機能することができる。図1はデバイス130をタブレットコンピューティングデバイスとして示すが、それらの他のデバイスは、ノート型パソコン、携帯電話、デスクトップパソコン、テレビ等を含み得ることが理解されよう。その上、デバイス106はそれらの他のデバイスを利用して視覚コンテンツを出力することができる一方、デバイスはそれらのデバイスを追加的にまたは代替的に利用して追加の可聴コンテンツを出力することができる。
例示された実施例では、ユーザー104は以下の声コマンドを134(1)で発生させる:「私にベンジャミンフランクリンについて教えて下さい。」デバイス108のマイクロフォン108はこの音声をキャプチャして、対応する音声信号を生成することができる。デバイス106は発話認識をローカルに(例えば、発話認識エンジン116上で)実行するか、この音声信号を、発話認識を(例えば、発話認識エンジン128上で)実行するためのリモートコンピューティングリソース118にアップロードするかの、いずれかを行うことができる。いずれの場合も、ユーザーの発語の解読に応答して、デバイス106はユーザー104に出力するコンテンツを特定する、または受信することができる。
したがって、134(2)では、デバイス106のスピーカー110(複数可)は以下の応答を出力する:「ベンジャミンフランクリンはアメリカ合衆国の建国の父のうちの1人であった。追加の情報をあなたのタブレット上でお読みになりたいですか?」。それに応答して、134(3)では、ユーザー104は以下のように発する:「はい、お願いします」。デバイス106は再度、この発話を含む音声信号を生成し、発話が認識された後、コンテンツ移行エンジン132は別のデバイス、例えば、デバイス130等に、ベンジャミンフランクリンに関する視覚コンテンツを出力するよう命令することができる。
このような動作のために、デバイス106、リモートコンピューティングリソース118、または別のエンティティは、デバイス106及び/またはユーザー104に近接する、表示可能なデバイスを特定することができる。例えば、デバイス106は任意の種類の無線ネットワークまたはプロトコルを使用して、無線で、例えば、WiFi、ブルートゥース、RF信号等を介して通信可能な他のデバイスの存在を検出することができる。デバイス106はそれらのデバイスを直接特定することができる、または、デバイス106と同じ無線アクセスポイント(WAP)に接続するデバイスとして特定することもできる。デバイス106はまた、任意の他の方法で、例えば、全地球測位(GPS)位置データを他のデバイスから受信することによって、カメラを使用してイメージ認識技術を実行することによって、どのデバイスが環境102内に存在するかに関してユーザーに質問することによって及び/または同様のことで、近接するデバイスを特定することもできる。
さらに、デバイス106は、ユーザーに近接するだけではなく、ユーザーに関連付けられるデバイスを特定することができる。いくつかの例では、ユーザーは、彼らのデバイスを、デバイス106にサポートを提供するエンティティに登録することができる。このようにして、デバイス106はこのレジストリを確認し、どのデバイスがユーザー104と関連付けられたかを特定することができる。また、デバイス106は、代替として、他の任意の方法で、例えば、ユーザーに直接質問すること等で、この決定を行うことができる。
本実施例では、デバイス106は、ユーザー104と関連付けられた表示可能なデバイス130を特定することができる。これに応答して、コンテンツ移行エンジン132がコンテンツを読み出してこのコンテンツをデバイス130に提供すること、命令をデバイス130に提供して特定のコンテンツを読み出すこと、またはリモートコンピューティングリソース118がコンテンツまたは命令を提供して、コンテンツデバイス130にコンテンツを読み出すこと、のうちのいずれかが行われ得る。いずれの場合も、図示のように、デバイス130は、「ベンジャミンフランクリン」について学ぶというユーザーの最初の要求と関連付けられたコンテンツを表示することができる。図示のように、本実施例では、前記デバイス(130)上のコンテンツは、デバイス106からの音声によって提供された要約よりも詳細である。一つの特定の実施例では、デバイス106が出力した音声コンテンツには、コンテンツアイテム(例えば、ベンジャミンフランクリンについてのWikipedia(登録商標)の記事)の要約が含まれるが、デバイス130のディスプレイ上に出力されたコンテンツには、追加部分または全コンテンツアイテム(例えば、Wikipedia(登録商標)の全記事)が含まれる。
図1が示すように、ユーザーは、音声コマンドを音声制御デバイス106に提供し、それに応答して、デバイス106自体を介して、情報を可聴的に受信することができる。その上、ユーザーは、1つ以上のユーザーに近似するデバイスから追加の視覚コンテンツを受信し、そのデバイスが所望の対象についての大量の情報をユーザーに提供する。
図2は、第1の音声コマンドを受信し、それに応答してオーディオコンテンツを第1のデバイス上で出力し、視覚コンテンツの受信を要求する第2の音声コマンドを受信し、第2の音声コマンドに応答して視覚コンテンツを第2のデバイス上に出力するための、例示的なプロセス200の流れ図を示す。プロセスは、図1の音声制御デバイス106によって行われるものとして記載されているが、プロセスは、その全体または一部が、リモートコンピューティングリソース118または1つ以上の他のエンティティによって実行可能であることが理解されよう。
プロセス200(本明細書中に記載の各プロセスも同様)は論理的な流れグラフとして示され、その各動作はハードウェア、ソフトウェア、またはそれらの組み合わせで実装可能な一連の動作を示す。ソフトウェアとの関連で、動作は、1つ以上のコンピュータ可読媒体に記憶されたコンピュータ実行可能命令を示し、このコンピュータ実行可能命令は、1つ以上のプロセッサに実行されたとき、列挙された動作を行う。一般に、コンピュータ実行可能命令には、ルーティン、プログラム、オブジェクト、構成要素、データ構成等が含まれ、それらは特定の機能を実行する、または特定の抽象データ型を実装する。
コンピュータ可読媒体には、ハードドライブ、フロッピーディスク、光ディスク、CD−ROM、DVD、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、フラッシュメモリ、磁気または光カード、固体メモリデバイス、または電子的命令を記憶するのに好適な他のタイプのストレージ媒体を含み得る、非一時的コンピュータ可読ストレージ媒体が含まれ得る。その上、いくつかの実施形態では、コンピュータ可読媒体は、(圧縮または非圧縮形態の)一時的なコンピュータ可読信号を含み得る。コンピュータ可読信号の実施例は、キャリアを使用した変調の有無に関わらず、コンピュータプログラムをホストするまたは実行するコンピュータシステムを構成してアクセスさせることが可能な信号であって、インターネットまたは他のネットワークを介してダウンロードされた信号を含むが、それらに限定されない。動作が記載される順序は、限定として解釈されることを意図するものではなく、記載される多数の動作を、任意の順序及び/または並行して組み合わせて、プロセスを実行することができる。
202では、音声制御デバイス106は第1の音声コマンドをユーザー104から受信する。上述のように、デバイス106のマイクロフォン108は音声をキャプチャし、対応する音声信号を生成する。その後、デバイス、リモートコンピューティングリソース118、または別のエンティティは発話認識を信号上で行い、第1の音声コマンドを特定することができる。
204では、それに応答して、デバイス106によってスピーカーが第1の音声コマンドと関連付けられた可聴コンテンツを出力する。本実施例では、スピーカーは、第1の音声コマンドの対象であるベンジャミンフランクリンに関する情報を出力する。
206では、音声制御デバイス106は、追加コンテンツを(画像)表示可能なデバイスに出力することを要求する第2の音声コマンドを、ユーザー104から受信する。本実施例では、第2の音声コマンドは、デバイス106から出力された質問に肯定的に応答するユーザー104の応答形態であり、他の実施形態では、ユーザー104は、(例えば、204で、デバイス106が可聴コンテンツを出力させる最中、または出力させた後に)デバイスがプロンプトすることなく、このコマンドを単に発生させる。
208では、音声制御デバイス106が、別のデバイスのディスプレイに、第1の音声コマンドと関連付けられた視覚コンテンツを出力させる。本実施例では、これには、ユーザー104のタブレットコンピューティングデバイスのディスプレイに、ベンジャミンフランクリンに関する視覚コンテンツを出力させることが含まれる。
図2は第1のデバイスが可聴コンテンツを出力し、その後、第2のデバイスが視覚コンテンツを出力するのを示すが、他の例ではこのプロセスは逆でもよい。例えば、第1のデバイスは視覚コンテンツを出力することができ、その時点で、ユーザーは別のデバイス上で可聴コンテンツの出力への移行を要求することができる。それに応答して、第2のデバイスは可聴コンテンツを出力することができる。その上または代替では、第1のデバイスは可聴コンテンツを出力することができ、第2のデバイスに移行せよとの要求をユーザーから受信することができ、それに応答して、第2のデバイスもまた、可聴コンテンツを出力することができる。または、第1のデバイスは視覚コンテンツを出力することができ、第2のデバイスに移行せよとの要求をユーザーから受信することができ、それに応答して、第2のデバイスもまた、視覚コンテンツを出力することができる。
図3A〜Cは、図1の音声制御デバイスがオーディオコンテンツを出力し、ディスプレイ機能を有する別のデバイスに視覚コンテンツを出力するよう命令するそれぞれの方法を示す。図3Aは、デバイス106がユーザー104に、ユーザー104はベンジャミンフランクリンに関する追加の情報をユーザーのタブレットコンピューティングで視聴したいか否かを尋ねる質問を出力する前に、デバイス106がまず、以上で考察されたベンジャミンフランクリンに関する可聴コンテンツを出力し得ることを示す。本実施例では、ユーザー104は視聴したいと応答するため、音声制御デバイス106は、デバイス130に追加の情報を表示するよう命令する。
一方、図3Bは、ユーザー104が音声制御デバイス106に対して音声コマンドを発生させ、デバイス106が以上で考察された可聴コンテンツを出力することを示す。本実施例では、ユーザー104は以下のように述べる:「この情報を私のタブレットに移動させて下さい。」。この発話の特定に応答して、デバイス106はデバイス130に、ベンジャミンフランクリンに関する情報を表示するよう命令する。
図3Cはさらに別の実施例を示す。図示のように、声制御デバイス106は以上で考察された可聴コンテンツを出力し、その後、デバイス106は追加の情報をユーザーのタブレット(すなわち、デバイス130)上に提供した旨を、ユーザーに報告する。このように、ユーザー104は、ベンジャミンフランクリンについての情報を要求する初期音声コマンドに続く音声コマンドを発生させることなく、所望の対象に関する追加の情報を受信する。
図4は、ディスプレイ機能を有するデバイスが、ユーザー104が視聴するための視覚コンテンツを有することをユーザー104に示す、3つの例示的なシナリオ400を示す。図示のように、第1のシナリオ402は、デバイス130が音声制御デバイス106(またはリモートコンピューティングリソース118)から、ベンジャミンフランクリンに関するコンテンツを表示せよとの指示を受信した後に、まずデバイス130の「ロックスクリーン」上に情報を表示することを示す。図示のように、デバイス130は、最初に第1の限定された量の情報をロックスクリーン上に示し、次いで、ユーザーがデバイス130をロック解除すると、第2の大量の情報をディスプレイ上に表示することを示す。
一方、第2のシナリオ404は、デバイス130がディスプレイの通知領域408内で、単に通知406を表示可能であることを示す。つまり、音声制御デバイス106を介して開始された交信に関する追加の情報を受信したいとのユーザーの指示を受信することに応答して、デバイス130は、テキストメッセージで受信した通知410、電子メールで受信した通知等に類似する通知406を表示することができる。ユーザー104が通知406を選択することに応答して、デバイス130は(例えば、ベンジャミンフランクリンに関する)追加の情報を表示することができる。本実施例では、通知は「W」を含み、これは、デバイスが、通知406のユーザー104が選択したものを受信することに応答して、Wikipedia(登録商標)のベンジャミンフランクリンの記事を表示するであろうことを示す。もちろん、図4は一実施例を示すが、通知は任意の他のものを例示し得ることを理解されたい。
最後に、第3のシナリオ412は、図1〜3Cを参照して上述のシナリオを示し、ここで、デバイス130が所望の対象に関する情報を直接表示する。上述のように、いくつかの例では、音声制御デバイス106はデバイス130を起動させ、そのデバイスにコンテンツを表示するように命令する。デバイスを起動させることには、デバイス130を(コンテンツを表示させるために)ディスプレイがオフの状態からディスプレイがオンの状態に移行させることが含まれ得る。もちろん、他の実装では、デバイスを起動させることによって、デバイス130を一つの状態から他の状態へ移行させ得る。
図5は、上述の技術を利用して実行可能な例示的なプロセス500の流れ図を示す。502では、プロセス500はデバイスが生成するオーディオ信号を受信し、このオーディオ信号にはユーザーからの発話が含まれる。504では、プロセスはオーディオ信号内の発話を特定する。いくつかの例では、発話は、特定の情報に関する質問を要求するまたは発生させる、ユーザーコマンドを含む。506では、発話を特定することに応答して、プロセス500によって、デバイスに音声コマンドと関連付けられた第1のコンテンツを出力させ、他のデバイスに音声コマンドと関連付けられた第2の異なるコンテンツを出力させる。いくつかの例では、第1のコンテンツは可聴コンテンツを含み、第2のコンテンツは視覚コンテンツを含む。
図6は、別の例示的なプロセス600の流れ図を示す。602では、プロセス600は、第1のデバイスのスピーカー上にコンテンツを可聴的に出力する。604では、プロセス600は、コンテンツの出力を視覚的に開示するためにディスプレイに移行することを要求する、ユーザーが発した音声コマンドを特定する。606では、プロセス600は、第1のデバイス及び/またはユーザーの閾値距離内のデバイスを特定することによって、コンテンツを出力するデバイスを特定する。他の例では、プロセス600は、デバイスの種類、デバイスの電源はオンになっているか否かに関する情報等に基づいて、コンテンツを出力するデバイスを特定して選択する。また、プロセス600によって、この他のデバイスはユーザーと確実に関連付けられる。608では、プロセス600は、コンテンツを、閾値距離内の特定されたデバイスに、視覚的に出力する。
図7は、例示的なプロセス700の流れ図を示す。702では、プロセス700は、第1のデバイスでユーザーからの第1の声コマンドを受信する。704では、それに応答して、プロセス700は、第1の音声コマンドと関連付けられた可聴コンテンツを第1のデバイスのスピーカー上に出力する。706では、プロセス700は、第1のデバイスで、ユーザーからの第2の音声コマンドを受信する。708では、それに応答して、プロセス700は、第2のデバイス上に記憶されているアプリケーションに対して、第1の音声コマンドと関連付けられた視覚コンテンツを、第2のデバイスのディスプレイ上に出力するよう命令する。上述のように、アプリケーションは、「コンパニオンアプリケーション」を含み得、このコンパニオンアプリケーションは、音声制御デバイス106と通信するように特に構成されている。例えば、このアプリケーションは、音声制御デバイスからコンテンツを受信することと、音声制御デバイスにコンテンツを提供することのいずれも行うことができる。
図8は、図1の音声制御デバイスで実装される選択された機能的な構成要素のブロック図を示す。一般に、音声制御デバイス106はスタンドアロン型のデバイスとして実装可能であり、このデバイスは、機能的性能の観点から比較的単純で、入力/出力構成要素、メモリ、及び処理能力が限定されている。例えば、いくつかの実装例では、音声制御デバイス106は、キーボード、キーパッド、または機械的入力の他の形態を有さず、またディスプレイまたはタッチスクリーンも有さず、視覚的表現を促進せず、ユーザーのタッチ入力を容易にすることもない。その代わり、デバイス106は、音声を受信及び出力する能力、ネットワークインターフェース(無線または有線ベース)、電源を有して実装され、プロセス/メモリ機能を限定して、実装されることが可能である。
例示された実装例では、音声制御デバイス106は、プロセッサ112及びメモリ114を含む。メモリ114は、コンピュータ可読ストレージ媒体(「CRSM」)を含み得るが、これは、プロセッサ112によってアクセス可能である任意の利用可能な物理的媒体であってよく、メモリに記憶された命令を実行するものである。一つの基本的な実装例では、CRSMは、ランダムアクセスメモリ(「RAM」)及びフラッシュメモリを含み得る。他の実装例では、CRSMは、リードオンリーメモリ(「ROM」)、電気的消去可能リードオンリーメモリ(「EEPROM」)、または所望の情報を記憶するために使用可能で、プロセッサ112によってアクセス可能な他の任意の媒体を含み得るが、それらに限定されない。
音声制御デバイス106はマイクユニットを含み、マイクユニットは1つ以上のマイク108を備えて、オーディオ(可聴信号)入力、例えば、ユーザーの音声入力を受信する。また、デバイス106はスピーカーユニットも含み、スピーカーユニットは1つ以上のスピーカー110を含んでオーディオサウンドを出力する。1つ以上のコーデック802はマイク(複数可)108及びスピーカー(複数可)110に接続し、音声信号をエンコード/デコードする。コーデックはオーディオデータを、アナログ形式とデジタル形式との間で、変換することができる。ユーザーは、デバイス106に話しかけることによって、デバイス106と交信することができ、マイク(複数可)108はサウンドをキャプチャし、ユーザーの発話を含むオーディオ信号を生成する。コーデック802はユーザーの発話をコード化し、その音声データを他の構成要素に伝達する。デバイス106は、スピーカー(複数可)110を介して可聴命令を発することによって、ユーザーに通信し返すことができる。このように、ユーザーは、他のタイプのデバイスに共通するキーボードまたはディスプレイを使用せずに、単に発話を介して、音声制御デバイスと交信する。
その上、いくつかの例では、ユーザーは、デバイス106以外のデバイスを使用して、音声制御デバイス106と交信することができる。例えば、ユーザーは以上で考察されたコンパニオンアプリケーションを利用することができ、そのコンパニオンアプリケーションを介して、音声制御デバイス106に要求を提供する、または音声制御デバイス106から応答を受信することができる。一つの特定の実施例では、コンパニオンアプリケーションはウェブベースのアプリケーションで、任意のクライアントコンピューティングデバイスで実行可能である。上述のように、コンパニオンアプリケーションは、コンテンツを表示せよとの音声制御デバイス106からの要求を受信することができ、それに応答して、適切なコンテンツを表示させることができる。このコンテンツには、ウェブリンク、ローカルアプリケーションへのリンク、画像、ビデオ、及び/または他の任意のタイプの視覚コンテンツが含まれる。
例示された実施例では、音声制御デバイス106は1つ以上のアンテナ806に接続された1つ以上の無線インターフェース804を含み、ネットワークへの無線接続を容易にする。無線インターフェース804は、1つ以上の様々な無線技術、例えば、wifi、ブルートゥース、RF等を、実装することができる。
さらに1つ以上のデバイスインターフェース808(例えば、USB、ブロードバンド接続等)を、デバイス106の一部として提供し、他の無線ネットワークと通信するプラグインネットワークデバイスまたはネットワークへの有線接続を容易にすることができる。1つ以上の電源ユニット810をさらに提供し、デバイス106上の様々な構成要素に電力を分配する。
音声制御デバイス106は、ユーザーからの音声コマンド(例えば、単語、句、文等)を受信し、可聴フィードバックをユーザーに出力する形で、ユーザーとの音声交信を支援するように設計される。それにしたがって、例示された実装例では、例えば、ナビゲーションボタン、キーパッド、ジョイスティック、キーボード、タッチスクリーン等の触覚入力デバイスが存在しない、または、ほぼ存在しない。さらに、テキストやグラフィック出力のための表示も存在しない。一実装例では、音声制御デバイス106は、非入力制御機構、例えば、音量を上げる/下げるための基本的な音量制御ボタン(複数可)、ならびに、電力及びリセットボタン、を含み得る。また、1つ以上の単純な発光素子(例えば、デバイスの頂部外周付近のLED)が存在してもよく、例えば、電源がオンになったとき、またはコマンドが受信されたときのような状態を示すことができる。しかし、他のいくつかの例では、デバイス106は、任意の入力デバイスまたはディスプレイを使用しない、またはそれらの使用を必要としない。
例えば、命令、データストア等のようないくつかのモジュールを、メモリ114内に記憶することができ、プロセッサ112で実行するように構成することができる。オペレーティングシステムモジュール812を構成して、他のモジュールのために、デバイス106内ならびに、デバイス106に接続されたハードウェア及びサービス(例えば、無線ユニット、コーデック等)を管理することができる。
その上、メモリ114は、1つ以上の他のアプリケーション、例えば、メディアプレーヤー等とともに、発話認識エンジン116を含むことができる。いくつかの例では、それらのエンジン、データストア、及び構成要素のいくつか、または全ては、付加的にまたは代替として、リモートコンピューティングリソース118に存在する。
構成的特徴に特有の言葉で主題が記載されてきたが、添付の特許請求の範囲で定義された主題は、記載された特定の特徴に必ずしも限定されないことが理解されよう。むしろ、特定の特徴は、特許請求の範囲を実施する例示的な形態として、開示される。
付記
1.
1つ以上のコンピューティングデバイスであって、
1つ以上のプロセッサと、
コンピュータ実行可能命令を記憶する1つ以上のコンピュータ可読媒体と、を備え、前記コンピュータ実行可能命令が、前記1つ以上のプロセッサによって実行されたときに、前記1つ以上のプロセッサに動作を実行させ、前記動作が、
環境内のユーザーからの第1の音声コマンドを受信することと、
前記第1の音声コマンドを受信することに少なくとも部分的に応答して、前記環境内の第1のデバイスのスピーカーに、前記第1の音声コマンドと関連付けられたオーディオコンテンツを出力させることと、
第2の音声コマンドを前記ユーザーから受信することであって、前記第2の音声コマンドが前記第1のコマンドと関連付けられた視覚コンテンツが前記環境内の第2のデバイスに送信されることを要求し、前記第2のデバイスがディスプレイを有する、前記受信することと、
前記第2の音声コマンドを受信することに少なくとも部分的に応答して、前記第2のデバイスの前記ディスプレイに、前記第1の音声コマンドと関連付けられた前記視覚コンテンツを出力させることと、を含む、前記1つ以上のコンピューティングデバイス。
2.
前記動作が、前記第2の音声コマンドに少なくとも一部基づいて、前記第1のデバイスに加えて、前記環境内の少なくとも2つのデバイスから前記第2のデバイスを特定することをさらに含む、付記1に記載の前記1つ以上のコンピューティングデバイス。
3.
前記第1のデバイスが前記第2の音声コマンドを受信する一方、前記第1のデバイスの前記スピーカーが前記第1の音声コマンドと関連付けられた前記オーディオコンテンツを出力する、付記1に記載の前記1つ以上のコンピューティングデバイス。
4.
前記動作が、前記スピーカーが前記第1の音声コマンドと関連付けられた前記オーディオコンテンツを出力した後、前記スピーカーに前記ユーザーへの質問を出力させることをさらに含み、前記質問が、前記ユーザーが前記視覚コンテンツを前記第2のデバイス上で出力したいか否かを尋ねる、付記1に記載の前記1つ以上のコンピューティングデバイス。
5.
コンピュータ実装方法であって、
環境内に存在するデバイスによって生成されるオーディオ信号であって、ユーザーからの発話を含む、オーディオ信号を受信することと、
前記オーディオ信号内の前記発話に発話認識を実行して、音声コマンドを特定することと、
前記音声コマンドを特定することに少なくとも部分的に応答して、(i)前記デバイスに前記音声コマンドと関連付けられた第1のコンテンツを出力させ、(ii)前記デバイスに前記第1のコンテンツの少なくとも一部を出力させた後に、前記環境内の別のデバイスに前記音声コマンドと関連付けられた第2のコンテンツを出力させることと、を含む、前記コンピュータ実装方法。
6.
前記デバイスに前記第1のコンテンツを出力させることが、前記デバイスに、前記デバイスのスピーカーによって出力された可聴コンテンツを出力させることを含み、前記別のデバイスに前記第2のコンテンツを出力させることが、前記別のデバイスにそのディスプレイによって出力された視覚コンテンツを出力させることを含む、付記5に記載の前記コンピュータ実装方法。
7.
前記別のデバイスに前記第2のコンテンツを出力させることが、ある状態から、前記別のデバイスのディスプレイがオフの状態へ、前記別のデバイスの前記ディスプレイがオンの状態へ前記別のデバイスを移行させることによって、前記別のデバイスを起動させることを含む、付記5に記載の前記コンピュータ実装方法。
8.
前記別のデバイスに前記第2のコンテンツを出力させることが、前記別のデバイスによって表示されるグラフィカルユーザーインターフェース(GUI)の通知領域内に通知を表示するよう前記別のデバイスに命令するメッセージを、前記別のデバイスに送信することを含む、付記5に記載の前記コンピュータ実装方法。
9.
前記別のデバイスに前記第2のコンテンツを出力させることが、前記別のデバイスに前記第2のコンテンツを前記別のデバイスのロックスクリーン上で出力させることを含む、付記5に記載の前記コンピュータ実装方法。
10.
前記別のデバイスは、前記別のデバイスの前記デバイスに対する近接性、前記別のデバイスが前記ユーザーと関連付けられているか、前記別のデバイスのタイプ、または前記別のデバイスの電源が入っているか否かに関する情報のうちの少なくとも1つに少なくとも一部基づいて、前記第2のコンテンツを出力するために選択される、付記5に記載の前記コンピュータ実装方法。
11.
前記発話認識を実行することが、前記発話に発話認識を実行し、第1の発話及び前記第1の発話に続く第2の発話を特定することを含み、前記第2の発話が、コンテンツが前記別のデバイス上で出力されることを要求する第2の音声コマンドを含む、付記5に記載の前記コンピュータ実装方法。
12.
前記デバイスが前記第1のコンテンツを出力しながら前記第2の発話が発せられる、付記11に記載の前記コンピュータ実装方法。
13.
前記デバイスが前記第1のコンテンツの出力を終了した後に、前記第2の発話が発せられる、付記11に記載の前記コンピュータ実装方法。
14.
前記デバイスが前記第1のコンテンツの出力を終了した後に、前記第2の発話が発せられ、前記第1のコンテンツが、前記ユーザーに追加のコンテンツを異なるデバイス上で受信したいか否かを尋ねる質問を含む、付記11に記載の前記コンピュータ実装方法。
15.
前記第1のコンテンツが特定のコンテンツアイテムの第1部分を含み、前記第2のコンテンツが前記特定のコンテンツアイテムの追加部分を含む、付記5に記載の前記コンピュータ実装方法。
16.
前記第1のコンテンツが特定のコンテンツアイテムの要約を含み、前記第2のコンテンツが前記特定のコンテンツアイテムの追加部分を含む、付記5に記載の前記コンピュータ実装方法。
17.
前記第1のコンテンツが特定のコンテンツアイテムの要約を含み、前記第2のコンテンツが前記特定のコンテンツアイテムの全体を含む、付記5に記載の前記コンピュータ実装方法。
18.
前記デバイスと前記別のデバイスのいずれもがディスプレイを含む、付記5に記載の前記コンピュータ実装方法。
19.
実行可能な命令を用いて構成される1つ以上のコンピューティングデバイスの制御下で、
環境内に存在する第1のデバイスのスピーカー上にコンテンツを可聴的に出力することと、
前記第1のデバイスの前記スピーカーから第2のデバイスのディスプレイに前記コンテンツの出力を移行せよとの要求を発生させる前記環境内のユーザーに少なくとも部分的に応答して、前記環境内に存在する前記第2のデバイスの前記ディスプレイ上にコンテンツを視覚的に出力することと、を含む、方法。
20.
前記ユーザーが発する音声コマンドを特定することをさらに含み、前記音声コマンドが前記要求を含む、付記19に記載の前記方法。
21.
前記第1のデバイスがマイクを含み、前記音声コマンドが、前記第1のデバイスの前記マイクによってキャプチャされたサウンドに基づいて生成されたオーディオ信号から特定される、付記20に記載の前記方法。
22.
前記音声コマンドを特定することが、前記要求を含む前記音声コマンドを特定することを含み、前記第1のデバイスの前記スピーカーがコンテンツを出力する、付記20に記載の前記方法。
23.
前記音声コマンドを特定することが、前記第1のデバイスの前記スピーカーがコンテンツの出力を終了した後に、前記要求を含む前記音声コマンドを特定することを含む、付記20に記載の前記方法。
24.
前記第1のデバイスの前記スピーカーに出力された前記コンテンツと、前記第2のデバイスの前記ディスプレイに出力された前記コンテンツのいずれもが、特定のコンテンツアイテムと関連付けられた、付記19に記載の前記方法。
25.
前記第1のデバイスの前記スピーカーに出力された前記コンテンツが、前記特定のコンテンツアイテムの要約を含み、前記第2のデバイスの前記ディスプレイに出力された前記コンテンツが、前記コンテンツアイテムの追加部分を含む、付記24に記載の前記方法。
26.
前記第2のデバイスを特定し、前記第1のデバイスまたは前記ユーザーの閾値距離内の1つ以上のデバイスを特定して、それらにコンテンツを出力することをさらに含む、付記19に記載の前記方法。
27.
前記第2のデバイスを特定し、(i)前記第1のデバイスまたは前記ユーザーの閾値距離内に存在し、(ii)前記ユーザーと関連付けられた、1つ以上のデバイスを特定して、それらにコンテンツを出力することをさらに含む、付記19に記載の前記方法。
28.
前記ユーザーが、前記第1のデバイスに音声コマンドを発生させることによって、コンテンツを前記第1のデバイス上に出力するための前記第2のデバイスを選択することをさらに含む、付記19に記載の前記方法。

Claims (15)

  1. 1つ以上のコンピューティングデバイスであって、
    1つ以上のプロセッサと、
    コンピュータ実行可能命令を記憶する1つ以上のコンピュータ可読媒体と、を備え、前記コンピュータ実行可能命令が、前記1つ以上のプロセッサによって実行されたときに、前記1つ以上のプロセッサに動作を実行させ、前記動作が、
    環境内のユーザーからの第1の音声コマンドを受信することと、
    前記第1の音声コマンドを受信することに少なくとも部分的に応答して、前記環境内の第1のデバイスのスピーカーに、前記第1の音声コマンドに関連付けられた聴覚コンテンツを出力させることと、
    第2の音声コマンドを前記ユーザーから受信することであって、前記第2の音声コマンドは、前記第1の音声コマンドに関連付けられた視覚コンテンツが前記環境内の第2のデバイスに送信されることを要求し、前記第2のデバイスは、ディスプレイを有する、前記受信することと、
    前記第2の音声コマンドを受信することに少なくとも部分的に応答して、前記第2のデバイスの前記ディスプレイに、前記第1の音声コマンドに関連付けられた前記視覚コンテンツを出力させることと、を含む、1つ以上のコンピューティングデバイス。
  2. 前記動作は、前記第2の音声コマンドに少なくとも一部基づいて、前記第1のデバイスに加えて、前記環境内の少なくとも2つのデバイスから前記第2のデバイスを特定することをさらに含む、請求項1に記載の1つ以上のコンピューティングデバイス。
  3. 前記第1のデバイスの前記スピーカーが前記第1の音声コマンドに関連付けられた前記聴覚コンテンツを出力しながら、前記第1のデバイスが前記第2の音声コマンドを受信する、請求項1に記載の1つ以上のコンピューティングデバイス。
  4. 前記動作は、前記スピーカーが前記第1の音声コマンドに関連付けられた前記聴覚コンテンツを出力した後、前記スピーカーに前記ユーザーへの質問を出力させることをさらに含み、前記質問は、前記ユーザーが前記視覚コンテンツを前記第2のデバイス上で出力したいか否かを尋ねる、請求項1に記載の1つ以上のコンピューティングデバイス。
  5. コンピュータ実装方法であって、
    環境内に存在するデバイスによって生成されるオーディオ信号であって、ユーザーからの発話を含む、オーディオ信号を受信することと、
    前記オーディオ信号内の前記発話に発話認識を実行して、音声コマンドを特定することと、
    前記音声コマンドを特定することに少なくとも部分的に応答して、(i)前記デバイスに前記音声コマンドに関連付けられた第1のコンテンツを出力させ、(ii)前記デバイスに前記第1のコンテンツの少なくとも一部を出力させた後に、前記環境内の別のデバイスに前記音声コマンドに関連付けられた第2のコンテンツを出力させることと、を含む、コンピュータ実装方法。
  6. 前記デバイスに前記第1のコンテンツを出力させることは、前記デバイスに、前記デバイスのスピーカーによって出力される可聴コンテンツを出力させることを含み、前記別のデバイスに前記第2のコンテンツを出力させることは、前記別のデバイスに、前記別のデバイスのディスプレイによって出力される視覚コンテンツを出力させることを含む、請求項5に記載のコンピュータ実装方法。
  7. 前記別のデバイスに前記第2のコンテンツを出力させることは、前記別のデバイスのディスプレイがオフの状態から、前記別のデバイスの前記ディスプレイがオンの状態へ前記別のデバイスを移行させることによって、前記別のデバイスを起動させることを含む、請求項5に記載のコンピュータ実装方法。
  8. 前記別のデバイスに前記第2のコンテンツを出力させることは、前記別のデバイスに、前記別のデバイスによって表示されるグラフィカルユーザーインターフェース(GUI)の通知領域内に通知を表示するよう命令するメッセージを前記別のデバイスへ送信することを含む、請求項5に記載のコンピュータ実装方法。
  9. 前記別のデバイスに前記第2のコンテンツを出力させることは、前記別のデバイスに前記第2のコンテンツを前記別のデバイスのロックスクリーン上で出力させることを含む、請求項5に記載のコンピュータ実装方法。
  10. 前記別のデバイスは、前記別のデバイスの前記デバイスに対する近接性、前記別のデバイスが前記ユーザーに関連付けられているか、前記別のデバイスのタイプ、または前記別のデバイスの電源が入っているか否かに関する情報のうちの少なくとも1つに少なくとも一部基づいて、前記第2のコンテンツを出力するために選択される、請求項5に記載のコンピュータ実装方法。
  11. 前記発話認識を実行することは、前記発話に発話認識を実行して、第1の発話及び前記第1の発話に続く第2の発話を特定することを含み、前記第2の発話は、コンテンツが前記別のデバイス上で出力されることを要求する第2の音声コマンドを含む、請求項5に記載のコンピュータ実装方法。
  12. 前記デバイスが前記第1のコンテンツを出力しながら、前記第2の発話を受信すること
    前記デバイスが前記第1のコンテンツの出力を終了した後に、前記第2の発話を受信すること、または、
    前記デバイスが前記第1のコンテンツの出力を終了させた後に、前記第2の発話を受信することであって、前記第1のコンテンツは、前記ユーザーに追加のコンテンツを異なるデバイス上で受信したいか否かを尋ねる質問を含む、受信すること、のうちの少なくとも1つをさらに含む、請求項11に記載のコンピュータ実装方法。
  13. 前記第1のコンテンツは特定のコンテンツアイテムの第1部分を含み、前記第2のコンテンツは前記特定のコンテンツアイテムの追加部分を含む、請求項5に記載のコンピュータ実装方法。
  14. 前記第1のコンテンツは特定のコンテンツアイテムの要約を含み、前記第2のコンテンツは前記特定のコンテンツアイテムの追加部分を含む、請求項5に記載のコンピュータ実装方法。
  15. 前記第1のコンテンツは特定のコンテンツアイテムの要約を含み、前記第2のコンテンツは前記特定のコンテンツアイテムの全体を含む、請求項5に記載のコンピュータ実装方法。
JP2016502105A 2013-03-14 2014-03-13 複数のデバイス上でコンテンツを提供すること Active JP6125088B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/829,156 US10133546B2 (en) 2013-03-14 2013-03-14 Providing content on multiple devices
US13/829,156 2013-03-14
PCT/US2014/026326 WO2014160327A1 (en) 2013-03-14 2014-03-13 Providing content on multiple devices

Publications (2)

Publication Number Publication Date
JP2016519805A JP2016519805A (ja) 2016-07-07
JP6125088B2 true JP6125088B2 (ja) 2017-05-10

Family

ID=51531843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016502105A Active JP6125088B2 (ja) 2013-03-14 2014-03-13 複数のデバイス上でコンテンツを提供すること

Country Status (5)

Country Link
US (1) US10133546B2 (ja)
EP (1) EP2973543B1 (ja)
JP (1) JP6125088B2 (ja)
CN (1) CN105264485B (ja)
WO (1) WO2014160327A1 (ja)

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
WO2014142814A1 (en) * 2013-03-12 2014-09-18 Intel Corporation Content sharing device management
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9842584B1 (en) 2013-03-14 2017-12-12 Amazon Technologies, Inc. Providing content on multiple devices
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9792901B1 (en) * 2014-12-11 2017-10-17 Amazon Technologies, Inc. Multiple-source speech dialog input
US9690542B2 (en) * 2014-12-22 2017-06-27 Microsoft Technology Licensing, Llc Scaling digital personal assistant agents across devices
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
DK179360B1 (en) * 2015-06-07 2018-05-22 Apple Inc Devices, methods and graphical user interfaces for providing and interacting with notifications
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10379808B1 (en) * 2015-09-29 2019-08-13 Amazon Technologies, Inc. Audio associating of computing devices
US11587559B2 (en) * 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
DE202016008119U1 (de) * 2015-12-31 2017-03-08 JinXiao Wu Hilfsvorrichtung und intelligentes Scharsystem
US10484484B2 (en) * 2016-02-05 2019-11-19 International Business Machines Corporation Context-aware task processing for multiple devices
US10044798B2 (en) * 2016-02-05 2018-08-07 International Business Machines Corporation Context-aware task offloading among multiple devices
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US20170238114A1 (en) * 2016-02-16 2017-08-17 Sony Corporation Wireless speaker system
US9924291B2 (en) 2016-02-16 2018-03-20 Sony Corporation Distributed wireless speaker system
US9772817B2 (en) * 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US9826330B2 (en) 2016-03-14 2017-11-21 Sony Corporation Gimbal-mounted linear ultrasonic speaker assembly
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10271093B1 (en) * 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
EP4195025A1 (en) * 2016-06-27 2023-06-14 Amazon Technologies Inc. Systems and methods for routing content to an associated output device
US20190180859A1 (en) * 2016-08-02 2019-06-13 Beyond Verbal Communication Ltd. System and method for creating an electronic database using voice intonation analysis score correlating to human affective states
US10521187B2 (en) * 2016-08-31 2019-12-31 Lenovo (Singapore) Pte. Ltd. Presenting visual information on a display
US10225218B2 (en) * 2016-09-16 2019-03-05 Google Llc Management system for audio and visual content
US10127908B1 (en) * 2016-11-11 2018-11-13 Amazon Technologies, Inc. Connected accessory for a voice-controlled device
US10332523B2 (en) * 2016-11-18 2019-06-25 Google Llc Virtual assistant identification of nearby computing devices
US10708313B2 (en) 2016-12-30 2020-07-07 Google Llc Multimodal transmission of packetized data
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
KR20180085931A (ko) * 2017-01-20 2018-07-30 삼성전자주식회사 음성 입력 처리 방법 및 이를 지원하는 전자 장치
US10839795B2 (en) * 2017-02-15 2020-11-17 Amazon Technologies, Inc. Implicit target selection for multiple audio playback devices in an environment
US10264358B2 (en) 2017-02-15 2019-04-16 Amazon Technologies, Inc. Selection of master device for synchronized audio
US10789948B1 (en) * 2017-03-29 2020-09-29 Amazon Technologies, Inc. Accessory for a voice controlled device for output of supplementary content
USD864466S1 (en) 2017-05-05 2019-10-22 Hubbell Incorporated Lighting fixture
JP7190446B2 (ja) * 2017-05-08 2022-12-15 シグニファイ ホールディング ビー ヴィ 音声制御
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10366692B1 (en) * 2017-05-15 2019-07-30 Amazon Technologies, Inc. Accessory for a voice-controlled device
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) * 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
KR101968725B1 (ko) * 2017-05-19 2019-04-12 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
KR101934954B1 (ko) * 2017-05-24 2019-01-03 네이버 주식회사 음성요청에 대응하는 정보 전달 향상을 위한 출력
CN107316645B (zh) * 2017-06-01 2021-10-12 北京京东尚科信息技术有限公司 一种语音购物的方法和系统
US11264019B2 (en) * 2017-06-30 2022-03-01 Google Llc Methods, systems, and media for voice-based call operations
US11315554B2 (en) 2017-06-30 2022-04-26 Google Llc Methods, systems, and media for connecting an IoT device to a call
US10546583B2 (en) * 2017-08-30 2020-01-28 Amazon Technologies, Inc. Context-based device arbitration
JP7338025B2 (ja) * 2017-08-31 2023-09-04 キヤノン株式会社 音声制御デバイス、印刷装置、それらの制御方法およびプログラム
US10623199B2 (en) * 2017-09-07 2020-04-14 Lenovo (Singapore) Pte Ltd Outputting audio based on user location
JP2019066702A (ja) 2017-10-02 2019-04-25 東芝映像ソリューション株式会社 対話型電子装置制御システム、対話型電子装置、対話型電子装置制御方法
JP6862582B2 (ja) * 2017-10-03 2021-04-21 グーグル エルエルシーGoogle LLC レイテンシを考慮したディスプレイモード依存応答生成
MX2020006624A (es) 2017-12-20 2020-09-14 Hubbell Inc Dispositivo empotrado de respuesta de voz.
CN111602338A (zh) 2017-12-20 2020-08-28 豪倍公司 用于入墙式装置的手势控制
USD927433S1 (en) 2018-01-05 2021-08-10 Hubbell Incorporated Front panel of in-wall fan controller with indicator component
CN108320745A (zh) * 2018-02-08 2018-07-24 北京小米移动软件有限公司 控制显示的方法及装置
US10735597B1 (en) * 2018-03-23 2020-08-04 Amazon Technologies, Inc. Selecting user device during communications session
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10622007B2 (en) 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10621983B2 (en) 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10566010B2 (en) * 2018-04-20 2020-02-18 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
CN108765006A (zh) * 2018-05-29 2018-11-06 福来宝电子(深圳)有限公司 随身音箱的控制方法、随身音箱及计算机可读存储介质
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
JP7094789B2 (ja) 2018-06-15 2022-07-04 キヤノン株式会社 サーバシステム、印刷装置、制御方法、及び通信システム
EP3605530B1 (en) * 2018-08-03 2021-01-20 Vestel Elektronik Sanayi ve Ticaret A.S. Method and apparatus for responding to a voice command
CN109243437A (zh) * 2018-08-23 2019-01-18 珠海格力电器股份有限公司 信息的提示方法、装置、存储介质及电子装置
JP6887409B2 (ja) * 2018-09-19 2021-06-16 Kddi株式会社 情報提供システム及び情報提供方法
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US10657968B1 (en) * 2018-11-19 2020-05-19 Google Llc Controlling device output according to a determined condition of a user
KR20200091278A (ko) * 2019-01-22 2020-07-30 삼성전자주식회사 음성 입력과 관련된 비주얼 정보를 표시하는 방법 및 이를 지원하는 전자 장치
FR3092927B1 (fr) * 2019-02-19 2021-12-03 Ingenico Group Procédé de traitement d'une transaction de paiement, dispositif, système et programmes correspondants
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11172001B1 (en) 2019-03-26 2021-11-09 Amazon Technologies, Inc. Announcement in a communications session
US11133004B1 (en) * 2019-03-27 2021-09-28 Amazon Technologies, Inc. Accessory for an audio output device
JP2020177510A (ja) * 2019-04-19 2020-10-29 コニカミノルタ株式会社 ユーザインターフェイス装置および画像形成装置
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11580973B2 (en) * 2019-05-31 2023-02-14 Apple Inc. Multi-user devices in a connected home environment
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11374976B2 (en) * 2019-10-15 2022-06-28 Bank Of America Corporation System for authentication of resource actions based on multi-channel input
USD947137S1 (en) 2019-10-22 2022-03-29 Hubbell Incorporated Front panel of in-wall fan controller with indicator component
US11443737B2 (en) 2020-01-14 2022-09-13 Sony Corporation Audio video translation into multiple languages for respective listeners
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
KR20220005348A (ko) * 2020-07-06 2022-01-13 삼성전자주식회사 인공지능 가상 비서 서비스에서의 화면 제공 방법 및 이를 지원하는 사용자 단말 장치 및 서버
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US20220100464A1 (en) * 2020-09-28 2022-03-31 Samsung Electronics Co., Ltd. Methods and systems for execution of voice commands
US20220101827A1 (en) * 2020-09-30 2022-03-31 Qualcomm Incorporated Target keyword selection
CN114842848A (zh) * 2021-02-02 2022-08-02 华为技术有限公司 语音控制系统、方法、装置、设备以及介质、程序产品

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6347823A (ja) 1986-08-15 1988-02-29 Fujitsu Ltd デ−タ・ベ−ス検索システムにおける出力装置
US6968375B1 (en) 1997-03-28 2005-11-22 Health Hero Network, Inc. Networked system for interactive communication and remote monitoring of individuals
JP3531342B2 (ja) 1996-03-29 2004-05-31 ソニー株式会社 音声処理装置および音声処理方法
JPH11109989A (ja) 1997-10-02 1999-04-23 Toyota Motor Corp 音声認識装置
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US6721705B2 (en) * 2000-02-04 2004-04-13 Webley Systems, Inc. Robust voice browser system and voice activated device controller
US7096185B2 (en) * 2000-03-31 2006-08-22 United Video Properties, Inc. User speech interfaces for interactive media guidance applications
JP3707410B2 (ja) 2001-09-17 2005-10-19 インターナショナル・ビジネス・マシーンズ・コーポレーション コンピュータ装置、拡張デバイスの管理方法、コンピュータプログラム
JP2003108174A (ja) * 2001-09-28 2003-04-11 Brother Ind Ltd 音声合成装置および情報端末装置
US20030139933A1 (en) 2002-01-22 2003-07-24 Zebadiah Kimmel Use of local voice input and remote voice processing to control a local visual display
US7720683B1 (en) 2003-06-13 2010-05-18 Sensory, Inc. Method and apparatus of specifying and performing speech recognition operations
US20040260438A1 (en) 2003-06-17 2004-12-23 Chernetsky Victor V. Synchronous voice user interface/graphical user interface
US20050027539A1 (en) * 2003-07-30 2005-02-03 Weber Dean C. Media center controller system and method
US7418392B1 (en) 2003-09-25 2008-08-26 Sensory, Inc. System and method for controlling the operation of a device by voice commands
US7460650B2 (en) 2004-05-24 2008-12-02 At&T Intellectual Property I, L.P. Method for designing an automated speech recognition (ASR) interface for a customer call center
JP2006039919A (ja) * 2004-07-27 2006-02-09 Pioneer Electronic Corp 画像共有表示システム、画像共有機能付端末、及びコンピュータプログラム
US8214214B2 (en) 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
US20070011133A1 (en) 2005-06-22 2007-01-11 Sbc Knowledge Ventures, L.P. Voice search engine generating sub-topics based on recognitiion confidence
US7672931B2 (en) 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US8635073B2 (en) 2005-09-14 2014-01-21 At&T Intellectual Property I, L.P. Wireless multimodal voice browser for wireline-based IPTV services
JP2007299159A (ja) 2006-04-28 2007-11-15 Toshiba Corp コンテンツ検索装置
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080180519A1 (en) * 2007-01-31 2008-07-31 Cok Ronald S Presentation control system
US8874445B2 (en) * 2007-03-30 2014-10-28 Verizon Patent And Licensing Inc. Apparatus and method for controlling output format of information
JP2009025538A (ja) 2007-07-19 2009-02-05 Nissan Motor Co Ltd 音声対話装置
WO2009031071A1 (en) 2007-09-03 2009-03-12 Nxp B.V. Method of and device for transferring content
US8369799B2 (en) 2007-10-25 2013-02-05 Echostar Technologies L.L.C. Apparatus, systems and methods to communicate received commands from a receiving device to a mobile device
US8838152B2 (en) 2007-11-30 2014-09-16 Microsoft Corporation Modifying mobile device operation using proximity relationships
US8793305B2 (en) 2007-12-13 2014-07-29 Seven Networks, Inc. Content delivery to a mobile device from a content service
US8099289B2 (en) 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8326829B2 (en) 2008-10-17 2012-12-04 Centurylink Intellectual Property Llc System and method for displaying publication dates for search results
US20100205628A1 (en) * 2009-02-12 2010-08-12 Davis Bruce L Media processing methods and arrangements
US8370762B2 (en) 2009-04-10 2013-02-05 Cellco Partnership Mobile functional icon use in operational area in touch panel devices
US8928551B2 (en) 2009-07-07 2015-01-06 Village Green Technologies, LLC Multiple displays for a portable electronic device and a method of use
WO2011014551A1 (en) 2009-07-28 2011-02-03 Vocollect Healthcare Systems, Inc. Method and system for sending messages
US8434153B2 (en) 2009-08-24 2013-04-30 Microsoft Corporation Application display on a locked device
US8386649B2 (en) 2009-09-16 2013-02-26 EchoStar Technologies, L.L.C. User input command relaying
US20110099157A1 (en) * 2009-10-28 2011-04-28 Google Inc. Computer-to-Computer Communications
GB2476668B (en) 2009-12-31 2015-06-17 Sony Europe Ltd Audiovisual multi-room Support
US8522283B2 (en) * 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
CN201830294U (zh) 2010-08-18 2011-05-11 深圳市子栋科技有限公司 基于语音命令的导航系统及导航服务器
CN102006373B (zh) 2010-11-24 2015-01-28 深圳市车音网科技有限公司 基于语音命令控制的车载服务系统及方法
CN102573003A (zh) * 2010-12-22 2012-07-11 国民技术股份有限公司 一种即时通信系统、接入设备及通讯设备
US20120223885A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
JP5234160B2 (ja) * 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
JP5145439B2 (ja) * 2011-03-31 2013-02-20 シャープ株式会社 コンテンツ再生装置、テレビジョン受像機、情報提供システム、情報提供方法、情報提供プログラム、および記録媒体
US8417570B2 (en) 2011-04-07 2013-04-09 1Spire, Inc. System for automated media delivery to mobile devices and mobile device lockscreens
US9886567B2 (en) 2011-06-24 2018-02-06 Facebook, Inc. Display dynamic contents on locked screens
US8930492B2 (en) 2011-10-17 2015-01-06 Blackberry Limited Method and electronic device for content sharing
US8863202B2 (en) * 2011-11-11 2014-10-14 Sony Corporation System and method for voice driven cross service search using second display
KR101467519B1 (ko) * 2011-11-21 2014-12-02 주식회사 케이티 음성 정보를 이용한 컨텐츠 검색 서버 및 방법
US8249876B1 (en) 2012-01-03 2012-08-21 Google Inc. Method for providing alternative interpretations of a voice input to a user
US20130325451A1 (en) * 2012-05-31 2013-12-05 Elwha LLC, a limited liability company of the State of Delaware Methods and systems for speech adaptation data
US20130339026A1 (en) 2012-06-13 2013-12-19 Shawn Lee Portable electronic reminder device
ES2736955T3 (es) 2012-08-27 2020-01-09 Broadpeak Sistema y método para la distribución de un contenido audiovisual a un dispositivo de cliente
US9275642B2 (en) 2012-11-13 2016-03-01 Unified Computer Intelligence Corporation Voice-operated internet-ready ubiquitous computing device and method thereof
US20140143666A1 (en) 2012-11-16 2014-05-22 Sean P. Kennedy System And Method For Effectively Implementing A Personal Assistant In An Electronic Network
US10565862B2 (en) 2012-11-27 2020-02-18 Comcast Cable Communications, Llc Methods and systems for ambient system control
US9432201B2 (en) 2012-12-24 2016-08-30 Intel Corporation Providing multiple content items for display on multiple devices

Also Published As

Publication number Publication date
EP2973543A4 (en) 2016-11-30
CN105264485B (zh) 2019-05-21
EP2973543B1 (en) 2021-06-30
US20140278438A1 (en) 2014-09-18
EP2973543A1 (en) 2016-01-20
JP2016519805A (ja) 2016-07-07
WO2014160327A1 (en) 2014-10-02
CN105264485A (zh) 2016-01-20
US10133546B2 (en) 2018-11-20

Similar Documents

Publication Publication Date Title
JP6125088B2 (ja) 複数のデバイス上でコンテンツを提供すること
US10832653B1 (en) Providing content on multiple devices
US11429345B2 (en) Remote execution of secondary-device drivers
US11468889B1 (en) Speech recognition services
US11488591B1 (en) Altering audio to improve automatic speech recognition
US11102624B2 (en) Automated messaging
US11099810B2 (en) Systems and methods for communicating notifications and textual data associated with applications
JP7083270B2 (ja) 複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤ
TWI585744B (zh) 用於操作虛擬助理之方法、系統及電腦可讀取儲存媒體
US11222635B2 (en) Electronic device for processing user speech and operating method therefor
CN107111492B (zh) 跨诸设备缩放数字个人助理代理
JP2022084707A (ja) デジタルアシスタントサービスの遠距離拡張
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
JP2020038709A (ja) 人工知能機器における連続会話機能
US10062386B1 (en) Signaling voice-controlled devices
US10438582B1 (en) Associating identifiers with audio signals
KR102456526B1 (ko) 장애인을 위한 의사소통 보조 서비스 제공 방법
US20210099531A1 (en) Communication platform shifting for voice-enabled device
US20210264910A1 (en) User-driven content generation for virtual assistant

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161228

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170404

R150 Certificate of patent or registration of utility model

Ref document number: 6125088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250