JP2013527947A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2013527947A5 JP2013527947A5 JP2013500235A JP2013500235A JP2013527947A5 JP 2013527947 A5 JP2013527947 A5 JP 2013527947A5 JP 2013500235 A JP2013500235 A JP 2013500235A JP 2013500235 A JP2013500235 A JP 2013500235A JP 2013527947 A5 JP2013527947 A5 JP 2013527947A5
- Authority
- JP
- Japan
- Prior art keywords
- data
- user
- image processing
- image
- processing operations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000875 corresponding Effects 0.000 claims description 22
- 241000093804 Berzelia galpinii Species 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 14
- 230000003466 anti-cipated Effects 0.000 claims description 2
- 238000005452 bending Methods 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 33
- 230000003287 optical Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Description
当然、上述の方法に対応するデバイス及びソフトウェア、並びに、上述のデバイスに対応する方法及びソフトウェアもまた、出願人の発明の研究の部分である。また、ポータブルデバイス内のプロセッサによって行われているとして記載される方法をまた、リモートサーバによって行うこともでき、又は、いくつかのユニットによって分散した方法で行うことができる。
発明例
[発明例1]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、音声を受信する少なくとも1つのマイクロフォンをも含み、前記方法が、
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信するステップと、
前記認識されたユーザ発話データを参照することによって、前記マイクロフォン(複数可)によって受信された音声に関連して適用されるべき、1つ若しくは複数の信号処理動作(複数可)、又は、信号処理動作のためのパラメータを推論するステップと、
を含む、方法。
[発明例2]
前記マイクロフォン(複数可)によって受信された音声において、前記推論された信号処理動作(複数可)を行うステップをさらに含む、発明例1に記載の方法。
[発明例3]
前記方法が、前記推論された信号処理動作(複数可)を行うステップに関連して、前記ポータブルデバイスの画面上に、それに関係付けられたボーブルを表示するステップをさらに含み、前記ボーブルの外観が、第1の状態から第2の状態へ変化して、前記信号処理における処理を示す、発明例2に記載の方法。
[発明例4]
前記推論するステップが、認識されたユーザ発話データをデータ構造に適用し、且つ、命令、又は、それに対応するパラメータデータを取得するサブステップを含む、発明例1に記載の方法。
[発明例5]
前記信号処理動作(複数可)が、音声イコライゼーション機能を含む、発明例1に記載の方法。
[発明例6]
前記パラメータが、それにより前記音声がサンプリング又は再サンプリングされるサンプリング周波数に関する、発明例1に記載の方法。
[発明例7]
前記パラメータが、前記音声に関連して調べられるべきであるリモートデータベースの識別に関する、発明例1に記載の方法。
[発明例8]
前記信号処理動作(複数可)が、前記音声に適用されるべきコンテンツ識別処理に関する、発明例1に記載の方法。
[発明例9]
前記信号処理動作(複数可)が、前記音声に適用されるべきウォーターマークベースのコンテンツ識別処理に関する、発明例8に記載の方法。
[発明例10]
前記信号処理動作(複数可)が、前記音声に適用されるべきフィンガープリントベースのコンテンツ識別処理に関する、発明例8に記載の方法。
[発明例11]
前記認識された発話データが、前記ユーザの環境内の対象を識別し、前記方法が、前記識別された対象に基づいて、前記1つ若しくは複数の信号処理動作(複数可)、又は、パラメータを推論するステップを含む、発明例1に記載の方法。
[発明例12]
前記音声データを、前記ポータブルユーザデバイス内の音声認識モジュールに適用するステップを含む、発明例1に記載の方法。
[発明例13]
前記認識されたユーザ発話データが、ない(not)、ノー(no)、及び、無視する(ignore)、というリストからの否定を含み、前記方法が、それに基づいて信号処理を変更するステップを含む、発明例1に記載の方法。
[発明例14]
前記推論するステップがまた、部分的にコンテキスト情報にも基づく、発明例1に記載の方法。
[発明例15]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、前記ユーザの環境から第1及び第2の異なるタイプの刺激をそれぞれ受信するための、少なくとも第1のセンサ及び第2のセンサをも含み、前記第1のセンサが、聴覚刺激を検知するためのマイクロフォンを備え、前記方法が、
音声認識モジュールに、前記マイクロフォンによって受信されたユーザ発話に対応する音声データを適用するステップと、
前記音声認識モジュールから、動詞に対応する、認識された動詞データを受信するステップと、
前記認識された動詞データを参照することによって、前記第1の刺激タイプ又は前記第2の刺激タイプのうちどちらが前記ユーザにとって関心のあるものであるかを決定するステップと、
前記音声認識モジュールから、前記ユーザの環境内の対象に対応する、認識された名詞データを受信するステップと、
前記認識された名詞データを参照することによって、前記決定されたタイプの刺激に関連して適用されるべき、1つ若しくは複数の信号処理動作(複数可)、又は、信号処理動作のためのパラメータを決定するステップと、
を含む、方法。
[発明例16]
前記動詞データが、注視する(look)、見守る(watch)、眺める(view)、見る(see)、及び、読む(read)、からなるリストからの動詞に対応するデータを備える、発明例15に記載の方法。
[発明例17]
前記動詞データが、聴く(listen)、及び、聞く(hear)、からなるリストからの動詞に対応するデータを備える、発明例15に記載の方法。
[発明例18]
前記名詞データが、新聞、本、雑誌、ポスター、テキスト、印刷物、チケット、箱、パッケージ、カートン、包装紙、製品、バーコード、ウォーターマーク、写真、人、男性、少年、女性、少女、人々、ディスプレイ、画面、モニタ、ビデオ、映画、テレビ、ラジオ、アイフォン、アイパッド(登録商標)、及び、キンドル、からなるリストからの名詞に対応するデータを備える、発明例15に記載の方法。
[発明例19]
前記認識された動詞データを参照することによって、視覚刺激が前記ユーザにとって関心のあるものであることを決定するステップと、前記視覚刺激に適用されるべき画像処理のタイプを決定するステップと、を含む、発明例15に記載の方法。
[発明例20]
前記画像処理のタイプが、デジタルウォーターマーク復号を備える、発明例19に記載の方法。
[発明例21]
前記画像処理のタイプが、画像フィンガープリンティングを備える、発明例19に記載の方法。
[発明例22]
前記画像処理のタイプが、光学式文字認識を備える、発明例19に記載の方法。
[発明例23]
前記画像処理のタイプが、バーコード読み取りを備える、発明例19に記載の方法。
[発明例24]
前記認識された動詞データを参照することによって、視覚刺激が前記ユーザにとって関心のあるものであることを決定するステップと、
前記認識された名詞データを参照することによって、視覚刺激に適用されるべきフィルタリング機能を決定するステップと、
を含む、発明例15に記載の方法。
[発明例25]
前記認識された動詞データを参照することによって、視覚刺激が前記ユーザにとって関心のあるものであることを決定するステップと、
前記認識された名詞データを参照することによって、視覚刺激に適用されるべき光学的焦点合わせ機能を決定するステップと、
を含む、発明例15に記載の方法。
[発明例26]
前記認識されたユーザ発話データが、ない(not)、ノー(no)、及び、無視する(ignore)、というリストからの否定を含む、発明例15に記載の方法。
[発明例27]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、第1及び第2の異なるタイプの刺激をそれぞれ受信するための、少なくとも第1のセンサ及び第2のセンサをも含み、前記方法が、
前記デバイスにおいて、前記ユーザにとって関心のあるものである、前記ユーザの環境内の対象の識別を助ける、非触覚ユーザ入力を受信するステップと、
関心の対象を示す前記入力を参照することによって、関連付けられたセンサデータ処理システムを、その対象に関連付けられた情報を抽出するように構成するステップと、
を含む、方法。
[発明例28]
前記ユーザにとって関心のあるものである前記対象を示す、ユーザ発話入力を受信するステップを含む、発明例27に記載の方法。
[発明例29]
前記構成するステップが、前記関連付けられたセンサに関するデータを処理することにおいて使用されるパラメータを確立するサブステップを含む、発明例27に記載の方法。
[発明例30]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、前記ユーザの環境から第1及び第2の異なるタイプの刺激をそれぞれ受信するための、少なくとも第1のセンサ及び第2のセンサをも含み、前記第1のセンサが、聴覚刺激を検知するためのマイクロフォンを備え、前記方法が、
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信するステップと、
前記認識されたユーザ発話データを参照することによって、前記第2のタイプの刺激に関連して適用されるべき処理を、少なくとも部分的に定義するパラメータを確立するステップと、
を含む、方法。
[発明例31]
非一時的ソフトウェア命令を含む、コンピュータ可読物理記憶媒体であって、前記非一時的ソフトウェア命令が、そのようなソフトウェア命令によってプログラムされたユーザデバイスプロセッサに、
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信すること、及び
前記認識されたユーザ発話データを参照することによって、前記第2のタイプの刺激に関連して適用されるべき処理を、少なくとも部分的に定義するパラメータを確立すること
を行わせるように動作する、コンピュータ可読物理記憶媒体。
[発明例32]
前記確立されたパラメータに従って、前記第2のタイプの刺激を処理することを、前記プロセッサに行わせるように動作する命令を追加で含む、発明例31に記載のコンピュータ可読物理記憶媒体。
[発明例33]
音声を受信する少なくとも1つのマイクロフォンを有し、且つ、プロセッサを有するスマートフォンデバイスであって、前記プロセッサが、以下の
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信するステップと、
前記認識されたユーザ発話データを参照することによって、前記第2のタイプの刺激に関連して適用されるべき処理を、少なくとも部分的に定義するパラメータを確立するステップと、
前記確立されたパラメータに従って、前記第2のタイプの刺激を処理するステップと、
を行うように構成される、スマートフォンデバイス。
[発明例34]
複数のセンサと、プロセッサと、メモリとを有するポータブルデバイスを用いた方法であって、前記プロセッサが、複数の認識エージェントサービスの実行に関与し、前記サービスが、センサデータを入力として取り、且つ、出力を作り出し、前記メモリが、ブラックボードデータ構造を備え、前記方法が、サービスに対して、前記ブラックボードデータ構造においてデータを投稿、編集又は削除するための特権を、(a)前記サービスが性質的に商用であるかどうか、及び/又は、(b)前記サービスに関する外部プロバイダから用意された信用のしるしが基準を満たすかどうかに応じて、付与するステップを含む、方法。
[発明例35]
前記ブラックボードデータ構造が、異なる認識エージェントサービスがデータを投稿することができる先の複数の仮想ページを、その間のリンクと共に備える、ウィキとして配置される、発明例34に記載の方法。
[発明例36]
画像及び音声センサと、プロセッサと、メモリとを有するポータブルデバイスであって、前記メモリが、以下の
画像データを処理して、オブジェクト認識データを作り出すステップと、
音声データを処理して、認識された発話データを作り出すステップと、
前記認識された発話データを作り出すことにおける曖昧性を解決することに関連して、前記オブジェクト認識データを使用するステップと、
を、前記デバイスに行わせる命令を格納する、ポータブルデバイス。
[発明例37]
場所及び音声センサと、プロセッサと、メモリとを有するポータブルデバイスであって、前記メモリが、以下の
前記場所センサからのデータを参照することによって、前記デバイスの場所についての場所記述子を取得するステップと、
音声データを処理して、認識された発話データを作り出すステップと、
前記認識された発話データを作り出すことにおける曖昧性を解決することに関連して、前記場所記述子を使用するステップと、
を、前記デバイスに行わせる命令を格納する、ポータブルデバイス。
[発明例38]
受信された画像データを解析して、カラフルさのメトリック又はコントラストのメトリックを決定するステップと、
異なるタイプの画像から導出された情報をモバイル電話からユーザに提示するために、複数の異なる画像認識処理のうちどれが、又は、複数の異なる画像認識処理がどの順序で、前記モバイル電話のカメラによってキャプチャされた画像データに適用されるべきであるかを決定することにおいて、前記決定されたメトリックを使用するステップと、
を含む、方法。
[発明例39]
前記決定するステップに従って、画像認識処理を適用するステップを含む、発明例38に記載の方法。
[発明例40]
バーコード読み取り機能、光学式文字認識機能、顔認識機能、及び/又は、ウォーターマーク復号機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例41]
バーコード読み取り機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例42]
光学式文字認識機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例43]
顔認識機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例44]
ウォーターマーク復号機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例45]
前記画像データを、モバイル電話デバイスのカメラシステムから受信するステップを含む、発明例38に記載の方法。
[発明例46]
前記複数の画像認識処理のうちどれを呼び出さないかを決定することにおいて、前記決定されたメトリックを使用するステップをさらに含む、発明例38に記載の方法。
[発明例47]
プロセッサと、メモリとを含むモバイル電話であって、前記メモリが、発明例38に記載の方法を前記プロセッサに行わせる、非一時的ソフトウェア命令を含む、モバイル電話。
[発明例48]
非一時的ソフトウェア命令を格納しているコンピュータ可読記憶媒体であって、前記命令が、それによってプログラムされたモバイル電話プロセッサに、
受信された画像データを解析して、色の彩度のメトリック又はコントラストのメトリックを決定すること、及び
複数の異なる画像認識処理のうちどれが、又は、複数の異なる画像認識処理がどの順序で、前記モバイル電話によって呼び出されるべきであるかを決定することにおいて、前記決定されたメトリックを使用することを行わせるように動作する、コンピュータ可読記憶媒体。
[発明例49]
受信された画像データを解析して、色の彩度のメトリックを決定するステップと、
前記決定されたメトリックを、閾値と比較するステップと、
前記決定されたメトリックが前記閾値より低い場合、第1のセットの処理から1つ又は複数の認識処理を適用するステップと、
前記決定されたメトリックが前記閾値より高い場合、前記第1のセットの処理とは異なる第2のセットの処理から、1つ又は複数の認識処理を適用するステップと、
を含む、方法。
[発明例50]
前記決定されたメトリックが前記閾値より低い場合、前記第1のセットの処理から1つ又は複数の認識処理を適用した後、前記第2のセットの処理から認識処理を適用するステップをさらに含む、発明例49に記載の方法。
[発明例51]
前記セットのうち一方がバーコード読み取り処理を含み、前記セットのうち他方が顔認識処理を含む、発明例49に記載の方法。
[発明例52]
前記セットのうち一方がバーコード読み取り処理を含み、前記セットのうち他方がオブジェクト認識処理を含む、発明例49に記載の方法。
[発明例53]
前記セットのうち一方がOCR処理を含み、前記セットのうち他方が顔認識処理を含む、発明例49に記載の方法。
[発明例54]
前記セットのうち一方がOCR処理を含み、前記セットのうち他方がオブジェクト認識処理を含む、発明例49に記載の方法。
[発明例55]
第1のセットの画像データを解析して、色の彩度のメトリックを計算するステップと、
前記計算された色の彩度のメトリックを、入力として、ルールベースの処理に適用して、複数の異なる認識処理のうちどれが、又は、複数の異なる認識処理がどの順序で、適用されるべきであるかを決定するステップと、
前記決定された認識処理(複数可)を、画像データのセットに適用するステップと、
を含む、方法。
[発明例56]
前記決定された認識処理(複数可)を、前記第1のセットの画像データに適用するステップを含む、発明例55に記載の方法。
[発明例57]
前記決定された認識処理(複数可)を、前記第1のセットの画像データとは異なる第2のセットの画像データに適用するステップを含む、発明例55に記載の方法。
[発明例58]
センサベースの、人力による、ルートに沿ったナビゲーションの方法であって、前記方法が、
目的地までのルートを決定するステップと、
前記ユーザによって携行された電子装置内の1つ又は複数のセンサを使用して、前記決定されたルートに沿ったユーザの進行を検知するステップと、
フィードバックを前記ユーザに提供して、ナビゲーションを支援するステップと、
を含み、
前記フィードバックが、前記ユーザが前記目的地へ向かって進行するにつれて、より頻繁になるクリックのパターンを含む、方法。
[発明例59]
前記フィードバックが、振動フィードバックを含む、発明例58に記載の方法。
[発明例60]
前記ユーザが向く方向に従って、前記フィードバックを変更して、前記ユーザによる進行するべき方向の決定を支援するステップを含む、発明例58に記載の方法。
[発明例61]
前記ユーザが静止しているとき、前記フィードバックの大きさを増し、又は、前記ユーザが動いているとき、前記フィードバックの前記大きさを減らすステップを含む、発明例58に記載の方法。
[発明例62]
前記1つ又は複数のセンサが、その方向を示す出力データを作り出す磁力計を含み、前記磁力計が、−前記装置が前記ユーザによって携行される向きにより−前記ユーザが向いている方向よりも逸脱する方向を示すことがあり、前記方法が、前記逸脱を補償するステップを含む、発明例58に記載の方法。
[発明例63]
画像データを処理する、カメラ付きポータブルデバイスを操作する方法であって、前記デバイスがユーザによって携行され、前記方法が、以下の
最初のセットの複数の異なる画像処理演算を行うステップと、
明示されたユーザコマンドなしに、状況が保証するとき、追加の画像処理演算を呼び出すステップと、
を含み、
前記デバイスが自律的に作動して、推論又は予想されたユーザの要望をかなえる、方法。
[発明例64]
前記画像処理演算のうち1つ又は複数の結果生じるデータオブジェクトを格納するか、又は、その前記格納を用意し、前記データオブジェクトに関するセマンティックアサーションを、リモートのリンクトデータレジストリへ送信するステップを含む、発明例63に記載の方法。
[発明例65]
前記画像データによって表されたシーン内で1つ又は複数の視覚的特徴を見極め、視覚的ボーブルを前記デバイスの画面上で、前記シーン内の前記視覚的特徴(複数可)に対応する場所(複数可)に提示するステップを含む、発明例63に記載の方法。
[発明例66]
前記ボーブルが、長方形でない形状である、発明例65に記載の方法。
[発明例67]
前記デバイス画面上で1つ又は複数のボーブルに関して、ユーザのジェスチャーを検知し、それに基づいてアクションを起こすステップを含む、発明例65に記載の方法。
[発明例68]
前記アクションが、
(a)より多いか又はより少ない処理リソースを、ボーブルに関連付けられた機能に割り振るステップであって、前記機能が、前記ユーザのジェスチャーを検知するより前に開始されている、ステップと、
(b)ボーブルに関連付けられた処理を縮小し、それに関係付けられた情報を格納して、ユーザプリファレンス又は振る舞いのパターンを見極めることができるようにするステップと、
(c)リモート処理システム内で関連処理を継続中に、前記デバイス上でボーブルに関連付けられた処理を少なくとも一時的に縮小するステップと、
(d)画像を編集して、1つ又は複数の特徴を除外するステップと、
(e)前記デバイス画面上に提示された画像データ内の1つ又は複数の特徴の投影を変更するステップと、
(f)複数のボーブルによって表されたエンティティ間の社会的関係を定義するステップと、
のうち、少なくとも1つを含む、発明例67に記載の方法。
[発明例69]
前記提示されたボーブルのうち少なくとも1つを遠近法によって曲げて、前記シーン内で見極められた表面特徴に対応するようにするステップを含む、発明例65に記載の方法。
[発明例70]
前記画像処理演算のうち1つ又は複数が、前記シーン内で特徴を認識又は識別するなど、所望の結果に向かって進行するとき、前記提示されたボーブルのうち1つの明るさ、形状又はサイズを変更するステップを含む、発明例65に記載の方法。
[発明例71]
前記呼び出すステップが、
(a)場所、
(b)時刻、
(c)1人又は複数の人々への近接、
(d)前記最初のセットの画像処理演算に基づいた出力、又は
(e)ユーザの振る舞いの統計モデルのうち、少なくとも1つを含む状況に基づいて、追加の画像処理演算を呼び出すサブステップを含む、発明例63に記載の方法。
[発明例72]
前記画像処理演算のうち1つ又は複数からの結果を含むデータから、前記ユーザによって望まれたインタラクションのタイプについての情報を推論し、そのような情報に基づいて、追加の画像処理演算を呼び出すステップを含む、発明例63に記載の方法。
[発明例73]
データをリモートシステムへ送信して、前記リモートシステムが前記デバイスと同じ画像処理演算のうち1つ又は複数を行うことができるようにするステップをも含む、発明例63に記載の方法。
[発明例74]
前記デバイスが自律的に作動して、前記デバイスのカメラによって撮像された硬貨の集まりの価値を決定する、発明例63に記載の方法。
[発明例75]
第1のセットの行われるべき追加の画像処理演算を、より大きい第2のセットの可能な画像処理演算から、
(a)デバイスリソース使用、
(b)別々の前記可能な演算に関連付けられたリソース需要、及び
(c)別々の前記可能な演算の間の対応のうち、1つ又は複数を示すデータに基づいて、選択するステップを含む、発明例63に記載の方法。
[発明例76]
前記方法が、前記画像データによって表されたシーン内で1つ又は複数の視覚的特徴を見極め、そのような特徴の各々に関係付けられたデータを、対応する識別子に関連して格納するステップを含み、前記識別子が、以下の
(a)セッションID、
(b)明示的オブジェクトID、及び
(c)前記特徴から導出された、又は、関連状況から導出されたデータのうち、少なくとも2つに基づく、発明例63に記載の方法。
[発明例77]
前記方法が、前記デバイス内の非画像センサシステムを使用して、非画像情報を作り出し、そのような情報を、以下の
(a)画像処理演算の選択に影響を与えること、及び
(b)前記画像データについての2つ以上の候補の結論の間の曖昧性を除去することのうち、少なくとも1つのために用いるステップを含み、
前記非画像センサシステムが、ジオロケーションシステム、音声センサ、温度センサ、磁場センサ、動きセンサ又は嗅覚センサのうち、少なくとも1つを含む、発明例63に記載の方法。
[発明例78]
前記画像データのうち少なくとも一定のもの、又は、前記画像処理演算のうち1つ又は複数からのデータを、リモートコンピュータシステムへ送信して、前記リモートコンピュータシステムが、前記デバイスが、その処理中に、見極めなかった情報を収集するために、前記デバイスによって以前に行われた画像処理を継続することができるようにするステップをさらに含む、発明例63に記載の方法。
[発明例79]
磁気センサ付きスマートフォンを操作する方法であって、小売店環境内で複数の電磁エミッタによって出された磁気信号を検知し、それに基づいて、ナビゲーション又は製品情報をユーザに提供するステップによって特徴付けられる、方法。
[発明例80]
第1のフェーズの動作内で、画像のシーケンスをユーザの周囲からキャプチャするステップと、
前記シーケンスを処理して、その中で特徴を認識し、関連情報を識別するステップであって、前記処理が、前記ユーザによって携行されたポータブル装置によって少なくとも部分的に行われる、ステップと、
前記第1の後に続く第2のフェーズの動作内で、前記ポータブル装置に関連付けられた出力デバイスを使用して、前記関連情報を前記ユーザに提示するステップと、
を含む、方法。
[発明例81]
(a)さもなければ前記シーケンスのより前の部分内で識別不可能である、画像特徴を前記シーケンスのより後の部分内で識別し、前記より後の部分からの前記識別を使用して、前記より前の部分内で前記特徴を識別するステップと、
(b)ユーザのジェスチャーに応答して、前記関連情報のうち少なくともいくつかによって注釈が付けられた、前記シーケンスの少なくとも部分中を前方又は後方に進むステップと、
のうち、少なくとも1つを含む、発明例80に記載の方法。
[発明例82]
物理的オブジェクトについての、アサーションにアクセスするため、又は、アサーションを作成するためのユーザの能力を、前記ユーザが前記オブジェクトとの、又は、そのようなアサーションを以前に作成した別のユーザとの明白な関係を有しなければ、制限するステップによって特徴付けられる、リンクトデータ方法。
[発明例83]
前記明白な関係が、前記ユーザによって携行されたスマートフォンデバイス内のセンサシステムによって作り出されたデータによって示されるような、前記物理的オブジェクトから一定の距離内の存在である、発明例82に記載の方法。
[発明例84]
ユーザによって携行されたセンサによって作り出されたデータに基づいて、動き情報をチェックし、前記動き情報が、前記ユーザが制限された方法で動いていることを示す場合、物理的オブジェクトに関する、アサーションにアクセスするため、又は、アサーションを作成するための前記ユーザの能力を制限するステップによって特徴付けられる、リンクトデータ方法。
[発明例85]
前記制限された方法が、閾値より上の速度の動きを含む、発明例84に記載の方法。
[発明例86]
プロセッサと、メモリと、タッチスクリーンと、場所決定モジュールと、少なくとも1つの音声又は画像センサとを含む、処理デバイスであって、前記メモリが、前記タッチスクリーン上でユーザインタフェースを提示するように前記プロセッサを構成する命令を格納し、前記ユーザインタフェースの第1の部分が、前記センサからの情報を提示し、前記ユーザインタフェースの第2の部分が、前記デバイスの場所に関係付けられた情報を同時に提示する、処理デバイス。
[発明例87]
前記デバイスの場所に関係付けられた前記情報が、近くの付近を描く地図を備え、前記命令が、前記ユーザの過去にあったアクションを示すピンを前記地図上に提示するように、前記プロセッサを構成する、発明例86に記載のデバイス。
[発明例88]
プロセッサと、メモリと、画面と、画像センサとを含む、処理デバイスであって、前記メモリが、前記タッチスクリーン上で、前記画像センサによって検知された画像に対応するデータを提示するように前記プロセッサを構成する命令を格納し、前記プロセッサが、前記タッチスクリーン上で、スイープするレーダートレース効果をさらに提示して、画像データを処理することにおけるデバイスアクティビティを示す、処理デバイス。
[発明例89]
前記命令が、前記スイープするレーダートレースを引きずりながら、前記画像センサによって撮像されたオブジェクトの向きについてのしるしを提示するように、前記プロセッサを構成する、発明例88に記載のデバイス。
[発明例90]
前記しるしが、検知された画像データにおけるデジタルウォーターマークの向きを示す、発明例89に記載のデバイス。
[発明例91]
サウンドソース位置測定の方法であって、
環境内の複数の無線電話を使用して、周囲の音声をサンプリングするステップと、
第1の電話によって検知された音声情報を、第2の電話へ送信するステップと、
前記第1の電話の位置を前記第2の場所に関係付ける、場所データを見極めるステップと、
前記第2の電話において、前記場所データ、前記第1の電話から受信された音声情報、及び、前記第2の電話によってサンプリングされた音声を処理して、前記第2の電話に対するサウンドソース方向を見極めるステップと、
を含む、方法。
[発明例92]
前記送信するステップが、ウィンドウ化周波数ドメイン(windowed frequency domain)ベースの圧縮によって時間的に曖昧にされていない情報を送信するサブステップを含む、発明例91に記載の方法。
発明例
[発明例1]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、音声を受信する少なくとも1つのマイクロフォンをも含み、前記方法が、
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信するステップと、
前記認識されたユーザ発話データを参照することによって、前記マイクロフォン(複数可)によって受信された音声に関連して適用されるべき、1つ若しくは複数の信号処理動作(複数可)、又は、信号処理動作のためのパラメータを推論するステップと、
を含む、方法。
[発明例2]
前記マイクロフォン(複数可)によって受信された音声において、前記推論された信号処理動作(複数可)を行うステップをさらに含む、発明例1に記載の方法。
[発明例3]
前記方法が、前記推論された信号処理動作(複数可)を行うステップに関連して、前記ポータブルデバイスの画面上に、それに関係付けられたボーブルを表示するステップをさらに含み、前記ボーブルの外観が、第1の状態から第2の状態へ変化して、前記信号処理における処理を示す、発明例2に記載の方法。
[発明例4]
前記推論するステップが、認識されたユーザ発話データをデータ構造に適用し、且つ、命令、又は、それに対応するパラメータデータを取得するサブステップを含む、発明例1に記載の方法。
[発明例5]
前記信号処理動作(複数可)が、音声イコライゼーション機能を含む、発明例1に記載の方法。
[発明例6]
前記パラメータが、それにより前記音声がサンプリング又は再サンプリングされるサンプリング周波数に関する、発明例1に記載の方法。
[発明例7]
前記パラメータが、前記音声に関連して調べられるべきであるリモートデータベースの識別に関する、発明例1に記載の方法。
[発明例8]
前記信号処理動作(複数可)が、前記音声に適用されるべきコンテンツ識別処理に関する、発明例1に記載の方法。
[発明例9]
前記信号処理動作(複数可)が、前記音声に適用されるべきウォーターマークベースのコンテンツ識別処理に関する、発明例8に記載の方法。
[発明例10]
前記信号処理動作(複数可)が、前記音声に適用されるべきフィンガープリントベースのコンテンツ識別処理に関する、発明例8に記載の方法。
[発明例11]
前記認識された発話データが、前記ユーザの環境内の対象を識別し、前記方法が、前記識別された対象に基づいて、前記1つ若しくは複数の信号処理動作(複数可)、又は、パラメータを推論するステップを含む、発明例1に記載の方法。
[発明例12]
前記音声データを、前記ポータブルユーザデバイス内の音声認識モジュールに適用するステップを含む、発明例1に記載の方法。
[発明例13]
前記認識されたユーザ発話データが、ない(not)、ノー(no)、及び、無視する(ignore)、というリストからの否定を含み、前記方法が、それに基づいて信号処理を変更するステップを含む、発明例1に記載の方法。
[発明例14]
前記推論するステップがまた、部分的にコンテキスト情報にも基づく、発明例1に記載の方法。
[発明例15]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、前記ユーザの環境から第1及び第2の異なるタイプの刺激をそれぞれ受信するための、少なくとも第1のセンサ及び第2のセンサをも含み、前記第1のセンサが、聴覚刺激を検知するためのマイクロフォンを備え、前記方法が、
音声認識モジュールに、前記マイクロフォンによって受信されたユーザ発話に対応する音声データを適用するステップと、
前記音声認識モジュールから、動詞に対応する、認識された動詞データを受信するステップと、
前記認識された動詞データを参照することによって、前記第1の刺激タイプ又は前記第2の刺激タイプのうちどちらが前記ユーザにとって関心のあるものであるかを決定するステップと、
前記音声認識モジュールから、前記ユーザの環境内の対象に対応する、認識された名詞データを受信するステップと、
前記認識された名詞データを参照することによって、前記決定されたタイプの刺激に関連して適用されるべき、1つ若しくは複数の信号処理動作(複数可)、又は、信号処理動作のためのパラメータを決定するステップと、
を含む、方法。
[発明例16]
前記動詞データが、注視する(look)、見守る(watch)、眺める(view)、見る(see)、及び、読む(read)、からなるリストからの動詞に対応するデータを備える、発明例15に記載の方法。
[発明例17]
前記動詞データが、聴く(listen)、及び、聞く(hear)、からなるリストからの動詞に対応するデータを備える、発明例15に記載の方法。
[発明例18]
前記名詞データが、新聞、本、雑誌、ポスター、テキスト、印刷物、チケット、箱、パッケージ、カートン、包装紙、製品、バーコード、ウォーターマーク、写真、人、男性、少年、女性、少女、人々、ディスプレイ、画面、モニタ、ビデオ、映画、テレビ、ラジオ、アイフォン、アイパッド(登録商標)、及び、キンドル、からなるリストからの名詞に対応するデータを備える、発明例15に記載の方法。
[発明例19]
前記認識された動詞データを参照することによって、視覚刺激が前記ユーザにとって関心のあるものであることを決定するステップと、前記視覚刺激に適用されるべき画像処理のタイプを決定するステップと、を含む、発明例15に記載の方法。
[発明例20]
前記画像処理のタイプが、デジタルウォーターマーク復号を備える、発明例19に記載の方法。
[発明例21]
前記画像処理のタイプが、画像フィンガープリンティングを備える、発明例19に記載の方法。
[発明例22]
前記画像処理のタイプが、光学式文字認識を備える、発明例19に記載の方法。
[発明例23]
前記画像処理のタイプが、バーコード読み取りを備える、発明例19に記載の方法。
[発明例24]
前記認識された動詞データを参照することによって、視覚刺激が前記ユーザにとって関心のあるものであることを決定するステップと、
前記認識された名詞データを参照することによって、視覚刺激に適用されるべきフィルタリング機能を決定するステップと、
を含む、発明例15に記載の方法。
[発明例25]
前記認識された動詞データを参照することによって、視覚刺激が前記ユーザにとって関心のあるものであることを決定するステップと、
前記認識された名詞データを参照することによって、視覚刺激に適用されるべき光学的焦点合わせ機能を決定するステップと、
を含む、発明例15に記載の方法。
[発明例26]
前記認識されたユーザ発話データが、ない(not)、ノー(no)、及び、無視する(ignore)、というリストからの否定を含む、発明例15に記載の方法。
[発明例27]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、第1及び第2の異なるタイプの刺激をそれぞれ受信するための、少なくとも第1のセンサ及び第2のセンサをも含み、前記方法が、
前記デバイスにおいて、前記ユーザにとって関心のあるものである、前記ユーザの環境内の対象の識別を助ける、非触覚ユーザ入力を受信するステップと、
関心の対象を示す前記入力を参照することによって、関連付けられたセンサデータ処理システムを、その対象に関連付けられた情報を抽出するように構成するステップと、
を含む、方法。
[発明例28]
前記ユーザにとって関心のあるものである前記対象を示す、ユーザ発話入力を受信するステップを含む、発明例27に記載の方法。
[発明例29]
前記構成するステップが、前記関連付けられたセンサに関するデータを処理することにおいて使用されるパラメータを確立するサブステップを含む、発明例27に記載の方法。
[発明例30]
プロセッサを有するポータブルユーザデバイスを用いた方法であって、前記プロセッサが、前記方法の1つ又は複数のステップを行うように構成され、前記デバイスがまた、前記ユーザの環境から第1及び第2の異なるタイプの刺激をそれぞれ受信するための、少なくとも第1のセンサ及び第2のセンサをも含み、前記第1のセンサが、聴覚刺激を検知するためのマイクロフォンを備え、前記方法が、
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信するステップと、
前記認識されたユーザ発話データを参照することによって、前記第2のタイプの刺激に関連して適用されるべき処理を、少なくとも部分的に定義するパラメータを確立するステップと、
を含む、方法。
[発明例31]
非一時的ソフトウェア命令を含む、コンピュータ可読物理記憶媒体であって、前記非一時的ソフトウェア命令が、そのようなソフトウェア命令によってプログラムされたユーザデバイスプロセッサに、
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信すること、及び
前記認識されたユーザ発話データを参照することによって、前記第2のタイプの刺激に関連して適用されるべき処理を、少なくとも部分的に定義するパラメータを確立すること
を行わせるように動作する、コンピュータ可読物理記憶媒体。
[発明例32]
前記確立されたパラメータに従って、前記第2のタイプの刺激を処理することを、前記プロセッサに行わせるように動作する命令を追加で含む、発明例31に記載のコンピュータ可読物理記憶媒体。
[発明例33]
音声を受信する少なくとも1つのマイクロフォンを有し、且つ、プロセッサを有するスマートフォンデバイスであって、前記プロセッサが、以下の
音声認識モジュールに、マイクロフォン(複数可)によって受信されたユーザ発話に対応する音声データを適用し、且つ、それに対応する認識されたユーザ発話データを受信するステップと、
前記認識されたユーザ発話データを参照することによって、前記第2のタイプの刺激に関連して適用されるべき処理を、少なくとも部分的に定義するパラメータを確立するステップと、
前記確立されたパラメータに従って、前記第2のタイプの刺激を処理するステップと、
を行うように構成される、スマートフォンデバイス。
[発明例34]
複数のセンサと、プロセッサと、メモリとを有するポータブルデバイスを用いた方法であって、前記プロセッサが、複数の認識エージェントサービスの実行に関与し、前記サービスが、センサデータを入力として取り、且つ、出力を作り出し、前記メモリが、ブラックボードデータ構造を備え、前記方法が、サービスに対して、前記ブラックボードデータ構造においてデータを投稿、編集又は削除するための特権を、(a)前記サービスが性質的に商用であるかどうか、及び/又は、(b)前記サービスに関する外部プロバイダから用意された信用のしるしが基準を満たすかどうかに応じて、付与するステップを含む、方法。
[発明例35]
前記ブラックボードデータ構造が、異なる認識エージェントサービスがデータを投稿することができる先の複数の仮想ページを、その間のリンクと共に備える、ウィキとして配置される、発明例34に記載の方法。
[発明例36]
画像及び音声センサと、プロセッサと、メモリとを有するポータブルデバイスであって、前記メモリが、以下の
画像データを処理して、オブジェクト認識データを作り出すステップと、
音声データを処理して、認識された発話データを作り出すステップと、
前記認識された発話データを作り出すことにおける曖昧性を解決することに関連して、前記オブジェクト認識データを使用するステップと、
を、前記デバイスに行わせる命令を格納する、ポータブルデバイス。
[発明例37]
場所及び音声センサと、プロセッサと、メモリとを有するポータブルデバイスであって、前記メモリが、以下の
前記場所センサからのデータを参照することによって、前記デバイスの場所についての場所記述子を取得するステップと、
音声データを処理して、認識された発話データを作り出すステップと、
前記認識された発話データを作り出すことにおける曖昧性を解決することに関連して、前記場所記述子を使用するステップと、
を、前記デバイスに行わせる命令を格納する、ポータブルデバイス。
[発明例38]
受信された画像データを解析して、カラフルさのメトリック又はコントラストのメトリックを決定するステップと、
異なるタイプの画像から導出された情報をモバイル電話からユーザに提示するために、複数の異なる画像認識処理のうちどれが、又は、複数の異なる画像認識処理がどの順序で、前記モバイル電話のカメラによってキャプチャされた画像データに適用されるべきであるかを決定することにおいて、前記決定されたメトリックを使用するステップと、
を含む、方法。
[発明例39]
前記決定するステップに従って、画像認識処理を適用するステップを含む、発明例38に記載の方法。
[発明例40]
バーコード読み取り機能、光学式文字認識機能、顔認識機能、及び/又は、ウォーターマーク復号機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例41]
バーコード読み取り機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例42]
光学式文字認識機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例43]
顔認識機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例44]
ウォーターマーク復号機能を、前記決定するステップの結果として適用するステップを含む、発明例38に記載の方法。
[発明例45]
前記画像データを、モバイル電話デバイスのカメラシステムから受信するステップを含む、発明例38に記載の方法。
[発明例46]
前記複数の画像認識処理のうちどれを呼び出さないかを決定することにおいて、前記決定されたメトリックを使用するステップをさらに含む、発明例38に記載の方法。
[発明例47]
プロセッサと、メモリとを含むモバイル電話であって、前記メモリが、発明例38に記載の方法を前記プロセッサに行わせる、非一時的ソフトウェア命令を含む、モバイル電話。
[発明例48]
非一時的ソフトウェア命令を格納しているコンピュータ可読記憶媒体であって、前記命令が、それによってプログラムされたモバイル電話プロセッサに、
受信された画像データを解析して、色の彩度のメトリック又はコントラストのメトリックを決定すること、及び
複数の異なる画像認識処理のうちどれが、又は、複数の異なる画像認識処理がどの順序で、前記モバイル電話によって呼び出されるべきであるかを決定することにおいて、前記決定されたメトリックを使用することを行わせるように動作する、コンピュータ可読記憶媒体。
[発明例49]
受信された画像データを解析して、色の彩度のメトリックを決定するステップと、
前記決定されたメトリックを、閾値と比較するステップと、
前記決定されたメトリックが前記閾値より低い場合、第1のセットの処理から1つ又は複数の認識処理を適用するステップと、
前記決定されたメトリックが前記閾値より高い場合、前記第1のセットの処理とは異なる第2のセットの処理から、1つ又は複数の認識処理を適用するステップと、
を含む、方法。
[発明例50]
前記決定されたメトリックが前記閾値より低い場合、前記第1のセットの処理から1つ又は複数の認識処理を適用した後、前記第2のセットの処理から認識処理を適用するステップをさらに含む、発明例49に記載の方法。
[発明例51]
前記セットのうち一方がバーコード読み取り処理を含み、前記セットのうち他方が顔認識処理を含む、発明例49に記載の方法。
[発明例52]
前記セットのうち一方がバーコード読み取り処理を含み、前記セットのうち他方がオブジェクト認識処理を含む、発明例49に記載の方法。
[発明例53]
前記セットのうち一方がOCR処理を含み、前記セットのうち他方が顔認識処理を含む、発明例49に記載の方法。
[発明例54]
前記セットのうち一方がOCR処理を含み、前記セットのうち他方がオブジェクト認識処理を含む、発明例49に記載の方法。
[発明例55]
第1のセットの画像データを解析して、色の彩度のメトリックを計算するステップと、
前記計算された色の彩度のメトリックを、入力として、ルールベースの処理に適用して、複数の異なる認識処理のうちどれが、又は、複数の異なる認識処理がどの順序で、適用されるべきであるかを決定するステップと、
前記決定された認識処理(複数可)を、画像データのセットに適用するステップと、
を含む、方法。
[発明例56]
前記決定された認識処理(複数可)を、前記第1のセットの画像データに適用するステップを含む、発明例55に記載の方法。
[発明例57]
前記決定された認識処理(複数可)を、前記第1のセットの画像データとは異なる第2のセットの画像データに適用するステップを含む、発明例55に記載の方法。
[発明例58]
センサベースの、人力による、ルートに沿ったナビゲーションの方法であって、前記方法が、
目的地までのルートを決定するステップと、
前記ユーザによって携行された電子装置内の1つ又は複数のセンサを使用して、前記決定されたルートに沿ったユーザの進行を検知するステップと、
フィードバックを前記ユーザに提供して、ナビゲーションを支援するステップと、
を含み、
前記フィードバックが、前記ユーザが前記目的地へ向かって進行するにつれて、より頻繁になるクリックのパターンを含む、方法。
[発明例59]
前記フィードバックが、振動フィードバックを含む、発明例58に記載の方法。
[発明例60]
前記ユーザが向く方向に従って、前記フィードバックを変更して、前記ユーザによる進行するべき方向の決定を支援するステップを含む、発明例58に記載の方法。
[発明例61]
前記ユーザが静止しているとき、前記フィードバックの大きさを増し、又は、前記ユーザが動いているとき、前記フィードバックの前記大きさを減らすステップを含む、発明例58に記載の方法。
[発明例62]
前記1つ又は複数のセンサが、その方向を示す出力データを作り出す磁力計を含み、前記磁力計が、−前記装置が前記ユーザによって携行される向きにより−前記ユーザが向いている方向よりも逸脱する方向を示すことがあり、前記方法が、前記逸脱を補償するステップを含む、発明例58に記載の方法。
[発明例63]
画像データを処理する、カメラ付きポータブルデバイスを操作する方法であって、前記デバイスがユーザによって携行され、前記方法が、以下の
最初のセットの複数の異なる画像処理演算を行うステップと、
明示されたユーザコマンドなしに、状況が保証するとき、追加の画像処理演算を呼び出すステップと、
を含み、
前記デバイスが自律的に作動して、推論又は予想されたユーザの要望をかなえる、方法。
[発明例64]
前記画像処理演算のうち1つ又は複数の結果生じるデータオブジェクトを格納するか、又は、その前記格納を用意し、前記データオブジェクトに関するセマンティックアサーションを、リモートのリンクトデータレジストリへ送信するステップを含む、発明例63に記載の方法。
[発明例65]
前記画像データによって表されたシーン内で1つ又は複数の視覚的特徴を見極め、視覚的ボーブルを前記デバイスの画面上で、前記シーン内の前記視覚的特徴(複数可)に対応する場所(複数可)に提示するステップを含む、発明例63に記載の方法。
[発明例66]
前記ボーブルが、長方形でない形状である、発明例65に記載の方法。
[発明例67]
前記デバイス画面上で1つ又は複数のボーブルに関して、ユーザのジェスチャーを検知し、それに基づいてアクションを起こすステップを含む、発明例65に記載の方法。
[発明例68]
前記アクションが、
(a)より多いか又はより少ない処理リソースを、ボーブルに関連付けられた機能に割り振るステップであって、前記機能が、前記ユーザのジェスチャーを検知するより前に開始されている、ステップと、
(b)ボーブルに関連付けられた処理を縮小し、それに関係付けられた情報を格納して、ユーザプリファレンス又は振る舞いのパターンを見極めることができるようにするステップと、
(c)リモート処理システム内で関連処理を継続中に、前記デバイス上でボーブルに関連付けられた処理を少なくとも一時的に縮小するステップと、
(d)画像を編集して、1つ又は複数の特徴を除外するステップと、
(e)前記デバイス画面上に提示された画像データ内の1つ又は複数の特徴の投影を変更するステップと、
(f)複数のボーブルによって表されたエンティティ間の社会的関係を定義するステップと、
のうち、少なくとも1つを含む、発明例67に記載の方法。
[発明例69]
前記提示されたボーブルのうち少なくとも1つを遠近法によって曲げて、前記シーン内で見極められた表面特徴に対応するようにするステップを含む、発明例65に記載の方法。
[発明例70]
前記画像処理演算のうち1つ又は複数が、前記シーン内で特徴を認識又は識別するなど、所望の結果に向かって進行するとき、前記提示されたボーブルのうち1つの明るさ、形状又はサイズを変更するステップを含む、発明例65に記載の方法。
[発明例71]
前記呼び出すステップが、
(a)場所、
(b)時刻、
(c)1人又は複数の人々への近接、
(d)前記最初のセットの画像処理演算に基づいた出力、又は
(e)ユーザの振る舞いの統計モデルのうち、少なくとも1つを含む状況に基づいて、追加の画像処理演算を呼び出すサブステップを含む、発明例63に記載の方法。
[発明例72]
前記画像処理演算のうち1つ又は複数からの結果を含むデータから、前記ユーザによって望まれたインタラクションのタイプについての情報を推論し、そのような情報に基づいて、追加の画像処理演算を呼び出すステップを含む、発明例63に記載の方法。
[発明例73]
データをリモートシステムへ送信して、前記リモートシステムが前記デバイスと同じ画像処理演算のうち1つ又は複数を行うことができるようにするステップをも含む、発明例63に記載の方法。
[発明例74]
前記デバイスが自律的に作動して、前記デバイスのカメラによって撮像された硬貨の集まりの価値を決定する、発明例63に記載の方法。
[発明例75]
第1のセットの行われるべき追加の画像処理演算を、より大きい第2のセットの可能な画像処理演算から、
(a)デバイスリソース使用、
(b)別々の前記可能な演算に関連付けられたリソース需要、及び
(c)別々の前記可能な演算の間の対応のうち、1つ又は複数を示すデータに基づいて、選択するステップを含む、発明例63に記載の方法。
[発明例76]
前記方法が、前記画像データによって表されたシーン内で1つ又は複数の視覚的特徴を見極め、そのような特徴の各々に関係付けられたデータを、対応する識別子に関連して格納するステップを含み、前記識別子が、以下の
(a)セッションID、
(b)明示的オブジェクトID、及び
(c)前記特徴から導出された、又は、関連状況から導出されたデータのうち、少なくとも2つに基づく、発明例63に記載の方法。
[発明例77]
前記方法が、前記デバイス内の非画像センサシステムを使用して、非画像情報を作り出し、そのような情報を、以下の
(a)画像処理演算の選択に影響を与えること、及び
(b)前記画像データについての2つ以上の候補の結論の間の曖昧性を除去することのうち、少なくとも1つのために用いるステップを含み、
前記非画像センサシステムが、ジオロケーションシステム、音声センサ、温度センサ、磁場センサ、動きセンサ又は嗅覚センサのうち、少なくとも1つを含む、発明例63に記載の方法。
[発明例78]
前記画像データのうち少なくとも一定のもの、又は、前記画像処理演算のうち1つ又は複数からのデータを、リモートコンピュータシステムへ送信して、前記リモートコンピュータシステムが、前記デバイスが、その処理中に、見極めなかった情報を収集するために、前記デバイスによって以前に行われた画像処理を継続することができるようにするステップをさらに含む、発明例63に記載の方法。
[発明例79]
磁気センサ付きスマートフォンを操作する方法であって、小売店環境内で複数の電磁エミッタによって出された磁気信号を検知し、それに基づいて、ナビゲーション又は製品情報をユーザに提供するステップによって特徴付けられる、方法。
[発明例80]
第1のフェーズの動作内で、画像のシーケンスをユーザの周囲からキャプチャするステップと、
前記シーケンスを処理して、その中で特徴を認識し、関連情報を識別するステップであって、前記処理が、前記ユーザによって携行されたポータブル装置によって少なくとも部分的に行われる、ステップと、
前記第1の後に続く第2のフェーズの動作内で、前記ポータブル装置に関連付けられた出力デバイスを使用して、前記関連情報を前記ユーザに提示するステップと、
を含む、方法。
[発明例81]
(a)さもなければ前記シーケンスのより前の部分内で識別不可能である、画像特徴を前記シーケンスのより後の部分内で識別し、前記より後の部分からの前記識別を使用して、前記より前の部分内で前記特徴を識別するステップと、
(b)ユーザのジェスチャーに応答して、前記関連情報のうち少なくともいくつかによって注釈が付けられた、前記シーケンスの少なくとも部分中を前方又は後方に進むステップと、
のうち、少なくとも1つを含む、発明例80に記載の方法。
[発明例82]
物理的オブジェクトについての、アサーションにアクセスするため、又は、アサーションを作成するためのユーザの能力を、前記ユーザが前記オブジェクトとの、又は、そのようなアサーションを以前に作成した別のユーザとの明白な関係を有しなければ、制限するステップによって特徴付けられる、リンクトデータ方法。
[発明例83]
前記明白な関係が、前記ユーザによって携行されたスマートフォンデバイス内のセンサシステムによって作り出されたデータによって示されるような、前記物理的オブジェクトから一定の距離内の存在である、発明例82に記載の方法。
[発明例84]
ユーザによって携行されたセンサによって作り出されたデータに基づいて、動き情報をチェックし、前記動き情報が、前記ユーザが制限された方法で動いていることを示す場合、物理的オブジェクトに関する、アサーションにアクセスするため、又は、アサーションを作成するための前記ユーザの能力を制限するステップによって特徴付けられる、リンクトデータ方法。
[発明例85]
前記制限された方法が、閾値より上の速度の動きを含む、発明例84に記載の方法。
[発明例86]
プロセッサと、メモリと、タッチスクリーンと、場所決定モジュールと、少なくとも1つの音声又は画像センサとを含む、処理デバイスであって、前記メモリが、前記タッチスクリーン上でユーザインタフェースを提示するように前記プロセッサを構成する命令を格納し、前記ユーザインタフェースの第1の部分が、前記センサからの情報を提示し、前記ユーザインタフェースの第2の部分が、前記デバイスの場所に関係付けられた情報を同時に提示する、処理デバイス。
[発明例87]
前記デバイスの場所に関係付けられた前記情報が、近くの付近を描く地図を備え、前記命令が、前記ユーザの過去にあったアクションを示すピンを前記地図上に提示するように、前記プロセッサを構成する、発明例86に記載のデバイス。
[発明例88]
プロセッサと、メモリと、画面と、画像センサとを含む、処理デバイスであって、前記メモリが、前記タッチスクリーン上で、前記画像センサによって検知された画像に対応するデータを提示するように前記プロセッサを構成する命令を格納し、前記プロセッサが、前記タッチスクリーン上で、スイープするレーダートレース効果をさらに提示して、画像データを処理することにおけるデバイスアクティビティを示す、処理デバイス。
[発明例89]
前記命令が、前記スイープするレーダートレースを引きずりながら、前記画像センサによって撮像されたオブジェクトの向きについてのしるしを提示するように、前記プロセッサを構成する、発明例88に記載のデバイス。
[発明例90]
前記しるしが、検知された画像データにおけるデジタルウォーターマークの向きを示す、発明例89に記載のデバイス。
[発明例91]
サウンドソース位置測定の方法であって、
環境内の複数の無線電話を使用して、周囲の音声をサンプリングするステップと、
第1の電話によって検知された音声情報を、第2の電話へ送信するステップと、
前記第1の電話の位置を前記第2の場所に関係付ける、場所データを見極めるステップと、
前記第2の電話において、前記場所データ、前記第1の電話から受信された音声情報、及び、前記第2の電話によってサンプリングされた音声を処理して、前記第2の電話に対するサウンドソース方向を見極めるステップと、
を含む、方法。
[発明例92]
前記送信するステップが、ウィンドウ化周波数ドメイン(windowed frequency domain)ベースの圧縮によって時間的に曖昧にされていない情報を送信するサブステップを含む、発明例91に記載の方法。
Claims (16)
- 画像データを処理する、カメラ付きポータブルデバイスを操作する方法であって、前記デバイスがユーザによって携行され、前記方法が、以下の
最初のセットの複数の異なる画像処理演算を行うステップと、
明示されたユーザコマンドなしに、状況が保証するとき、追加の画像処理演算を呼び出すステップと、
を含み、
前記デバイスが自律的に作動して、推論又は予想されたユーザの要望をかなえる、方法。 - 前記画像処理演算のうち1つ又は複数の結果生じるデータオブジェクトを格納するか、又は、その前記格納を用意し、前記データオブジェクトに関するセマンティックアサーションを、リモートのリンクトデータレジストリへ送信するステップを含む、請求項1に記載の方法。
- 前記画像データによって表されたシーン内で1つ又は複数の視覚的特徴を見極め、視覚的ボーブルを前記デバイスの画面上で、前記シーン内の前記視覚的特徴(複数可)に対応する場所(複数可)に提示するステップを含む、請求項1に記載の方法。
- 前記ボーブルが、長方形でない形状である、請求項3に記載の方法。
- 前記デバイスの画面上で1つ又は複数のボーブルに関して、ユーザのジェスチャーを検知し、それに基づいてアクションを起こすステップを含む、請求項3に記載の方法。
- 前記アクションが、
(a)より多いか又はより少ない処理リソースを、ボーブルに関連付けられた機能に割り振るステップであって、前記機能が、前記ユーザのジェスチャーを検知するより前に開始されている、ステップと、
(b)ボーブルに関連付けられた処理を縮小し、それに関係付けられた情報を格納して、ユーザプリファレンス又は振る舞いのパターンを見極めることができるようにするステップと、
(c)リモート処理システム内で関連処理を継続中に、前記デバイス上でボーブルに関連付けられた処理を少なくとも一時的に縮小するステップと、
(d)画像を編集して、1つ又は複数の特徴を除外するステップと、
(e)前記デバイスの画面上に提示された画像データ内の1つ又は複数の特徴の投影を変更するステップと、
(f)複数のボーブルによって表されたエンティティ間の社会的関係を定義するステップと、
のうち、少なくとも1つを含む、請求項5に記載の方法。 - 前記提示されたボーブルのうち少なくとも1つを遠近法によって曲げて、前記シーン内で見極められた表面特徴に対応するようにするステップを含む、請求項3に記載の方法。
- 前記画像処理演算のうち1つ又は複数が、前記シーン内で特徴を認識又は識別するなど、所望の結果に向かって進行するとき、前記提示されたボーブルのうち1つの明るさ、形状又はサイズを変更するステップを含む、請求項3に記載の方法。
- 前記呼び出すステップが、
(a)場所、
(b)時刻、
(c)1人又は複数の人々への近接、
(d)前記最初のセットの画像処理演算に基づいた出力、又は
(e)ユーザの振る舞いの統計モデルのうち、少なくとも1つを含む状況に基づいて、追加の画像処理演算を呼び出すサブステップを含む、請求項1に記載の方法。 - 前記画像処理演算のうち1つ又は複数からの結果を含むデータから、前記ユーザによって望まれたインタラクションのタイプについての情報を推論し、そのような情報に基づいて、追加の画像処理演算を呼び出すステップを含む、請求項1に記載の方法。
- データをリモートシステムへ送信して、前記リモートシステムが前記デバイスと同じ画像処理演算のうち1つ又は複数を行うことができるようにするステップをも含む、請求項1に記載の方法。
- 前記デバイスが自律的に作動して、前記デバイスのカメラによって撮像された硬貨の集まりの価値を決定する、請求項1に記載の方法。
- 第1のセットの行われるべき追加の画像処理演算を、より大きい第2のセットの可能な画像処理演算から、
(a)デバイスリソース使用、
(b)別々の前記可能な演算に関連付けられたリソース需要、及び
(c)別々の前記可能な演算の間の対応のうち、1つ又は複数を示すデータに基づいて、選択するステップを含む、請求項1に記載の方法。 - 前記方法が、前記画像データによって表されたシーン内で1つ又は複数の視覚的特徴を見極め、そのような特徴の各々に関係付けられたデータを、対応する識別子に関連して格納するステップを含み、前記識別子が、以下の
(a)セッションID、
(b)明示的オブジェクトID、及び
(c)前記特徴から導出された、又は、関連状況から導出されたデータのうち、少なくとも2つに基づく、請求項1に記載の方法。 - 前記方法が、前記デバイス内の非画像センサシステムを使用して、非画像情報を作り出し、そのような情報を、以下の
(a)画像処理演算の選択に影響を与えること、及び
(b)前記画像データについての2つ以上の候補の結論の間の曖昧性を除去することのうち、少なくとも1つのために用いるステップを含み、
前記非画像センサシステムが、ジオロケーションシステム、音声センサ、温度センサ、磁場センサ、動きセンサ又は嗅覚センサのうち、少なくとも1つを含む、請求項1に記載の方法。 - 前記画像データのうち少なくとも一定のもの、又は、前記画像処理演算のうち1つ又は複数からのデータを、リモートコンピュータシステムへ送信して、前記リモートコンピュータシステムが、前記デバイスが、その処理中に、見極めなかった情報を収集するために、前記デバイスによって以前に行われた画像処理を継続することができるようにするステップをさらに含む、請求項1に記載の方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US31547510P | 2010-03-19 | 2010-03-19 | |
US61/315,475 | 2010-03-19 | ||
US31821710P | 2010-03-26 | 2010-03-26 | |
US61/318,217 | 2010-03-26 | ||
US12/797,503 US9197736B2 (en) | 2009-12-31 | 2010-06-09 | Intuitive computing methods and systems |
US12/797,503 | 2010-06-09 | ||
PCT/US2011/029038 WO2011116309A1 (en) | 2010-03-19 | 2011-03-18 | Intuitive computing methods and systems |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013527947A JP2013527947A (ja) | 2013-07-04 |
JP2013527947A5 true JP2013527947A5 (ja) | 2014-05-08 |
JP5843207B2 JP5843207B2 (ja) | 2016-01-13 |
Family
ID=44649624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013500235A Active JP5843207B2 (ja) | 2010-03-19 | 2011-03-18 | 直観的コンピューティング方法及びシステム |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP2559030B1 (ja) |
JP (1) | JP5843207B2 (ja) |
KR (1) | KR101832693B1 (ja) |
CN (1) | CN102893327B (ja) |
CA (1) | CA2792336C (ja) |
WO (1) | WO2011116309A1 (ja) |
Families Citing this family (300)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7644282B2 (en) | 1998-05-28 | 2010-01-05 | Verance Corporation | Pre-processed information embedding system |
US6737957B1 (en) | 2000-02-16 | 2004-05-18 | Verance Corporation | Remote control signaling using audio watermarks |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9055239B2 (en) | 2003-10-08 | 2015-06-09 | Verance Corporation | Signal continuity assessment using embedded watermarks |
US20060239501A1 (en) | 2005-04-26 | 2006-10-26 | Verance Corporation | Security enhancements of digital watermarks for multi-media content |
US8020004B2 (en) | 2005-07-01 | 2011-09-13 | Verance Corporation | Forensic marking using a common customization function |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8175617B2 (en) | 2009-10-28 | 2012-05-08 | Digimarc Corporation | Sensor-based mobile search, related methods and systems |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
WO2011082332A1 (en) | 2009-12-31 | 2011-07-07 | Digimarc Corporation | Methods and arrangements employing sensor-equipped smart phones |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8977584B2 (en) | 2010-01-25 | 2015-03-10 | Newvaluexchange Global Ai Llp | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
EP2758956B1 (en) * | 2011-09-23 | 2021-03-10 | Digimarc Corporation | Context-based smartphone sensor logic |
EP3392876A1 (en) * | 2011-09-30 | 2018-10-24 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
TWI451405B (zh) * | 2011-10-20 | 2014-09-01 | Kuo Ping Yang | 增進語音即時輸出之方法及助聽器 |
US8745403B2 (en) | 2011-11-23 | 2014-06-03 | Verance Corporation | Enhanced content management based on watermark extraction records |
US9323902B2 (en) | 2011-12-13 | 2016-04-26 | Verance Corporation | Conditional access using embedded watermarks |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US20150134497A1 (en) * | 2012-03-15 | 2015-05-14 | Sca Hygiene Products Ab | Method for assisting in locating an item in a storage location |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9106964B2 (en) | 2012-09-13 | 2015-08-11 | Verance Corporation | Enhanced content distribution using advertisements |
US8726304B2 (en) | 2012-09-13 | 2014-05-13 | Verance Corporation | Time varying evaluation of multimedia content |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US20140122396A1 (en) * | 2012-10-29 | 2014-05-01 | Qualcomm Incorporated | Rules engine as a platform for mobile applications |
US9812046B2 (en) * | 2013-01-10 | 2017-11-07 | Microsoft Technology Licensing, Llc | Mixed reality display accommodation |
US20150355997A1 (en) * | 2013-01-15 | 2015-12-10 | Hewlett-Packard Development Company, L.P. | Server-Platform Simulation Service |
CN103079030A (zh) * | 2013-01-30 | 2013-05-01 | 清华大学 | 存储卡及含有该存储卡的3d图像或视频的生成装置 |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
US9311640B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods and arrangements for smartphone payments and transactions |
US20140278392A1 (en) * | 2013-03-12 | 2014-09-18 | Motorola Mobility Llc | Method and Apparatus for Pre-Processing Audio Signals |
US20140278395A1 (en) * | 2013-03-12 | 2014-09-18 | Motorola Mobility Llc | Method and Apparatus for Determining a Motion Environment Profile to Adapt Voice Recognition Processing |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9262794B2 (en) | 2013-03-14 | 2016-02-16 | Verance Corporation | Transactional video marking system |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
US9378065B2 (en) * | 2013-03-15 | 2016-06-28 | Advanced Elemental Technologies, Inc. | Purposeful computing |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
KR101816375B1 (ko) | 2013-06-08 | 2018-01-08 | 애플 인크. | 제한된 주의 산만 및 비제한된 주의 산만 컨텍스트에 대해 상이한 사용자 인터페이스를 제공하는 애플리케이션 게이트웨이 |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9710219B2 (en) | 2013-06-10 | 2017-07-18 | Panasonic Intellectual Property Corporation Of America | Speaker identification method, speaker identification device, and speaker identification system |
US10645651B2 (en) * | 2013-06-12 | 2020-05-05 | Qualcomm Incorporated | Methods and apparatus for improving re-activation of a NFC-F based remote NFC device |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
US9485089B2 (en) | 2013-06-20 | 2016-11-01 | Verance Corporation | Stego key management |
US9251549B2 (en) | 2013-07-23 | 2016-02-02 | Verance Corporation | Watermark extractor enhancements based on payload ranking |
WO2015017796A2 (en) * | 2013-08-02 | 2015-02-05 | Digimarc Corporation | Learning systems and methods |
KR102141116B1 (ko) * | 2013-08-05 | 2020-08-04 | 삼성전자주식회사 | 음성 대화 서비스를 지원하는 인터페이스 장치 및 방법 |
CN103514048B (zh) * | 2013-10-15 | 2016-09-07 | 上海交通大学 | 参与感知系统及其任务分配方法 |
US9208334B2 (en) | 2013-10-25 | 2015-12-08 | Verance Corporation | Content management using multiple abstraction layers |
US9874989B1 (en) * | 2013-11-26 | 2018-01-23 | Google Llc | Providing content presentation elements in conjunction with a media content item |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN104715757A (zh) * | 2013-12-13 | 2015-06-17 | 华为技术有限公司 | 一种终端声控操作方法及装置 |
US9596521B2 (en) | 2014-03-13 | 2017-03-14 | Verance Corporation | Interactive content acquisition using embedded codes |
US10504200B2 (en) | 2014-03-13 | 2019-12-10 | Verance Corporation | Metadata acquisition using embedded watermarks |
EP3123264A4 (en) * | 2014-03-24 | 2017-11-15 | Josh Wright | Environmental control apparatus and related methods |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
EP3183882A4 (en) | 2014-08-20 | 2018-07-04 | Verance Corporation | Content management based on dither-like watermark embedding |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
KR101631999B1 (ko) * | 2014-08-29 | 2016-06-21 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
JP6024719B2 (ja) * | 2014-09-09 | 2016-11-16 | カシオ計算機株式会社 | 検出装置、検出方法、及びプログラム |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9600080B2 (en) * | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
EP3225034A4 (en) | 2014-11-25 | 2018-05-02 | Verance Corporation | Enhanced metadata and content delivery using watermarks |
US9942602B2 (en) | 2014-11-25 | 2018-04-10 | Verance Corporation | Watermark detection and metadata delivery associated with a primary content |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
WO2016100916A1 (en) | 2014-12-18 | 2016-06-23 | Verance Corporation | Service signaling recovery for multimedia content using embedded watermarks |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
EP3289562A1 (en) * | 2015-04-29 | 2018-03-07 | Siemens Aktiengesellschaft | Method and system for semantic segmentation in laparoscopic and endoscopic 2d/2.5d image data |
US10310620B2 (en) | 2015-04-30 | 2019-06-04 | Google Llc | Type-agnostic RF signal representations |
EP3289432B1 (en) | 2015-04-30 | 2019-06-12 | Google LLC | Rf-based micro-motion tracking for gesture tracking and recognition |
WO2016176056A1 (en) | 2015-04-30 | 2016-11-03 | Verance Corporation | Watermark based content recognition improvements |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
WO2016199488A1 (ja) * | 2015-06-11 | 2016-12-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10477285B2 (en) | 2015-07-20 | 2019-11-12 | Verance Corporation | Watermark-based data recovery for content with multiple alternative components |
US9769367B2 (en) * | 2015-08-07 | 2017-09-19 | Google Inc. | Speech and computer vision-based control |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US9639620B1 (en) * | 2015-11-13 | 2017-05-02 | Thunder Power Hong Kong Ltd. | Vehicle fingerprint bookmark |
US10860887B2 (en) * | 2015-11-16 | 2020-12-08 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognition model |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10732809B2 (en) | 2015-12-30 | 2020-08-04 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US9838641B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Low power framework for processing, compressing, and transmitting images at a mobile image capture device |
US9836819B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US9836484B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Systems and methods that leverage deep learning to selectively store images at a mobile image capture device |
US10225511B1 (en) | 2015-12-30 | 2019-03-05 | Google Llc | Low power framework for controlling image sensor mode in a mobile image capture device |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US20190132652A1 (en) | 2016-04-18 | 2019-05-02 | Verance Corporation | System and method for signaling security and database population |
WO2017192167A1 (en) | 2016-05-03 | 2017-11-09 | Google Llc | Connecting an electronic component to an interactive textile |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) * | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
EP3282588B1 (en) * | 2016-08-09 | 2019-09-25 | Siemens Aktiengesellschaft | Method, system and program product for data transmission with a reduced data volume |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11507389B2 (en) | 2016-09-29 | 2022-11-22 | Hewlett-Packard Development Company, L.P. | Adjusting settings on computing devices based on location |
WO2018075927A1 (en) | 2016-10-21 | 2018-04-26 | Google Llc | Stylizing input images |
US10212338B2 (en) | 2016-11-22 | 2019-02-19 | Google Llc | Camera operable using natural language commands |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
KR102241404B1 (ko) * | 2017-02-09 | 2021-04-16 | 구글 엘엘씨 | 시각 입력을 이용한 에이전트 네비게이션 |
KR102318502B1 (ko) * | 2017-03-20 | 2021-10-29 | 이베이 인크. | 대화 중 미션 변경의 검출 |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10275651B2 (en) * | 2017-05-16 | 2019-04-30 | Google Llc | Resolving automated assistant requests that are based on image(s) and/or other sensor data |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
WO2018237191A1 (en) | 2017-06-21 | 2018-12-27 | Verance Corporation | ACQUISITION AND TREATMENT OF METADATA BASED ON A WATERMARK |
US10339929B2 (en) | 2017-06-27 | 2019-07-02 | Google Llc | Speech recognition using acoustic features in conjunction with distance information |
WO2019008580A1 (en) * | 2017-07-03 | 2019-01-10 | Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. | METHOD AND SYSTEM FOR IMPROVING A VOICE SIGNAL OF A HUMAN SPEAKER IN A VIDEO USING VISUAL INFORMATION |
EP3435113B1 (en) * | 2017-07-23 | 2021-11-03 | NXP USA, Inc. | Method of detecting an object |
CN107452067B (zh) * | 2017-07-28 | 2021-02-05 | 深圳锐取信息技术股份有限公司 | 基于增强现实的演示方法、装置及终端设备 |
CN107689953B (zh) * | 2017-08-18 | 2020-10-27 | 中国科学院信息工程研究所 | 一种面向多租户云计算的容器安全监控方法及系统 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
CN107728783B (zh) * | 2017-09-25 | 2021-05-18 | 联想(北京)有限公司 | 人工智能处理方法及其系统 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
CN108021954B (zh) | 2017-11-01 | 2020-06-05 | 阿里巴巴集团控股有限公司 | 业务过程的启动方法和装置 |
US10002259B1 (en) | 2017-11-14 | 2018-06-19 | Xiao Ming Mai | Information security/privacy in an always listening assistant device |
US10867623B2 (en) * | 2017-11-14 | 2020-12-15 | Thomas STACHURA | Secure and private processing of gestures via video input |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
CN109903769A (zh) * | 2017-12-08 | 2019-06-18 | Tcl集团股份有限公司 | 一种终端设备交互的方法、装置和终端设备 |
US11068137B2 (en) * | 2017-12-18 | 2021-07-20 | Facebook, Inc. | Systems and methods for augmenting content |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
CN108417224B (zh) * | 2018-01-19 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 双向神经网络模型的训练和识别方法及系统 |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
CN108764007A (zh) * | 2018-02-10 | 2018-11-06 | 集智学园(北京)科技有限公司 | 基于ocr与文本分析技术对注意力的测量方法 |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11468149B2 (en) | 2018-04-17 | 2022-10-11 | Verance Corporation | Device authentication in collaborative content screening |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
CN108829595B (zh) * | 2018-06-11 | 2022-05-17 | Oppo(重庆)智能科技有限公司 | 测试方法、装置、存储介质及电子设备 |
CN108446237B (zh) * | 2018-06-11 | 2021-09-10 | Oppo(重庆)智能科技有限公司 | 测试方法、装置、存储介质及电子设备 |
US10284432B1 (en) * | 2018-07-03 | 2019-05-07 | Kabushiki Kaisha Ubitus | Method for enhancing quality of media transmitted via network |
US11188035B2 (en) * | 2018-07-19 | 2021-11-30 | International Business Machines Corporation | Continuous control of attention for a deep learning network |
CN109191432B (zh) * | 2018-07-27 | 2021-11-30 | 西安电子科技大学 | 基于域变换滤波多尺度分解的遥感图像云检测方法 |
CN112740327A (zh) | 2018-08-27 | 2021-04-30 | 谷歌有限责任公司 | 故事读者阅读中断的算法确定 |
WO2020046387A1 (en) * | 2018-08-31 | 2020-03-05 | Google Llc | Dynamic adjustment of story time special effects based on contextual data |
WO2020050822A1 (en) | 2018-09-04 | 2020-03-12 | Google Llc | Detection of story reader progress for pre-caching special effects |
EP3837681A1 (en) | 2018-09-04 | 2021-06-23 | Google LLC | Reading progress estimation based on phonetic fuzzy matching and confidence interval |
EP3621031B1 (en) * | 2018-09-06 | 2021-06-30 | Tata Consultancy Services Limited | Systems and methods for performing hand segmentation |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US10990280B1 (en) * | 2018-12-03 | 2021-04-27 | Parallels International Gmbh | Smart keyboard |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
GB2582910A (en) * | 2019-04-02 | 2020-10-14 | Nokia Technologies Oy | Audio codec extension |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
CN110136560B (zh) * | 2019-05-31 | 2020-12-29 | 山东交通学院 | 斜截式仿生蝙蝠耳喇叭模型功能装置及实验方法 |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
FR3097045B1 (fr) * | 2019-06-06 | 2021-05-14 | Safran Electronics & Defense | Procédé et dispositif de recalage d’une centrale inertielle d’un moyen de transport à partir d’informations délivrées par un viseur du moyen de transport |
US11438452B1 (en) | 2019-08-09 | 2022-09-06 | Apple Inc. | Propagating context information in a privacy preserving manner |
CN110472095B (zh) * | 2019-08-16 | 2023-03-10 | 百度在线网络技术(北京)有限公司 | 语音引导方法、装置、设备和介质 |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
CN111859897A (zh) * | 2019-10-16 | 2020-10-30 | 沈阳工业大学 | 基于动态路由胶囊网络的文本隐写分析方法 |
CN111008309B (zh) * | 2019-12-06 | 2023-08-08 | 北京百度网讯科技有限公司 | 查询方法及装置 |
CN111191964A (zh) * | 2020-02-06 | 2020-05-22 | 上海萃钛智能科技有限公司 | 一种人工智能公交站牌、统筹系统和统筹方法 |
US11290834B2 (en) | 2020-03-04 | 2022-03-29 | Apple Inc. | Determining head pose based on room reverberation |
TWI740460B (zh) * | 2020-04-17 | 2021-09-21 | 宏碁股份有限公司 | 語音浮水印處理方法、語音系統及語音浮水印處理裝置 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11810578B2 (en) | 2020-05-11 | 2023-11-07 | Apple Inc. | Device arbitration for digital assistant-based intercom systems |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN114079733A (zh) * | 2020-08-12 | 2022-02-22 | 茂傑国际股份有限公司 | 多功能摄影装置 |
KR102365838B1 (ko) * | 2020-11-12 | 2022-02-21 | 숭실대학교산학협력단 | 사용자 의도 추론을 위한 뉴럴 심볼릭 기반 규칙 생성 방법 및 장치 |
US11722741B2 (en) | 2021-02-08 | 2023-08-08 | Verance Corporation | System and method for tracking content timeline in the presence of playback rate changes |
CN112906874A (zh) * | 2021-04-06 | 2021-06-04 | 南京大学 | 卷积神经网络特征图数据压缩方法及装置 |
KR102544825B1 (ko) * | 2021-05-04 | 2023-06-16 | 숭실대학교산학협력단 | 뉴럴 심볼릭 기반 시퀀스 모델을 활용한 규칙 추론 방법 및 장치 |
CN112948100B (zh) * | 2021-05-13 | 2021-07-27 | 南京宇天智云仿真技术有限公司 | 一种多动体仿真系统 |
CN114007043B (zh) * | 2021-10-27 | 2023-09-26 | 北京鼎普科技股份有限公司 | 基于视频数据指纹特征的视频解码方法、装置及系统 |
CN113890687A (zh) * | 2021-11-15 | 2022-01-04 | 杭州叙简未兰电子有限公司 | 一种基于纠错码与纠删码混合高可靠音频传输方法与装置 |
CN114205677B (zh) * | 2021-11-30 | 2022-10-14 | 浙江大学 | 一种基于原型视频的短视频自动编辑方法 |
US11922266B2 (en) | 2021-12-30 | 2024-03-05 | Datalogic Ip Tech S.R.L. | Remote barcodes decoding |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3591259B2 (ja) * | 1997-12-12 | 2004-11-17 | セイコーエプソン株式会社 | ネットワークシステム並びにネットワーク印刷方法 |
JP3688879B2 (ja) * | 1998-01-30 | 2005-08-31 | 株式会社東芝 | 画像認識装置、画像認識方法及びその記録媒体 |
US20100045816A1 (en) * | 1999-05-19 | 2010-02-25 | Rhoads Geoffrey B | User Feedback in Connection with Object Recognition |
US6546262B1 (en) * | 1999-11-12 | 2003-04-08 | Altec Lansing Technologies, Inc. | Cellular telephone accessory device for a personal computer system |
EP1691344B1 (en) * | 2003-11-12 | 2009-06-24 | HONDA MOTOR CO., Ltd. | Speech recognition system |
JP4973906B2 (ja) * | 2005-09-08 | 2012-07-11 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2007257502A (ja) * | 2006-03-24 | 2007-10-04 | Oki Electric Ind Co Ltd | 貨幣入金装置 |
US7843613B2 (en) * | 2006-06-14 | 2010-11-30 | Kabushiki Kaisha Toshiba | System and method for automated processing of consecutively scanned document processing jobs |
JP4861105B2 (ja) * | 2006-09-15 | 2012-01-25 | 株式会社エヌ・ティ・ティ・ドコモ | 空間掲示板システム |
JP2008158583A (ja) * | 2006-12-20 | 2008-07-10 | Hitachi Software Eng Co Ltd | 画像関連情報表示システム |
US20080267504A1 (en) * | 2007-04-24 | 2008-10-30 | Nokia Corporation | Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search |
JP4953012B2 (ja) * | 2007-08-10 | 2012-06-13 | アイシン・エィ・ダブリュ株式会社 | 画像認識装置と画像認識装置のためのプログラム、及びこれを用いたナビゲーション装置とナビゲーション装置のためのプログラム |
JP5398970B2 (ja) * | 2007-09-28 | 2014-01-29 | 京セラ株式会社 | 移動通信装置、制御方法 |
US8099289B2 (en) * | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
JP4572954B2 (ja) * | 2008-05-26 | 2010-11-04 | 株式会社ニコン | 画像表示装置 |
KR101763132B1 (ko) * | 2008-08-19 | 2017-07-31 | 디지맥 코포레이션 | 콘텐트 처리를 위한 방법들 및 시스템들 |
US8520979B2 (en) * | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
-
2011
- 2011-03-18 CN CN201180024228.9A patent/CN102893327B/zh active Active
- 2011-03-18 EP EP11757077.0A patent/EP2559030B1/en active Active
- 2011-03-18 CA CA2792336A patent/CA2792336C/en active Active
- 2011-03-18 WO PCT/US2011/029038 patent/WO2011116309A1/en active Application Filing
- 2011-03-18 JP JP2013500235A patent/JP5843207B2/ja active Active
- 2011-03-18 KR KR1020127027091A patent/KR101832693B1/ko active IP Right Grant
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013527947A5 (ja) | ||
US20210021551A1 (en) | Content navigation with automated curation | |
US20200412975A1 (en) | Content capture with audio input feedback | |
US10971188B2 (en) | Apparatus and method for editing content | |
US11221819B2 (en) | Extendable architecture for augmented reality system | |
KR101832693B1 (ko) | 직관적 컴퓨팅 방법들 및 시스템들 | |
CN109189879B (zh) | 电子书籍显示方法及装置 | |
US20180137097A1 (en) | Electronic device and control method therefor | |
WO2017100476A1 (en) | Image search system | |
CN110556127B (zh) | 语音识别结果的检测方法、装置、设备及介质 | |
EP3693837A1 (en) | Method and apparatus for processing multiple inputs | |
CN105956026B (zh) | 网页渲染方法及装置 | |
CN111311554A (zh) | 图文内容的内容质量确定方法、装置、设备及存储介质 | |
US9519355B2 (en) | Mobile device event control with digital images | |
KR102454515B1 (ko) | 네트워크 최적화 방법 및 장치, 이미지 처리 방법 및 장치, 및 기억 매체 | |
CN112990188A (zh) | 一种文本识别方法及装置 | |
KR20140012757A (ko) | 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진 | |
WO2019062631A1 (zh) | 一种局部动态影像生成方法及装置 | |
US20230345196A1 (en) | Augmented reality interaction method and electronic device | |
CN110827825A (zh) | 语音识别文本的标点预测方法、系统、终端及存储介质 | |
CN109286848B (zh) | 一种终端视频信息的交互方法、装置及存储介质 | |
WO2014201953A1 (en) | Methods, apparatus, and terminal devices of image processing | |
Sexton et al. | Automatic CNN-based enhancement of 360° video experience with multisensorial effects | |
JP2017146672A (ja) | 画像表示装置、画像表示方法、画像表示プログラム及び画像表示システム | |
CN112764600A (zh) | 资源处理方法、装置、存储介质及计算机设备 |