JP6502923B2 - コンピューティングデバイスのための認識インターフェース - Google Patents

コンピューティングデバイスのための認識インターフェース Download PDF

Info

Publication number
JP6502923B2
JP6502923B2 JP2016513136A JP2016513136A JP6502923B2 JP 6502923 B2 JP6502923 B2 JP 6502923B2 JP 2016513136 A JP2016513136 A JP 2016513136A JP 2016513136 A JP2016513136 A JP 2016513136A JP 6502923 B2 JP6502923 B2 JP 6502923B2
Authority
JP
Japan
Prior art keywords
user
selectable
computing device
icon
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016513136A
Other languages
English (en)
Other versions
JP2016519377A (ja
Inventor
トーマス グレイ、ティモシー
トーマス グレイ、ティモシー
サラザール、マルク、アントニー
マイケル ソマー、スティーブン
マイケル ソマー、スティーブン
ユージーン カミンス、チャールズ
ユージーン カミンス、チャールズ
アンソニー ルーニー、ショーン
アンソニー ルーニー、ショーン
トッド アグネッタ、ブライアン
トッド アグネッタ、ブライアン
パム パーク、イエ
パム パーク、イエ
リー マインス、リチャード
リー マインス、リチャード
マラシ、スーザン
Original Assignee
アマゾン・テクノロジーズ、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アマゾン・テクノロジーズ、インコーポレイテッド filed Critical アマゾン・テクノロジーズ、インコーポレイテッド
Publication of JP2016519377A publication Critical patent/JP2016519377A/ja
Application granted granted Critical
Publication of JP6502923B2 publication Critical patent/JP6502923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/2753Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips providing data content
    • H04M1/2755Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips providing data content by optical scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
本出願は、「Recognition Interfaces For Computing Devices」という題名の、2013年12月20日に出願された、それ自体が、2013年5月9日に出願された「Mobile Device User Interface−Camera」という題名の、U.S. Provisional Patent Application Serial Number 61/821,677の優先権を主張する、U.S. Non−Provisional Patent Application Serial Number 14/137,783の優先権を主張し、参照によってその全体が、すべての目的のために本明細書に組み込まれる。
人々は、携帯用電子デバイスをますます活用して、多種多様のタスクを実行している。一例として、人々は、そのようなデバイスのカメラを活用してオブジェクトの画像を撮影する。たとえば、ユーザは、カメラを使用して、カメラの視野内の環境の中にある物の静止画またはビデオを撮影することができる。画像または映像中には、複数のオブジェクトがあることがあり、ユーザは、そのオブジェクトが何なのか判断できないことがあり、またはそれらのオブジェクトについてあまり知らないことがあり得る。
本開示によるさまざまな実施形態を、図面を参照して説明する。
さまざまな実施形態に従って活用され得る、オブジェクトの画像を撮影するために携帯型コンピューティングデバイスを使用しているユーザの、一実施例を示した図である。 さまざまな実施形態に従って活用され得る、オブジェクトの画像を撮影するために携帯型コンピューティングデバイスを使用しているユーザの、一実施例を示した図である。 さまざまな実施形態に従って活用され得る、どのオブジェクトが現在のビュー内で認識されたかと、それらのオブジェクトを使用して達成され得る動作とをユーザに伝える、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、どのオブジェクトが現在のビュー内で認識されたかと、それらのオブジェクトを使用して達成され得る動作とをユーザに伝える、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、どのオブジェクトが現在のビュー内で認識されたかと、それらのオブジェクトを使用して達成され得る動作とをユーザに伝える、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、どのオブジェクトが現在のビュー内で認識されたかと、それらのオブジェクトを使用して達成され得る動作とをユーザに伝える、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、どのオブジェクトが現在のビュー内で認識されたかと、それらのオブジェクトを使用して達成され得る動作とをユーザに伝える、例示的なインターフェースを示した図である。 さまざまな実施形態による、認識されたオブジェクトに対する動作が更新またはアクセスされ得る、例示的なインターフェースを示した図である。 さまざまな実施形態による、認識されたオブジェクトに対する動作が更新またはアクセスされ得る、例示的なインターフェースを示した図である。 さまざまな実施形態による、認識されたオブジェクトに対する動作が更新またはアクセスされ得る、例示的なインターフェースを示した図である。 さまざまな実施形態による、認識されたオブジェクトに対する動作が更新またはアクセスされ得る、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、認識されたオブジェクトに対する動作をユーザが実行することを可能する、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、認識されたオブジェクトに対する動作をユーザが実行することを可能する、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、認識されたオブジェクトに対する動作をユーザが実行することを可能する、例示的なインターフェースを示した図である。 さまざまな実施形態に従って活用され得る、認識されたオブジェクトに対する動作をユーザが実行することを可能する、例示的なインターフェースを示した図である。 さまざまな実施形態に従って使用され得る、認識されたオブジェクトに対する動作をユーザが選択することを可能にするための、例示的なプロセスを示した図である。 さまざまな実施形態に従って活用され得る、認識されたオブジェクトに対する動作を更新するための、例示的なプロセスを示した図である。 さまざまな実施形態に従って使用され得る、例示的なコンピューティングデバイスを示した図である。 図7に示したものなどのコンピューティングデバイスの構成要素の例示的な構成を示した図である。 さまざまな実施形態が実装され得る、例示的な環境を示した図である。
本開示のさまざまな実施形態によるシステム及び方法は、環境内でオブジェクトを撮影することと、それらのオブジェクトについてより多くを学ぶこととへの、従来のアプローチにおいて経験された前述の欠陥と他の欠陥とのうちの1つまたは複数を克服することができる。具体的には、さまざまな実施形態は、コンピューティングデバイスが、コンピューティングデバイスの1つまたは複数のセンサによって取得されたセンサデータなどの情報を分析することと、情報内に表示される1つまたは複数のオブジェクトを識別することを試みることと、を可能にする。センサデータは、たとえば、カメラによって撮影された画像データまたはビデオデータと、マイクによって取得された音声と、全地球測位システムによって取得された位置データと、コンピューティングデバイスの1つまたは複数のセンサ(または他のそのような構成要素)によって取得され得る他の適切なデータと、を含むことができる。表示されるオブジェクトは、たとえば、文字列と、バーコードと、歌と、映画と、製品と、位置と、人々と、天候関連情報と、他の種類のアイテム、イベント、及び/または出来事とを含むことができるなど、有形及び/または無形のオブジェクトを含むことができる。さまざまな実施形態は、また、仮想「ファイヤーフライ」のセットまたは他の種類のグラフィック要素を、デバイスによって撮影されている画像(たとえば、ビデオ)情報のライブビュー上に表示することなどによって、どのオブジェクトが認識されたかをデバイスが伝えることを可能にするインターフェースも提供する。さまざまな実施形態は、また、特定のオブジェクトに対して実行され得る1つまたは複数の動作を決定することもでき、また、それらの動作のうちのいずれかの実行をユーザが指示することを可能にする、選択可能な選択肢を提供することもできる。インターフェースは、また、それらの動作のうちの少なくともいくつかのための情報を維持または保管することができ、対応するオブジェクトがカメラの視野内にあるかどうか、マイクによって受信されているかどうか、そうでなければ、コンピューティングデバイスの少なくとも1つのセンサまたは他のそのような構成要素によって現在検出されているかどうか、に関わらず、それらの動作が実行されるようにユーザがすることができるようにする。
さまざまな他のアプリケーションとプロセスと使用法とを、さまざまな実施形態に関して以下に提示する。
図1(a)は、ユーザ102がコンピューティングデバイス104で交流している例示的な状況100を示している。携帯型コンピューティングデバイス(たとえば、スマートフォン、電子書籍リーダ、またはタブレットコンピュータ)を示しているが、入力を判断し、処理することができる、さまざまな他の種類の電子デバイスを、本明細書で開示するさまざまな実施形態にしたがって使用することができる、ということを理解すべきである。これらのデバイスは、たとえば、特に、デスクトップコンピュータと、ノートパソコンと、携帯情報端末と、携帯電話と、ビデオゲーム機またはコントローラと、多機能テレビと、ウェアラブルコンピュータ(たとえば、スマートウォッチまたは眼鏡)と、携帯型メディアプレーヤとを含むことができる。本実施例では、コンピューティングデバイス104は、カメラまたはカメラセンサなどの、画像撮影及び/またはビデオ撮影などの機能を実行するように動作可能な、少なくとも1つの画像取込要素106を有する。各画像取込要素は、たとえば、電荷結合素子(CCD)、動き検出センサ、または赤外線センサであることができ、または他の適切な画像取込技術を活用することができる。本実施例では、ユーザ102は、特定の文書110についての情報を取得することに興味を持っている。これは、たとえば、文書内に含まれる情報、または文書自体についての情報を、そのような情報の中でも特に含むことができる。デバイスは、特に、音声データ114を取得するように動作可能な少なくとも1つのマイク112、または位置データを取得するための位置センサなどの、情報を取得するための他のセンサも含むことができる。
本実施例では、文書110は、ユーザが興味を示し得る情報を含む。この情報は、たとえば、テキストの本文と、電話番号と、ウェブアドレスとを含む。ユーザは、この情報のうちの一部または全部を、問い合わせ情報を更新する、電話をかける、アドレスに関連するウェブサイトにアクセスする、などの多数の理由のうちのいずれかのために取得することを望み得る。この情報を取得するために、ユーザは、文書110の少なくとも関連部分が、コンピューティングデバイスの少なくとも1つのカメラ106の視野108内にあるように、コンピューティングデバイス104を位置づけることができる。その後、結果として生じる画像を、図1(b)の例示的状況120に示す通り、コンピューティングデバイスの表示画面122に表示することができる。画像122は、カメラによって撮影された静止画像であることができ、または、カメラのビデオモード、デバイスのカメラモード、などによって撮影された、「ライブ」ビューのフレームであることができる。例示の通り、画像122は、文書からの情報124を含むことができる。取得された情報の各インスタンスを「オブジェクト」と呼ぶことができ、それは、デバイス上で動いているソフトウェア、またはデバイスから離れたところで動いているソフトウェアによって分析され得る。本実施例では、画像から認識され得るオブジェクトは、文字列126、電話番号128、ウェブアドレスまたはURL130などのオブジェクトを含むことができる。他の実施例では、本明細書のどこかで説明し、提案する通り、さまざまな他の種類のオブジェクトを検出することができる。画像を処理して、テキストを認識することを試みることができ、その後、テキストは、多数の異なる目的のうちのいずれかのために、ユーザによって活用され得る。
従来のアプローチを使用して、ユーザは、画像が、撮影され、1つまたは複数の画像認識アルゴリズムまたは画像分析アルゴリズムを画像に対して実行することができるサーバにアップロードされるようにして、画像内のテキストを識別することを試みることができる。これは、たとえば、少なくとも1つの光学式文字認識(OCR)アルゴリズムを含むことができる。しかしながら、撮影された画像は、ユーザが興味を持つオブジェクトを認識するには十分な品質でないことが多い。たとえば、画像は、ピンぼけまたはぼやけていることがあり、または、画像の一部が不明瞭であることがある。さらに、時には、認識アルゴリズムは、画像の一部のみを認識することができ、そこには、ユーザが興味を持つ部分が含まれるかもしれず、含まれないかもしれない。ユーザが画像をサーバにアップロードしているため、ユーザは、関連情報が認識されたかどうかと、それが適切に認識されたかどうかとを判断する前に、画像がアップロードされ、分析されるのを待つ必要がある。そうでない場合は、ユーザは、別の画像が分析されるようにし、所望の結果が返されることを期待しなければならない。このプロセスは非効率であり得、潜在的にユーザを苛立たせ得る。
その結果、さまざまな実施形態によるアプローチは、どのオブジェクトが認識されたかをユーザが判断することができるインターフェースを提供することができ、興味のあるオブジェクトをデバイスに認識させるために、ユーザがほぼリアルタイムの調整を行うことができるようにする。そのようなインターフェースは、認識された各そのようなオブジェクトを示すことができ、可能な場合には、そのオブジェクトについての情報を提供することができる。さらに、そのオブジェクトが、たとえば、実施可能オブジェクト、または動作が関連付けられた種類のオブジェクトである場合、インターフェースは、その動作(または多数の関連動作のうちのいずれか)を、そのオブジェクトに対して実行することを可能にすることができる。本明細書のどこかで述べる通り、いくつかの実施形態では、種類に関わらず、認識されたオブジェクト、または認識されたオブジェクトのサブセットに対して動作を実行することができる。少なくともいくつかの実施形態では、これらの動作のための情報を記憶し、保持し、または保管することができ、オブジェクトがデバイスによってまだ認識可能であるかどうかに関わらず、ユーザが、その動作を実行させることができるようにする。これは、たとえば、オブジェクトが、カメラの視野内にもはやない状況、または、デバイスのマイクまたは他のセンサまたは構成要素によってもはや検出可能でない状況を含むことができる。そのようなインターフェースを、オペレーティングシステムの一部として、カメラソフトウェア/ハードウェアの一部として、またはカメラスタックの上部に位置するアプリケーションの一部として、他のそのような選択肢の中で特に提供することができる。
たとえば、図2(a)は、図1(b)からの画像の一部が、ユーザが興味を持つっている文書のライブビューとして再び表示されている、例示的状況200を示している。しかしながら、本実施例では、ユーザは、物理的なボタン202を押して、または他のそのような物理的入力または仮想入力を提供して、認識モードをデバイス上で始動させることができる。本明細書のどこかで説明する通り、コンピューティングデバイスは、カメラモードにある間にビデオデータを生成することができるが、認識モードにある間に、そのデータを分析して、1つまたは複数のオブジェクトを認識するように試みることもできる。認識または他のそのような目的のための他の種類の動作を活用することもできることと、他の始動機構を使用することができることまたは認識を自動的に起動させることができることとを、他のそのような選択肢の中でも特に理解すべきである。本実施例では、認識モード(及び少なくともいくつかの実施形態では、カメラモード)は、本明細書で「ファイヤーフライ」208と呼ぶものを使用する。ファイヤーフライは、コンピューティングデバイスのディスプレイ204または他のそのような要素を介して表示される、ライブカメラビュー、静止画像、または他のそのようなコンテンツ上に「浮く」ことができる、仮想インジケータのセットとして機能するように動かされ得る。ファイヤーフライを使用して、デバイスがオブジェクトを適切に追跡しているか、または追跡が失われたかどうか、オブジェクトが認識されたかどうか、及び/または画像内の特徴を識別するのに画像が適切であるかどうかなどの情報を、他のそのような選択肢の中でも特にユーザに伝えることができる。各ファイヤーフライは、蛍のように輝度が脈動または点滅する、画素のグループであることができ、または、蛍、電球、昆虫、または画面を動き回ることができる他のそのような生物または物体の実際の画像またはアニメーションを備えることができる。さまざまな他のオブジェクト、アイコン、画像、アニメーション、またはグラフィックスを、さまざまな実施形態の範囲内で使用することもできる。
いくつかのファイヤーフライは、画面を動き回るように動かされ得、一方、いくつかは、ある場所で、1度または何回も、点滅するように表示され得る。固定数のファイヤーフライがある所定の時間では画面上にあり得、または多数の異なる要因のうちのいずれかに依存し得る可変数があることもある。群がっている印象、またはユーザを多少当惑させ得る他の動きなしに、生物のグループという印象を与えるために、ある場所で点滅するいくつかのファイヤーフライがある一方、他のファイヤーフライは移動する。いくつかの実施形態では、ファイヤーフライは、自然界での蛍の光り方に類似する、たとえば、不可視または透明から明るい白または黄色の光で点滅する、小さな点または円であることができる。他の見え方も、異なる色、大きさ、輝度値、などと合わせて使用することができる。より自然な見え方を与えるために、同じ画面上の異なるファイヤーフライは、異なる輝度レベル、明度、色、距離、大きさなどを有することもできる。少なくともいくつかの実施形態では、ユーザ(または開発者またはアプリケーション、など)は、ファイヤーフライの見え方または動作を、他のそのような態様の中で特に変更することができる。認識モードに入ると、少なくともいくつかの実施形態では、カメラに関連するクロムまたはインターフェースを、取り除き、大きさまたは範囲を減らし、または別の方法で修正して、デバイスが異なる動作モードに入ったということをさらに示すことができる。少なくともいくつかの実施形態では、ファイヤーフライが異なる動作を実行した時にデバイスの音声も調整することができ、それらは、移動している時により大きなブーンという音を発する、または境界ボックスが作成された時には皆無かそれに近い音を発するなどである。さらに、ファイヤーフライが異なるように動かされた時に、異なるブーンという音を使用することができ、ファイヤーフライがディスプレイの少なくとも一部に渡って分散するように動かされた時に、第1のブーンという音を出す(または第1の振動量を提供する)、ファイヤーフライがオブジェクトの表示または起動ボタンに近い時に、異なるブーンという音を出す(または振動量を提供する)などを、他のそのような選択肢の中で特に行うことができる。
少なくともいくつかの実施形態では、ファイヤーフライを、動かし、描画し、または別の方法で、少なくともある程度の知性を持って動作するように表すことができる。たとえば、図2(a)に示す通り、画像情報206のどの部分も認識されていない間、ファイヤーフライを、画面の中で比較的ランダムに移動させまたは浮遊させることができる(完全にランダムな動きは自然に見えないことがある)。少なくともいくつかの実施形態では、知的な生物のグループという印象を与えるための動きの中にいくつかの関連動作があり得る。たとえば、ファイヤーフライがディスプレイで動き回っている間、コンピューティングデバイス(またはコンピューティングデバイスと通信しているコンピュータ)は、画像及び/またはビデオの少なくとも一部を分析して、画像内に表示された1つまたは複数のオブジェクト、または画像内に含まれる対応するオブジェクトの「視覚表示」を認識しようと試みることができる。たとえば、「to entertainment」という文字列は、OCRエンジンまたは他のそのような構成要素または処理によって認識され得る。そのオブジェクトを認識したことに応じて、ファイヤーフライのうちのいくつかまたは全部は、ディスプレイを横切って移動し、図2(b)の例示的状況220に示した通り、認識されたオブジェクトの表示の近くにアニメ化された境界ボックス222を形成して見えるように動かされることなどによって、アニメ化された形を形成するように描画され得る。アニメ化された形の中のファイヤーフライは、輝度及び/または強度を変更することなどによって、動き及び/または見え方を変えるように動かされ得、また、動きの量または種類を変えるように動かされ得る。いくつかの実施形態ではファイヤーフライは、何の情報も伝えない時は第1の状態で、情報を伝える時は第2の状態で動かされ得、第1と第2との状態は、最大輝度、平均強度、色範囲、平均輝度、密度、点滅速度、などの点において変化することができる。述べた通り、少なくともいくつかの実施形態では、群がっているような見え方を防ぐために、ファイヤーフライのいくつかは移動するように見え、いくつかは、オブジェクトの表示の近くにただ現れ得る。境界ボックス222を文字列の周りで作成しているファイヤーフライという結果は、テキストが、少なくとも文字列として、または認識可能なオブジェクトとして、認識されたことをユーザに示すことができる。ユーザがこのテキストに興味を持っている場合、その後、ユーザは、テキストをコピーするなどの動作を実行するために、テキストまたは境界ボックスの近くでディスプレイ204に触れることなどによって、適切な動作を取ることができる。ファイヤーフライがテキストの周りに現れていないが、代わりに、ディスプレイを比較的ランダムに動き回っている場合、ユーザは、デバイスがテキストを認識するには画像が十分でなかったことを判断することができ、カメラを動かす、オブジェクトを動かす、照明を調整する、ズームまたはフォーカスを変更する、などの動作を実行することができる。
いくつかの実施形態では、異なる認識アルゴリズム及び/またはサービスを使用して、異なる種類のオブジェクトを認識することができる。たとえば、ストリングは、テキストが電話番号またはURLであることを示すパターンなどの、所定のパターンに一致するテキストとして認識され得る。その結果、これらのオブジェクトについての情報を、異なるアルゴリズムまたは処理によって処理することができる。したがって、少なくともいくつかの実施形態では、異なる種類のプロセスにより、異なる時間で異なるオブジェクトが認識されることになる。同様に、他のそのような選択肢の中で特に、異なる時間で異なる部分が認識されることを可能にする画像の変化によって、異なる時間で異なるオブジェクトが認識される。
第2のオブジェクトが認識されたことに応じて、図2(c)の例示的状況240に示す通り、ファイヤーフライの一部(第1の境界ボックス222または追加的なファイヤーフライうちのいずれかから、またはそれらの組み合わせ)は、境界ボックス242、または、ここでは電話番号である第2の認識されたオブジェクトについての他のそのような指示を作成するようにされ得る。少なくともいくつかの実施形態では、ファイヤーフライの一部は、第1の境界ボックス222から第2の境界ボックス242に移動するように動かされ得る。そのような表示は、両方のオブジェクトが認識及び/または識別されたことをユーザに示すことができる。異なる実施形態では、ファイヤーフライは、他のそのような選択肢の中で特に、ストリングが文字列として識別された時、ストリングが電話番号として識別された時、または電話番号についての情報を見つけた時などの、異なる時間に電話番号を囲むことができる。当技術分野で知られているまたは使用されている、さまざまなアプローチを使用して、オブジェクトを認識、識別することと、それらのオブジェクトの種類と、それらの種類のオブジェクトに対応するアプリケーションまたは動作とを判断することと、を試みることができる。たとえば、さまざまなコンピュータビジョンアルゴリズムを使用して、画像またはビデオシーケンス内のさまざまな種類のオブジェクトを見つけ、認識し、及び/または識別することを試みることができる。コンピュータビジョンアルゴリズムは、さまざまな異なるアプローチを活用することができ、それには、エッジマッチング、エッジ検出、部分認識、勾配マッチング、ヒストグラム比較、解釈ツリー、などを含むことができる。
さまざまな実施形態では、オブジェクトの種類を判断することもできる。少なくともいくつかの実施形態では、これは、少なくとも「実施可能な」または「非実施可能な」種類、または同等物を含むことができる。たとえば、「to entertainment」などの文字列は、コピーやペーストのためなどの、通常のテキストとして扱われ得るテキストの一部であり得、少なくともいくつかの実施形態では、実施可能オブジェクトとみなされないことがある(一方、他の実施形態では、実施可能とみなされる)。電話番号またはURLなどのオブジェクトは、コンピューティングデバイスが、少なくとも1つの特定の機能を、ユーザが興味を持ち得るこれらのオブジェクトの各々に対して実行することができるため、実施可能オブジェクトとみなされ得る。たとえば、各実施可能オブジェクト、すべての認識されたオブジェクト、または少なくとも1つの認識された実施可能オブジェクトに対して、インターフェースは、そのオブジェクトの表示に関連する、ユーザが選択可能な入力、アイコン、または要素を提供することができる。他の実施形態では、ユーザが選択可能な入力または要素は、各認識されたオブジェクト、または認識されたオブジェクトの特定のサブセットに対して、他のそのような選択肢の中で特に提供され得る。バーコードやQRコード(登録商標)などのオブジェクトは、異なる実施形態で、実施可能オブジェクトまたは実施可能でないオブジェクトのいずれかにみなされ得る。同様に、歌などのオブジェクトは、ソフトウェアが歌識別ソース及び/または歌購入ソースにリンクされている場合は実施可能とみなされ得、テキストは、翻訳が利用可能である場合は実施可能とみなされ得る。
さまざまな実施形態では、ユーザが選択可能なアイコンは、本明細書で「リボン」244と呼ぶものの形を取ることができるが、さまざまな他の種類の要素またはオブジェクトも、本明細書のどこかで説明し、提案するさまざまな実施形態の範囲内で活用することができる。本実施形態では、リボン244は、オブジェクトについての情報と、取られ得る少なくとも1つの動作についての情報という、少なくとも2つの部分から成る。例示の通り、リボンは、認識された電話番号を示すことができ、その番号を使用する前に、ユーザが、電話番号が適切に認識されたかどうかを判断することができるようにする。リボンは、また、この場合、電話のアイコンを使用し、「電話をかける」という言葉を含んで、取られ得る動作を識別することができるが、さまざまな他の指示も使用され得る。いくつかの実施形態では、従来の電話の代わりに、テキストを送信すること、またはSkype(登録商標)ビデオコールを行うことを、他のそのような選択肢の中で特にユーザが望む場合など、ユーザは、異なる選択肢の中から選択することができ、または特定の動作をある種類のオブジェクトに関連付けることができる。いくつかの実施形態では、リボンは2つのタッチターゲットを有することができ、それらは、ユーザが一次動作を選択することを可能にする、リボンの面積の約80%を構成する第1のターゲット、及びそのオブジェクトと、潜在的に、他のそのような可能性の中で特に、オブジェクトの内容を認識するために使用された画像のコピーとに適用可能な、他の動作またはプラグインを提供する詳細カードまたは他のそのような要素に、ユーザが行くことを可能にする、リボン面積の約20%である第2のターゲットである。説明した通り、いくつかの実施形態では、リボンは、少なくとも3つの表示するものを含むことができ、それらは、オブジェクトに関連する画像、オブジェクトの題名または名前、及びユーザがそのオブジェクトを、同じまたは類似の名前または題名などを持つ他のオブジェクトから区別することを助けるための著者名またはアーティスト名などの、曖昧性を除去するためのソースである。リボン(または他のユーザが選択可能なアイコン)は、また、さまざまな種類のオブジェクトに対する異なる動作も提供することもできる。たとえば、リボンは、音声データから認識された歌を購入またはダウンロードする動作、またはデバイスの1つまたは複数のセンサによって取得された音声データ及び/またはビデオデータから認識された、映像を再生する動作を含むことができる。
本実施例では、リボンは、現在の向きでは、ディスプレイの「下部」近くに表示されるが、他の場所も活用することができる。少なくともいくつかの実施形態では、リボン244は、少なくとも所定の期間、画面上に留まることができ、それは、対応するオブジェクトの表示が、ディスプレイ内でまだ見えるかどうか、または別の方法でデバイスがアクセス可能かどうかに関わらない。たとえば、ユーザは、デバイスを介してアクセス可能な電話番号を得るために、カメラをその番号に向けることができる。一旦取得され及び/または認識されると、ユーザは、もはや、カメラの視野にその番号がある状態でデバイスを持ち続けることを望まないかもしれず、リボンにタッチするため、または他の方法でその番号を確認し、電話をかけるために、カメラをより楽な位置に持っていくことを望むかもしれない。いくつかの実施形態では、ユーザは、ユーザにとってより都合の良い後の時間に電話をかけるために、デバイスがその番号を記憶することを望むかもしれない。これらの場合、または他のそのような場合では、デバイスが、リボンをある期間表示すること、またはユーザが適切な時間にリボンにアクセスすることを少なくとも可能にすること、が望まれ得る。
図2(d)の例示的状況260に示す通り、デバイスは、追加的なアルゴリズム、プラグイン、サービス、またはプロセスを使用することなどによって、他のそのような選択肢の中で特に、取得された画像の一部または品質が変化した時に、追加的なオブジェクトも認識することができる。本実施例では、別のオブジェクトが検出され、それにより、追加の境界ボックス262がファイヤーフライによって作成される。1つのオブジェクトが実施可能なため、新しく認識されたオブジェクトに対して特定の動作が実行されるようにユーザがすることができる、追加のリボン264が作成される。オブジェクトに対して複数の動作を実行することができるいくつかの実施形態では、複数のリボンをディスプレイ画面上に表示することができる。他の実施形態では、リボンは、1つより多いラベルを有することができ、各ラベルは異なる可能な動作を指す。たとえば、センサデータは、映画館のしるしの表示、新聞広告、音楽及び/またはさまざまな他のオブジェクトを含むことができ、ユーザは、(たとえば、予約/チケットのために)電話をかけること、またはそうする前に、オブジェクトについてより多くの情報を知ること(アーティストのウェブページを見る、映画の予告を見る、メニューを見る、など)を望むかもしれない。ラベルは、また、第三者のソーシャルメディアページ(たとえば、ポスター/広告に表示されたレストランまたは音楽アーティストのフェイスブックページ)を訪れる能力などの機能を示すことができる。例示の実施例では、第1のリボンは、追加的なリボンが右側に追加された状態で、ディスプレイの中央に表示されるが、他の実施形態では、他のそのような選択肢の中で特に、より新しいリボンが中央に提示され得、古いリボンを右または左に「押す」ように見えるように動かされ得る。他のリボンにアクセスするために、その後、ユーザは、そのような目的のために使用される多数のナビゲーションアプローチのうちのいずれかを使用して、それらのリボンをスワイプし、スクロールし、または他の方法でナビゲートすることができる。
図2(e)の例示的状況280に示す通り、リボン282は、また、他のそのような選択肢の中で特に、互いの上に縦に積み重なって見えるように表示され得る。本実施例では、他のそのような選択肢の中で特に、第1のリボンは、他のリボンがその下に見える状態で一番上に現れ、一方、他の実施形態では、最も新しく生成されたリボンが、常に一番上に現れるようにすることができる。新しいリボンが生成され、リボンの数が、固定、可変、またはユーザが構成可能な数として表示できるリボンの数を超えると、たとえば、より古いリボンは、画面から「押し」出され得るが、本明細書のどこかで説明する1つまたは複数のナビゲーションアプローチを介して、ユーザが利用することができる。リボンまたは他の選択可能な要素を表示し、動かし、ナビゲートするためのさまざまな他のアプローチを、さまざまな実施形態の範囲内で活用することもできる。
追加的なオブジェクトが認識されると、ファイヤーフライは、それらのオブジェクトの表示を識別し、追加的なリボンを提供することができる。たとえば、図3(a)の状況300では、文書の異なる部分がカメラの視野の中にあるように、わずかに異なるライブビューがデバイスのディスプレイを介して提供されるように、デバイス及び/または文書が動かされている。更新されたライブビューでは、追加的なオブジェクトの表示が識別され、ファイヤーフライの一部に、その表示の周りに境界ボックス302を作成させて、そのオブジェクトが認識されたことを示す。オブジェクトは、ユーザによって購入され得る製品(たとえば、映画、本、またはアプリケーション)として識別されている。たとえば、認識は、オブジェクトの表示を、製品の画像に対応するものとして識別したかもしれず、その製品についての情報をユーザに提供するために、製品データストアに対する検索を実行することができたかもしれない。結果として、別のリボン304をスタックの一番上などでユーザに提示することができ、それによって、以前に表示されたリボン282を、ディスプレイ上で「下に」移動させる(または別の方法で新しいリボンのための場所を作る)ことができる。新しいリボンは、たとえば、識別された製品の画像と、シングルクリック、または電子的にアイテムを購入するための、知られているまたは使用されている他の処理のいずれかを用いて、ユーザがその製品を購入または他の方法で取得することを可能にするための、リンクまたは他の選択可能な機構とを含むことができる。述べた通り、新しい境界ボックス302を作成するファイヤーフライは、以前に表示された境界ボックスから移動することができ、新しいファイヤーフライとして現れることができ、またはそれらの組み合わせであることができる。いくつかの実施形態では、ファイヤーフライは、また、画面外から飛んでくることができ、または他のそのような動作または動きを実行することができる。
述べた通り、デバイスがオブジェクトを認識し、ユーザが、デバイスをより快適な位置で使用して、そのオブジェクトに対して動作を行いたい時など、ユーザが、オブジェクトを、デバイスのカメラまたはセンサのうちの1つの視野内に留めておかないかもしれない場合がある。一実施例として、図3(b)の状況320では、ライブビュー322は、以前に識別されたオブジェクトの表示をもはや表示せず、この場合、(いくつかの実施形態では潜在的な部分的文字列以外の)識別可能なオブジェクトの表示を含まない。例示の通り、境界を示す表示がもはやないため、ファイヤーフライは、先に述べた通り、再び散乱し、分散し、または他の方法でディスプレイを動き回ることができる。説明した通り、ファイヤーフライは、エッジ、角、色または輝度の急激な変化、などを含み得る、認識可能オブジェクトに対応し得る特徴を見つけようと試みることができる。しかしながら、例示の通り、リボン324は、少なくともある期間の間、ディスプレイ上に留まることができる。説明した通り、これは、対応するオブジェクトがコンピューティングデバイスによってまだ検出可能であるかどうかに関わらず、ユーザが、識別された動作のうちの1つを選択することを可能にすることができる。
図3(c)の例示的状況340では、文書の以前に分析された部分が、再び、カメラの視野の中に含まれ、ライブビューで見ることができるように、デバイスが動かされている。先に説明した通り、アルゴリズムは、画像を再び分析して、画像内に表示されたオブジェクトを認識及び/または識別することを試みることができる。本明細書のどこかで説明する通り、デバイスがそのライブビューのオブジェクトをすでに認識したと判断することを、動き追跡または他の機構が可能にする場合、異なるアプローチを使用することができ、それにより、取得された画像内のさまざまなオブジェクトの存在を再判断しなければならいことに対する、少なくともいくつかの処理を省くことができる。先に説明した通り、アルゴリズムは、再びオブジェクトを検出し始め、境界ボックス342が、ファイヤーフライによって、各識別されたオブジェクトの表示の周りに形成され得る。本実施例では、デバイスは電話番号を認識することができ、たとえば、その番号について記憶された情報、またはその番号についての文脈情報について記憶された情報に基づいて、デバイスは、そのリボンのために、リボンがすでに生成されたかを判断することができる。そのような例では、少なくともいくつかの実施形態は、リボン344がリボンスタック346の一番上にもたらされるようにすることができ、対応する動作がユーザにとって容易にアクセス可能であるようにする。これが、その番号に対する動作が決定された最初の時である場合、または、この特定の動作が決定された最初の時である場合、新しいリボンを生成し、スタックの一番上または他の適切な場所に置くことができる。リボンがすでに生成されている場合、そのリボンを所望の位置に表示することができる。次いで、リボンスタック346内の他のリボンを、本明細書のどこかで説明し、提案する通り、下に移動することができ、または他の方法で調整することができる。
いくつかの例では、ユーザは、デバイスに関連オブジェクトを再び認識させる必要なしに、以前に生成されたリボンのうちの1つにアクセスすることを望み得る。図3(d)の例示的状況360に例示する通り、少なくともいくつかの実施形態によるインターフェースは、所望のリボン及び/または動作を見つけるために、ユーザが以前に生成されたリボンにアクセスすることを可能にすることができる。本実施例では、ユーザは、特定のリボンを見つけるために、または1つまたは複数の以前に生成されたリボンを少なくとも見るために、指362または他のそのような物を使用して、リボンスタック346をナビゲートすることができる。ユーザは、タッチ画面を使用してリボンスタックを下にスクロールすることができるが、本明細書に含まれる教示と提案とを考慮して当業者に明白である、他のナビゲーションアプローチも使用することができる。これらは、たとえば、スタイラスペンまたは物理的ボタンを使用すること、デバイスを傾けること、ジェスチャーまたは動きによる入力を提供すること、などを含むことができる。次いで、ユーザは、以前に生成されたリボンのうちの1つに関連する動作を選択することができる。少なくともいくつかの実施形態では、ユーザはリボンに対して、リボンを消去または修正すること、リボンを並べ替えること、リボンを結合またはコピーすること、などの他のタスクを実行することができる。例示の通り、リボン(または他のユーザが選択可能なアイコン)は、様々な種類のオブジェクトに対して異なる動作を提供することができる。たとえば、リボンは、音声データから認識された歌を購入またはダウンロードする動作、またはデバイスの1つまたは複数のセンサによって取得された音声データ及び/またはビデオデータから認識された動画を再生する動作を含むことができる。
図4(a)から4(d)は、さまざまな実施形態による、ファイヤーフライとリボンとを活用して、ユーザが認識されたオブジェクトに対して動作を実行することを可能にすることができる、別の例示的インターフェースを示している。本実施例では、図4(a)の状況400に示す通り、ユーザは、特定のアイテム、この場合は本402についての情報を得ることに興味を持ち得る。本明細書のどこかで説明する通り、ユーザは、デバイスを発見モードで持つ(または置く)ことができ、または他の方法で、カメラの視野内の1つまたは複数のオブジェクトを認識することを試みるために分析され得る画像情報を取得しながら、カメラを持つことができる。この場合、本402の画像がカメラによって撮影され、画像は、コンピューティングデバイスのディスプレイ上で、ライブビューで表示される。先に述べた通り、デバイスは、少なくとも最初は、ディスプレイ画面上で比較的ランダムに(または少なくともいくらか散らばって)動き回るまたは点滅することができるファイヤーフライ404のグループを表示することができる。いくつかの実施形態では、デバイス上で実行している1つまたは複数のアルゴリズムは、認識可能オブジェクトに対応し得る、ライブビュー内の特徴を見つけることを開始することができる。説明した通り、これらは、当技術分野で知られている、または使用されている、コンピュータビジョンや画像認識などのタスクのために使用され得る、エッジ、推移、終点、他の特徴または態様のようなものを含むことができる。図4(b)に示す例示的状況420では、ファイヤーフライ422のうちの少なくともいくつかは、これらの特徴のうちの少なくともいくつかの方に、それらが識別されるにつれて移動し始めることができる。たとえば、本のエッジは、潜在的に認識可能な特徴として検出されやすいため、ファイヤーフライ422のうちの少なくともいくつかは、本の表現のエッジの近くに移動及び/または現れ始めることができる。そのようなアプローチは、ファイヤーフライが知的であり、画像内に表示されたオブジェクトを識別しようと試みているという印象を提供することができる。そのようなアプローチは、また、デバイスが識別している特徴に関して、ユーザにフィードバックを提供することもでき、ユーザが興味を持っているオブジェクトの表示が、ファイヤーフライを「惹きつけ」ていない場合、それによって、ユーザは、認識を改善することを試みるには、ビュー、フォーカス、照明、またはいくつかの他の態様を調整すること、と気付くことができる。オブジェクトが識別されると、ファイヤーフライは、図4(c)の例示的状況440に示す通り、移動して、境界ボックス442またはオブジェクトの表示についての他の指示を作ることができる。いくつかの実施形態では、例示の通り、ライブビューの他の部分は、暗く、色または輝度を変えて、または他の方法で修正されて見えて、認識されたオブジェクトに対応する画像の部分をさらに協調することができる。本実施例では、オブジェクトは、購入することができる本として識別され、それにより、リボン444がディスプレイ画面上に表示される。本実施例のリボンは、製品データストアから取得され得る本の画像と、本についての追加情報を購入または取得する能力とを含むことができる。本実施例では、図4(d)の例示的状況460に示す通り、ユーザはリボン444を選択して、ユーザがその本の一冊を購入することを可能にするウェブページ462にデバイスを移動させることができる。ユーザがすでにその本の一冊を電子形態で購入している場合は、たとえば、リボンは、代わりに、選択されると、たとえば、その電子書籍を電子書籍リーダアプリケーションに表示させる動作を提供することができる。さまざまな他の動作を取ることもできる。
多くの場合で、述べた通り、取られ得る複数の動作があり得る。たとえば、電話番号は、テキストメッセージ、音声電話、またはビデオ電話のために使用され得る。URLが外国語を含む場合、動作は、URLをウェブブラウザで開くこと、またその言葉を翻訳することを含むことができる。さまざまな他の動作を適用することもできる。その結果、少なくともいくつかの実施形態では、動作の種類は、ユーザによって選択可能であることができ、またはこれらの動作を提案するためのアルゴリズムは、ランク付けされ、または他の方法で優先順位を付けられ得る。たとえば、ユーザは、平均的に、外国語を翻訳するよりもURLに従うことを望む可能性が高いため、URLとして認識されているオブジェクトは、常に、外国語を含むと識別されているオブジェクトに優先することができる。たとえば、ユーザが、音声電話、ビデオ電話、またはVoIP電話をかけることができるなどのいくつかの場合では、デバイスは、たとえば、ユーザの過去の使用法を分析することができ、またはどの動作をリボンでユーザに提供するかを決定することができる選択肢または優先度を、ユーザに提示することができる。述べた通り、いくつかの実施形態では、2つ以上の選択肢を同時に提示することができる。リボンは、また、ユーザが、他の利用可能な動作を見ることと、実行される、それらの動作のうちの1つまたは複数を選択することとを可能にする選択肢を含むことができる。
図5は、さまざまな実施形態に従って活用され得る、オブジェクトを認識するためと、動作がそれらのオブジェクトに対して実行されることを可能にするためとの、例示的プロセス500を示している。本明細書で説明するプロセスについて、特に明記しない限り、さまざまな実施形態の範囲の中に、同様または代替的な順序で、または並行して実行される、追加的なステップ、より少ないステップ、または代替的なステップがあり得る、ということを理解すべきである。本実施例では、センサ始動命令が受信される502。これは、1つまたは複数のセンサを含むコンピューティングデバイス上で自動的に生成される、少なくとも1つのハードウェア命令及び/またはソフトウェア命令、ユーザ入力に応じて生成される命令、または他のそのような命令を含むことができる。これに応じて、デバイスは、説明した通り、音声データ、ビデオデータ、画像データ、位置データ、などのデータを含むことができるセンサデータを、取得または別の方法で取得することができる504。デバイスは、また、撮影されたビデオの「ライブビュー」をデバイスのディスプレイ上で表示することができ、ライブビューは選択されたカメラのビューに対応し、それは、そのカメラによって撮影され、その後、比較的小さな遅延で、デバイスのディスプレイ画面上に表示された画像によって示される。「ライブ」ビューが、表示のための画像を撮影し、読み込み、提供するために必要な時間のために、わずかな遅延を有し得ることを理解すべきである。
センサが動作している間、少なくともいくつかの実施形態では、コンピューティングデバイスを、本明細書で認識モードと呼ぶものまたは別のそのような状態に入らせる、次の命令が受信され得る506。認識モードにある間、コンピューティングデバイスは、「ファイヤーフライ」のグループまたは他のそのようなグラフィック要素を、指定されたカメラによって撮影された画像のライブビューの上、またはそれに沿って表示させることができる508。ライブビューは、いくつかの実施形態では、1つのカメラからの1つの画像ストリーム、複数のカメラからの複数の画像ストリーム、または1つまたは複数の立体カメラからの三次元ストリームを、他のそのような選択肢の中で特に含むことができる。ファイヤーフライがディスプレイを動き回り及び/または点滅している間、取得されたセンサデータのうちの少なくとも一部を分析して510、センサデータ内のオブジェクトの表示に少なくとも部分的に基づいて、少なくとも1つのオブジェクトを認識することを試みることができる。オブジェクトが認識されない場合512、プロセスは継続することができる。オブジェクトが認識された場合、ファイヤーフライの少なくとも一部またはグループに、ライブビュー内の表示を囲むこと、または他の方法で1つまたは複数の態様(たとえば、色、動き、など)を調整して認識を示すことなどによって、認識されたオブジェクトの表示を識別させることができる514。述べた通り、他のそのような選択肢の中で特に、ファイヤーフライのうちのいくつかは、アイテムの表示の近くのアニメ化された境界ボックスに移動するように見えることができ、一方、他のファイヤーフライは、境界ボックスのところで現れまたは点滅することができる。ファイヤーフライがオブジェクトの認識を識別する間、またはその時のあたりで、デバイス(またはデバイスと通信しているコンピューティングシステム)は、オブジェクトの種類を判断することを試みることができる516。これは、オブジェクトが実施可能オブジェクトであるかどうかを少なくとも含むことができ、少なくともいくつかの実施形態では、オブジェクトが、文字列、URL、電話番号、歌、映画、位置、ビデオファイル、Eメールアドレス、製品、または他のそのようなオブジェクトタイプかどうかを識別することができる。オブジェクトが、たとえば、実施可能な種類ではないと判断された場合518、プロセスは継続することができる。オブジェクトが、実施可能な種類であると判断された場合、そのオブジェクトに対する動作の種類を決定することができる520。これは、たとえば、番号に電話をかける動作、アドレスにEメールを送るまたはアドレスを開く動作、歌を識別する動作、映画をダウンロードする動作、ビデオファイルを起動する動作、または本明細書のどこかで説明し、提案する他のそのような動作を含むことができる。説明した通り、複数の関連動作を有するオブジェクトに対して、少なくとも1つの動作をそのオブジェクトに対して選択することができる。また、いくつかの実施形態では、1つまたは複数の動作を、オブジェクトが実施可能であると判断されるかどうかに関わらず、各認識されたオブジェクトに対して決定することができる。動作が決定されると、リボンまたは他のそのようなユーザが選択可能なアイコンを生成し、表示することができ522、それにより、ユーザがオブジェクトに対してその動作を開始することを可能にする。リボンが、新しいリボン、または現在表示されていない以前に生成されたリボンである場合、リボンを表示することができ、表示されているリボンは、スタックまたはリボンの配列の下の方へまたはその中でリボンを移動するなど、適切に調整され得る。これは、少なくともいくつかの実施形態では、ユーザによって操作され得る。
一実施例として、図6は、さまざまな実施形態に従って活用され得る、表示されているユーザが選択可能なアイコンを更新するための例示的プロセス600を示している。本実施例では、図5のプロセスに関して説明した通り、取得されたセンサデータが分析される602。新しいオブジェクトの表示は、センサデータ内で認識され得る604。この新しいオブジェクトは、以前デバイスによって遭遇されていないオブジェクト、または少なくともセンサデータ内で最近遭遇されていないオブジェクトであり得、そのオブジェクトに対するユーザが選択可能なアイコンは現在表示されていない。そのオブジェクトが以前に認識されたかどうかに関する判断を行うことができる606。認識されていなかった場合、オブジェクトの種類に対する動作の種類を決定することができる608。オブジェクトが実施可能であると判断された場合、1つまたは複数の動作を含む、オブジェクトに対するユーザが選択可能なアイコンも、生成することができる610。オブジェクトが以前に認識されていた場合、以前に決定された動作を、ユーザが選択可能なアイコンを用いて活用することができる。オブジェクトに対するユーザが選択可能なアイコンを、本明細書で説明し、提案した通り、要素スタックの一番上または他の適切な場所に、表示することができる612。要素の数が閾値を超えた場合など、表示の必要に応じて、他の要素を押し下げることができる614。ユーザは、その後、ユーザが選択可能なアイコンをスクロールし、検索し、または他の方法でナビゲートすることを可能にされ得る616。述べた通り、画面上にもはや表示されていないユーザが選択可能なアイコンは、それらの要素についての情報が、そのようなナビゲーションと他のそのような目的とのためにアクセス可能であることができるように、「保管」され得る。
少なくともいくつかの実施形態では、ユーザは、検索選択肢を活用して、保管されているユーザが選択可能なアイコンまたはそれ以外で現時点では表示されていない要素からの、情報を見つけることができる。いくつかの実施形態では、検出モードに入ることで、最も新しいユーザが選択可能なアイコンが表示され、その直後に保管されるようにすることができ、またはそうしない場合、ユーザに、画面の外に保管されている要素があることを示すまたは思い出させるために、画面からなくなるようにすることができる。いくつかの実施形態では、デバイスの現在の環境または状況に関係があると識別されたオブジェクトに対する要素は、いつでも表示される。ユーザは、要素をスクロールまたは別の方法でナビゲートして、生成された全要素を潜在的に見て、関連情報を取得することができる。この要素履歴をナビゲートするまたはそれにアクセスする、さまざまな他の方法も活用することができる。これらの要素を、作成日、最終アクセス日、作成された場所の現在の位置からの距離、などの適切な基準を使用して、記憶することができる。いくつかの実施形態では、履歴は、他のユーザ、または同じユーザの他のデバイスからの検出に基づき得る、現時点または将来の時点でユーザの近くにあることが分かっているオブジェクトに関連する要素などの、他の要素も含むことができる。いくつかの実施形態では、保管された要素をスクロールまたはナビゲートし始めたユーザは、デバイスを「識別」モードまたは他のそのようなモードに入らせることができ、そこでは、センサは、センサデータを取得することを停止し、及び/または取得されたセンサデータは分析されず、検索バー(または他の検索機構)が、ディスプレイの上部からドロップダウンすることなどによって、画面上に表れることができる。いくつかの実施形態では、検索バーは、ユーザが、画面の約50%〜60%以上に要素を含ませた時に表われることができるが、さまざまな他の基準も活用することができる。ユーザは、オブジェクトの種類、動作の種類、アクセス日、オブジェクト名、動作名、オブジェクトの位置、などのさまざまな種類のメトリクスを使用して検索を行うことができる。
少なくともいくつかの実施形態では、ユーザが選択可能なアイコンを生成するソフトウェアを、コンピューティングデバイスに、及び/またはウェブサービスとして提供され得るものなどのデバイスから離れたところに、記憶することができる。いくつかの実施形態では、1つまたは複数のアプリケーションプログラミングインターフェース(API)などのインターフェースを使用して、オブジェクトの画像と説明とを提供することなどによって、オブジェクトの識別情報を取得することを助けることができる。そのようなインターフェースは、また、第三者のシステム及びサービスが、システムにつながるようにすることができ、他のそのような可能性の中で特に、オブジェクトを識別し、オブジェクトの情報を提供し、またはオブジェクトに対する特定の動作を可能にすることを助けることができる。
図7は、本明細書で説明し、提案するさまざまな実施形態による、方法を実行するために使用され得る例示的コンピューティングデバイス700を示している。本実施例では、デバイスは、情報とコンテンツをユーザに表示するための主ディスプレイ画面702を有する。デバイスは、また、デバイスの正面と背面とにそれぞれ位置された2つのカメラ704、706も有する。より少ないまたは追加的な、カメラまたは他のそのような画像取込要素またはセンサを、そのようなデバイスのさまざまな他の位置に置くこともできる、ということを理解すべきである。本実施例では、各取込要素は、可視スペクトル及び/または赤外線(IR)スペクトルの画像情報を取得することができるカメラであり、少なくともいくつかの実施形態では、動作モードを選択することができる。しかしながら、他の実施形態では、より少ないまたは追加的な、同様または代替的な種類の要素があり得、カメラと赤外線検出器とジェスチャセンサとさまざまなデバイスと共に使用される他のそのような要素との組み合わせがあり得る、ということを理解すべきである。
本実施例では、光センサを使用して、撮影されるオブジェクトの大まかな方向の光の量を判断することができる。白色発光ダイオード(LED)または赤外線(IR)エミッタなどの少なくとも1つの照明要素を使用して、たとえば、光センサによって判断された通り、十分な光がない時に、特定の範囲の方向に照明を提供することができる。いくつかの実施形態では、画像取込要素の各々に対してエミッタがあり得、各エミッタは、各画像取込要素の近くに置かれている。さまざまな他の要素と要素の組み合わせとを、本明細書に含む教示と提案とを考慮して明らかである通り、さまざまな実施形態の範囲内で使用することもできる。デバイスは、少なくとも1つのネットワーキング構成要素708を含むことができ、デバイスがオブジェクトを識別すること、またはデバイスが識別されたオブジェクトに関する情報を取得することで、使用され得るものなど、少なくとも1つの遠隔システムまたはサービスと通信する。デバイスは、また、音声データを取得するための少なくとも1つのマイク710または他のそのようなセンサを含むことができる。
本明細書で説明するさまざまな機能を提供するために、図8は、図7に関連して説明したデバイス700などの、コンピューティングデバイス800の基本構成要素の例示的セットを示している。本実施例では、デバイスは、少なくとも1つのメモリデバイスまたは要素804内に記憶され得る命令を実行するための、少なくとも1つの中央処理装置802を含む。当業者に明白である通り、デバイスは、プロセッサ802による実行のためのプログラム命令のための第1のデータストレージ、画像またはデータのために使用され得る同じまたは別のストレージ、情報を他のデバイスと共有するために利用可能であり得る取り外し可能ストレージメモリなどの、多くの種類のメモリ、データストレージまたは他の種類の非一時的コンピュータ可読記憶媒体を含むことができる。デバイスは、通常、タッチ画面、電子インク(e−ink)、有機発光ダイオード(OLED)または液晶ディスプレイ(LCD)などの、いくつかの種類のディスプレイ要素806を含むが、携帯型メディアプレーヤなどのデバイスは、音声スピーカを通してなど、他の手段を介して情報を伝達することができる。少なくともいくつかの実施形態では、ディスプレイ画面は、たとえば、容量性または抵抗性のタッチ技術を使用した、タッチベースまたはスワイプベースの入力を提供する。
説明した通り、多くの実施形態におけるデバイスは、デバイスの近くのユーザ、人々、または物体を撮影することができる1つまたは複数のカメラなどの、少なくとも1つの画像取込要素808を含む。画像取込要素は、所定の解像度と焦点距離と可視領域と取込率とを有するCCD画像取込要素またはCMOS画像取込要素などの、適切な技術を含むことができ、またはそれに少なくとも部分的に基づくことができる。例示的デバイスは、ピントの合った画像を取得することを補助するための、デバイスの動きを判断することに使用される電子ジャイロスコープなどの、少なくとも1つの方向決定構成要素810を含む。デバイスは、また、照明を提供するための1つまたは複数の光源(たとえば、白色LED、IRエミッタ、またはストロボ)を含むことができるものなどの、少なくとも1つの照明要素、及び/または周辺光または強度などを検出するための、1つまたは複数の光センサまたは光検出器を含むことができる。
例示的デバイスは、従来の入力をユーザから受信することができる、少なくとも1つの追加的な入力デバイス812を含むことができる。この従来の入力は、たとえば、押しボタン、タッチパッド、タッチ画面、ホイール、ジョイスティック、キーパッド、マウス、トラックボール、キーパッドまたはユーザがコマンドをデバイスに入力することができる他のそのようなデバイスまたは要素を含むことができる。これらのI/Oデバイスを、いくつかの実施形態では、ワイヤレス赤外線またはBluetooth(登録商標)または他のリンクによって、接続することさえもできる。しかしながら、いくつかの実施形態では、そのようなデバイスは、まったくボタンを含まないこともあり、ビジュアルコマンド(たとえば、ジェスチャ)と音声コマンド(たとえば、口頭の)との組み合わせのみを通して制御され得、ユーザが、デバイスに触れる必要なく、デバイスを制御することができるようにする。
説明した通り、異なるアプローチを、説明した実施形態によるさまざまな環境において実装することができる。たとえば、図9は、さまざまな実施形態による態様を実装するための環境900の一実施例を示している。理解される通り、ウェブベースの環境が説明の目的のために使用されているが、さまざまな実施形態を実装するために、必要に応じて、異なる環境を使用することができる。システムは、電子クライアントデバイス902を含み、それは、要求、メッセージまたは情報を、適切なネットワーク904を介して送受信し、情報をデバイスのユーザに伝達し返すように動作可能な適切なデバイスを含むことができる。そのようなクライアントデバイスの例は、パーソナルコンピュータ、携帯電話、携帯型メッセージングデバイス、ラップトップコンピュータ、セットトップボックス、携帯情報端末、電子書籍リーダなどを含む。ネットワークは、イントラネット、インターネット、セルラーネットワーク、ローカルエリアネットワークまたは他のそのようなネットワークまたはそれらの組み合わせを含む、適切なネットワークを含むことができる。そのようなシステムのために使用される構成要素は、選択されるネットワーク及び/または環境の種類に少なくとも部分的に依存し得る。そのようなネットワークを介して通信するためのプロトコル及び構成要素は、よく知られており、本明細書では詳細に説明しない。ネットワークを介した通信を、ワイヤード接続またはワイヤレス接続と、それらの組み合わせとを介して可能にすることができる。本実施例では、ネットワークは、環境が、要求を受信し、それに応じてコンテンツを提供するためのウェブサーバ906を含むように、インターネットを含むが、他のネットワークについては、当業者に明白な通り、同様の目的を提供する代替的なデバイスを使用することができる。
例示の環境は、少なくとも1つのアプリケーションサーバ908とデータストア910とを含む。繋げられ、または他の方法で構成され得、データを適切なデータストアから取得することなどのタスクを実行するために相互作用することができる、いくつかのアプリケーションサーバ、レイヤまたは他の要素、プロセスまたは構成要素、があり得ることを理解すべきである。本明細書で使用される通り、「データストア」という用語は、データを記憶し、データにアクセスし、データを読み出すことができる、デバイスまたはデバイスの組み合わせを指し、標準的環境、分散環境、またはクラスタ化された環境で、多くの、データサーバとデータベースとデータストレージデバイスとデータストレージ媒体と、それらの組み合わせとを含むことができる。アプリケーションサーバ908は、クライアントデバイスのために1つまたは複数のアプリケーションの態様を実行するために、必要に応じて、データストア910と相互作用するためと、アプリケーションについて、データアクセスとビジネス論理との大部分を扱うためとの、適切なハードウェアとソフトウェアとを含むことができる。アプリケーションサーバは、データストアと協力してアクセス制御サービスを提供し、ユーザに伝達される、テキスト、グラフィックス、音声及び/またはビデオなどのコンテンツを生成することができ、コンテンツは、ウェブサーバ906によって、HTML、XML、または本実施例では他の適切な構造化言語の形態で、ユーザに提供され得る。すべての要求と応答との取り扱い、及びクライアントデバイス902とアプリケーションサーバ908との間でのコンテンツの配信は、ウェブサーバ906によって扱われ得る。本明細書で説明する構造化コードを、本明細書のどこかで説明する適切なデバイスまたはホストマシン上で実行することができるため、ウェブサーバ及びアプリケーションサーバは、必要ではなく、単に例示的な構成要素である、ということを理解すべきである。
データストア910は、特定の態様に関連するデータを記憶するための、いくつかの別々のデータ表、データベースまたは他のデータストレージ機構及び媒体を含むことができる。たとえば、例示のデータストアは、コンテンツ(たとえば、生産データ)912とユーザ情報916とを記憶するための機構を含み、それは、生産側のコンテンツを提供するために使用され得る。データストアは、また、ログまたはセッションデータ914を記憶するための機構を含むと示されている。ページ画像情報やアクセス権情報などの、データストアに記憶される必要があり得る、多くの他の態様があり得、それらが、必要に応じて、上記で挙げた機構のうちのいずれかの中に、またはデータストア910内の追加的な機構の中に記憶され得る、ということを理解すべきである。データストア910は、それに関連する論理を通して、命令をアプリケーションサーバ908から受信し、それに応じて、データを取得、更新または別の方法で処理するように動作可能である。一実施例では、ユーザは、特定の種類のアイテムに対する検索要求を提出することができる。この場合、データストアは、ユーザ情報にアクセスしてユーザの身元を確認することができ、カタログ詳細情報にアクセスしてその種類のアイテムについての情報を取得することができる。情報は、その後、ユーザがユーザデバイス902上のブラウザを介して見ることができる、ウェブページ上の結果一覧としてなど、ユーザに返され得る。興味のある特定のアイテムについての情報を、ブラウザの専用ページまたは専用ウィンドウで見ることができる。
各サーバは、通常、そのサーバの一般的管理と動作とのための実行可能なプログラム命令を提供するオペレーティングシステムを含み、通常、サーバのプロセッサによって実行された時に、サーバに、その意図する機能を実行させる命令を記憶するコンピュータ可読媒体を含む。サーバのオペレーティングシステムと一般的機能とのための適切な実装形態は、知られており、または市販されており、特に、本明細書の開示を考慮して、当業者によって容易に実装される。
一実施形態における環境は、1つまたは複数のコンピュータネットワークまたは直接接続を使用した通信リンクを介して相互接続されている、いくつかのコンピュータシステムと構成要素とを活用した分散コンピューティング環境である。しかしながら、そのようなシステムが、図9に示すものよりも少ない構成要素または多い構成要素を有するシステムでも等しく良く動作することができる、ということは当業者によって理解される。したがって、図9のシステム900の図は、本来例示として、本開示の範囲を限定しないものとして理解されるべきである。
いくつかの場合では、多数のアプリケーションのうちのいずれかを動作させることに使用され得る、1つまたは複数のユーザコンピュータまたはコンピューティングデバイスを含むことができる多種多様な動作環境で、さまざまな実施形態をさらに実装することができる。ユーザデバイスまたはクライアントデバイスは、標準的なオペレーティングシステムを実行しているデスクトップコンピュータまたはノートパソコンなどの、多数の汎用パーソナルコンピュータのうちのいずれかと、モバイルソフトウェアを実行し、多数のネットワーキングプロトコルとメッセージングプロトコルとをサポートすることができる、セルラーデバイスとワイヤレスデバイスと携帯型デバイスと、を含むことができる。そのようなシステムは、また、さまざまな市販のオペレーティングシステムのうちのいずれかと、開発やデータベース管理などの目的のための他の知られているアプリケーションとを実行する多数のワークステーションを含むことができる。これらのデバイスは、また、ダミー端末、シンクライアント、ゲームシステム、及びネットワークを介して通信することができる他のデバイスなどの、他の電子デバイスを含むことができる。
ほとんどの実施形態は、TCP/IP、FTP、UPnP、NFS、及びCIFSなどの、さまざまな市販のプロトコルのうちのいずれかを使用する通信をサポートするための、当業者によく知られている少なくとも1つのネットワークを活用する。ネットワークは、たとえば、ローカルエリアネットワーク、広域ネットワーク、仮想プライベートネットワーク、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、ワイヤレスネットワーク、及びそれらの組み合わせであることができる。
ウェブサーバを活用する実施形態では、ウェブサーバは、HTTPサーバと、FTPサーバと、CGIサーバと、データサーバと、Javaサーバと、ビジネスアプリケーションサーバとを含む、さまざまなサーバまたは中間アプリケーションのうちのいずれかを実行することができる。サーバは、また、Java(登録商標)、C、C#またはC++などの任意のプログラミング言語、またはPerl、PythonまたはTCLなどの任意のスクリプト言語で書かれた1つまたは複数のスクリプトまたはプログラムと、それらの組み合わせとして実装され得る、1つまたは複数のウェブアプリケーションを実行することなどによって、ユーザデバイスからの要求に応じて、プログラムまたはスクリプトを実行することもできる。サーバは、また、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)、及びIBM(登録商標)から市販されているものなどを限定せずに含む、データベースサーバを含むこともできる。
環境は、上記で説明した、さまざまなデータストアと他のメモリとストレージとを含むことができる。これらは、コンピュータのうちの1つまたは複数にローカルな(及び/またはその中に存在する)、またはコンピュータのうちのいずれかまたは全部からネットワークを隔てて離れている、ストレージ媒体上など、さまざまな場所に存在することができる。特定のセットの実施形態では、情報は、当業者によく知られているストレージエリアネットワーク(SAN)内に存在し得る。同様に、コンピュータ、サーバまたは他のネットワークデバイスに帰属する機能を実行するために必要なファイルは、適切に、ローカルに及び/または遠隔で記憶され得る。システムがコンピュータ制御のデバイスを含む場合、各そのようなデバイスは、バスを介して電気的に連結され得るハードウェア要素を含むことができ、要素は、たとえば、少なくとも1つの中央処理装置(CPU)と、少なくとも1つの入力デバイス(たとえば、マウス、キーパッド、コントローラ、タッチセンサ式ディスプレイ要素またはキーパッド)と、少なくとも1つの出力デバイス(たとえば、ディスプレイデバイス、プリンタまたはスピーカ)とを含む。そのようなシステムは、また、ディスクドライブ、光学ストレージデバイス、及びランダムアクセスメモリ(RAM)またはリードオンリメモリ(ROM)などの半導体ストレージデバイスなどの、1つまたは複数のストレージデバイスと、取り外し可能なメディアデバイスと、メモリカードと、フラッシュカードなどを含むこともできる。
そのようなデバイスは、また、コンピュータ可読記憶媒体リーダと、通信デバイス(たとえば、モデム、ネットワークカード(ワイヤレスまたはワイヤード)、赤外線通信デバイス)と、上記で説明した作業メモリとを含むこともできる。コンピュータ可読記憶媒体リーダは、遠隔の、ローカルの、固定及び/または取り外し可能なストレージデバイスを表す、非一時的コンピュータ可読記憶媒体と、コンピュータ可読情報を一時的及び/またはより恒久的に含み、記憶し、読み出すための記憶媒体とに接続され得、または受け入れるように構成され得る。システム及びさまざまなデバイスは、また、通常、オペレーティングシステムと、クライアントアプリケーションまたはウェブブラウザなどのアプリケーションプログラムとを含む、多数のソフトウェアアプリケーション、モジュール、サービス、または少なくとも1つの作業メモリデバイス内に置かれた他の要素を含む。代替的な実施形態が、上記で説明したものからの多数の変更を有することができる、ということを理解すべきである。たとえば、カスタムハードウェアも使用することができ、及び/または特定の要素を、ハードウェア、ソフトウェア(アプレットなどの高移植性ソフトウェアを含む)または両方で実装することができる。さらに、ネットワーク入力/出力デバイスなどの他のコンピューティングデバイスへの接続を使用することができる。
コードまたはコードの一部を含むための記憶媒体及び他の非一時的コンピュータ可読媒体は、当技術分野で知られているまたは使用されている適切な媒体を含むことができ、それには、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するための方法または技術で実装された、揮発性及び非揮発性、取り外し可能及び固定の媒体などであるがそれらに限定されない、記憶媒体と通信媒体とが含まれ、それらは、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光学式ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたは他の磁気ストレージデバイス、または所望の情報を記憶することに使用され得、システムデバイスによってアクセスされ得る他の媒体を含む。本明細書で提供した開示と教示とに基づいて、当業者は、さまざまな実施形態を実装する他のやり方及び/または方法を理解する。
結果として、明細書及び図面は、限定的な意味というよりも、例示的な意味にみなされるものである。しかしながら、特許請求の範囲に明記する、本発明のより広い精神と範囲とから逸脱することなく、さまざまな修正と変更とを本明細書に行うことができる、ということは明白である。
条項
1. コンピューティングデバイスであって、
少なくとも1つのプロセッサと、
ディスプレイ画面と、
少なくとも1つのカメラと、
前記少なくとも1つのプロセッサによって実行された時に、前記コンピューティングデバイスに、
前記少なくとも1つのカメラを使用してビデオデータを生成することと、
前記ディスプレイ画面上に、前記ビデオデータが生成されるにつれて、前記ビデオデータの少なくとも一部に基づいたビデオコンテンツを表示することと、
前記ビデオコンテンツ内に表示された少なくとも第1のオブジェクトと第2のオブジェクトとを認識することと、
第1の複数のグラフィック要素に、前記第1のオブジェクトが認識されたことを示させることと、
第2の複数の前記グラフィック要素に、前記第2のオブジェクトが認識されたことを示させることと、
前記第1のオブジェクトのための、第1の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第1のユーザが選択可能なアイコンが、前記第1のユーザが選択可能なアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第1の動作を伝達し、前記第1の動作が、第1のオブジェクトタイプに少なくとも部分的に基づく、表示することと、
前記第2のオブジェクトのための、第2の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第2のユーザが選択可能なアイコンが、前記第2のユーザが選択可能なアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第2の動作を伝達し、前記第2の動作が、第2のオブジェクトタイプに少なくとも部分的に基づく、表示することと、
2よりも大きい閾値数よりも多い、ユーザが選択可能なアイコンが表示のために生成されたことに応じて、少なくとも1つの過剰な、ユーザが選択可能なアイコンを前記ディスプレイ画面から除去することであって、前記過剰なユーザが選択可能なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去することと、
を行わせる命令を含むメモリと、
を備える、前記コンピューティングデバイス。
2. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記コンピューティングデバイスのマイクを使用して音声データを取得することと、
前記音声データのための、第3の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第3のユーザが選択可能なアイコンが、前記第3のユーザが選択可能なアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第3の動作を伝達し、前記第3の動作が、前記音声データ内の認識された音声の種類に少なくとも部分的に基づく、表示することと、
をさらに行わせる、1項に記載のコンピューティングデバイス。
3. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記第1のユーザが選択可能なアイコンが、前記ディスプレイ画面上で、前記第2のユーザが選択可能なアイコンの上に積み重ねられて見えるように表示されるようにすること、
をさらに行わせる、1項に記載のコンピューティングデバイス。
4. 前記命令が、実行されると、前記コンピューティングデバイスに、
以前に表示された、ユーザが選択可能なアイコンについての情報が、前記コンピューティングデバイスによって記憶されるようにすることと、
前記以前に表示されたユーザが選択可能なアイコンが、ユーザが前記ディスプレイ画面上でスワイプ動作を実行したことに応じて、表示されるようにすることであって、前記スワイプ動作が、以前に表示された、ユーザが選択可能なアイコンを見つけるために使用され得る、表示されるようにすることと、
をさらに行わせる、1項に記載のコンピューティングデバイス。
5. 前記命令が、実行されると、前記コンピューティングデバイスに、
現在表示されているユーザが選択可能なアイコンと、以前に表示されたユーザが選択可能なアイコンと、について記憶されている情報に対して、検索が実行されることを可能にする検索選択肢を提供すること、
をさらに行わせる、1項に記載のコンピューティングデバイス。
6. コンピューティングデバイスの少なくとも1つのセンサを使用して取得されたセンサデータを取得することと、
前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記取得センサデータ内に表示された第1のオブジェクトと第2のオブジェクトとを認識することと、
第1の複数のグラフィック要素に、前記コンピューティングデバイスのディスプレイ画面上で、前記第1のオブジェクトが認識されたことを示させることと、
第2の複数の前記グラフィック要素に、前記ディスプレイ画面上で、前記第2のオブジェクトが認識されたことを示させることと、
前記第1のオブジェクトのための、第1の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第1のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達する、表示することと、
前記第2のオブジェクトのための、第2の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上で表示することであって、前記第2のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第2のオブジェクトに対して実行するように構成されている第2の動作を伝達する、表示することと、
最大で閾値の、ユーザが選択可能なアイコンを表示することであって、前記閾値数が、少なくとも2である、表示することと、
少なくとも1つの過剰な、ユーザが選択可能なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なユーザが選択可能なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去することと、
を備える、コンピュータで実装された方法。
7. 前記第1のユーザが選択可能なアイコンについての情報を前記コンピューティングデバイス上に記憶することと、
前記第1のユーザが選択可能なアイコンを前記ディスプレイ画面に、前記オブジェクトが前記取得センサデータ内にもはや表示されなくなってから少なくとも所定の期間表示することと、
をさらに備える、6項に記載のコンピュータで実装された方法。
8. 前記ディスプレイ画面上に表示された前記第1のオブジェクトの表示の近くにアニメ化された境界ボックスを形成することによって、前記第1のオブジェクトが認識されたことを示すために、前記第1の複数のグラフィック要素を動かすことであって、前記アニメ化された境界ボックスが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている前記第1の動作を伝達する、動かすことと、
をさらに備える、6項に記載のコンピュータで実装された方法。
9. 前記第1のユーザが選択可能なアイコン上に第1のラベルと第2のラベルとを表示することであって、前記第1のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達し、前記第2のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている別の動作を伝達する、表示すること、
をさらに備える、6項に記載のコンピュータで実装された方法。
10. 追加的な、ユーザが選択可能なアイコンが、表示される、ユーザが選択可能なアイコンの前記数に、許容可能閾値を超えさせることに応じて、少なくとも1つのユーザが選択可能なアイコンがディスプレイから除去されること、
をさらに備える、6項に記載のコンピュータで実装された方法。
11. 前記コンピューティングデバイス上にもはや表示されていないユーザが選択可能なアイコンについての情報を自動的に記憶することであって、一旦記憶された前記情報が、スクロール動作、タッチ画面ベースのプル動作、または検索要求のうちの少なくとも1つを使用してアクセス可能である、記憶することと、
をさらに備える、10項に記載のコンピュータで実装された方法。
12. 前記取得センサデータ内に表示された以前に認識されたオブジェクトを識別することと、
前記以前に認識されたオブジェクトに対して記憶された前記情報を使用して、ユーザが選択可能なアイコンが表示されるようにすることと、
をさらに備える、10項に記載のコンピュータで実装された方法。
13. 複数の、ユーザが選択可能なアイコンが、積み重ねられる、または順番に配置される、のうちの少なくとも1つで表示され得る、6項に記載のコンピュータで実装された方法。
14. 前記複数のユーザが選択可能なアイコンのうちの少なくともサブセットが、1つより多い動作が前記各オブジェクトに対して実行されることを可能にする、13項に記載のコンピュータで実装された方法。
15. 前記1つより多い動作のうちの主動作を、前記ユーザに関連する履歴データに少なくとも部分的に基づいて選択することであって、前記主動作についての情報が、前記各ユーザが選択可能なアイコン上に表示される、選択すること、
をさらに備える、14項に記載のコンピュータで実装された方法。
16. 前記取得センサデータ内に現在表示されているオブジェクトに対応する各ユーザが選択可能なアイコンについて優先度を決定することと、
前記ディスプレイ画面上で表示するために、前記ユーザが選択可能なアイコンのうちの少なくともサブセットを、前記優先度に少なくとも部分的に基づいて位置づけることと、
をさらに備える、6項に記載のコンピュータで実装された方法。
17. 前記優先度を決定することが、前記取得センサデータ内の各実施可能オブジェクトの位置、前記各実施可能オブジェクトの種類、過去のユーザデータ、最終アクセス日、作成位置への距離、または前記ユーザが選択可能なアイコンの各々が生成された時間のうちの少なくとも1つに少なくとも部分的に基づく、16項に記載のコンピュータで実装された方法。
18. コンピューティングデバイスの少なくとも1つのプロセッサによって実行された時に、前記コンピューティングデバイスに、
前記コンピューティングデバイスの少なくとも1つのセンサを使用してセンサデータを取得することと、
前記取得センサデータ内に表示された第1のオブジェクトと第2のオブジェクトとを認識することと、
第1の複数のグラフィック要素に、前記コンピューティングデバイスのディスプレイ画面上で、前記第1のオブジェクトが認識されたことを示させることと、
第2の複数の前記グラフィック要素に、前記ディスプレイ画面上で、前記第2のオブジェクトが認識されたことを示させることと、
前記第1のオブジェクトのための、第1の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第1のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達する、表示することと、
前記第2のオブジェクトのための、第2の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第2のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第2のオブジェクトに対して実行するように構成されている第2の動作を伝達する、表示することと、
2よりも大きい閾値数よりも多い、ユーザが選択可能なアイコンが表示のために生成されたことに応じて、少なくとも1つの過剰な、ユーザが選択可能なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なユーザが選択可能なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去することと、
を行わせる命令を記憶する、非一時的なコンピュータ可読記憶媒体。
19. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記第1のユーザが選択可能なアイコンについての情報を、前記コンピューティングデバイス上で記憶することと、
前記第1のユーザが選択可能なアイコンを、前記ディスプレイ画面で、前記オブジェクトが前記取得センサデータ内にもはや表示されなくなってから所定の期間表示することと、
をさらに行わせる、18項に記載の非一時的なコンピュータ可読記憶媒体。
20. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記ディスプレイ画面上に表示された前記第1のオブジェクトの表示の近くにアニメ化された境界ボックスを形成することによって、前記第1のオブジェクトが認識されたことを示すために、前記第1の複数のグラフィック要素を動かすことであって、前記アニメ化された境界ボックスが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている前記第1の動作を伝達する、動かすこと、
をさらに行わせる、18項に記載の非一時的なコンピュータ可読記憶媒体。

Claims (15)

  1. コンピューティングデバイスであって、
    少なくとも1つのプロセッサと、
    ディスプレイ画面と、
    少なくとも1つのカメラと、
    前記少なくとも1つのプロセッサによって実行された時に、前記コンピューティングデバイスに、
    前記少なくとも1つのカメラを使用してビデオデータを生成することと、
    前記ディスプレイ画面上に、前記ビデオデータが生成されるにつれて、前記ビデオデータの少なくとも一部に基づいたビデオコンテンツを表示することと、
    前記ビデオコンテンツ内に表示された少なくとも第1のオブジェクトを認識することと、
    複数のグラフィック要素を前記ディスプレイ画面の少なくとも一部分に分散させ、前記複数のグラフィック要素を前記ディスプレイ画面の中で移動または浮遊させることにより、認識モードが始動されていることをユーザに示すことと、
    前記少なくとも第1のオブジェクトが認識されているとき、当該少なくとも第1のオブジェクトが認識されていることをユーザに伝えるために、
    i)前記複数のグラフィック要素のうちの少なくともいくつかの見え方を変更し又は変更せずに前記複数のグラフィック要素の少なくとも一部を移動させて前記少なくとも第1のオブジェクトの近くに表示させること
    ii)前記少なくとも第1のオブジェクトに近接する前記複数のグラフィック要素の少なくとも一部をアニメ化された形に形成するように描画すること、
    前記i)及びii)の少なくともいずれかを行うことと、
    前記少なくとも第1のオブジェクトのための、ユーザが選択可能な少なくとも第1のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記少なくとも第1のアイコンが、当該ユーザが選択可能な前記少なくとも第1のアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている少なくとも第1の動作を伝達し、前記少なくとも第1の動作が、前記少なくとも第1のオブジェクトのタイプに少なくとも部分的に基づく、表示することと、
    を行わせる命令を含むメモリと、
    を備える、前記コンピューティングデバイス。
  2. 前記命令が、実行されると、前記コンピューティングデバイスに、
    a)第2のオブジェクトのための、ユーザが選択可能な第2のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記第2のアイコンが、当該ユーザが選択可能な前記第2のアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第2の動作を伝達し、前記第2の動作が、前記第2のオブジェクトのタイプに少なくとも部分的に基づく、表示すること、
    b)2以上である閾値よりも多い数の、ユーザが選択可能なアイコンが表示のために生成されたことに応じて、ユーザが選択可能な少なくとも1つの過剰なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去すること、
    c)前記コンピューティングデバイスのマイクを使用して音声データを取得し、前記音声データのための、ユーザが選択可能な第3のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記第3のアイコンが、当該ユーザが選択可能な前記第3のアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第3の動作を伝達し、前記第3の動作が、前記音声データ内の認識された音声の種類に少なくとも部分的に基づく、表示すること、
    の少なくともいずれかをさらに行わせる、請求項1に記載のコンピューティングデバイス。
  3. 前記命令が、実行されると、前記コンピューティングデバイスに、
    ユーザが選択可能な前記第1のアイコンが、前記ディスプレイ画面上で、ユーザが次に選択可能なアイコンの上に積み重ねられて見えるように表示されるようにすること、
    をさらに行わせる、請求項1に記載のコンピューティングデバイス。
  4. 前記命令が、実行されると、前記コンピューティングデバイスに、
    以前に表示されたユーザが選択可能なアイコンについての情報が、前記コンピューティングデバイスによって記憶されるようにすることと、
    前記以前に表示されたユーザが選択可能なアイコンが、ユーザが前記ディスプレイ画面上でスワイプ動作を実行したことに応じて、表示されるようにすることであって、前記スワイプ動作が、以前に表示されたユーザが選択可能なアイコンを見つけるために使用され得る、表示されるようにすることと、
    をさらに行わせる、請求項1に記載のコンピューティングデバイス。
  5. 前記命令が、実行されると、前記コンピューティングデバイスに、
    現在表示されているユーザが選択可能なアイコンと以前に表示されたユーザが選択可能なアイコンとについて記憶されている情報に対して、検索が実行されることを可能にする検索選択肢を提供すること、
    をさらに行わせる、請求項1に記載のコンピューティングデバイス。
  6. コンピューティングデバイスの少なくとも1つのセンサを使用して取得されたセンサデータを取得することと、
    前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記取得されたセンサデータ内に表示された少なくとも第1のオブジェクトを認識することと、
    複数のグラフィック要素をディスプレイ画面の少なくとも一部分に分散させ、前記複数のグラフィック要素を前記ディスプレイ画面の中で移動または浮遊させることにより、認識モードが始動されていることをユーザに示すことと、
    前記少なくとも第1のオブジェクトが認識されているとき、当該少なくとも第1のオブジェクトが認識されていることをユーザに伝えるために、
    i)前記複数のグラフィック要素のうちの少なくともいくつかの見え方を変更し又は変更せずに前記複数のグラフィック要素の少なくとも一部を移動させて前記少なくとも第1のオブジェクトの近くに表示させること
    ii)前記少なくとも第1のオブジェクトに近接する前記複数のグラフィック要素の少なくとも一部をアニメ化された形に形成するように描画すること、
    前記i)及びii)の少なくともいずれかを行うことと、
    前記少なくとも第1のオブジェクトのための、ユーザが選択可能な少なくとも第1のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記少なくとも第1のアイコンが、前記コンピューティングデバイスが前記少なくとも第1のオブジェクトに対して実行するように構成されている少なくとも第1の動作を伝達する、表示することと、
    を備える、コンピュータで実装された方法。
  7. a)最大で閾値の数までのユーザが選択可能なアイコンを表示し、ここで閾値は少なくとも2であり、そして
    ユーザが選択可能な少なくとも1つの過剰なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去すること、
    b)ユーザが選択可能な前記第1のアイコンについての情報を前記コンピューティングデバイス上に記憶し、そして
    ユーザが選択可能な前記第1のアイコンを前記ディスプレイ画面に、前記第1のオブジェクトが前記取得されたセンサデータ内にもはや表示されなくなってから少なくとも所定の期間表示すること、
    の少なくともいずれかをさらに備える、請求項6に記載のコンピュータで実装された方法。
  8. 前記ディスプレイ画面上に表示された前記第1のオブジェクトの描写物の近くにアニメ化された境界ボックスを形成することによって、前記第1のオブジェクトが認識されていることを示すために、前記複数のグラフィック要素の少なくとも幾つかをアニメ化することであって、前記アニメ化された境界ボックスが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている前記第1の動作を伝達する、アニメ化することと、
    をさらに備える、請求項6に記載のコンピュータで実装された方法。
  9. ユーザが選択可能な前記第1のアイコン上に第1のラベルと第2のラベルとを表示することであって、前記第1のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達し、前記第2のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている別の動作を伝達する、表示すること、
    をさらに備える、請求項6に記載のコンピュータで実装された方法。
  10. ユーザが選択可能な追加的なアイコンによって、ユーザが選択可能なアイコンの表示される数が許容可能な閾値を超えることに応じて、ユーザが選択可能な少なくとも1つのアイコンがディスプレイから除去されること、
    をさらに備える、請求項6に記載のコンピュータで実装された方法。
  11. 前記コンピューティングデバイス上にもはや表示されないユーザが選択可能なアイコンについての情報を自動的に記憶することであって、一旦記憶された前記情報が、スクロール動作、タッチ画面ベースのプル動作、または検索要求のうちの少なくとも1つを使用してアクセス可能である、記憶することと、
    をさらに備える、請求項10に記載のコンピュータで実装された方法。
  12. 前記取得されたセンサデータ内に表示された以前に認識されたオブジェクトを識別することと、
    前記以前に認識されたオブジェクトに対して記憶された情報を使用して、ユーザが選択可能なアイコンが表示されるようにすることと、
    をさらに備える、請求項10に記載のコンピュータで実装された方法。
  13. ユーザが選択可能な前記少なくとも第1のアイコンを含む複数のアイコンが、積み重ねられる、または順番に配置される、のうちの少なくとも1つで表示され得る、請求項6に記載のコンピュータで実装された方法。
  14. ユーザが選択可能な前記複数のアイコンのうちの少なくともサブセットが、1つより多い動作が前記少なくとも第1のオブジェクトを含む複数のオブジェクトの各オブジェクトに対して実行されることを可能にする、請求項13に記載のコンピュータで実装された方法。
  15. 前記1つより多い動作のうちの主動作を、前記ユーザに関連する履歴データに少なくとも部分的に基づいて選択することであって、前記主動作についての情報が、ユーザが選択可能な各アイコン上に表示される、選択すること、
    をさらに備える、請求項14に記載のコンピュータで実装された方法。
JP2016513136A 2013-05-09 2014-05-09 コンピューティングデバイスのための認識インターフェース Active JP6502923B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361821677P 2013-05-09 2013-05-09
US61/821,677 2013-05-09
US14/137,783 US9927949B2 (en) 2013-05-09 2013-12-20 Recognition interfaces for computing devices
US14/137,783 2013-12-20
PCT/US2014/037598 WO2014183099A1 (en) 2013-05-09 2014-05-09 Recognition interfaces for computing devices

Publications (2)

Publication Number Publication Date
JP2016519377A JP2016519377A (ja) 2016-06-30
JP6502923B2 true JP6502923B2 (ja) 2019-04-17

Family

ID=51865794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016513136A Active JP6502923B2 (ja) 2013-05-09 2014-05-09 コンピューティングデバイスのための認識インターフェース

Country Status (5)

Country Link
US (2) US9927949B2 (ja)
EP (1) EP2995078A4 (ja)
JP (1) JP6502923B2 (ja)
CN (1) CN105519101A (ja)
WO (1) WO2014183099A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US9958963B2 (en) * 2014-02-19 2018-05-01 American Greetings Corporation Systems, methods, and apparatuses for creating digital glitter with accelerometer
US9798944B2 (en) * 2014-02-20 2017-10-24 International Business Machines Corporation Dynamically enabling an interactive element within a non-interactive view of a screen sharing session
KR101631999B1 (ko) * 2014-08-29 2016-06-21 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10310699B1 (en) * 2014-12-08 2019-06-04 Amazon Technologies, Inc. Dynamic modification of browser and content presentation
US11241216B2 (en) * 2015-09-09 2022-02-08 Canon Medical Systems Corporation Method of controlling portable information terminal and medical diagnostic imaging apparatus
CN106484222A (zh) * 2016-09-22 2017-03-08 合智能科技(深圳)有限公司 一种 app 显示方法及装置
KR102315341B1 (ko) 2017-03-17 2021-10-20 삼성전자주식회사 객체의 구성 정보에 대응하는 그래픽 효과를 제공하기 위한 방법 및 그 전자 장치
US11023091B2 (en) * 2017-06-02 2021-06-01 Apple Inc. Device, method, and graphical user interface for improving visibility of affordances
KR102423295B1 (ko) * 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법
US20190066304A1 (en) * 2017-08-31 2019-02-28 Microsoft Technology Licensing, Llc Real-time object segmentation in live camera mode
US11030448B2 (en) 2017-09-12 2021-06-08 Samsung Electronics Co., Ltd. Method for recommending one or more actions and an electronic device thereof
US10878037B2 (en) 2018-06-21 2020-12-29 Google Llc Digital supplement association and retrieval for visual search
EP3811238A1 (en) * 2018-06-21 2021-04-28 Google LLC Digital supplement association and retrieval for visual search
US10643093B1 (en) 2018-11-19 2020-05-05 International Business Machines Corporation Automated bounding box generation for objects in an image
KR20220129927A (ko) * 2021-03-17 2022-09-26 삼성전자주식회사 음성 인식 서비스를 제공하는 전자 장치 및 방법

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5923327A (en) 1997-04-23 1999-07-13 Bell-Northern Research Ltd. Scrolling with automatic compression and expansion
JP4049285B2 (ja) 1998-11-02 2008-02-20 富士通株式会社 画面表示制御方法ならびにそのための画面表示制御装置およびコンピュータ読み取り可能な記録媒体
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP2001005585A (ja) 1999-06-24 2001-01-12 Sanyo Electric Co Ltd 診療支援システム及び診療支援システムにおけるアイコンの表示制御方法、並びに斯かるプログラムを記憶した記憶媒体
JP2001184153A (ja) 1999-12-27 2001-07-06 Casio Comput Co Ltd 情報処理装置、情報表示プログラムが記録された記録媒体
JP4487383B2 (ja) 2000-05-01 2010-06-23 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
AU2001292963A1 (en) * 2000-09-21 2002-04-02 The Regents Of The University Of California Visual display methods for use in computer-animated speech production models
US7130461B2 (en) * 2002-12-18 2006-10-31 Xerox Corporation Systems and method for automatically choosing visual characteristics to highlight a target against a background
US20080211817A1 (en) * 2003-11-19 2008-09-04 Reuven Bakalash Internet-based application profile database server system for updating graphic application profiles (GAPS) stored within the multi-mode parallel graphics rendering system of client machines running one or more graphic applications
CN1938674A (zh) * 2004-03-31 2007-03-28 夏普株式会社 电子设备
JP2007303878A (ja) 2006-05-09 2007-11-22 Denso Corp ナビゲーション装置
US7787697B2 (en) * 2006-06-09 2010-08-31 Sony Ericsson Mobile Communications Ab Identification of an object in media and of related media objects
WO2008031625A2 (en) * 2006-09-15 2008-03-20 Exbiblio B.V. Capture and display of annotations in paper and electronic documents
US7660749B2 (en) * 2006-09-29 2010-02-09 Apple Inc. Method, system, and medium for representing visitor activity in an online store
US8144120B2 (en) * 2006-11-29 2012-03-27 Belkin International Method and system for button press and hold feedback
US8244037B2 (en) 2007-11-15 2012-08-14 Master Wave International Company Ltd Image-based data management method and system
US8117551B2 (en) * 2007-12-18 2012-02-14 International Business Machines Corporation Computer system and method of using presence visualizations of avatars as persistable virtual contact objects
US8577118B2 (en) * 2008-01-18 2013-11-05 Mitek Systems Systems for mobile image capture and remittance processing
JP5176112B2 (ja) 2008-07-03 2013-04-03 財団法人ヒューマンサイエンス振興財団 制御システム及び制御方法
JP2010067104A (ja) 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US8499046B2 (en) 2008-10-07 2013-07-30 Joe Zheng Method and system for updating business cards
DE202010018601U1 (de) * 2009-02-18 2018-04-30 Google LLC (n.d.Ges.d. Staates Delaware) Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung
US20100331041A1 (en) * 2009-06-26 2010-12-30 Fuji Xerox Co., Ltd. System and method for language-independent manipulations of digital copies of documents through a camera phone
US20110010650A1 (en) 2009-07-09 2011-01-13 Mapquest, Inc. Systems and methods for decluttering electronic map displays
EP2485131A4 (en) * 2009-09-30 2013-03-06 Rakuten Inc OBJECT TRANSFER PROCESS FOR ONE WEBSITE
US20110161875A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8793611B2 (en) 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
JP5743416B2 (ja) 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20110243397A1 (en) * 2010-03-30 2011-10-06 Christopher Watkins Searching digital image collections using face recognition
US8423902B2 (en) * 2010-04-21 2013-04-16 Microsoft Corporation Representation of overlapping visual entities
KR101170882B1 (ko) * 2010-08-12 2012-08-03 팅크웨어(주) 관심지점 표시장치 및 방법
US8626236B2 (en) * 2010-10-08 2014-01-07 Blackberry Limited System and method for displaying text in augmented reality
US8723888B2 (en) * 2010-10-29 2014-05-13 Core Wireless Licensing, S.a.r.l. Method and apparatus for determining location offset information
US8698843B2 (en) * 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
JP5612459B2 (ja) 2010-12-24 2014-10-22 京セラ株式会社 携帯端末装置
US20130291024A1 (en) 2011-01-18 2013-10-31 Chad Andrew Lefevre Apparatus and method for performing video screen scrape
US8611601B2 (en) * 2011-03-08 2013-12-17 Bank Of America Corporation Dynamically indentifying individuals from a captured image
JP5732988B2 (ja) 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
KR101764251B1 (ko) * 2011-04-19 2017-08-04 삼성전자주식회사 전력 사용 상태 표시 방법 및 이를 적용한 휴대기기
KR101873525B1 (ko) * 2011-12-08 2018-07-03 삼성전자 주식회사 휴대단말기의 콘텐츠 표시장치 및 방법
US10650442B2 (en) * 2012-01-13 2020-05-12 Amro SHIHADAH Systems and methods for presentation and analysis of media content
US8704948B2 (en) * 2012-01-18 2014-04-22 Eldon Technology Limited Apparatus, systems and methods for presenting text identified in a video image
CN102761668A (zh) * 2012-07-13 2012-10-31 青岛海信传媒网络技术有限公司 基于图片中的电话号码信息拨打电话的方法及装置
US9924102B2 (en) * 2013-03-14 2018-03-20 Qualcomm Incorporated Image-based application launcher

Also Published As

Publication number Publication date
JP2016519377A (ja) 2016-06-30
EP2995078A4 (en) 2016-12-21
EP2995078A1 (en) 2016-03-16
US20140337800A1 (en) 2014-11-13
WO2014183099A1 (en) 2014-11-13
US9671941B1 (en) 2017-06-06
US9927949B2 (en) 2018-03-27
CN105519101A (zh) 2016-04-20

Similar Documents

Publication Publication Date Title
JP6502923B2 (ja) コンピューティングデバイスのための認識インターフェース
US9870633B2 (en) Automated highlighting of identified text
US11221819B2 (en) Extendable architecture for augmented reality system
JP6013583B2 (ja) 有効インターフェース要素の強調のための方式
US10540055B2 (en) Generating interactive content items based on content displayed on a computing device
US11023106B2 (en) Digital supplement association and retrieval for visual search
US10073541B1 (en) Indicators for sensor occlusion
US9841879B1 (en) Adjusting graphical characteristics for indicating time progression
US11640431B2 (en) Digital supplement association and retrieval for visual search
US11671696B2 (en) User interfaces for managing visual content in media
US10043069B1 (en) Item recognition using context data
TWI637347B (zh) 提供影像的方法與裝置
JP7393361B2 (ja) ビジュアルサーチのためのデジタル補足関連付けおよび検索
US11003830B2 (en) Providing location-based font recommendations
US9905033B1 (en) Adjusting graphical characteristics for recognition interfaces
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
US11514082B1 (en) Dynamic content selection
US12001642B2 (en) User interfaces for managing visual content in media
US20230229279A1 (en) User interfaces for managing visual content in media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171013

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6502923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250