JP6502923B2 - コンピューティングデバイスのための認識インターフェース - Google Patents
コンピューティングデバイスのための認識インターフェース Download PDFInfo
- Publication number
- JP6502923B2 JP6502923B2 JP2016513136A JP2016513136A JP6502923B2 JP 6502923 B2 JP6502923 B2 JP 6502923B2 JP 2016513136 A JP2016513136 A JP 2016513136A JP 2016513136 A JP2016513136 A JP 2016513136A JP 6502923 B2 JP6502923 B2 JP 6502923B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- selectable
- computing device
- icon
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 claims description 77
- 238000000034 method Methods 0.000 claims description 45
- 230000004044 response Effects 0.000 claims description 21
- 238000013459 approach Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 9
- 238000007667 floating Methods 0.000 claims description 3
- 241000254158 Lampyridae Species 0.000 description 33
- 230000008569 process Effects 0.000 description 18
- 238000004422 calculation algorithm Methods 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 240000007320 Pinus strobus Species 0.000 description 1
- 241001085205 Prenanthella exigua Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04801—Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/274—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
- H04M1/2745—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
- H04M1/2753—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips providing data content
- H04M1/2755—Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips providing data content by optical scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Description
本出願は、「Recognition Interfaces For Computing Devices」という題名の、2013年12月20日に出願された、それ自体が、2013年5月9日に出願された「Mobile Device User Interface−Camera」という題名の、U.S. Provisional Patent Application Serial Number 61/821,677の優先権を主張する、U.S. Non−Provisional Patent Application Serial Number 14/137,783の優先権を主張し、参照によってその全体が、すべての目的のために本明細書に組み込まれる。
1. コンピューティングデバイスであって、
少なくとも1つのプロセッサと、
ディスプレイ画面と、
少なくとも1つのカメラと、
前記少なくとも1つのプロセッサによって実行された時に、前記コンピューティングデバイスに、
前記少なくとも1つのカメラを使用してビデオデータを生成することと、
前記ディスプレイ画面上に、前記ビデオデータが生成されるにつれて、前記ビデオデータの少なくとも一部に基づいたビデオコンテンツを表示することと、
前記ビデオコンテンツ内に表示された少なくとも第1のオブジェクトと第2のオブジェクトとを認識することと、
第1の複数のグラフィック要素に、前記第1のオブジェクトが認識されたことを示させることと、
第2の複数の前記グラフィック要素に、前記第2のオブジェクトが認識されたことを示させることと、
前記第1のオブジェクトのための、第1の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第1のユーザが選択可能なアイコンが、前記第1のユーザが選択可能なアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第1の動作を伝達し、前記第1の動作が、第1のオブジェクトタイプに少なくとも部分的に基づく、表示することと、
前記第2のオブジェクトのための、第2の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第2のユーザが選択可能なアイコンが、前記第2のユーザが選択可能なアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第2の動作を伝達し、前記第2の動作が、第2のオブジェクトタイプに少なくとも部分的に基づく、表示することと、
2よりも大きい閾値数よりも多い、ユーザが選択可能なアイコンが表示のために生成されたことに応じて、少なくとも1つの過剰な、ユーザが選択可能なアイコンを前記ディスプレイ画面から除去することであって、前記過剰なユーザが選択可能なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去することと、
を行わせる命令を含むメモリと、
を備える、前記コンピューティングデバイス。
2. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記コンピューティングデバイスのマイクを使用して音声データを取得することと、
前記音声データのための、第3の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第3のユーザが選択可能なアイコンが、前記第3のユーザが選択可能なアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第3の動作を伝達し、前記第3の動作が、前記音声データ内の認識された音声の種類に少なくとも部分的に基づく、表示することと、
をさらに行わせる、1項に記載のコンピューティングデバイス。
3. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記第1のユーザが選択可能なアイコンが、前記ディスプレイ画面上で、前記第2のユーザが選択可能なアイコンの上に積み重ねられて見えるように表示されるようにすること、
をさらに行わせる、1項に記載のコンピューティングデバイス。
4. 前記命令が、実行されると、前記コンピューティングデバイスに、
以前に表示された、ユーザが選択可能なアイコンについての情報が、前記コンピューティングデバイスによって記憶されるようにすることと、
前記以前に表示されたユーザが選択可能なアイコンが、ユーザが前記ディスプレイ画面上でスワイプ動作を実行したことに応じて、表示されるようにすることであって、前記スワイプ動作が、以前に表示された、ユーザが選択可能なアイコンを見つけるために使用され得る、表示されるようにすることと、
をさらに行わせる、1項に記載のコンピューティングデバイス。
5. 前記命令が、実行されると、前記コンピューティングデバイスに、
現在表示されているユーザが選択可能なアイコンと、以前に表示されたユーザが選択可能なアイコンと、について記憶されている情報に対して、検索が実行されることを可能にする検索選択肢を提供すること、
をさらに行わせる、1項に記載のコンピューティングデバイス。
6. コンピューティングデバイスの少なくとも1つのセンサを使用して取得されたセンサデータを取得することと、
前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記取得センサデータ内に表示された第1のオブジェクトと第2のオブジェクトとを認識することと、
第1の複数のグラフィック要素に、前記コンピューティングデバイスのディスプレイ画面上で、前記第1のオブジェクトが認識されたことを示させることと、
第2の複数の前記グラフィック要素に、前記ディスプレイ画面上で、前記第2のオブジェクトが認識されたことを示させることと、
前記第1のオブジェクトのための、第1の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第1のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達する、表示することと、
前記第2のオブジェクトのための、第2の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上で表示することであって、前記第2のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第2のオブジェクトに対して実行するように構成されている第2の動作を伝達する、表示することと、
最大で閾値の、ユーザが選択可能なアイコンを表示することであって、前記閾値数が、少なくとも2である、表示することと、
少なくとも1つの過剰な、ユーザが選択可能なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なユーザが選択可能なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去することと、
を備える、コンピュータで実装された方法。
7. 前記第1のユーザが選択可能なアイコンについての情報を前記コンピューティングデバイス上に記憶することと、
前記第1のユーザが選択可能なアイコンを前記ディスプレイ画面に、前記オブジェクトが前記取得センサデータ内にもはや表示されなくなってから少なくとも所定の期間表示することと、
をさらに備える、6項に記載のコンピュータで実装された方法。
8. 前記ディスプレイ画面上に表示された前記第1のオブジェクトの表示の近くにアニメ化された境界ボックスを形成することによって、前記第1のオブジェクトが認識されたことを示すために、前記第1の複数のグラフィック要素を動かすことであって、前記アニメ化された境界ボックスが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている前記第1の動作を伝達する、動かすことと、
をさらに備える、6項に記載のコンピュータで実装された方法。
9. 前記第1のユーザが選択可能なアイコン上に第1のラベルと第2のラベルとを表示することであって、前記第1のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達し、前記第2のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている別の動作を伝達する、表示すること、
をさらに備える、6項に記載のコンピュータで実装された方法。
10. 追加的な、ユーザが選択可能なアイコンが、表示される、ユーザが選択可能なアイコンの前記数に、許容可能閾値を超えさせることに応じて、少なくとも1つのユーザが選択可能なアイコンがディスプレイから除去されること、
をさらに備える、6項に記載のコンピュータで実装された方法。
11. 前記コンピューティングデバイス上にもはや表示されていないユーザが選択可能なアイコンについての情報を自動的に記憶することであって、一旦記憶された前記情報が、スクロール動作、タッチ画面ベースのプル動作、または検索要求のうちの少なくとも1つを使用してアクセス可能である、記憶することと、
をさらに備える、10項に記載のコンピュータで実装された方法。
12. 前記取得センサデータ内に表示された以前に認識されたオブジェクトを識別することと、
前記以前に認識されたオブジェクトに対して記憶された前記情報を使用して、ユーザが選択可能なアイコンが表示されるようにすることと、
をさらに備える、10項に記載のコンピュータで実装された方法。
13. 複数の、ユーザが選択可能なアイコンが、積み重ねられる、または順番に配置される、のうちの少なくとも1つで表示され得る、6項に記載のコンピュータで実装された方法。
14. 前記複数のユーザが選択可能なアイコンのうちの少なくともサブセットが、1つより多い動作が前記各オブジェクトに対して実行されることを可能にする、13項に記載のコンピュータで実装された方法。
15. 前記1つより多い動作のうちの主動作を、前記ユーザに関連する履歴データに少なくとも部分的に基づいて選択することであって、前記主動作についての情報が、前記各ユーザが選択可能なアイコン上に表示される、選択すること、
をさらに備える、14項に記載のコンピュータで実装された方法。
16. 前記取得センサデータ内に現在表示されているオブジェクトに対応する各ユーザが選択可能なアイコンについて優先度を決定することと、
前記ディスプレイ画面上で表示するために、前記ユーザが選択可能なアイコンのうちの少なくともサブセットを、前記優先度に少なくとも部分的に基づいて位置づけることと、
をさらに備える、6項に記載のコンピュータで実装された方法。
17. 前記優先度を決定することが、前記取得センサデータ内の各実施可能オブジェクトの位置、前記各実施可能オブジェクトの種類、過去のユーザデータ、最終アクセス日、作成位置への距離、または前記ユーザが選択可能なアイコンの各々が生成された時間のうちの少なくとも1つに少なくとも部分的に基づく、16項に記載のコンピュータで実装された方法。
18. コンピューティングデバイスの少なくとも1つのプロセッサによって実行された時に、前記コンピューティングデバイスに、
前記コンピューティングデバイスの少なくとも1つのセンサを使用してセンサデータを取得することと、
前記取得センサデータ内に表示された第1のオブジェクトと第2のオブジェクトとを認識することと、
第1の複数のグラフィック要素に、前記コンピューティングデバイスのディスプレイ画面上で、前記第1のオブジェクトが認識されたことを示させることと、
第2の複数の前記グラフィック要素に、前記ディスプレイ画面上で、前記第2のオブジェクトが認識されたことを示させることと、
前記第1のオブジェクトのための、第1の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第1のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達する、表示することと、
前記第2のオブジェクトのための、第2の、ユーザが選択可能なアイコンを、前記ディスプレイ画面上に表示することであって、前記第2のユーザが選択可能なアイコンが、前記コンピューティングデバイスが前記第2のオブジェクトに対して実行するように構成されている第2の動作を伝達する、表示することと、
2よりも大きい閾値数よりも多い、ユーザが選択可能なアイコンが表示のために生成されたことに応じて、少なくとも1つの過剰な、ユーザが選択可能なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なユーザが選択可能なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去することと、
を行わせる命令を記憶する、非一時的なコンピュータ可読記憶媒体。
19. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記第1のユーザが選択可能なアイコンについての情報を、前記コンピューティングデバイス上で記憶することと、
前記第1のユーザが選択可能なアイコンを、前記ディスプレイ画面で、前記オブジェクトが前記取得センサデータ内にもはや表示されなくなってから所定の期間表示することと、
をさらに行わせる、18項に記載の非一時的なコンピュータ可読記憶媒体。
20. 前記命令が、実行されると、前記コンピューティングデバイスに、
前記ディスプレイ画面上に表示された前記第1のオブジェクトの表示の近くにアニメ化された境界ボックスを形成することによって、前記第1のオブジェクトが認識されたことを示すために、前記第1の複数のグラフィック要素を動かすことであって、前記アニメ化された境界ボックスが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている前記第1の動作を伝達する、動かすこと、
をさらに行わせる、18項に記載の非一時的なコンピュータ可読記憶媒体。
Claims (15)
- コンピューティングデバイスであって、
少なくとも1つのプロセッサと、
ディスプレイ画面と、
少なくとも1つのカメラと、
前記少なくとも1つのプロセッサによって実行された時に、前記コンピューティングデバイスに、
前記少なくとも1つのカメラを使用してビデオデータを生成することと、
前記ディスプレイ画面上に、前記ビデオデータが生成されるにつれて、前記ビデオデータの少なくとも一部に基づいたビデオコンテンツを表示することと、
前記ビデオコンテンツ内に表示された少なくとも第1のオブジェクトを認識することと、
複数のグラフィック要素を前記ディスプレイ画面の少なくとも一部分に分散させ、前記複数のグラフィック要素を前記ディスプレイ画面の中で移動または浮遊させることにより、認識モードが始動されていることをユーザに示すことと、
前記少なくとも第1のオブジェクトが認識されているとき、当該少なくとも第1のオブジェクトが認識されていることをユーザに伝えるために、
i)前記複数のグラフィック要素のうちの少なくともいくつかの見え方を変更し又は変更せずに前記複数のグラフィック要素の少なくとも一部を移動させて前記少なくとも第1のオブジェクトの近くに表示させること、
ii)前記少なくとも第1のオブジェクトに近接する前記複数のグラフィック要素の少なくとも一部をアニメ化された形に形成するように描画すること、
の前記i)及びii)の少なくともいずれかを行うことと、
前記少なくとも第1のオブジェクトのための、ユーザが選択可能な少なくとも第1のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記少なくとも第1のアイコンが、当該ユーザが選択可能な前記少なくとも第1のアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている少なくとも第1の動作を伝達し、前記少なくとも第1の動作が、前記少なくとも第1のオブジェクトのタイプに少なくとも部分的に基づく、表示することと、
を行わせる命令を含むメモリと、
を備える、前記コンピューティングデバイス。 - 前記命令が、実行されると、前記コンピューティングデバイスに、
a)第2のオブジェクトのための、ユーザが選択可能な第2のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記第2のアイコンが、当該ユーザが選択可能な前記第2のアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第2の動作を伝達し、前記第2の動作が、前記第2のオブジェクトのタイプに少なくとも部分的に基づく、表示すること、
b)2以上である閾値よりも多い数の、ユーザが選択可能なアイコンが表示のために生成されたことに応じて、ユーザが選択可能な少なくとも1つの過剰なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去すること、
c)前記コンピューティングデバイスのマイクを使用して音声データを取得し、前記音声データのための、ユーザが選択可能な第3のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記第3のアイコンが、当該ユーザが選択可能な前記第3のアイコンの近くの前記ディスプレイ画面上で発生するタッチイベントに応じて、前記コンピューティングデバイスが実行するように構成されている第3の動作を伝達し、前記第3の動作が、前記音声データ内の認識された音声の種類に少なくとも部分的に基づく、表示すること、
の少なくともいずれかをさらに行わせる、請求項1に記載のコンピューティングデバイス。 - 前記命令が、実行されると、前記コンピューティングデバイスに、
ユーザが選択可能な前記第1のアイコンが、前記ディスプレイ画面上で、ユーザが次に選択可能なアイコンの上に積み重ねられて見えるように表示されるようにすること、
をさらに行わせる、請求項1に記載のコンピューティングデバイス。 - 前記命令が、実行されると、前記コンピューティングデバイスに、
以前に表示されたユーザが選択可能なアイコンについての情報が、前記コンピューティングデバイスによって記憶されるようにすることと、
前記以前に表示されたユーザが選択可能なアイコンが、ユーザが前記ディスプレイ画面上でスワイプ動作を実行したことに応じて、表示されるようにすることであって、前記スワイプ動作が、以前に表示されたユーザが選択可能なアイコンを見つけるために使用され得る、表示されるようにすることと、
をさらに行わせる、請求項1に記載のコンピューティングデバイス。 - 前記命令が、実行されると、前記コンピューティングデバイスに、
現在表示されているユーザが選択可能なアイコンと以前に表示されたユーザが選択可能なアイコンとについて記憶されている情報に対して、検索が実行されることを可能にする検索選択肢を提供すること、
をさらに行わせる、請求項1に記載のコンピューティングデバイス。 - コンピューティングデバイスの少なくとも1つのセンサを使用して取得されたセンサデータを取得することと、
前記コンピューティングデバイスの少なくとも1つのプロセッサを使用して、前記取得されたセンサデータ内に表示された少なくとも第1のオブジェクトを認識することと、
複数のグラフィック要素をディスプレイ画面の少なくとも一部分に分散させ、前記複数のグラフィック要素を前記ディスプレイ画面の中で移動または浮遊させることにより、認識モードが始動されていることをユーザに示すことと、
前記少なくとも第1のオブジェクトが認識されているとき、当該少なくとも第1のオブジェクトが認識されていることをユーザに伝えるために、
i)前記複数のグラフィック要素のうちの少なくともいくつかの見え方を変更し又は変更せずに前記複数のグラフィック要素の少なくとも一部を移動させて前記少なくとも第1のオブジェクトの近くに表示させること、
ii)前記少なくとも第1のオブジェクトに近接する前記複数のグラフィック要素の少なくとも一部をアニメ化された形に形成するように描画すること、
の前記i)及びii)の少なくともいずれかを行うことと、
前記少なくとも第1のオブジェクトのための、ユーザが選択可能な少なくとも第1のアイコンを、前記ディスプレイ画面上に表示することであって、ユーザが選択可能な前記少なくとも第1のアイコンが、前記コンピューティングデバイスが前記少なくとも第1のオブジェクトに対して実行するように構成されている少なくとも第1の動作を伝達する、表示することと、
を備える、コンピュータで実装された方法。 - a)最大で閾値の数までのユーザが選択可能なアイコンを表示し、ここで閾値は少なくとも2であり、そして
ユーザが選択可能な少なくとも1つの過剰なアイコンを、前記ディスプレイ画面から除去することであって、前記過剰なアイコンが、少なくとも1つのナビゲーションアプローチを使用して、前記ユーザが後でアクセス可能である、除去すること、
b)ユーザが選択可能な前記第1のアイコンについての情報を前記コンピューティングデバイス上に記憶し、そして
ユーザが選択可能な前記第1のアイコンを前記ディスプレイ画面に、前記第1のオブジェクトが前記取得されたセンサデータ内にもはや表示されなくなってから少なくとも所定の期間表示すること、
の少なくともいずれかをさらに備える、請求項6に記載のコンピュータで実装された方法。 - 前記ディスプレイ画面上に表示された前記第1のオブジェクトの描写物の近くにアニメ化された境界ボックスを形成することによって、前記第1のオブジェクトが認識されていることを示すために、前記複数のグラフィック要素の少なくとも幾つかをアニメ化することであって、前記アニメ化された境界ボックスが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている前記第1の動作を伝達する、アニメ化することと、
をさらに備える、請求項6に記載のコンピュータで実装された方法。 - ユーザが選択可能な前記第1のアイコン上に第1のラベルと第2のラベルとを表示することであって、前記第1のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている第1の動作を伝達し、前記第2のラベルが、前記コンピューティングデバイスが前記第1のオブジェクトに対して実行するように構成されている別の動作を伝達する、表示すること、
をさらに備える、請求項6に記載のコンピュータで実装された方法。 - ユーザが選択可能な追加的なアイコンによって、ユーザが選択可能なアイコンの表示される数が許容可能な閾値を超えることに応じて、ユーザが選択可能な少なくとも1つのアイコンがディスプレイから除去されること、
をさらに備える、請求項6に記載のコンピュータで実装された方法。 - 前記コンピューティングデバイス上にもはや表示されないユーザが選択可能なアイコンについての情報を自動的に記憶することであって、一旦記憶された前記情報が、スクロール動作、タッチ画面ベースのプル動作、または検索要求のうちの少なくとも1つを使用してアクセス可能である、記憶することと、
をさらに備える、請求項10に記載のコンピュータで実装された方法。 - 前記取得されたセンサデータ内に表示された以前に認識されたオブジェクトを識別することと、
前記以前に認識されたオブジェクトに対して記憶された情報を使用して、ユーザが選択可能なアイコンが表示されるようにすることと、
をさらに備える、請求項10に記載のコンピュータで実装された方法。 - ユーザが選択可能な前記少なくとも第1のアイコンを含む複数のアイコンが、積み重ねられる、または順番に配置される、のうちの少なくとも1つで表示され得る、請求項6に記載のコンピュータで実装された方法。
- ユーザが選択可能な前記複数のアイコンのうちの少なくともサブセットが、1つより多い動作が前記少なくとも第1のオブジェクトを含む複数のオブジェクトの各オブジェクトに対して実行されることを可能にする、請求項13に記載のコンピュータで実装された方法。
- 前記1つより多い動作のうちの主動作を、前記ユーザに関連する履歴データに少なくとも部分的に基づいて選択することであって、前記主動作についての情報が、ユーザが選択可能な各アイコン上に表示される、選択すること、
をさらに備える、請求項14に記載のコンピュータで実装された方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361821677P | 2013-05-09 | 2013-05-09 | |
US61/821,677 | 2013-05-09 | ||
US14/137,783 US9927949B2 (en) | 2013-05-09 | 2013-12-20 | Recognition interfaces for computing devices |
US14/137,783 | 2013-12-20 | ||
PCT/US2014/037598 WO2014183099A1 (en) | 2013-05-09 | 2014-05-09 | Recognition interfaces for computing devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016519377A JP2016519377A (ja) | 2016-06-30 |
JP6502923B2 true JP6502923B2 (ja) | 2019-04-17 |
Family
ID=51865794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016513136A Active JP6502923B2 (ja) | 2013-05-09 | 2014-05-09 | コンピューティングデバイスのための認識インターフェース |
Country Status (5)
Country | Link |
---|---|
US (2) | US9927949B2 (ja) |
EP (1) | EP2995078A4 (ja) |
JP (1) | JP6502923B2 (ja) |
CN (1) | CN105519101A (ja) |
WO (1) | WO2014183099A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8121618B2 (en) | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US9958963B2 (en) * | 2014-02-19 | 2018-05-01 | American Greetings Corporation | Systems, methods, and apparatuses for creating digital glitter with accelerometer |
US9798944B2 (en) * | 2014-02-20 | 2017-10-24 | International Business Machines Corporation | Dynamically enabling an interactive element within a non-interactive view of a screen sharing session |
KR101631999B1 (ko) * | 2014-08-29 | 2016-06-21 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US10310699B1 (en) * | 2014-12-08 | 2019-06-04 | Amazon Technologies, Inc. | Dynamic modification of browser and content presentation |
US11241216B2 (en) * | 2015-09-09 | 2022-02-08 | Canon Medical Systems Corporation | Method of controlling portable information terminal and medical diagnostic imaging apparatus |
CN106484222A (zh) * | 2016-09-22 | 2017-03-08 | 合智能科技(深圳)有限公司 | 一种 app 显示方法及装置 |
KR102315341B1 (ko) | 2017-03-17 | 2021-10-20 | 삼성전자주식회사 | 객체의 구성 정보에 대응하는 그래픽 효과를 제공하기 위한 방법 및 그 전자 장치 |
US11023091B2 (en) * | 2017-06-02 | 2021-06-01 | Apple Inc. | Device, method, and graphical user interface for improving visibility of affordances |
KR102423295B1 (ko) * | 2017-08-18 | 2022-07-21 | 삼성전자주식회사 | 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법 |
US20190066304A1 (en) * | 2017-08-31 | 2019-02-28 | Microsoft Technology Licensing, Llc | Real-time object segmentation in live camera mode |
US11030448B2 (en) | 2017-09-12 | 2021-06-08 | Samsung Electronics Co., Ltd. | Method for recommending one or more actions and an electronic device thereof |
US10878037B2 (en) | 2018-06-21 | 2020-12-29 | Google Llc | Digital supplement association and retrieval for visual search |
EP3811238A1 (en) * | 2018-06-21 | 2021-04-28 | Google LLC | Digital supplement association and retrieval for visual search |
US10643093B1 (en) | 2018-11-19 | 2020-05-05 | International Business Machines Corporation | Automated bounding box generation for objects in an image |
KR20220129927A (ko) * | 2021-03-17 | 2022-09-26 | 삼성전자주식회사 | 음성 인식 서비스를 제공하는 전자 장치 및 방법 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5923327A (en) | 1997-04-23 | 1999-07-13 | Bell-Northern Research Ltd. | Scrolling with automatic compression and expansion |
JP4049285B2 (ja) | 1998-11-02 | 2008-02-20 | 富士通株式会社 | 画面表示制御方法ならびにそのための画面表示制御装置およびコンピュータ読み取り可能な記録媒体 |
US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
JP2001005585A (ja) | 1999-06-24 | 2001-01-12 | Sanyo Electric Co Ltd | 診療支援システム及び診療支援システムにおけるアイコンの表示制御方法、並びに斯かるプログラムを記憶した記憶媒体 |
JP2001184153A (ja) | 1999-12-27 | 2001-07-06 | Casio Comput Co Ltd | 情報処理装置、情報表示プログラムが記録された記録媒体 |
JP4487383B2 (ja) | 2000-05-01 | 2010-06-23 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム格納媒体 |
AU2001292963A1 (en) * | 2000-09-21 | 2002-04-02 | The Regents Of The University Of California | Visual display methods for use in computer-animated speech production models |
US7130461B2 (en) * | 2002-12-18 | 2006-10-31 | Xerox Corporation | Systems and method for automatically choosing visual characteristics to highlight a target against a background |
US20080211817A1 (en) * | 2003-11-19 | 2008-09-04 | Reuven Bakalash | Internet-based application profile database server system for updating graphic application profiles (GAPS) stored within the multi-mode parallel graphics rendering system of client machines running one or more graphic applications |
CN1938674A (zh) * | 2004-03-31 | 2007-03-28 | 夏普株式会社 | 电子设备 |
JP2007303878A (ja) | 2006-05-09 | 2007-11-22 | Denso Corp | ナビゲーション装置 |
US7787697B2 (en) * | 2006-06-09 | 2010-08-31 | Sony Ericsson Mobile Communications Ab | Identification of an object in media and of related media objects |
WO2008031625A2 (en) * | 2006-09-15 | 2008-03-20 | Exbiblio B.V. | Capture and display of annotations in paper and electronic documents |
US7660749B2 (en) * | 2006-09-29 | 2010-02-09 | Apple Inc. | Method, system, and medium for representing visitor activity in an online store |
US8144120B2 (en) * | 2006-11-29 | 2012-03-27 | Belkin International | Method and system for button press and hold feedback |
US8244037B2 (en) | 2007-11-15 | 2012-08-14 | Master Wave International Company Ltd | Image-based data management method and system |
US8117551B2 (en) * | 2007-12-18 | 2012-02-14 | International Business Machines Corporation | Computer system and method of using presence visualizations of avatars as persistable virtual contact objects |
US8577118B2 (en) * | 2008-01-18 | 2013-11-05 | Mitek Systems | Systems for mobile image capture and remittance processing |
JP5176112B2 (ja) | 2008-07-03 | 2013-04-03 | 財団法人ヒューマンサイエンス振興財団 | 制御システム及び制御方法 |
JP2010067104A (ja) | 2008-09-12 | 2010-03-25 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
US8499046B2 (en) | 2008-10-07 | 2013-07-30 | Joe Zheng | Method and system for updating business cards |
DE202010018601U1 (de) * | 2009-02-18 | 2018-04-30 | Google LLC (n.d.Ges.d. Staates Delaware) | Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung |
US20100331041A1 (en) * | 2009-06-26 | 2010-12-30 | Fuji Xerox Co., Ltd. | System and method for language-independent manipulations of digital copies of documents through a camera phone |
US20110010650A1 (en) | 2009-07-09 | 2011-01-13 | Mapquest, Inc. | Systems and methods for decluttering electronic map displays |
EP2485131A4 (en) * | 2009-09-30 | 2013-03-06 | Rakuten Inc | OBJECT TRANSFER PROCESS FOR ONE WEBSITE |
US20110161875A1 (en) * | 2009-12-29 | 2011-06-30 | Nokia Corporation | Method and apparatus for decluttering a mapping display |
US8400548B2 (en) | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US8793611B2 (en) | 2010-01-06 | 2014-07-29 | Apple Inc. | Device, method, and graphical user interface for manipulating selectable user interface objects |
JP5743416B2 (ja) | 2010-03-29 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20110243397A1 (en) * | 2010-03-30 | 2011-10-06 | Christopher Watkins | Searching digital image collections using face recognition |
US8423902B2 (en) * | 2010-04-21 | 2013-04-16 | Microsoft Corporation | Representation of overlapping visual entities |
KR101170882B1 (ko) * | 2010-08-12 | 2012-08-03 | 팅크웨어(주) | 관심지점 표시장치 및 방법 |
US8626236B2 (en) * | 2010-10-08 | 2014-01-07 | Blackberry Limited | System and method for displaying text in augmented reality |
US8723888B2 (en) * | 2010-10-29 | 2014-05-13 | Core Wireless Licensing, S.a.r.l. | Method and apparatus for determining location offset information |
US8698843B2 (en) * | 2010-11-02 | 2014-04-15 | Google Inc. | Range of focus in an augmented reality application |
JP5612459B2 (ja) | 2010-12-24 | 2014-10-22 | 京セラ株式会社 | 携帯端末装置 |
US20130291024A1 (en) | 2011-01-18 | 2013-10-31 | Chad Andrew Lefevre | Apparatus and method for performing video screen scrape |
US8611601B2 (en) * | 2011-03-08 | 2013-12-17 | Bank Of America Corporation | Dynamically indentifying individuals from a captured image |
JP5732988B2 (ja) | 2011-04-08 | 2015-06-10 | ソニー株式会社 | 画像処理装置、表示制御方法及びプログラム |
KR101764251B1 (ko) * | 2011-04-19 | 2017-08-04 | 삼성전자주식회사 | 전력 사용 상태 표시 방법 및 이를 적용한 휴대기기 |
KR101873525B1 (ko) * | 2011-12-08 | 2018-07-03 | 삼성전자 주식회사 | 휴대단말기의 콘텐츠 표시장치 및 방법 |
US10650442B2 (en) * | 2012-01-13 | 2020-05-12 | Amro SHIHADAH | Systems and methods for presentation and analysis of media content |
US8704948B2 (en) * | 2012-01-18 | 2014-04-22 | Eldon Technology Limited | Apparatus, systems and methods for presenting text identified in a video image |
CN102761668A (zh) * | 2012-07-13 | 2012-10-31 | 青岛海信传媒网络技术有限公司 | 基于图片中的电话号码信息拨打电话的方法及装置 |
US9924102B2 (en) * | 2013-03-14 | 2018-03-20 | Qualcomm Incorporated | Image-based application launcher |
-
2013
- 2013-12-20 US US14/137,783 patent/US9927949B2/en not_active Expired - Fee Related
- 2013-12-20 US US14/137,674 patent/US9671941B1/en not_active Expired - Fee Related
-
2014
- 2014-05-09 CN CN201480034044.4A patent/CN105519101A/zh active Pending
- 2014-05-09 EP EP14794394.8A patent/EP2995078A4/en not_active Withdrawn
- 2014-05-09 JP JP2016513136A patent/JP6502923B2/ja active Active
- 2014-05-09 WO PCT/US2014/037598 patent/WO2014183099A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2016519377A (ja) | 2016-06-30 |
EP2995078A4 (en) | 2016-12-21 |
EP2995078A1 (en) | 2016-03-16 |
US20140337800A1 (en) | 2014-11-13 |
WO2014183099A1 (en) | 2014-11-13 |
US9671941B1 (en) | 2017-06-06 |
US9927949B2 (en) | 2018-03-27 |
CN105519101A (zh) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6502923B2 (ja) | コンピューティングデバイスのための認識インターフェース | |
US9870633B2 (en) | Automated highlighting of identified text | |
US11221819B2 (en) | Extendable architecture for augmented reality system | |
JP6013583B2 (ja) | 有効インターフェース要素の強調のための方式 | |
US10540055B2 (en) | Generating interactive content items based on content displayed on a computing device | |
US11023106B2 (en) | Digital supplement association and retrieval for visual search | |
US10073541B1 (en) | Indicators for sensor occlusion | |
US9841879B1 (en) | Adjusting graphical characteristics for indicating time progression | |
US11640431B2 (en) | Digital supplement association and retrieval for visual search | |
US11671696B2 (en) | User interfaces for managing visual content in media | |
US10043069B1 (en) | Item recognition using context data | |
TWI637347B (zh) | 提供影像的方法與裝置 | |
JP7393361B2 (ja) | ビジュアルサーチのためのデジタル補足関連付けおよび検索 | |
US11003830B2 (en) | Providing location-based font recommendations | |
US9905033B1 (en) | Adjusting graphical characteristics for recognition interfaces | |
US10915778B2 (en) | User interface framework for multi-selection and operation of non-consecutive segmented information | |
US11514082B1 (en) | Dynamic content selection | |
US12001642B2 (en) | User interfaces for managing visual content in media | |
US20230229279A1 (en) | User interfaces for managing visual content in media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171013 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6502923 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |