JP2012509544A - 入力機構としての動き認識 - Google Patents

入力機構としての動き認識 Download PDF

Info

Publication number
JP2012509544A
JP2012509544A JP2011537661A JP2011537661A JP2012509544A JP 2012509544 A JP2012509544 A JP 2012509544A JP 2011537661 A JP2011537661 A JP 2011537661A JP 2011537661 A JP2011537661 A JP 2011537661A JP 2012509544 A JP2012509544 A JP 2012509544A
Authority
JP
Japan
Prior art keywords
user
image
orientation
computing device
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011537661A
Other languages
English (en)
Inventor
ピー.ベゾス ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2012509544A publication Critical patent/JP2012509544A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

ユーザとコンピュータ装置との間の相対的な動作または配向の検出は、装置の態様を制御するために用いることができる。例えば、ユーザに対する装置の配向を判定することができるように、コンピュータ装置は、装置に対するユーザの顔の特徴の配置位置、形状、離隔距離および/または他の態様に対する画像取得エレメントおよびソフトウェアを含むことができる。そして、ユーザは、装置を傾ける、ユーザの頭を移動させる、表情をつくる、または他の方法で装置に対するユーザの少なくとも1つの態様の配向を変更するなどの行動の実行により、装置に入力を供給することができる。当該アプローチは、キーパッドおよびタッチスクリーンなどの従来の入力装置に加えて、または代替手段として使用することができる。

Description

[相互参照]
本特許出願は、ベゾスによって2008年12月10日に出願された米国特許出願番号第12/332,049号と2008年11月20日に出願された米国特許仮出願番号第61/116,430号の双方(双方とも「入力機構としての動き認識(MOVEMENT RECOGNITION AS INPUT MECHANISM)」と題する)に対する優先権を主張する。これらの出願の内容全体は、参考することにより本明細書に援用される。
入手可能なコンピュータ装置の種類が増えるにつれて、そしてこれらの装置の多くのサイズが減少するにつれて、ユーザがこれらのコンピュータ装置とインタフェースする方法を適合させる必要が生じている。例えば、デスクトップコンピュータのキーボード上でのタイピングは、情報を入力する多くのユーザにとって容易で容認できる方法である一方、携帯電話のキーボード上で情報を入力しようとすることは、装置の小さなフォームファクタのせいで難しいかもしれない。例えば、ユーザの指の大きさによって、ユーザが一度に1つのキーを押すことをできなくしてしまうことが容易に生じ得る。さらに、これらの装置の多くがタッチスクリーンまたは他の同様の入力装置に移行するにつれて、ユーザの指の大きさによって、ユーザがスクリーン上などの対象とするオブジェクトまたはエレメントをうまく選択することもできなくなり得る。そのようなタッチスクリーンの利用することのもう1つの欠点は、指紋、汚れ、しみおよび他の跡が、表示画面上に残されるということであり、それは、ぎらつきや、他の鮮明度および/または見やすさに関する問題を引き起こし得る。さらに、一部のユーザはスクリーンの損傷を防ぐために保護材のさらなる層を追加するが、これらの装置では、タッチ感度が低減したり、スクリーンに残された残留物の負の効果が増大し得る。
さらに、多くのユーザは、携帯電話、携帯情報端末(PDA)および電子ブックリーダー機器などの携帯機器を片手で利用することを好むが、そのような操作では、タッチスクリーンまたは複数ボタンの入力アプローチを利用することは難しくなる。定置型の装置(例えば、デスクトップコンピュータ)においてでさえ、標準キーボードおよびマウスに基づいたアプローチは、絶えずマウスを動かして次の部分へスクロールしたり、次ページにナビゲートするために要素を選択せずに情報を見ることを好むユーザにとって、望ましくないかもしれない。
本明細書の開示による様々な実施形態が、図面に関連して記載される。
1つの実施形態による、ユーザの顔領域を画像取得するように動作可能な要素を含む携帯型装置の例を示す図である。 1つの実施形態に従って使用することができる制御可能装置の構成部分を示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従って使用することができる携帯型装置上でテキスト情報を入力することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元空間の表示を変更することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元空間の表示を変更することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元空間の表示を変更することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元オブジェクトの表示を変更することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元オブジェクトの表示を変更することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元オブジェクトの表示を変更することへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従ってコンピュータ装置上の3次元インタフェースをナビゲートすることへのアプローチを示す図である。 1つの実施形態に従って入力として認識することができる動きの例を示す図である。 1つの実施形態に従って入力として認識することができる動きの例を示す図である。 1つの実施形態に従って入力として認識することができる動きの例を示す図である。 1つの実施形態に従って入力として認識することができる動きの例を示す図である。 1つの実施形態に従って入力として認識することができるコンピュータ装置のユーザの相対的な表示の例を示す図である。 1つの実施形態に従って入力として認識することができるコンピュータ装置のユーザの相対的な表示の例を示す図である。 1つの実施形態に従って入力として認識することができるコンピュータ装置のユーザの相対的な表示の例を示す図である。 1つの実施形態に従って使用することができる相対的な動きを検出する方法の例を示す図である。 様々な実施形態に従う、ユーザの顔の特徴の解析を示す図である。 様々な実施形態に従う、ユーザの顔の特徴の解析を示す図である。 様々な実施形態に従う、ユーザの顔の特徴の解析を示す図である。 様々な実施形態に従う、ユーザの顔の特徴の解析を示す図である。 様々な実施形態に従う、ユーザの顔の特徴の解析を示す図である。 様々な実施形態に従う、ユーザの顔の特徴の解析を示す図である。 1つの実施形態に従う、相対的な動きに対応する行動を確認するようにユーザを促すために生成することができる表示の例を示す図である。 1つの実施形態に従う、入力として相対的な動きを処理するためのアプローチを示す図である。 1つの実施形態に従う、入力として相対的な動きを処理するためのアプローチを示す図である。 1つの実施形態に従う、ユーザの顔領域を画像取得するカメラの例を示す図である。 1つの実施形態に従って使用することができる顔の動きを検出する方法の例を示す図である。 1つの実施形態に従って使用することができる顔の動きを検出する方法の例を示す図である。 1つの実施形態に従う、入力としてユーザの目の動きを取り込む例を示す図である。 1つの実施形態に従う、入力としてユーザの目の動きを取り込む例を示す図である。 1つの実施形態に従う、入力としてユーザの目の動きを取り込む例を示す図である。 図15(a)〜図15(c)の目の動きアプローチと共に使用することができるディスプレイの例を示す図である。 1つの実施形態による、入力制御アプローチをカスタマイズするためにユーザに提示することができる表示の例を示す図である。 様々な実施形態を実現することができる環境を示す図である。
本明細書の開示の様々な実施形態による、システムおよび方法は、システム、装置、インタフェースまたは他の同様の電子環境内のオブジェクトまたは要素を制御するために、従来のアプローチで経験する前述の不備および他の不備の1つ以上を克服し得る。様々な実施形態によるシステムおよび方法は、ユーザの認識しうる部分を画像取得するように動作可能な画像取得エレメントを使用して判定できるような、相対的な動きを通じての入力を提供する。ユーザ、装置またはそれらの組み合わせの動きを通じての、ユーザの認識しうる部分に対する装置の配向の変更を、装置の態様を制御するために入力として判定し使用することができる。さらに、装置は、ユーザの表情、ジェスチャーまたは他の動きなどのユーザの調整可能な態様を画像取得し、入力としてその調整可能な態様の状態を利用することができる。
一例では、ユーザは、検索照会を入力する、テキストメッセージをタイプする、または同種の動作を行うなどのために、携帯型装置へテキストを入力したいと考える場合がある。様々な実施形態による装置のユーザは、「顔認識」モード、動き認識モードまたは本明細書に説明される同様のモードのような制御モードを有効にすることができ、この制御モードは、カメラまたは装置の他の画像取得エレメントにより検出することができる、ユーザに対する相対的な配向における動き、表情または他の変化を用いて、ユーザがコンピュータ装置を制御することを可能にする。
1つの同様の装置において、ユーザは、バーチャルキーボード、選択ボックス、ラジオボタンまたは装置に表示された他の選択可能なインタフェースオブジェクトなどのユーザインタフェースを表現したものを変化(例えば、変更)させる動作を行うことができる。例えば、バーチャルキーボードは、従来の「QWERTY」スタイルのキーボード、または選択可能な英数字またはその他同様の文字の他の適切なディスプレイであってもよい。文字、数字または表示された他の文字のいずれかに移動することができるカーソル、移動可能なアイコンまたは他の同様のエレメントを表示することができる。したがって、ユーザ(または環境)に対する装置の配向の変化に基づいて変更されるグラフィカルユーザインタフェース内に表示される情報は、グラフィカルユーザインタフェースのディスプレイの任意の変化に対応することができる。例えば、多くの他の可能性の中で、グラフィカルユーザインタフェースに対してカーソルを動かし、コンピュータ装置上の3次元画像の2次元表示を生成するために用いられる視点を調整し、電子カタログに関連した項目間をナビゲートファイルシステムをナビゲートし、回転式選択機構から項目を選択し、ユーザインタフェースに反映される判定される変化に少なくとも部分的に基づいて機能を実行し、電子マップシステムをナビゲートすることにより、ユーザインタフェースを変更することができる。
カメラなどの装置の画像取得エレメントは、ユーザが装置を操作している間、画像取得エレメントが少なくともユーザの一部の画像を取得することができるように位置づけることができる。1つの実施形態において、カメラは、高速、高解像度の、短時間で多くの画像を取り込むことができるカメラ(例えば、高速度カメラまたは高速ビデオカメラ)である。装置は、画像取得エレメントから得られた画像情報を解析することができ、装置に対するユーザの少なくとも1つの相対的な位置または配向を判定することができる、画像処理アルゴリズムを含むことができる。したがって、画像処理アルゴリズムは、装置に対するユーザの少なくとも1つの相対的な位置または配向の変化を判定する。次いで、グラフィカルユーザインタフェース内に表示される情報を、判定される変化に少なくとも部分的に基づいて、変更することができる。いくつかの実施形態において、グラフィカルユーザインタフェース内に表示される情報は、取得された第1および第2の画像のいずれか一方またはその両方を表現したものを除外する。すなわち、そのような実施形態において、画像取得エレメントは、ユーザインタフェース内でのディスプレイのために装置のユーザの画像取得をするためには用いられない。むしろ、ユーザ画像情報は、グラフィカルユーザインタフェースの態様を制御するための入力を提供するために用いられる。
例えば、アルゴリズムは、ユーザの目および/または頭が実質的に装置に対面しているか否かを判定することにより、装置が直接ユーザに対面しているか否かを判定することができる。装置またはユーザの頭が一方向に傾いていれば、アルゴリズムは、相対的な動きまたは配向の方向を判定することができ、それに従って、表示されたキーボード上のカーソルの位置を制御することができる。例えば、ユーザは、文字の行を横切ってカーソルを移動するために左または右に装置を傾けてもよいし、文字の列上にカーソルを移動するために装置を前方または後方に傾けてもよいし、および/またはそれらの任意の組み合わせを行ってもよい。そのようにして、ユーザは、単に装置を動かすか、他の方法でその配向を変化させることにより、ユーザの判定される態様の相対的な配向を変化させることにより、またはその両方により、カーソルまたは他の入力装置を制御することができる。
以上に記載された実施形態は、概して2次元インタフェースに対する入力の制御に関するが、同様の動きを用いて3次元インタフェースの態様または表示を制御するために実施形態を用いることもできる。例えば、3次元画像の2次元表示を見ているユーザは、所望の調整の方向に対応する方向に装置(またはユーザの頭など)を回転することにより、または動かすことにより、表示された画像を調整することができる。そのような動きは、開いた側から箱の中を見ることに類似しており、ユーザは、異なる角度に箱を回転させることにより、または所望の側面が見えるようにユーザの頭を位置づけることにより、箱の内部の上面、底面および側面を見ることができる。いくつかの実施形態において、画像情報を解析するアルゴリズムが、ユーザの特徴が装置に近づいていること(例えば、それらの離隔距離および/またはサイズが増加していること)を検出することができるように、ユーザは、ユーザに向かって装置を動かたりしてズーム動作をすることにより、画像またはインタフェースの様々な領域へズームすることもできる。いくつかの実施形態において、加速度計などのエレメントが、そのような判定を支援することもできる。情報の階層的分類が3次元の方式で示される場合に、そのようなアプローチは、ユーザが階層内の情報の所望のレベルに、例えば、そのレベルにズームすることによって迅速かつ容易にアクセスすることを可能にする。次に、ユーザは、上で説明したように、装置を傾けるか、またはその位置/配向を変更して、カーソルまたは表示を移動することにより、そのレベルで様々な項目にアクセスすることができる。
別の例では、ユーザは、電子ブックリーダーまたはポータブルメディア装置などの装置を利用して、本、新聞または他の同様の電子コンテンツを読み得る。そのような素材を見る場合、ユーザは、電子ブック(eブック)の次ページにナビゲートすることまたは「めくる」ことを所望し得、ユーザが次ページにナビゲートする準備ができていることを示すために、装置を傾けるまたはユーザの頭を右に回転するなどの行動をし得る。ユーザが以前に中断した場所を見つけるためにユーザが本を通してナビゲートしている場合、ユーザは、ナビゲーションをスタートするために、装置を回転することにより、またはユーザの頭を円を描いて動かすことにより、コマンドを入力し得、ユーザが中断したページまたはポイントに装置が到着した際、ユーザは、ユーザがこの位置に満足していることを装置に指示するために微笑むか、または「はい」の動作で、頭をうなずかせるなどの別の行動をとることができる。装置上に、入力のための相対的な動きと組み合わせて用いることができる1つ以上の物理的なボタン、選択ホイール、タッチインタフェースなどがある場合もある。例えば、ユーザは、電子ブックリーダーに本のページをめくらせるために装置を右に傾け得、ユーザは、所望のページが表示されていることを示すためにボタンを押して、eブックを内のページをめくることをやめるように装置に示すことができる。
ウェブベースの小売り業者のウェブサイトを介してなど電子市場を介して提供された項目をユーザが見ている例において、ユーザは、項目の検索要求への応答またはに対応する多くの項目を見得る。例えば、項目がカテゴリによる3次元の分類で表示される場合、ユーザは、所望のカテゴリのレベルにズームするまたは他の方法で移動するために、装置を傾けるまたは動かすことができる。いったん所望のレベルに達すると、例えば、そのレベルで表示された様々な項目に移動するために、ユーザは、装置を傾けるか、頭を回転させることができる。動作がカーソルを移動させる例において、カーソル位置での項目に関する情報は、ポップアップまたはモードウィンドウに表示することができる。別の実施形態において、表示は、ユーザがどこにナビゲートしたのかに依存して、いつでも、そのレベルの項目のサブセットのみが一度に表示されるように、ユーザが装置を傾ける時に表示された様々な項目に移動し得る。ユーザが他の項目を見る準備ができている場合、ユーザは、新規の項目または項目リストを提示するように装置を指示する動作を行うことができる。ユーザは、表示された項目(複数可)が気に入れば、表示されている少なくとも1つの項目にユーザが満足していることを示すために動作を行うことができる。例えば、ユーザが1つの品目を購入したい場合、ユーザは、その品目を購入したいということを示すために、頭を上下にうなずかせるなどの動作を行うことができる。いくつかの実施形態において、この単一の動きは、ユーザのため取引を開始するのに十分である。しかしながら、いくつかの実施形態においては、ユーザは、再びうなずくなどの動作を行うことにより、または物理的なスイッチ(例えば、ボタンまたはキー)を用いることにより購入を確認することを要求され得る。ユーザが1つ以上の品目を購入したい場合、ユーザは、所望の数を表わすために幾つかの指を挙げることなどにより、購入するまたは消費される数を示すことができる。他の多くの同様のユーザの行動を、装置に入力を提供するために用いることができる。
別の例において、スマートフォン(または他の装置)を通じて、ウェブページ上の情報を閲覧しているユーザは、ページをスクロールアップするために装置を上に傾け得、ページをスクロールダウンするために装置を下へ傾け得る。ユーザは、ズームインするために装置をユーザに向かって移動すること、または次ページに移行するために装置を右に傾けること、あるいは他の同様の動きなどの動作を行なうこともできる。
なおまた、装置のこれらの動作および動きの多数は、以上に説明されたような画像取得アプローチを用いて検出することができる。入力を行なうために画像取得エレメントのみを用いることは、いくつかの実施形態では有利であり得る。例えば、加速度計の利用に関わるコストと複雑性とを除去することができる。さらに、装置(またはその画像取得エレメント)が定置型に保たれているとしても、画像取得アプローチを用いることができる。しかしながら、いくつかの実施形態において、画像取得エレメントに加えて、加速度計などの動作検出エレメントを用いることにより、特に、少なくとも部分的に入力を制御するために関連する装置を移動させる実施形態において、動きの検出を改善できる。さらに、加速度計を用いることにより、装置が、画像に関しては類似する動作、例えば、それぞれユーザが画像の中で上下に移動する、装置を前方および後方に傾けることおよび装置を上下に動かすことなどを、よりよく識別することができるようになり、さらなる種類の入力を可能にする。
図1は、1つの実施形態による構成100を図示しており、携帯コンピュータ装置102を操作するユーザ106の一部が、携帯型装置102の画像取得エレメント104により画像取得されている。図示されるユーザおよび装置の相対的な配向が、説明の目的のためにずらされており、ユーザが、概論的には表示エレメントおよび画像取得エレメント104を含む装置の正面(または他の面または側面)に対面することは、理解されるべきである。画像取得エレメント104は、他の多くの可能性中で、例えば、カメラ、電荷結合素子(CCD)、動作検出センサまたは赤外線センサであってもよい。スマートフォン102がこの例で表現されているが、携帯コンピュータ装置が、数ある中でも、パーソナルコンピュータ、ラップトップコンピュータ、テレビジョンセットのトップボックス、携帯電話、PDA、電子ブックリーダー装置、ビデオゲームシステムまたは携帯メディアプレイヤーなどの、入力コマンドを受け、処理することができる任意の適切な装置であってもよいことは、さらに理解されるべきである。
この構成において、ユーザが表示エレメント内のインタフェースを見ている場合に、この例によれば、画像取得エレメント104は、ユーザ106の顔を含む可視領域108を有するように、概して携帯型装置102の、表示エレメントと同じ側にある。いくつかの実施形態においては画像取得エレメントが装置に対して固定されるが、他の実施形態においては、画像取得エレメントは、画像取得エレメントまたは画像取得エレメントに光を導く光学素子(例えば、レンズ、ミラーなど)を回転することなどにより、ユーザの位置を追跡するように動作可能になりうる。本明細書ではユーザの顔を含む可視領域の使用例を実施形態として記載するが、可視領域は、他の可能性の中で、腕、脚および腰などの身体の他の部分を含んでもよい。いずれの場合も、画像取得エレメントの可視領域108は、装置を操作するユーザの少なくとも一部に対応する画像情報を取得するように構成することができる。また、画像取得エレメントが継続的に(または少なくとも実質的に継続的に)で取り込んでいるあるいは別の方法で画像情報を取得している場合、装置102に対するユーザ106の任意の動き(ユーザ、装置、またはそれらの組み合わせの動きを通じて)も、可視領域108内のそのユーザの少なくとも1つの態様の位置または配向に変化をもたらすことができる。装置が、連続して判定することができるユーザの少なくとも1つの特徴(目、鼻または口など)を位置確認できるソフトウェアおよび/またはハードウェアを含んでいる場合、装置は、一定期間にわたる相対的な動きを判定するために画像情報を解析し、入力としてその相対的な動作を利用することができる。
例えば、ユーザは、装置を傾けることができるし、または「はい(肯定)」の動作で上下にうなずくために自分の頭の向きを変えることができる。可視領域108のユーザの目の位置が、画像内で移動すると、このような動きは、画像取得エレメント(例えば、カメラ)により検出し解析することができる。さらに、画像取得されたユーザの目の形状、大きさおよび離隔距離などの態様も変化し得る。ユーザは動かずに、装置を上下に動かすことにより、ならびに他の同様の動きを通じて、可視領域における目の動きを得ることができ得る。いくつかの実施形態において、装置は、背景の動きまたは画像の他の態様を検出することにより、または様々な特徴の離隔距離、形状または大きさを解析することなどにより、ユーザの動きと装置の動きを区別することができる。したがって、本説明のいかなる所に記載されたユーザに対する装置の配向または位置を判定するために画像取得エレメントを用いる実施形態においても、ユーザは、装置を動かすまたはユーザの態様を変える、またはそれらの両方により、特定コマンドに対応した、所与の種類の動きを入力する選択肢を有することができる。
上述のように、装置および/またはユーザの動きを検出するためにコンピュータ装置の画像取得エレメントを用いる時、コンピュータ装置は、動きを判定するために画像の背景を用いることができる。例えば、ユーザがユーザに対して固定された配向(例えば、距離、角度など)での装置を保持し、ユーザが周囲環境に対して配向を変えると、ユーザだけの画像の解析では、装置の配向の変化の検出をもたらさない。むしろ、いくつかの実施形態において、コンピュータ装置は、それでも、ユーザの後ろの背景像の変化を認識することにより、装置の動きを検出することができる。従って、例えば、物体(例えば、窓、絵画、立ち木、茂み、建物、自動車など)が画像内で左または右に移動する場合、装置は、ユーザに対する装置の配向が変化していないが、装置が配向を変えたと判定することができる。
ある場合には、相対的な動きは、複数な解釈を許し得る。例えば、1つの応用において、装置が上および/または下に移動するのであれば、装置は、第1の動作を行うようにプログラムされ得、その代りに装置を前方または後方傾けるのであれば、第2の動作を行なうようにプログラムされ得る。明らかなように、各動作は、可視領域において上および/または下に移動するユーザの目の位置に対応することができる。いくつかの実施形態において、以下で説明されるように、様々な特徴の形状および離隔距離または他の同様の態様などの、取り込み画像のユーザの顔がどのように変化させるかに関して2つの動作間を識別するのに、カメラと検出は十分に高感度であり得る。他の実施形態において、処理が相当に単純な画像取得エレメントおよび解析アプローチを利用することが望ましい場合には、装置102の現在の配向を判定することができる装置内に少なくとも1つの配向検出エレメント110を含むことが望ましくあり得る。一例において、少なくとも1つの配向検出エレメント110には、振動、衝撃等のみならず、装置の3次元位置、装置の振幅方向および移動方向などの要因を検出することができる、少なくとも1つの単軸または多軸加速度計が用いられる。配向検出エレメント110として様々な実施形態の範囲内で用いるために、配向および/または動きを検出するための他のエレメントを、同様に用いることができる。加速度計からの入力がカメラからの入力と共に用いられる場合、より広範囲の入力コマンドおよび/またはより単純な画像解析アルゴリズムを可能にして、相対的な動きを、より厳正に判断することができる。例えば、加速度計の使用は、ユーザに対しての横運動および回転運動を区別することを可能にすることができるだけではなく、画像取得エレメントを伴った入力または画像取得エレメントを伴わない入力を提供することを、ユーザが選択することを可能にすることができる。例えば、装置が携帯音楽プレーヤーである場合、ユーザは、装置がユーザを対面しているように装置を方向を変える必要なしに、曲を切り替える、早送りする、または他の同様の動作を行なう装置の方向を変えるまたは動かすなどを選択することができる。その代わりに、ユーザは、装置を動かさず、次の曲に飛ばすためにユーザの頭を右に移動したりすることによる等、ユーザの態様を移動または調整することができる。いくつかの装置は、画像取得エレメント、配向検出エレメントまたはそれらの組み合わせから入力が受け入れられるか否かを、ユーザが指定することを可能にする。
図2は、図1に関して記載された装置102などのコンピュータ装置200の一組の基本要素を図示している。この例で、装置は、メモリ装置またはエレメント204に格納することができる命令を実行するためのプロセッサ202を含む。当該技術分野において知られているように、装置は、プロセッサ202による実行用プログラム命令のための第1のデータストレージ、画像またはデータのための個別のストレージ、他の装置と情報を共有するためのリムーバブルメモリなどの、多くの種類のメモリ、データストレージまたはコンピュータ読み取り可能な媒体を含むことができる。装置は、典型的にはタッチスクリーンまたは液晶ディスプレイ(LCD)などのいくつかの種類の表示エレメント206を含むが、ポータブルメディアプレイヤーなどの装置は、音声スピーカを通してなど他の手段を介して情報を伝えることができる。説明したように、多くの実施形態における装置は、ユーザの顔領域を画像取得することができるカメラなどの少なくとも1つの画像取得エレメント208を含む。画像取得エレメントは、ユーザが装置を操作している際にユーザの画像を取り込むために十分な解像度、集束範囲および可視領域を有しているCCD画像取得エレメントなどの任意の適切な技術を含むことができる。コンピュータ装置でカメラエレメントを用いる画像取り込み方法は、当該技術分野でよく知られており、本明細書では詳細には説明しない。単一画像、多重画像、周期的な画像取得、連続像の取り込みおよび画像ストリーミングなどを用いて、画像取り込みを行なうことができることは理解されるべきである。さらに、装置は、ユーザ、アプリケーションまたは他の装置からコマンドを受ける場合などに、画像取り込みを開始および/または停止する能力を含むことができる。
説明したように、装置は、装置の配向および/または動きを検出および/または検出することができる配向検出エレメント210も含むことができる。装置の配向または動きを判定するために加速度計などのエレメントを用いる方法も、当該技術分野において知られており、本明細書では詳細には説明しない。いくつかの実施形態において、本装置は、ユーザから従来の入力を受けることがでる、少なくとも1つの追加入力装置212を含むことができる。この従来の入力は、例えば、押しボタン、タッチパッド、タッチスクリーン、ホイール、ジョイスティック、キーボード、マウス、キーパッドまたは他の同様の装置またはエレメントを含むことができ、それによって、ユーザが装置へコマンドを入力することができる。いくつかの装置は、音声または他のオーディオコマンドを受け入れるマイクロホンまたは他の音声取り込みエレメントも含むことができる。例えば、装置は、ボタンを全く含まず、視覚コマンドと音声コマンドとの組み合わせを通してのみ制御されてもよく、装置に接する必要なしにユーザが装置を制御することができるようになる。
図3(a)〜図3(c)は、携帯型装置上でテキストを入力するために用いることができるアプローチの実施形態を図示している。いくつかの実施形態において、これは、キーボード、キーパッドまたは他の同様の入力装置上の現実または仮想キーなどの従来の入力装置を用いずに成し遂げることができる。この例では、ユーザは、携帯型装置300へテキストを入力することを試みている。見て分かるように、装置は、バーチャルキーボード308を可能にする表示エレメント302、またはユーザに表示される他の文字セットまたは文字配列を含む。ディスプレイは、バーチャルキーボード308の文字にわたって移動することができるカーソルエレメント304を含む。ユーザは、1つ以上の文字を選択するためにカーソル304を移動することができ、その結果、1つ以上の文字を、装置に入力を供給するためのテキスト入力ウィンドウ306または他の同様のエレメントに表示することができる。
図3(b)に図示したように、装置に入力を提供する方法は、装置を右または左に傾けることであり、これは、カーソル304をそれぞれ右または左に(または、ユーザの好みに依存して、それぞれ左または右に)キーボードを横切って移動することに対応する。同様に、図3(c)は、カーソル304を上または下へ(または、下または上へ)移動するために、ユーザが装置を前方または後方にそれぞれ傾けることができる図を示している。いくつかの実施形態において、ユーザは、装置を傾けることにより、任意の方向にスクリーンを横切ってカーソルを自由に移動することができる。他の実施形態において、ユーザは、第1の動作により、横切ってまたは上下にカーソルを移動することができ、装置上のボタン310を押す、またはその動作を中止するために装置をユーザに対面する位置に戻すなどの動作を行うことができる。次いで、ユーザは、適切な方向に装置を傾けることにより直交する方向にカーソルを移動することができる。例えば、文字が配列に表示されるのであれば、ユーザは、列を選択するために左または右に装置を傾け、適切な列で止めるための行動をして、次に、その列の適切な行を選択するために装置を上方および/または後方に傾けることができる。明らかなように、様々な他の組み合わせおよびナビゲーションまたは動きも、同様のアプローチを用いて行なうことができる。さらに、装置を傾けることに関して記載したが、装置を平行移動するまたはユーザの頭を回転するような本明細書において説明した他の動作を、様々な実施形態において同様に用いることができるといことは理解されるべきである。さらに、文字は、任意の適切な配列で表示することができ、行または他の同様の構成に限定されない。
したがって、カーソルは、選択するために、文字などの項目を特定するように位置づけされる。この特定は、他の多くの可能性の中で、英数字上にカーソルを浮遊させること、英数字の文字色を変更すること、英数字の形状を変更すること、英数字のまわりの背景色を変更すること、または英数字のまわりに形状(例えば、円、正方形、長方形など)を表示することを含んでいてもよい。
いくつかの実施形態によれば、予測的なテキストアルゴリズムを、ユーザがテキスト入力ウィンドウ308へ迅速にテキストを入力することを支援するために用いてもよい。例えば、いくつかの実施形態において、1つの文字が入力された後、装置300は、アルゴリズムが判定した、ユーザがタイプしている語の次の文字である可能性が高い文字へ、カーソル304を自動的に移動してもよい。そして、ユーザは、予測された文字を選択してもよいし、またはさらに装置300を傾けるまたは移動することにより、次の所望の文字へカーソルを動かしてもよい。
図3(d)〜図3(f)は、図3(a)〜図3(c)の例を続けて、テキスト入力が、以上に説明した2次元に加えて第3次元を用いて、選択されている実施形態を示す。図3(d)は、ユーザの体に相対的に近いことが検出される第1の位置における装置300を示す。そのような検出は、画像取得エレメント208および/または配向検出エレメント210の使用により構成することができる。この位置において、英数字(A〜Z)は、表示エレメント302内にそれらの大文字の形式で示される。そして、ユーザは、所望の文字のいずれかを選択するために左右上下にカーソル304を移動するために、図3(d)〜図3(f)に関連する記述で説明される技術を用いてもよい。図3(e)において、装置は、装置とユーザとの少なくとも1つの移動より、画像取得エレメント104が現在ユーザの体からさらに離れた第2の位置となる位置にある。装置300は、装置がこの第2の位置にあり、英数字の小文字のバージョンを示すために表示エレメント104を更新することをここで検出する。そして、再び、ユーザは、カーソル304を移動させ、かつ所望の文字のいずれかを選択するために図3(d)〜図3(f)3に関連する記述で説明される技術を用いてもよい。図3(f)において、ユーザと装置との間の相対距離は、画像取得エレメント104が現在第1の位置と第2の位置よりもユーザの体からさらに離れた第3の位置にいるように再び変更される。装置300は、装置がこの第3の位置にあり、特殊文字(例えば、!、@、#、$など)を示すために表示エレメント104を更新することをここで検出する。そして、再び、ユーザは、所望の文字のいずれかを選択するためにカーソル304を移動するために、図3(d)〜図3(f)に関連する記述で説明される技術を用いてもよい。
いくつかの実施形態において、ユーザが所望の英数字の中で入力するべき装置を操作している間、装置は、第1の位置、第2の位置または第3の位置へ一時的にユーザインタフェースを「ロック」するように構成されてもよい。例えば、ユーザは、それぞれの位置においてユーザインタフェースを「ロック」するために装置上でボタンを押し、かつユーザが別の位置へ移動したい時にはボタンを解放してもよい。
3次元でそのような実施形態を用いることは、英数字入力の様々なモードの間を切り替えるために、シフトボタン、キャップロックボタンまたはオルトボタンを選択する必要性に取って代わるまたは補うことができる。大文字、小文字および特殊文字の間を切り替えるために3次元を用いることは、3次元がそのために用いられ得ることの単なる一例であることはを理解されるべきである。例えば、他の実施形態において、英数字文字セットが、様々なレベル(例えば、第1の位置におけるA〜J、第2の位置におけるH〜T、および第3の位置におけるU〜Z)の中で分離していてもよい。さらに、3つの位置のみが記載されているが、3次元の任意の位置の数が可能である。
図3(g)〜図3(i)は、別の実施形態を示しており、選択可能な項目または要素(例えば文字、部分またはスクリーン、等)をユーザインタフェースのより大きな領域に区分化し、ユーザが順次に様々なセグメントを選択することで特定の選択肢を掘り下げることを可能にすることにより、各種入力情報を選択するために、記載された技術をどのように用いることができるかを示している。例えば、カメラの感度が低い場合、または携帯型装置が自動車またはバスなどの不安定な環境の中で用いられている場合、同様の技術は特に有用であり得る。図3(g)〜図3(i)は、装置にテキストを入力するための文字入力を特に示しているが、本技術は、任意の種類の選択可能な要素を選択するためにも用いることができる。図3(g)は、ユーザインタフェース(ここではバーチャルキーボード308)の一部を表現しており、文字サブセットに対応する2つの部分312および314に区分化される。この例によれば、ユーザはバーチャルキーボード308から文字「p」を選択することを所望する。しかしながら、ユーザが文字「p」上にカーソル304を移動するように、装置を動かす代わりに、ユーザは、文字「p」を含む特定の部分(ここでは部分314)にカーソル304を動かす。これは、例えば、装置300を傾け、先に記載されたようなカメラに基づいた検出機構または配向検出機構を用いて動きを検出することより、実行することができる。そして、ユーザは、進行させるために部分314内の任意の領域を選択してもよいし、または次の選択肢に「掘り下げ」てもよい。
ユーザが部分314を選択すると、部分312は廃棄され、部分314は、図3(h)に示されるように、拡大され、さらに区分化されて、3つのサブセット(例えば、部分)を提供する。この場合は、文字「p」は部分316にあり、従って、ユーザはカーソル304が部分316の任意の領域に位置づけられるように装置300を傾ける。この時、ユーザは、部分316を選択して、部分318および320を廃棄し、かつ、残りの選択可能な項目の1つを選択しやすくするために部分316を拡大させる。具体的には、図3(i)は、ユーザによる選択のためのそれぞれの部分に分割された残りの5つの文字を示す。そして、ユーザは、文字「p」が配向されている部分320のどこかにカーソルが位置づけられるように装置を傾け、テキスト入力ウィンドウ306への入力のために文字を選択する。そして、装置300は、再びテキスト入力処理を開始するために、図3(g)に示されるようなディスプレイに戻るように構成されてもよい。代替の実施例において、装置の物理位置または配向を変更するのではなく、装置は、選択するために画像取得エレメント110を用い、装置に対するユーザの変化している位置または配向(ユーザと装置との両方の動きを介して)を検出することができる。
文字入力のための別の実施形態によれば、文字セットに対してカーソルを動かすのではなく、コンピュータ装置は、一度に1文字を表示するように構成することができ、その結果、装置とユーザとの相対的な配向が変更されると、装置のユーザインタフェースは、文字セット内の異なる文字を表示するように構成される。例えば、1つの実施形態において、単一のキャラクターのみが一度にグラフィカルユーザインタフェース内に表示され、配向が変更されると、選択するために異なる文字が表示される。
図4(a)〜図4(c)は、以上に記載されたものと同様の入力アプローチを用いた、ユーザナビゲーションの例を図示している。この例で、3次元環境は、コンピュータ装置400の2次元表示エレメント402を用いて表わされる。上で説明されるように、コンピュータ装置は、装置のユーザの少なくとも一部の画像情報を取得するために少なくとも1つの画像取得エレメントを含むことができ、画像情報とは独立して、または、画像情報とともに、デバイスインデペンデントの配向を判定することができるエレメントをさらに含んでもよい。図4(a)に図示するように、ユーザと表示エレメントとが互いに実質的に対面している時、3次元環境の比較的単純な表示がディスプレイ上で表現される。図4(a)のディスプレイを見るユーザは、スクリーンの右に向かって表示されるエレメントまたは右の方へ「スクリーン外」であるエレメントのより良い表示を得たいと考え得る。図4(b)に図示されるように、ユーザは、右(または左)へ装置を傾けるか、またはディスプレイに対して表現された視野を回転させるために入力としての装置により検出される同様の動作を行なうことができる。その結果、表示される画像は、以前は画像の中心の右側に存在していた画像のエレメントまたは部分の改善された表示を示すことができる。同様に、ユーザは、表示エレメントにより現在表示されるものの上または下の要素または部分を見たいと考え得る。図4(c)で図示されるように、ユーザは、以前は前画像の中央点の上または下に存在していた部分をよりよく図示する視点を提供するように、表示された画像を変化させるために、装置を前方または後方に傾けることができる。したがって、ユーザは、相対的な動作を通じて入力を生成することにより、画像を表示するために用いられる視点を変えることができる。さらに、いくつかの実施形態において、一度、表示されている画像が、画像の中心から離れたところで以前表示されていた画像の要素
または部分を表示するために変更されると、装置は、表示された関心領域が表示された画像の中心へ再配向するように(例えば、表示されたX部分は、ディスプレイの中心に移動する)、表示された画像を「正規化」または調整するために入力を受け取るように構成することができる。これは、ユーザと装置との間の相対的な配向が、通常の垂直視聴方向に戻ることを可能にする。例えば、図4(b)を参照すると、Xが、要素が関心領域になるように装置とユーザとの配向を変更した後、装置は、(+エレメントよりむしろ)Xエレメントが表示された画像を中心におき、ユーザが装置に対して通常の垂直視聴位置へ戻ることができるように、ディスプレイを更新する入力をユーザから受け取る。他の可能性の中でも、再配向は、カーソルまたはタッチスクリーン、ボタン選択またはジェスチャーを用いて選択することができる。
この例は、装置を傾ける例を記載しているが、ユーザの頭を移動するまたは顔のジェスチャーをするなどの他の動作も、本明細書に記載されたように用いることができる。例えば、ユーザが装置400の左側の方へ体を曲げることより、図4(b)のような表示エレメント402の同じ結果画像を達成することができる。同様に、ユーザが装置400の下部の方へ体を曲げることにより、図4(c)の表示エレメント402の同じ結果画像を達成することができる。さらに、いくつかの実施形態において、表示エレメント402に表現されたエレメントにズームインおよび(から)ズームアウトする能力は、図3(d)〜図3(f)に説明される技術を用いて達成することができる。例えば、ズームインまたはズームアウトするために、装置またはユーザを、互いにより接近しまたは互いからより離れるように移動することができる。
図5(a)〜図5(c)は、相対的な動作入力の結果として表示された視野を変化させる別の例を図示している。この例で、3次元項目504の2次元表現は、コンピュータ装置500の2次元表示エレメント502を用いて表示される。この例で、装置とユーザとが互いに実質的に対面するように配向される場合、ブロックは、ユーザがブロック504の正面を最初に見ることができるように表現される。図5(b)に図示されるように、ユーザがブロックの側部を見たければ、ユーザは、装置またはユーザの頭を傾けるまたは回転すること、または本明細書に説明された別の動作を行うことができ、ディスプレイにブロックのレンダリングビューを回転して表示することができる。同様に、図5(c)に図示されるように、ユーザは、装置を前方または後方に傾けるなどの動作を通じて、上面または底面を見ることができる。いくつかの実施形態において、例えば、ユーザが装置の後方から概論的には表示エレメントを見ることができないので、ユーザがブロックの側面および正面の一部をせいぜい見ることができるように、表示を相対位置に結び付けることができる。他の実施形態において、ユーザは、例えば、所定方向の装置を単純に傾けることができ、ユーザが装置を傾けることをやめる、または画像の回転を中止し別の動作を行うまでの方向で、スクロールするまたは回転する表示を継続する。様々な他のアプローチも、本明細書に記載された態様によって同様に用いることができる。
いくつかの実施形態によれば、上に記載されたように、ユーザはズームインおよびズームアウトすることができる。一例において、ユーザは、ユーザと装置との間の相対距離を変更することにより、3次元の項目504の内部へズームすることもできるし、または表示エレメント502内の付加的な3次元の項目を見せるためにズームアウトすることができる。上に記載されたものと同様のアプローチを、表示エレメント502内の項目を選択するために用いることができる。
3次元でナビゲートする能力は、画像および他の同様の情報を見るために有利であるだけでなく、3次元のインタフェースを用いて情報を見つけることにも有用である。例えば、図6(a)は、コンピュータ装置600の表示エレメント602上のインタフェース604の例を図示しており、インタフェースが複数の異なるレベル(レベルの各々が情報のカテゴリまたは分類に対応することができる)を含むことを図示している。例えば、電子市場の項目を探してブラウズするユーザは、表示された様々なカテゴリまたはサブカテゴリを見ることになり得る。示された例では各カテゴリにつき1つのサブカテゴリだけがあるが、コンピュータ(しかし必ずしもパーソナルコンピュータではない)を探すユーザは、「コンピュータ」カテゴリレベルで項目を含むページに直接ナビゲートしたいと考え得る。図6(a)において、ディスプレイは現在「エレクトロニクス」カテゴリレベルにあり、従って、ユーザは、ズームイン、または別の方法でコンピュータレベルに移動したいかもしれない。この例で、ユーザは、所望のレベルにズームするために図6(b)に示されるような第1の方向に装置を傾けるなどの動作を行うことができる。他の実施形態において、ユーザは、図3(d)〜図3(f)に記載されるように装置(また画像取得エレメント)をユーザに近いところへ移動することによりズームインしてもよい。このレベルの表示は、コンピュータに関連するいくつかの項目を含むこことでき、ユーザは、それらの項目にナビゲートし、本明細書に記載された様々な動作アプローチを用いて情報を見ることができる。しかしながら、ユーザがむしろ他の種類の消費者製品を見たいと考えるのであれば、ユーザは、図6(c)に図示されるように、そのカテゴリ階層から抜けだして、再び表示されたカテゴリ階層より高いレベルノードを得ることができる。いくつかの実施形態において、ユーザが所望の方向にナビゲートするまたはブラウズすることを支援するために、少なくとも次に最も高いレベルおよび/または最も低いレベルが、いつでもディスプレイに示される。ある場合では、ユーザが、所望のカテゴリレベルに移動し、次にそのレベルでディスプレイを「ロックする」ためにボタンを押すなどの動作を行うために装置を傾けてもよい。そして、ユーザは、図3(a)〜図3(c)に関して説明したように、アプローチを用いて、そのレベルで表示された項目間でナビゲートするための装置を傾けることができる。
図6(a)〜図6(c)の実施形態はエレクトロニクス市場の用法を表現しているが、他の多くの潜在的な用途が想定される。例えば、インタフェースは、他の多くの潜在的な用途のうち、本のレイアウト(例えば、章または節)、ユーザの人間関係図、検索結果、ファイルシステム階層を表現することができる。したがって、本明細書に記載されたユーザインタフェース技術は、実質上いかなる種類のコンテンツをもナビゲートするおよびアクセスするために用いることができる。例えば、図6(d)〜図6(e)は、関心の文書を見つけるためにコンピュータファイル構造がナビゲートされる別の実施形態を表現している。従来のファイルシステムは、他のサブディレクトリおよび/またはファイルを含む複数のサブディレクトリに拡張することができるルートレベルディレクトリにより始まる階層構造を時に用いる。このような従来のアプローチは、ファイル構造を通してナビゲートするために拡張フォルダツリーを用いるグラフィカルインターフェースを用いるインタフェースを含み得る。本明細書に記載された実施形態は、これら従来の拡張フォルダツリーを(例えば、装置を傾けることにより、左、右、前方または後方へ)ナビゲートするために用いることができるが、本明細書に記載された様々な実施形態の3次元性は、他の方法で階層ファイルシステムをナビゲートするために用いることができる。例えば、図6(d)に表現されるように、ユーザインタフェース602の一例は、パス識別子を含む第1の部分606、および特定のパスに位置するファイルとフォルダの図的表現を提供する第2の部分608を示している。例えば、図6(d)において、第2の部分608内のこれらのファイルおよびフォルダは、「WINDOWS」、「PROGRAM FILES」、「SHARK IMAGES」および「BROOMBALL DOCUMENTS」として表現されている。いくつかの実施形態において、第2の部分では、その相対的なサイズによる各ファイルおよび/またはフォルダを表わしてもよい。
図6(d)および6(e)に示されるように、ユーザは「WINDOWS」ディレクトリ上にカーソル610を置き、「WINDOWS」ディレクトリを選択するために装置600をユーザから離れたところで引き寄せており、「WINDOWS」ディレクトリは図6(d)の第1の部分606に反映される。第2の部分608には、ここでは「WINDOWS」ディレクトリに現れるフォルダを反映する。ユーザは、「SYSTEM」ディレクトリ上にカーソルを位置づけ、図6(e)および図6(f)に示されるように「SYSTEM」ディレクトリを選択している。図6(f)は、第1の部分606内の結果として得られるパスおよび第2の部分608内の関連ファイルを示している。ここで、ユーザは、図6(f)に表現されるような「SOUND.DRV」ファイルを含むこのパスに関連するファイルのいずれをも選択することができる。
記載された実施形態では、多くの種類のコマンドおよび動作(例えば、移動する、コピーする、またはファイルを保存する)も有効にするまたはアクティブにするために用いることができる。例えば、ユーザは、ファイルシステム内の所望の位置へナビゲートし、ファイルが保存されることを示す動作(またはボタンを押すなど)を行なうことができる。その時点で、ユーザインタフェースが、例えば、図3(a)〜図3(g)に関して記載された方法の1つまたはそれ以上を用いて、ユーザが所望のファイル名に対応するテキストを入力するための能力を提供するように構成されてもよい。いくつかの実施形態において、ユーザは、ファイル名を入力するためにキーボード、マウスまたはタッチインタフェースなどの従来の入力装置を用いてもよい。
この例はファイルシステムに特有のものであるが、同様のアプローチを、電子カタログ、ソーシャルプロファイル、検索結果、ウェブサイトなどの任意の種類の階層構造をナビゲートするために用いることができる。図6(g)は、例えば、3次元の電子カタログをナビゲートするための技術を表現している。ここで、装置600は、電子カタログ内のいくつかのカテゴリ612〜616の項目を行き来するために用いられる。この例によれば、いかなる時でもカテゴリ612〜616の1つが、1時点でユーザインタフェース602内に示される。ここでも、装置600の動きを、3次元のカタログのカテゴリを行き来するために用いることができる。例えば、図6(g)における矢印により定義された軸に沿って装置600を移動すると、購入または他の消費(例えば、レンタル、リース、ダウンロードなど)のためのそれぞれのカテゴリ612、614および616の項目を順次ユーザインタフェース602に表示する。
さらに別の例によれば、記載された実施形態は、2007年3月23日に出願された「項目比較および項目の表示を提供する方法およびシステム」(Method and System for Providing Item Comparison and for Displaying Items)と題する係属中の米国特許出願第11/690,422号明細書に記載されたように、回転式選択機構(例えば、カルーセルディスプレイ、カルーセル表示など)からの選択項目(例えば、製品、ファイル、ディレクトリ、ソーシャルプロファイルなど)を含むことができる。そのような実施形態において、ユーザは、選択機構にユーザにより選択可能な位置へ項目を回転するために、例えば、左または右に装置を傾けることができる。
さらに別の例によれば、記載された実施形態を、コンピュータベースの地図システムを通してナビゲートするために用いることができる。従来の地図システムは、地図における1つの場所から別の場所へパンし、詳細を見るため、または全体を見るためにズームインまたはズームアウトするために、ユーザから入力されるタッチスクリーン、キーボードまたはマウスを用いる。しかしながら、本明細書に記載されたアプローチを用いると、ユーザは、様々な方向に装置(またカメラ)を傾けることにより地図を横断してパンすることができる。さらに、ユーザは、装置をユーザに近づけるまたはユーザから遠ざけるように移動することにより、地図のさらなる詳細を明らかにするためにズームインまたはズームアウトすることができる。いくつかの実施形態において、ユーザから遠ざかるように装置を移動することによりズームインし、ユーザに向かって装置を移動することによりズームアウトする。他の実施形態において、ユーザに向かって装置を移動することによりズームインし、ユーザから遠ざかるように装置を移動することによりズームアウトする。いくつかの実施形態によれば、同様の画像情報がコンピュータベースの地図システムで利用可能であるとすると、ユーザは選択されたポイントのさらなる詳細な図へズームすることができる。ある事例では、建物の前面の画像を実際に見ることができ得、さらに、ユーザは、店などのような商業施設の窓を覗き込んで、店の内をナビゲートし、購入可能な在庫を見ることができ得る。同様に、ユーザは、ズームアウトして特定領域の鳥かん図を見るために、反対方向に装置を移動してもよい。
説明したように、装置の様々な動作は、入力を提供するために用いることができる。これらの動作は、画像取得エレメントにより取得された画像情報の解析により検出することができ、少なくともいくつかの実施形態において、配向検出エレメント210を利用することもできる。配向検出エレメントは、1つ以上の動体センサ、加速度計、レベルセンサ、全地球測位システム(GPS)受信器、コンパス、方位検出機構、コンピュータ装置の位置、配向および動きの少なくとも1つに関連するいくつかの種類を判定することができる他の適切な種類の装置、構成部分またはエレメントを含んでもよい。例えば、図7(a)は、3つの自由度に沿って(例えば、X軸、Y軸およびZ軸に沿って)動作を検出することができる装置700を図示している。この装置において、画像取得エレメントまたは配向検出エレメント210などのようなエレメントは、主として前方または後方、上または下、および/または横方向にある(およびそれらの組み合わせで)装置の動きを検出するために用いることができる。説明したように、装置を上下に移動することは、ユーザの頭をうなずかせるのと同じ機能を行なうことができるが、他の実施形態において、これらの行動は、異なる動作を行なう異なる入力として動作することができる。図7(b)は、回転運動を検出することができ、入力のために別の自由度をさらに提供する装置702を図示している。例えば、回転運動は、Z軸のまわりに左または右に装置702を傾けることを含むことができる。そのような動作は、装置を保持しながらユーザの手首を右または左に単純にひょいと動かすことにより、ユーザが入力を供給することを可能にしている。同様の入力は、電子ブックを読むなどの応用のために有用であり、ユーザは、次ページに移動するために装置を右に単純に傾けるまたはひょいと動かすことができ、または直前のページに戻るために装置を左に傾けることができる。しかしながら、同じ動作のために彼または彼女の頭を傾けるユーザがいくつかの実施形態における同様の入力を生成することができることは(そのアルゴリズムは、次ページに進むために彼または彼女の頭を右に傾けるユーザが、ユーザの頭を左に傾けるように実際には画像に表示される「ミラーリング」の影響を考慮に入れなければならないが)、理解されるべきである。
同様に、図7(c)は、前方または後方の回転を検出することができ、入力のための別の自由度をさらに提供する装置704の例を図示している。例えば、前方または後方への回転運動は、X軸にまわりにユーザに向かうまたは(から)遠ざかるように装置を傾けることを含むことができる。以上に説明したように、単なるカメラまたは画像取得エレメントを用いて前方および後方に傾けることと上下に移動することの間を区別するあることが、それぞれの画像における全般的な効果が取り込み画像においてユーザの顔が上下に移動することであるために、ある装置にとって困難であるので、同様の動作を検出するためのセンサは、いくつかの実施形態で有利になりえる。例えば、配向検出エレメントにより検出されるような装置の動きを組み合わせることにより、装置は、より容易にそのような動作を区別することができる。これは、別の自由度を可能にし、したがって装置のためにさらなる種類の入力を可能にする。同様の動きは、例えば、ページを上下に移動すること(または閲覧ツリーまたは閲覧階層のレベルで上下に移動すること)に役立つことができる。そのような動きは、項目を購入したいユーザが購入する項目の数を増加するために「上方」または「後方」に装置を傾けることができるように項目の量を増減するために役に立ち、項目の数または量を減少するために「下方」または「前方」に装置を傾けることができる。図7(d)は、Y軸のまわりの左または右回転を検出することができ、入力のために別の自由度をさらに提供する装置706の別の例をさらに図示している。上で説明したように、前方または後方に傾けることと上下に移動することとを画像取得エレメントだけを用いて区別することが、ある装置にとって困難であるので、同様の動作を検出するためのセンサは、いくつかの実施形態で有利になりえる。したがって、図7(a)〜図7(d)に関して記載された可能性のある動作の(および組み合わせの)各々を用いて、装置は、少なくとも6つの自由度における配向の変化を検出するように構成される。
説明したように、図7(a)〜図7(d)の動作は、インタフェースまたは装置のいくつかの態様を少なくとも制御するために単独でまたは他の動作、表現または入力と組み合わせて用いることができる。さらに、これらまたは他の動作の任意数および組み合わせは、入力のために所望のとおり用いることができる。複雑な動作も利用することができることは、理解されるべきである。例えば、電子メールにアクセスしたいと考えるユーザは、右へ装置を移動して、次に、装置を後方に傾けるなどの複雑な動作を行ない得る。または、装置上で閲覧されているエレクトロニクス市場のためのバーチャルショッピングカートにアクセスしたいと考えるユーザは、右へ装置を傾け、そして左に、そして右へ戻すように傾け得る。見て分かるように、可能性のある入力の数は無限で、主としてユーザが忘れないで行なうことが期待される実用的な動作の数により限定されている。
いくつかの装置は、加速度計または動作または配向を検出することができる他の同様のエレメントを含まなくてもよい。他の装置において、適切に任意の動作を判断するために可能な限り情報を解析することは望ましい場合がある。したがって、様々な実施形態によるシステムおよび方法は、相対的な動作、配向および/または位置を判定するために画像情報を解析することができるだけでなく、行なわれている動作をさらに厳正に判定するために、画像の様々な特徴の大きさ、形状および/または相対的な離隔距離などのような情報を解析することもまたできる。
例えば、図8(a)は、装置の画像取得エレメントにより取り込むことができる(例えば、取得された、画像取得されたなどの)ような、装置のユーザの顔800の画像を図示する。したがって、顔800は、装置の画像取得エレメントにより知覚されるものとして、示されている。見て分かるように、装置に対面する場合、知覚されるユーザの目の幅および高さ、知覚されるユーザの目の相対的な離隔距離、および知覚されるユーザの顔のエッジへのユーザの目の相対位置のような、配向され判定することができるユーザの顔の様々な態様がある。明らかなように、いくつかの他の同様の判定または態様のいずれをも、用いることができる。ユーザが装置を傾けるまたは平行移動する、または任意の方向に頭を動かす場合、取得される一連の画像のこれらの測定された態様の少なくとも1つにおける対応する変化がある。例えば、図8(b)のユーザの誇張された表示(それは装置を移動する、またはユーザが頭を傾けることからの結果として生じることができる)を考慮する。見て分かるように、ユーザの顔の端に対するユーザの目の水平位置(例えば、fに対してf’)が変化している。さらに、ユーザの目の形状または水平長(例えば、aに対してa’およびbに対してb’)、ならびに離隔距離(例えば、cに対してc’)変化している。そのような情報を用いると、装置は、一種の水平運動が生じたと判定することができる。その代りに、動作が図8(c)で図示されたような主として上下動である場合、ユーザの顔の端に対するユーザの目の垂直位置(例えば、gに対してg’)が変化している。さらに、ユーザの目の形状または垂直長の測定値(例えばeに対してe’)が変更されている。
したがって、装置により取り込まれた画像情報の解析により、(可能性としてユーザの顔を含む)ユーザに対する装置の相対的な動作または配向を、装置内に加速度計も他の同様の配向を検知するエレメントも存在しないとしても、検出され解釈することができる。しかし、そのような配向検出エレメントを含めることもでき、その上方が組み合わされ、装置および/またはユーザの動作をより厳正に判定。
図9は、1つの実施形態で用いることができる相対的な動作を通じた入力を判定する処理900の例を図示している。この処理において、本明細書に説明するものなどのようなアプローチを用いて、装置の顔認識モード(または同様のモード)を有効にする(902)。いくつかの事例においては、これは、スタートアップで自動的に始まり得る。また、他の事例においては、これは、最初にユーザによる起動要求を受け取ることを要求し得る。装置の画像取得エレメントは、エレメントの可視領域に対応する画像情報を取得し始める(904)。また、画像は、ユーザの少なくとも1つの所望の顔の特徴を見つけるために解析される(906)。ある場合には、この処理は、ユーザの目などのような特徴を見つけるために、1つ以上の画像または画像のストリームを解析することを必要とし得る。一旦ユーザの適切な顔の特徴が、容認できる程度の確実性の範囲内で見つけられると、それらの顔の特徴の様々な態様が判定される(908)。例えば、特徴がユーザの目を含んでいるならば、配向の変化を検出することができるように、アルゴリズムは、各々の目の寸法、離隔距離、顔に対する相対位置、鼻からの距離または他の同様の態様を判定することができる。他の実施形態において、これは、表情の変化を検出することができるように、ユーザの口の寸法などのような情報を含むことができる。判定された態様に基づいて、ユーザに対する装置の初期配向が判定される(910)。いくつかの実施形態において、装置は、初期較正中に装置に対面することをユーザに求める場合がある。ユーザ情報が格納されるような他の装置において、装置は、単一画像を取り込み、画像から判定された態様をユーザのために格納された態様情報と比較することにより、相対的な配向を判定するために情報を解析することができる。
一旦配向が判定されれば、画像情報は、顔の特徴を判定する態様における変化をモニタリングするために、継続的に(または少なくとも定期的に)解析することができる(912)。態様のいずれかにおける変化が検出されれば、判定された態様が解析され(914)、ユーザに対する装置の現在の配向が判定される(916)。例えば、変化したユーザの目の位置が検出されたならば、ユーザが装置を左または右に傾けたか否か、または頭を回転したか否かなどのような、相対的な配向を判定するために寸法と離隔距離などの様々な態様を解析するアルゴリズムを用いることができる。そして、新たな配向に対応する機能を行なうことができる(918)。例えば、ユーザが装置を右に傾けていれば、装置はディスプレイを右にスクロールしてもよい。ユーザが装置を上に傾けていれば、ディスプレイのカーソルをディスプレイ上で移動してもよい。他の適切な機能も、本明細書に説明されるように検出された動作または配向の変化に応じて行なうことができる。さらに加速度計などの配向検出エレメントからの方位情報を、配向または他の態様に関して判定を行うために用いることができる。
いくつかの実施形態において、任意の動作の検出量も入力として利用することができる。例えば、装置をわずかに傾けているユーザは、カーソルを、ゆっくりディスプレイを横断しながら移動してもよいし、一方で、装置を急角度で傾けているユーザは、カーソルを、迅速にディスプレイを横断しながら移動してもよい。しかしながら、特に片手で装置を持つ場合、ユーザが装置を完全静止して持つことができないかもしれないので、少なくとも機能を実行するために要求される動きの閾値(例えば、入力閾値)が存在してもよい。例えば、ユーザは、カーソルを移動する、またはディスプレイをスクロールまたは回転するために、装置を少なくとも5度傾けなければならない場合がある。その配向は、たとえば、装置のディスプレイの面が装置とユーザの目との間の閲覧方向と実質的に直交である場合が「基準」の配向となる等、相対的であり得る。装置の回転が検出される場合でさえ、(ユーザが腰掛けるまた横たわるような)対応するユーザの動きがあれば、「相対」配向が変化していないので、いかなる入力も認識されない可能性がある。いくつかの実施形態において、この「基準」の配向に対する動きのみが認識される。
様々なアプローチを、相対的な配向を判定するのに有用な様々な態様を判定するために、ユーザの顔の1つ以上の所望の特徴を見つけるために利用することができる。例えば、ユーザの頭が入力として用いられる場合、誤った解釈を与え得る人間の頭と類似する形態を有する多くの物体がある。さらに、「いいえ(否定)」とうなずくユーザは、動きを認識させるるだけ十分に頭の位置を実際に移動しない場合がある。したがって、様々なアプローチは、位置および動きの判定を支援するために、ユーザの目などのような特徴を利用する。例えば、ユーザの頭または顔の近似の位置およびサイズを判定するために、画像を解析することができる。図10(a)は、ユーザの頭または顔1000の近似の位置および領域が、判定され、当該判定をするために複数の画像解析アルゴリズムの1つを用いて位置の表示として仮想の「ボックス」1002が顔のまわりに配置された例を図示している。1つのアルゴリズムを用いて、仮想の「ボックス」がユーザの顔のまわりに配置され、相対的なユーザ位置をモニタリングするために、このボックスの位置および/またはサイズは、継続的に更新されモニタリングされる。同様のアルゴリズムを、ユーザの目(または、いくつかのケースでは、縦並びの目)の個々の近似の位置および領域1004を判定するために用いることもできる。ユーザの目の位置も判定することにより、ユーザの頭であると判定された画像が実際にユーザの頭を含む可能性が高くなり、ユーザが装置に対面していることを判定できるので、有利な条件を得ることができる。さらに、うなずくまたは頭を前後に揺さぶるなどの動作を実行する場合に、ユーザの頭の全体的な動きよりも、ユーザの目の相対的な動きの方がより容易に検出できる。
様々な他のアルゴリズムも、ユーザの顔の上の特徴の位置を判定するために用いることができる。例えば、図10(b)は、ユーザの顔の上の様々な特徴が識別され、画像内の点位置1006を割り当てられる例を図示している。したがって、システムは、ユーザの特徴の様々な態様を検出することができ、動きのような変化、または形状または表情変化を判定することができる。ユーザの口の端点および少なくとも1つの中央点のような、特徴に沿って様々なポイントを判定することができるので、当該アプローチは、ある状況における図10(a)の一般的アプローチに対して有利な点を与える。したがって、仮にユーザの口または顔の総合位置が移動しないが、微笑または渋面などのような表情を取り込むことはできる。
一旦ユーザの顔の特徴の位置が特定されると、ユーザと装置との間の相対的な動作を入力として検出し利用することができる。例えば、図10(c)は、画像取得エレメントの可視領域に対してユーザの頭1000が上下に移動している例を図示している。説明したように、これは、ユーザが首を振る、またはユーザが装置を上下に移動させることの結果である。図10(d)は、ユーザ、装置、または両方の動きを通じて、ユーザが装置に対して右または左に移動している類例を示している。見て分かるように、各々の動きは、垂直または水平運動としてそれぞれ追跡することができ、その各々は入力として別ように扱われ、指定された機能を実行することができる。一例において、モニタリングされた動きは、下、上、および横断して動作を追跡することにより、インタフェースディスプレイ上のカーソルの位置を制御するために用いられる。理解されるべきであるが、そのような処理は、さらに対角線にまたは他の同様の動きを検出することができる。図10(e)は、ユーザが、装置および/またはユーザの頭を傾け、目の位置の相対変化が回転として検出される例をさらに図示している。いくつかのシステムにおいて、目の相対位置に対応する「線」をモニタリングすることができ、この線の角度の変化を角度閾値と比較して、いつ回転が入力として解釈されるべきかを判定することができる。
図10(f)は、ユーザの顔の上の様々な特徴の位置を判定するために、図10(b)に関して記載されたようなアプローチを用いることの別の有利な点を図示している。この誇張された例において、第2のユーザの頭1008の特徴は、異なる相対位置および離隔距離を有することを見ることができる。したがって、装置は、ユーザの特徴の位置を判定することができるだけでなく、異なるユーザを区別することもできる。後に本明細書で論じられるように、これは装置が異なるユーザからの入力のために異なって実行することを可能にできる。さらに、装置は、例えば様々な特徴の離隔距離の量および比率に基づいて、装置にどれだけユーザが近づいているのかを検出するように構成することができ、装置に向かうおよび装置から離れる動きを検出することができる。これを、入力として受け入れることもでき、3次元(3D)ナビゲーションなどのような動作を行うために用いることもできる。
さらに、多くの実施形態が顔の特徴および/または頭の動きに関して記載されているが、装置が入力を提供するために有用な他の種類の動きを取り込み解析することができることを、理解されるべきである。例えば、ユーザは、手の位置を変化させる、または空中で「描く」ことにより、ディスプレイ上のカーソルを操作することができる。ユーザは、数「324」を入力するために、3本の指、次に2本の指、次に4本の指(恐らく、ある終了コマンドが続く)を挙げることなど、数を表わす入力を提供するためにいくつかの指を挙げることもできる。1つの実施形態において、ユーザは、入力を提供するために任意の識別可能な配向で任意の数の指を挙げることができ、いくつかの実施形態において、入力を提供するために表現したもの(例えば、文字、語または語句)を用いることができる。例えば、ユーザが品目を購入するために用紙に記入していて、送付先に記入する必要があれば、ユーザは、特定の指を掲げる、「自宅」を示すための動作をする、あるいは他の適切な動作をする、などの動作を実行することができる。それによって、装置は、ユーザのために格納された「自宅」の住所情報を用いて用紙に書き入れることを認識する。
入力のために用いられた複雑な動作が、顔の動きおよび装置動きの組み合わせになりえることは、さらに理解されるべきである。例えば、装置をシャットダウンしたいと考えるユーザは、右へ装置を傾け、次に、上下にうなずくなどの行動をしてもよい。入力として作用する行動のいくつかの組み合わせのいずれも、本明細書に含まれる教示および提案を考察する当業者にとって明らかであるに違いない。
図11は、ユーザに対して同様の装置上に表示することができるインタフェーススクリーン1100の例を図示している。この例で、エレクトロニクス市場を介して売られている品目に対する表示ページは、ユーザ装置上のウェブブラウザに表示されたウェブページを介してユーザに対して提供される。これは単なる例であり、いくつかのアプリケーションページ、ウェブページ、書類、ゲームスクリーンまたは他の同様の表示またはインタフェースのいずれかを、本明細書に記載した入力方法により用いることができることは、理解されるべきである。この例で、表示は、顔認識制御が動作中であること示すアイコン1102を含む。グラフィカルなアイコンがこの例で用いられるが、いくつかのアプローチのいずれも、顔制御モードおよび/または動作制御モードが動作中であることをユーザに対して示すために、様々な実施形態において用いることができる。ここで、顔認識制御モードが動作中である場合、アイコン1102はユーザに対して表示され、顔認識制御モードが動作中でない場合は隠されまたは(線を引くなどして)「削除」される。いくつかの実施形態において、アイコンは異なる状態を有する。例えば、モードが動作中である場合はアイコンが灰色で表示され、ユーザの顔が検出される場合は「緑色」に転じ、または微笑む、または他のいくつかの動作を行う。装置上のアカウントまたは情報をもつ複数ユーザがいる場合、顔認識アイコンは、現在のユーザに対応する色に変わってもよいし、または現在のユーザに対応する画像を表示することができ、装置を見ているユーザを装置が区別することができることを示す。このように、装置上のディスプレイを見るユーザは、顔認識モードが動作中であることだけでなく、入力動作が適切に認識されるように、装置が現在ユーザの顔および/または身元を検出していることを知ることができる。説明したように、入力検出システムは、ユーザが、入力スイッチの選択を行う、音声コマンドを用いる、ユーザが選択可能なディスプレイまたはインタフェースのエレメントを選択する、または装置の画像取得エレメントにより検出することができる視覚キューを提供することなどにより、任意の適切な入力装置を用いて使用可能および/または動作中にすることができる。
この表示において、表示されている品目を購入するためのオプションをユーザが選択することができることがわかる。いくつかの装置において、ユーザは、表示上で品目に触れる、またはキーパッドまたは他の同様のエントリ機構を介して選択を入力することなどによる、従来のアプローチを用いて、品目を購入する要求を示すオプションを有し得る。顔認識モードなどのようなモードが動作中で、ユーザの顔が検出される場合、ユーザは、ユーザの頭を上下にうなずくなどの動作を行うことにより、品目を購入する要求を示すオプションを有することができる。アプリケーション、ユーザの好みまたは他の同様の情報によって、ユーザが、支払いまたは出荷情報などを入力するような他の動作を行う必要がないように、市場は単純にうなずきを介して購入を受け入れてもよい。いくつかの実施形態において、確認パネル1104または他の同様の表示エレメントには、ユーザは品目を購入するつもりだったか否かを確認するためにユーザに求めることを表示することもできる。任意のそのような顔のまたは動作の入力を確認するために、同様の表示エレメントを用いることができることは、理解されるべきである。確認エレメントは、顔のまたは装置の動作を介してユーザが確認することができることを示す顔のアイコンのような別のアイコン1106も含むことができる。いくつかの実施形態において、このアイコンは、第1に、購入を確認するためにユーザが上下にうなずくべきことを表示するために微笑みながら上下にうなずくことをアニメーション化してもよいし、ユーザが購入を取り消すための動作「いいえ(否定)」として頭をふるべきことを表示するためにしかめ面をしながら頭を左右にふることをアニメーション化してもよい。他の適切な行動も表示することができるし、または確認などをするために用いることもできる。ユーザが確認するために「はい」とうなずけば、インタフェースは、購入を受け入れることができ、取引の確認を、そのような機能の実行で当該技術分野における知られているいくつかのアプローチのいずれかを用いて行うことができる。説明したように、そのような入力アプローチを、そのような目的に対するユーザー入力を受け入れる任意の適切なアプリケーションや処理などのために用いることができる。
いくつかの実施形態において、確認処理は、顔認識、網膜の走査またはユーザの身元を確認することができる他の同様の処理などのバイオメトリック情報を解析するために、取得された画像情報を利用する。他の実施形態において、ユーザは、購入などの行動を確認するために、ユーザにより実行さるべき一連の動作などの、動作に基づいた「パスワード」を生成することができる。例えば、ユーザは、3回上下にうなずき、それに続いて、微笑しおよび2つの眉を上げること、またはそのユーザに関連づけられる動作および/または行動の他の適切な組み合わせにより、パスワードをセットすることができる。
ユーザは、確認、または同様のパネルまたはエレメントが表示されるか否かに関係なく他の種類のフィードバックも行なうことができる。例えば、検索照会を発行するユーザは、いくつかの検索結果を受け取ることができる。ユーザには、現在表示された検索結果に所望の結果が含まれていないことを示すための「いいえ」動作として、ユーザの頭を左右にふることなど、フィードバック(例えば、入力)を行なうことができる。同様に、ユーザがエレクトロニクス市場を用いて買い物をしている例において、ユーザは、表示された項目がユーザに対して関心がある場合に微笑を作り、同様の項目を表示するなどの行動を生じることができ、その一方、渋面が好ましくない結果を示すことができることなどにより入力を提供することができ。そのような入力は、ユーザのために格納および/または追跡され、ユーザが関心を有する可能性のある品目の示唆または推奨などの目的のために用いられることができる。
少なくともこれらの機構のいくつかを利用して、図12(a)は、ユーザからの顔認識に基づいた入力を受け入れるための1つの実施形態による処理1200の例を図示する。この処理において、顔認識モードは、本明細書に説明されたものなどのアプローチを用いて、動作中となる(1202)。装置の画像取得エレメントは、エレメントの可視領域の画像を取り込み始め(1204)、ユーザの所望の顔の特徴を見つけるために画像が解析される(1206)。ある場合には、この処理は、ユーザの目などの特徴を見つけるために画像のストリームを解析すること、および判定位置が一定の期間中に比較的一貫していること要求し得る。この初期位置づけ処理は、一定の期間中に比較的に静かに動かないでいることをユーザに要求し得る。一旦ユーザの顔の特徴が一組の連続画像上の画像または2秒間の画像の間で10%以上位置が変化することがないなどの容認できる程度の確実性の範囲内にあれば、顔の特徴が判定されており、ユーザが所望の顔の動作を用いて装置を制御することができることを、ユーザに伝えるための表示を生成することができる(1208)。説明したように、特徴が動作中で入力の準備ができている旨をアイコンまたは他の可視表示で表示することを含むことができるが、他の実施形態において、特徴が動作中で準備ができていることを確認する「ビープ音」または他の信号音などの可聴信号の形式をとることができる。明らかなように、当該の可視または可聴アプローチは、もはやユーザの顔を検出することができない、または特徴が何らかの理由で利用不可能な場合に、ユーザに通知するために用いることができる。一旦、特徴が動作中になれば、取り込み画像内のユーザの顔の特徴の位置を、継続的に(または少なくとも定期的に)モニタリングすることができる(1210)。装置は、動きが入力として認識されるのに必要な動作の量を指定する少なくとも1つの種類の閾値のセットを有することができる。例えば、モニタを見るユーザは、恐らく、見られているスクリーンの領域に依存して頭を移動するであろう。例えば、幅1.5フィートであるモニタから2.5フィート離れたところに座るユーザは、(単にディスプレイの端を見ているのではなく)入力として認識する前にいずれかの方向に20度超で頭をふらなければならない可能性がある。そのような大きな動作に対する必要性を避けるために、装置は、その代りに(または追加的に)動きの速度を判定することができる。例えば、ユーザは、読むまたは閲覧する場合、1秒でスクリーンのエッジの方へ首をふり得るが、所望の入力を示すために1秒で首を右左双方に揺さぶることができ得る。したがって、アルゴリズムは、動作の範囲のみではなく、その動作が生じる速度を考慮に入れることができる。後に本明細書で論じられるように、特定の装置、ユーザの好みなどのために、そのような設定をユーザが調整することができる。
画像が取り込まれると、動作の閾値のいずれかを満たすまたは超えるか否かを判定するために、各画像(または他の画像ごと、など)を解析することができる(1212)。例えば、顔の位置データは、各々の画像ごとに判定することができ、動きが所与の閾値を満たすまたは超えるかどうかを判定するために、いくつかの前画像と比較することができる。当該データの所定量は、ローカルメモリに保持するか、または容易なアクセスおよび迅速な解析のためにキャッシュに入れることができる。アルゴリズムを、上下方向の第1の動き閾値、左右方向の第2の閾値および回転方向の第3の閾値などを解析することに用いることができる。位置データのどれも閾値を満たさず超えることもないならば、モニタリングする処理は単に継続される。動きの少なくとも1つがそれぞれの閾値を満たすまたは超える場合、対応する動作がその入力のために決定され(1214)、その行動が実行される(1216)。その動作がさらに、確認行動などの別のユーザからの入力を要求できることは、理解されるべきである。動作が処理を終了するものであるか、装置の電源を切るか、またはそれ以外にモニタリングを終了するものであるならば(1218)、処理は終了する(1220)。そうでなければ、ユーザ装置のためのモニタリングが継続される。
いくつかの実施形態において、コンピュータ装置は、コンピュータ装置が移動したか否かを判定するために配向検出エレメント210を用いる。コンピュータ装置が移動したことを判定した場合、コンピュータ装置は、判定を用いて、画像取得エレメント208を用いて、ユーザの別の画像の取り込みを引き起こすことができる。そして、この後続の画像は、装置に対するユーザの相対的位置の変化を判定するために用いることができる。いくつかの実施形態において、画像化情報は、配向検出エレメントにより収集された情報と組み合わされる。
いくつかの実施形態において、アルゴリズムおよび/または処理は、受け取った入力に対する、少なくとも1つの学習態様を利用することができる。例えば、ユーザが入力に対して動作または表情を割り当てる場合、装置は、装置が入力を適切に検出するおよび/または解釈することができることを保証するために、ユーザにその動作を行うおよび/または繰り返すように求めることができる。別の例で、装置が適切に解釈することができない動作が検出された場合、動作を解釈しようと試みて、ユーザは、動作を再び(より明確に)実行するように求められ得る。装置がそれでもなお動作を解釈することができない場合、装置は、ユーザが提供しようとしている入力を選択してくれるようにユーザに求め、かつユーザがどのようにしてその動作を実行するかを装置が記録または「学習」できるように対応する動作を実行するようにユーザに求めることができる。別の例で、装置は、ユーザがどのようにして動作を実行するのかを経時的に「学習」することができる。例えば、ユーザがコンピュータにより適切に検出される動作をするが、実行された動作が検出閾値の端に近い場合、装置は、装置がより良くその特定のユーザの入力を解釈できるように、その動作に対する閾値を調整するか、その動作に対応する情報を更新することができる。
図12(b)は、顔の特徴認識に加えて、少なくとも1つの動作検出エレメントまたは配向検出エレメントをさらに利用する処理1250の例を図示している。この例は、モードを有効にするなどの様々な上述のステップを含まないが、そのようなステップが、この処理および他の処理にさらに適用することができることは理解されるべきである。さらに、ステップの順序および選択は、異なる実施形態で変更することができる。この処理において、ユーザの特徴の画像が取り込まれ解析される(1252)。装置の配向、動きおよび加速のうちの少なくとも1つについての情報が、本明細書で説明された少なくとも1つの適切なエレメントを用いて検出される(1254)。画像閾値のうちいずれかが満たされる、あるいは超えるか否かを判定するために、各画像をモニタリング(例えば、解析して前画像位置情報と比較)する(1256)。動作または配向の閾値のうちいずれかが満たされるか超えるか否かを判定するために、装置の位置、加速および/または動きについてもモニタリングする(1258)。ある場合では、複雑な動作または複数の種類のデータが入力の判断のために必要とされる場合、情報を合わせて解析してもよい。閾値のどれもが満たされず超えていない場合(1260)、モニタリングを継続する。少なくとも1つの閾値が満たされるか超える場合、対応するデータが必要か否かを判定することができる(1262)。例えば、顔の特徴が閾値で上下に移動したことが検出された、装置を上下に移動し、装置を回転することにより閾値が満たされたのか、または装置が比較的静止している間に生じたのかを判定するために、配向情報を解析することも必要となり得る。そうであるならば、対応するデータを、解析して、閾値を満たしたまたは超えたデータと組み合わせる(1264)。そのデータを用いて、適切な行動または機能をそれぞれの入力に関して決定し(1266)、その動作または機能を行なうまたは実行する(1268)。上で説明したように、モニタリング処理を終了する入力または動作などを受け取るまで、処理を継続することができる。
図12(b)に関して記載されたような処理は、小さな携帯型装置などの装置にとって特に有利になりうるが、携帯型でないデスクトップコンピュータなどの装置も、場合によっては利益を得ることができる。いくつかの実施形態において、以上に記載されたものとわずかに異なるアプローチが、より有利となり得る。例えば、ユーザが装置を手で持っている場合、ハンドヘルド装置の性質による不注意な動きのために、ある補正が必要となり得る。例えば、ユーザは、入力に関して何らの意図もなく装置を規則的に少し移動させ得る。当該技術分野におけて知られているように、そのような動きは動作調整アルゴリズムにより対処することができるが、それでもなお考慮に入れ得る、あるレベルの不確実性を招く。したがって、入力のために小さな動きを厳正に認識し追跡することは困難であり得る。さらに、携帯型装置には、一般にデスクトップコンピュータまたは他の同様の装置のような解像度や処理能力がない。したがって、様々な実施形態によるアプローチは、ユーザのために制御オプションをさらに供給するこの付加的な能力および性能を利用することができる。
図13に示されるように、ユーザは、一般に位置が固定されているデスクトップコンピュータ1302およびカメラ1304を利用し得る。したがって、主に固定されているシステム1300に加速度計または他の同様の配向検出エレメントを含むことはあまり有用ではない可能性がある。このような固定システムを操作する場合ユーザが典型的に座っているので、一般に、携帯型装置の場合よりも、意図しないまたは意味のない位置の変化が少ない。さらに、このような装置のカメラ1304は、より高い解像度であり得、携帯型装置内の画像取得エレメントより高い取り込み周波数で動作することができる。したがって、そのようなシステムでは、ユーザの微妙な動きを検出することが可能であり、それによって、ユーザの動作または表情を介してさらなる種類の入力を可能にすることができる。例えば、図13に見られるように、カメラは、ユーザ1306の目および頭の位置を検出することができるだけでなく、多数のユーザの口に沿った位置を確認こともできる。ユーザの様々な他の特徴も識別することができる。特徴に対応する複数点を判定することができるので、単純な位置の単一の推定の代わりに、ユーザは、位置的な手段だけでなく表情または他の同様の動きを通じても入力を提供することができる。
例えば、図14(a)の誇張された例証に見られるように、ユーザ1400が微笑む時、ユーザの口に沿った検出ポイント1402は、(取り込み画像において)ユーザの口の中心部よりも顕著に高い端点を含むであろう。図14(b)に示されるように、同じユーザ1400が渋面をする時、中心部はユーザの口の端点より高くなる。人の口が一般にこのような単純運動では移動しないが、特徴の位置が変化し得ることは理解され、これらの位置は、捕捉することができ、入力として用いることができる。例えば、ユーザは、眉を上げる、または2度まばたきすることができ得、それらを入力として取り込むことができる。ユーザは、口である種の形状を形作ることもでき、それらは入力として取り込むことができる。明らかなように、意図された入力として取り込む、判定するおよび/または認識することができる、いかなる動作または表情も、当該アプローチで用いることができる。
さらに、1つの実施形態によるアプローチは、ユーザの目追跡することもできる。例えば、図15(a)は、ユーザの目1500の位置を判定するために画像が取り込まれ解析される例を図示している。アルゴリズムがユーザの瞳を区別することができるシステムにおいて、システムは、目の位置に対する瞳の相対位置を利用することもできる。例えば、図15(b)は、ユーザが「下方」を見ている場合を図示している。見て分かるように、瞳の位置は、目の中央点の下に移動している。同様に、図15(c)は、各々のユーザの瞳の中央点がそれぞれの目の中央点の(画像内における)左側の方にあるように、ユーザが「左」(または、ユーザに対して「右」)を見ている場合を図示している。1つの実施形態によるシステムは、検出されたユーザの目に対するユーザの瞳の位置、したがってユーザが見ていると判定されたディスプレイ上の領域にしたがって、コンピュータ装置のディスプレイを調整することにより、当該情報を利用することができる。システムは、ユーザが長時間にわたって目を閉ざすなどの動きを検出することもでき、装置は電子ブックリーダーを「スリープ」または電源制限モードにする、画像取り込みを作動しないようにする、または装置の電源を切るなどの動作を行うことができる。
1つの実施形態において、ユーザは、各々の角などのスクリーン上のいくつかの標的の各々を見ることにより装置を較正し、それによって、装置は、ディスプレイ上の異なる位置に対して、ユーザの目の瞳の相対位置を検出することができる。したがって、ユーザがディスプレイのある部分の方へ目を向けときに、装置は、それにしたがって動作することができる。例えば、ユーザが電子ブックを読んでいる場合、ユーザが現在のページの最下段に達した時、装置は、自動的にページをスクロールアップすることができる、または次ページを開くことができる。別の例で、ユーザは、ディスプレイ上のいくつかの要素から、単純にその要素を見ることにより、選択することができる。例えば、ユーザは、検索照会を発行し、検索結果のリストを受け取り得る。ユーザは、その結果を見ることができ、結果の1つがそのユーザにとって興味のあるものである場合、ユーザは、その項目を見ながら入力を発行することができる。例えば、ユーザは、リスト上の4番目の項目を見て、2度まばたきする、または「開く」という言葉を話すなどの動作を行うことができ、装置は、ユーザが見ている要素に対応する文書を開くことを決定することができる。特定の関心分野を見ているユーザは、その分野および周りの分野に(何回でも)、特定の関心分野が特定されるまで、ディスプレイをズームインさせることもできる。ある場合には、ユーザは、ディスプレイ上の1つの位置を見て、「ズーム」と言うこと、または前方にうなずくことなどの検知できる動作を実行してもよい。別の例で、表示できる複数のレベルがある場合、または複数の「ズーム」レベルがある場合、ユーザが十分な時間見ていれさえすれば、表示は、ユーザがどこを見ているかによって、自動的にズームインまたはズームアウトすることができる。例えば、ユーザが地図を見ており、特定の州を見ている場合、数秒後、表示は、特にその州(ことによると周囲の州)を示すためにズームインし得る。ズームインしている間にユーザが別の州に対して目を向ける場合、表示は、その州に移るか、またはズームアウトすることができ、それによってユーザが別の州を選択することができる。表示には、ズームコマンドに対応するアイコンまたは要素もあってもよく、ズームインしたいユーザは、「ズームイン」要素を見ることができ、またユーザがズームしたい特定領域を見てもよい。ディスプレイは、これらの入力を得て、所望の位置でズームすることができる。
図16は、図15(a)〜図15(c)に関して上で記載されたアプローチとともに用いることができるディスプレイ1600の例を図示する。説明したように、アプローチは、ユーザが見ているスクリーン上の位置を判定することができる。この表示において、ユーザが見ている検出位置に対応する動く目などのアイコン1602を表示することができる。ユーザは典型的に何がその位置にあるのかを見たいので、アイコンは、いくつかのアプローチのいずれかにも用いて表示することができる。第1のアプローチにおいて、アイコンは、アイコンの位置を知りながらアイコンの背後に何があるのかをユーザが見ることを可能にする非常にかすかなアイコンである。別の実施形態において、アイコンは、ユーザがディスプレイの一番上を見上げるなどの迅速な瞳の動きを実行するときにのみ目に見え、ユーザがテキストを読んでいるときなどの遅い動きの間は表示されない。別の例で、ユーザが選択可能な要素を見ているときのみ、アイコンは表示される。例えば、ユーザがテキスト1604の領域を見ていることを判定した場合アイコンは表示されないかもしれないが、ユーザが選択可能なエレメント1606を見ているときのみ表示され得る。したがって、表示ページ上の品目を閲覧するユーザは、品目のための情報を見ている時、アイコンを見ないかもしれないが、ユーザが「いますぐ買う」または同様のボタンをユーザが見ている場合、ある行動をすれば何が起こるのかをユーザが知るように、アイコンが見え得る。このようなアイコンは、ページ上に複数の選択可能な要素があり、ユーザが、視覚的な入力を提供した時、どの要素が選択され、どのような動作がなされるのかをはっきりさせたい場合に有用であり得る。例えば、ユーザは「選択」コマンドとして2度まばたきし得るが、まばたきが適切なエレメントを選択することをユーザが知るように、ユーザが見ている場所に対応するようにアイコンが出現することが望ましい。
入力のために用いられる異なる表情または動きが任意の数存在し、用いられる好ましい表情に関してユーザが異なる好みをもつので、1つの実施形態によるアプリケーションは、どの動作がある種の入力に対応するのかをユーザが選択するまたは指定することを可能にすることができる。例えば、図17は、ユーザが各種入力のために用いられる動作を指定することを可能にするために、ユーザに提示することができるディスプレイ1700の例を図示している。この例で、「同意する」「同意しない」「スクロール」などのいくつかの入力例1702を示している。これらの各々のために、各々の行動のために用いる表情または相対的な動きをユーザが選択することを可能にするために、ドロップダウンリストが提供される。これらの選択および機構は、単なる例であり、多くの行動のいずれも、多くのユーザーが選択可能なエレメントのいずれを用いて指定することができることは、理解されるべきである。動作が対応する動きを有することをユーザが望まない場合、ユーザは、動作を空白のままにしておくこと、「なし」などのオプション、または他の適切な動作を選択することができる。図示したように、ユーザは、ここでスライダーバーを調整することにより、動作の感度を調整するオプション1704を有し得る。このようなアプローチは、ユーザが入力を判定するための閾値を効果的に調整することを可能にする。総合感度または同様の制御が可能であり、または、特定の動作のための特定の設定が可能である。いくつかの実施形態において、ユーザは、システムが、より適切な検出を保証することができるように、各々の動作を(例えば、システムの要求で動作を行うことにより)較正する。感度または類似の調整は、ユーザがカメラからどれくらい遠くに座るか、ユーザがどの程度の表情をしているか、ユーザの大きさなどの様々な要因について支援することができる。さらに、ユーザは、異なる装置を用いる可能性があり、設定は、各々の装置に対して異なる必要があり得る(例えば、PDAのための有効距離は、典型的には、デスクトップコンピュータの有効距離とは異なる)。このようなスクリーンは、ユーザが、装置の移動、表情、頭の動きなどの動作の組み合わせを指定することを可能にする。ユーザは、様々な実施形態において、新たな動作、動きおよび/または組み合わせを指定する(例えば、定義する)こともできる。これらはインタフェースにとって知られている「マクロ」と類似したものであり得、ユーザは、一連の動きまたは表情を定義して、1つ以上の入力または動作に対応させることができる。見て分かるように、このインタフェースは、ユーザが動作入力を起動するまたは無効にすることも可能にするが、装置上のボタンを押すまたは音声認識を用いることなどの他の入力アプローチを同様に用いることもできる。
さらに、異なるユーザを同じ装置上で設定することができ、各ユーザは異なる入力およびオプションを選択することができる。上に記載されたような1つの実施形態において、装置は、装置が相対的なユーザを区別することができるように、顔の特徴の関係を示す位置を判定することができる。したがって、第1のユーザが装置に対して動作を実行する場合、装置は第1の入力としてその動作を解釈することができる。また、第2のユーザが同じ動作を実行する場合、装置は第2のユーザを認識し、自動的に第2の入力として動作を解釈することができる。このようなアプローチは、複数ユーザを同じ装置上で設定することを可能にし、システムは、様々なユーザ間を認識し区別することができる。したがって、例えば、ユーザは、ページを見て単に顔の動きを実行することにより品目を購入することができる。また、システムは、ユーザによる単一の行動がそのユーザのためのその品目の購入に帰着するように、ユーザと行動とを認識するために設定することができる。
説明したように、様々なアプローチを、様々なアプリケーションのための様々な環境で実行することができる。例えば、図18は、様々な実施形態による態様を実行するための環境1800の例を図示している。理解されるように、ウェブベースの環境が説明の目的のために用いられるが、異なる環境が、様々な実施形態を実行するために必要に応じて用いられてもよい。図示された環境1800は、試験または開発部分(またはサイド)および生産部分の双方を含む。生産部分は、電子クライアント装置1802を含み、それは適切なネットワーク1804上で要求、メッセージまたは情報を送受信し、装置のユーザに情報を伝え戻すことができるように動作可能な任意の適切な装置を含む。そのようなクライアント装置の例は、パーソナルコンピュータ、携帯電話、携帯型の通報装置、ラップトップコンピュータ、セットトップボックス、携帯情報端末、電子ブックリーダーなどが含まれる。ネットワークは、イントラネット、インターネット、セルラーネットワーク、ローカルエリアネットワークまたは他の同様のネットワーク、またはそれらの組み合わせを含む任意の適切なネットワークを含むことができる。そのようなシステムのために用いられる構成部分は、選択されたネットワークおよび/または環境の種類に少なくとも部分的に依存し得る。そのようなネットワークを介して通信するためのプロトコルおよび構成部分は、よく知られており、本明細書では詳細に説明しない。ネットワーク上の通信は、有線または無線接続、またはそれらの組み合わせにより、使用可能にできる。この例では、環境が、要求を受け取り、それに応答してコンテンツを提供するためにウェブサーバ1806を含むのでネットワークはインターネットを含むが、当業者に明らかであるように、他のネットワークのために、同様の目的を果たす代替デバイスを用いることができ得る。
例示した環境は、少なくとも1つのアプリケーションサーバ1808およびデータ記憶装置1810を含む。つながれてもよいしそうでなければ設定されてもよい、適切なデータ記憶装置からデータを取得するなどのタスクを実行するために相互にやりとりすることができる、いくつかのアプリケーションサーバ、アプリケーション層または他の要素、処理、または構成部分が存在できることは、理解されるべきである。本明細書で用いられる、「データストア」という用語は、データを格納し、アクセスし、読み出すことができる任意の装置または装置の組み合わせを表し、任意の標準規格で、分散され、またはクラスター化された環境において、任意の組み合わせおよびいくつかのデータサーバ、データベース、データストレージ装置およびデータストレージ媒体を含み得る。アプリケーションサーバは、アプリケーションのための大半のデータアクセスおよびビジネスロジックを処理する、クライアント装置のための1つ以上のアプリケーションの態様を実行するために必要とされるようなデータストアを組み込むための任意の適切なハードウェアおよびソフトウェアを含むことができる。アプリケーションサーバは、データストアと協動してアクセスコントロールサービスを提供し、ユーザに転送されるテキスト、グラフィックス、音声および/または映像などのコンテンツ(この例ではHTML、XMLまたは別の適切な構造化言語の形式でウェブサーバによりユーザに供給され得る)を生成することができる。すべての要求および応答の処理、ならびにクライアント装置1802とアプリケーションサーバ1808との間のコンテンツの配信をウェブサーバにより処理することができる。本明細書で説明した構造化されたコードが任意の適切な装置または本明細書の他のところで説明されたようなホストマシン上で実行することができるので、ウェブサーバおよびアプリケーションサーバは必須でなく、構成部分の単なる例であることは、理解されるべきである。さらに、環境は、ユーザまたはアプリケーションが申し込むサービスとして試験自動化フレームワークを提供することができるような方法で設計することができる。試験自動化フレームワークは、本明細書で説明したような様々な試験パターンの任意の実装形態として提供することができるが、本明細書で説明または示唆したように、様々な他の実装形態も用いることができる。
環境は、試験および/または開発サイドを含み、それは、開発者、データ管理者または試験者などのユーザが、システムにアクセスすることを可能にするユーザ装置1818を含む。ユーザ装置1818は、クライアント装置1802に関して上に記載されたような、任意の適切な装置または機器であり得る。環境は、開発サーバ1820も含み、それは、例えば、アプリケーションサーバ1808と同様に機能するが、典型的には、例えば、コードが生産サイドで展開されて実行され、外部利用者にアクセス可能になる前に、開発および試験の間のコードを実行する。いくつかの実施形態において、アプリケーションサーバは開発サーバとして機能することができ、個別の生産ストレージおよび試験ストレージを用いなくてもよい。
データストア1810は、特定の態様に関連するデータを格納するための、いくつかの個別のデータテーブル、データベースまたは他のデータストレージ機構および媒体を含むことができる。例えば、図示されたデータストアは、生産サイドのためのコンテンツを提供するために用いることができる、生産データ1812およびユーザ情報1816を格納するための機構を含む。データストアは、試験サイドのためにユーザ情報と共に用いることができる試験データ1814を格納するための機構も含むように図示されている。ページイメージ情報およびアクセス権情報などのためにデータストアに格納する必要があり得る他の多くの態様が存在し得、それは、必要に応じて、上で列挙された機構またはデータストア1810内の付加機構のいずれかで格納することができることは、理解されるべきである。データストア1810は、それに関連した論理を通して、アプリケーションサーバ1808または開発サーバ1820からの命令を受け取り、それに応答してデータを取得、更新またはそうでなければ処理するように動作可能である。一例において、ユーザは、ある種類の品目のための検索要求を発行し得る。この場合には、データストアは、ユーザの身元を確認するためにユーザ情報をアクセスし得、その種類の品目に関して情報を取得するためにカタログ詳細情報にアクセスすることができる。そして、ユーザがユーザ装置1802上のブラウザを介して見ることができるウェブページ上の結果リストにおいてなどで、情報をユーザに戻すことができる。関心の特定の品目のための情報は、ブラウザの専用ページまたはウィンドウ内で見ることができる。
各サーバは、典型的にはそのサーバの全般的な管理および動作のために実行可能プログラム命令を提供するオペレーティングシステムを含み、典型的にはサーバが、サーバのプロセッサにより実行された時、その意図する機能を実行することを可能にする命令を格納するコンピュータ読み取り可能な媒体を含む。オペレーティングシステムのための適切な実装形態およびサーバの全般的な機能は、知られているか、または市販で入手可能であり、特に本明細書の開示の観点から、当該技術分野における通常の当業者により容易に実施される。
1つの実施形態における環境は、1つ以上のコンピュータネットワークまたは直接接続を用いて、通信リンクを介して相互に連結するいくつかのコンピュータシステムおよび構成部分を利用する分散コンピューティング環境である。しかしながら、図18で示されるよりも少数または多数の構成部分を有するシステムと同様のシステムが同じように十分に操作することができることは、当業者には十分に理解されるであろう。したがって、図18のシステム1800の描写は、性質上例示であり、明細書の開示の範囲内に限定されないこととしてとられるべきである。
様々な実施形態は、さらに、様々なオペレーティング環境において実行することができる、あるケースで、いくつかのアプリケーションのいずれかを作動させるために用いることができる1つ以上のユーザコンピュータ、コンピュータ装置または制御演算装置を含むことができる。ユーザ装置またはクライアント装置は、標準オペレーティングシステムを実行するデスクトップコンピュータまたはラップトップコンピュータなどのいくつかの汎用パーソナルコンピュータ、ならびにモバイルソフトウェアを実行し、いくつかのネットワーキングおよびメッセージングプロトコルに対応することができる携帯電話装置、無線装置、およびハンドヘルド装置のいずれをも含めることができる。このようなシステムは、様々な市販で入手可能なオペレーティングシステム、および開発とデータベース管理などの目的のための他の既知のアプリケーションのいずれかを実行するいくつかのワークステーションを含むこともできる。これらの装置は、ダミー端子部、シンクライアント、ゲームシステム、およびネットワークを介して通信することができる他の装置などの他の電子装置を含むこともできる。
ほとんどの実施形態は、TCP/IP、OSI、FTP、UPnP、NFS、CIFSおよびAppleTalkなどの様々な市販で入手可能なプロトコルのいずれかを用いて、通信をサポートするための当業者によく知られている少なくとも1つのネットワークを利用する。ネットワークは、例えば、ローカルエリアネットワーク、広域ネットワーク、仮想プライベートネットワーク、インターネット、イントラネット、エクストラネット、公衆交換電話網、赤外線ネットワーク、ワイヤレスネットワークおよびそれらの任意の組み合わせからなりえる。
ウェブサーバを利用する実施形態において、ウェブサーバは、HTTPサーバ、FTPサーバ、CGIサーバ、データサーバ、Javaサーバおよびビジネスアプリケーションサーバを含む、様々なサーバまたは中間層アプリケーションのいずれかを実行することができる。サーバは、Java(登録商標)、C、C#またはC++などの任意のプログラミング言語またはパール、パイソンまたはTCLなどの任意のスクリプト言語と、それらの組み合わせで書かれた1つ以上のスクリプトまたはプログラムとして実行できる1つ以上のWebアプリケーションを実行することなどによりユーザ装置からの要求に応答してプログラムまたはスクリプトを実行することができ得る。サーバは、Oracle(登録商標)、Microsoft(登録商標)、Sybase(登録商標)およびIBM(登録商標)から市販で入手可能なものを限定なしで含むデータベースサーバを含んでもよい。
環境は、以上に説明されたような、様々なデータストアや他のメモリ、および記憶媒体を含むことができる。これらは、コンピュータの1つ以上に対してローカル(および/または常駐)の、またはネットワークを介したコンピュータのいずれかまたはすべてから遠隔の記憶媒体上などの様々な場所に存在することができる。特定の組の実施形態において、情報は、当業者によく知られている記憶域ネットワーク(「SAN」)に存在してもよい。同様に、コンピュータ、サーバまたは他のネットワーク装置に備わっている機能を実行するための任意の必要なファイルも、必要に応じてローカルにおよび/またはリモートで格納されてもよい。システムがコンピュータ化された装置を含んでいる場合には、当該各装置は、バスを介して電気的に結合され得るハードウェア構成要素を含むことができる。ハードウェア構成要素は、例えば、少なくとも1つの中央処理装置(CPU)、少なくとも1つの入力装置(例えば、マウス、キーボード、コントローラ、タッチスクリーンまたはキーパッド)および少なくとも1つの出力装置(例えば、表示装置、プリンタまたはスピーカ)を含む。このようなシステムは、ディスクドライブ、光記憶装置、およびランダムアクセスメモリ(「RAM」)または読み取り専用メモリ(「ROM」)などの固体記憶装置、ならびに取り外し可能メディア装置、メモリーカード、フラッシュカードなどの1つ以上の記憶装置をも含んでもよい。
このような装置は、コンピュータ読み取り可能な記憶媒体リーダー、通信装置{(例えば、モデム、(無線または有線の)ネットワークカード、赤外線通信装置、など)および上に記載されたようなワーキングメモリを含むこともできる。コンピュータ読み取り可能な記憶媒体リーダーは、リモートの、ローカルの、固定のおよび/または取り外し可能ストレージ装置を示すコンピュータ読み取り可能な記憶媒体、ならびに一時的におよび/または永続的にコンピュータ読み取り可能の情報を含み、格納し、伝送し、読み出ための記憶媒体に接続されるまたは受信するように構成することができる。システムおよび各種機器は、典型的には、少なくとも1つのワーキングメモリ装置内に位置するいくつかのソフトウェアアプリケーション、モジュール、サービス、または(クライアントアプリケーションまたは他の構成要素を含み、それらは、オペレーティングシステムおよびウェブブラウザなどのアプリケーションプログラムを含む。代替の実施形態は、上に記載されたものからの多数の変形を有してもよいことは、十分に理解されるべきである。例えば、特別仕様のハードウェアもまた用いられてもよく、および/または、特定の構成要素はハードウェア、(アプレットなどの高移植性ソフトウェアを含む)ソフトウェアまたはその双方で実装されてもよい。さらに、ネットワーク入出力装置などの他のコンピュータ装置に対する接続が使用されてもよい。
コードまたはコードの一部を含めるための記憶媒体およびコンピュータ読み取り可能な媒体は、当該技術分野において知られている、または用いられる任意の適切な媒体を含むことができ、それには、限定されないが、コンピュータ読み取り可能な命令、データ構造、プログラムモジュールまたは他のデータなどの記憶および/または情報伝送のための任意の方法または技術で実装される揮発性、不揮発性、可動および非可動媒体などの記憶媒体と通信媒体とを含みまた、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタルバーサタイルディスク(DVD)または他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、または所望の情報を格納するために用いることができ、システム装置によりアクセスすることができる他の媒体をなどを含む。本明細書で提供される開示と教示に基づいて、当該技術分野における通常の技術を有する者は、様々な実施形態を実行する他の手段および/または方法を十分に理解するであろう。
[第1節]
携帯コンピュータ装置上のグラフィカルユーザインタフェースと相互にやりとりする方法であって、
前記携帯コンピュータ装置の画像取得エレメントを用いて第1の画像を取得することであって、前記第1の画像は前記携帯コンピュータ装置のユーザの顔の特徴を含むことと、
前記画像取得エレメントを用いて第2の画像を取得することであって、前記第2の画像は前記携帯コンピュータ装置の前記ユーザの前記顔の特徴を含むことと、
前記携帯コンピュータ装置により、前記携帯コンピュータ装置に対する前記ユーザの前記顔の特徴の位置の変化を判定するために、取得された前記第1の画像および前記第2の画像を解析することと、
前記判定された変化に少なくとも部分的に基づいて前記グラフィカルユーザインタフェース内に表示された情報を変更することであって、前記グラフィカルユーザインタフェース内に表示された情報は、取得された前記第1の画像と前記第2の画像のいずれかまたは両方を表現したものを除外することと
を含む方法。
[第2節]
前記第2の画像の取得は、前記携帯コンピュータ装置の動きに応答する、第1節に記載の方法。
[第3節]
前記グラフィカルユーザインタフェース内に表示された前記情報を変更することは、前記判定された変化に少なくとも部分的に基づいて機能を実行することを含み、前記機能は、前記コンピュータ装置の前記グラフィカルユーザインタフェースの少なくとも1つの態様を制御する、第1節に記載の方法。
[第4節]
前記コンピュータ装置の前記ユーザの前記顔の特徴に対応する一組の測定可能な態様の変化を判定するために、前記取得された第1の画像および第2画像を解析することをさらに含み、
前記グラフィカルユーザインタフェース内に表示された前記情報の変更は、前記一組の測定可能な態様の前記判定された変化に少なくとも部分的に基づく、第1節に記載の方法。
[第5節]
前記一組の測定可能な態様は、前記ユーザの目の少なくとも1つの寸法、前記ユーザの顔の上の特徴の離隔距離、前記ユーザの顔の特徴の相対的な位置、および前記ユーザの顔の特徴間の相対的な配向のうちの少なくとも1つを含む、第4節に記載の方法。
[第6節]
前記携帯コンピュータ装置に対する前記ユーザ前記の顔の特徴の前記位置の変化を判定するために取得された前記第1の画像および前記第2の画像を解析することは、前記ユーザと前記携帯コンピュータ装置との間の相対的な配向の変化を判定することを含む、第1節に記載の方法。
[第7節]
前記グラフィカルユーザインタフェース内に表示された前記情報を変更することは、
前記判定された変化に対応する方向に前記グラフィカルユーザインタフェースに対してカーソルを移動させることと、
前記コンピュータ装置上の3次元画像の2次元表現を生成するのに用いる視点を調整することと
のうちの少なくとも1つを含む、第1節に記載の方法。
[第8節]
前記画像取得エレメントを用いて第3の画像を取得することであって、前記第3の画像は前記携帯コンピュータ装置の前記ユーザの前記顔の特徴を含むことと、
前記携帯コンピュータ装置により、前記携帯コンピュータ装置に対する前記ユーザの前記顔の特徴の前記位置における第2の変化を判定するために、前記取得された前記第2の画像および前記第3の画像を解析することであって、前記第2の変化は、前記ユーザの表情の少なくとも部分的に基づいて前記ユーザの前記顔の特徴の形状、位置、および寸法の少なくとも1つを調整することと、
前記第2の変化に少なくとも部分的に基づいて前記グラフィカルユーザインタフェース内に表示された前記情報を変更することと
をさらに含む、第1節に記載の方法。
[第9節]
前記グラフィカルユーザインタフェース内に表示された前記情報を変更することは、
電子カタログに関連した項目の中をナビゲートすることと、
ファイルシステムをナビゲートすることと、
回転式選択機構から項目を選択することと
のうちの少なくとも1つを含む、第1節に記載の方法。
[第10節]
コンピュータ装置内の英数字を選択する方法であって、
前記コンピュータ装置の前記ユーザに対する前記コンピュータ装置の配向の変化を検出するためにユーザの画像情報を解析することであって、前記画像情報は前記コンピュータ装置の画像取得エレメントを用いて取得されることと、
前記コンピュータ装置の前記配向の前記変化の検出に応じて、選択のために利用可能な前記英数字を識別することと、
前記英数字の選択を受け取ることと
を含む方法。
[第11節]
前記コンピュータ装置の表示エレメントを用いて、文字セットを表示することと、
前記文字セットにおける少なくとも1文字を選択するための位置にカーソルがある場合において、前記少なくとも1文字の前記選択を受け取ることを実行するステップと
をさらに含む、第10節に記載の方法。
[第12節]
複数の文字サブセットへ前記文字セットを区分化することであって、前記文字セットの少なくとも1文字の前記選択は、前記文字サブセットの少なくとも1つの選択を受け取ることを含むことと、
前記少なくとも1つの文字サブセットの前記選択を第2の複数の文字サブセットへ区分化することと
をさらに含む、第11節に記載の方法。
[第13節]
前記配向の変化を判定するために前記画像情報を解析することと併用して、前記コンピュータ装置の配向検出エレメントを用いること
をさらに含み、
カーソルは前記コンピュータ装置の前記配向の前記第1の変化に従って、選択されるべき前記少なくとも1文字に向かって導かれるように構成される、第10節に記載の方法。
[第14節]
前記配向検出エレメントは、加速度計、動作検出器、電子コンパス、全地球測位システム受信器および電子準位の少なくとも1つである、第13節に記載の方法。
[第15節]
ユーザが選択可能な要素の選択を受け取ったことに応答して、前記カーソルの移動能力を1つの自由度だけ低下させること
をさらに含み、
前記第2の選択を受け取る前に前記表示エレメントに対して少なくとも2つの自由度で移動するように前記カーソルは構成される、第10節に記載の方法。
[第16節]
前記コンピュータ装置の前記配向の前記変化は、ユーザが前記コンピュータ装置を傾けることに対応する、第10節に記載の方法。
[第17節]
選択のために利用可能な前記英数字を識別することは、
前記英数字上にカーソルを浮遊して停止させることと、
前記英数字の色を変化させることと、
前記英数字の形状を変化させることと、
前記英数字のまわりの背景色を変化させることと、
前記英数字のまわりに形状を表示することと
のうちの少なくとも1つを含む。
[第18節]
コンピュータ装置と相互にやりとりする方法であって、
前記コンピュータ装置に対するユーザの少なくとも1つの特徴の第1の相対的な配向を判定するために、前記コンピュータ装置の画像取得エレメントを用いて取得された画像情報を解析することと、
周囲環境に対する前記コンピュータ装置の第2の相対的な配向を判定するために、前記コンピュータ装置の配向検出エレメントを用いて取得された装置の配向情報を解析することと、
第1の相対的な配向と第2相対的な配向との少なくとも1つの変化を検出することと、
前記変化の検出に応じて、所望の機能を実行することと
を含む方法。
[第19節]
画像情報を解析することは、前記コンピュータ装置に対する前記ユーザの前記少なくとも1つの特徴の前記位置を判定するために前記携帯コンピュータ装置から少なくとも1つの画像を取り込むことを含み、
前記ユーザの前記少なくとも1つの特徴の少なくとも1つの位置と前記コンピュータ装置の配向との変化を検出することは、前記携帯コンピュータ装置から少なくとも1つのさらなる画像を取り込み、少なくとも1つの特徴の位置の差を判定することを含む、第18節に記載の方法。
[第20節]
前記検出された変化のための所望の機能を実行する前記ステップは、前記検出された変化に少なくとも部分的に基づいてグラフィカルユーザインタフェース内に表示された前記情報を変更することを含み、前記装置の前記グラフィカルユーザインタフェースは、前記画像情報を表現したものを除外する、第18節に記載の方法。
[第21節]
前記検出された変化が、前記所望の機能を判定する前に前記変化に対応する入力閾値を少なくとも満たすか否かを判定すること
を含む、第18節に記載の方法。
[第22節]
前記配向検出エレメントは、加速度計、動作検出器、電子コンパスおよび電子準位のうちの1つである、第18節に記載の方法。
[第23節]
前記ユーザに対応する前記少なくとも1つの特徴は、前記ユーザの少なくとも1つの顔の特徴を含む、第18節に記載の方法。
[第24節]
前記ユーザの前記相対的な位置を判定するために前記画像情報を解析することは、前記画像情報における前記ユーザの各々の目のおおよその位置を判定することを含む、第18節に記載の方法。
[第25節]
前記所望の機能を実行することは、項目を見ることと選択することとの少なくとも1つを含む、第18節に記載の方法。
[第26節]
前記ユーザの身元を判定するために前記画像情報を解析すること
をさらに含む、第18節に記載の方法。
[第27節]
前記ユーザの前記判定された身元の複数の変化に対応する複数の入力を判定すること
をさらに含む、第26節に記載の方法。
[第28節]
前記画像情報を解析する前に各々の判定された身元の較正情報を取り込むこと
をさらに含む、第26節に記載の方法。
[第29節]
前記機能を実行する前に前記所望の機能を確認することを前記ユーザに促すこと
を含む、第18節に記載の方法。
[第30節]
第1の相対的な配向と第2の相対的な配向とのうちの少なくとも1つを変化させることにより、前記ユーザが前記入力を確認することを可能にすること
をさらに含む、第29節に記載の方法。
[第31節]
コンピュータ装置であって、
プロセッサと、
グラフィカルユーザインタフェースを表示するための表示エレメントと、
一組の動作を行うための、プロセッサにより実行されるように動作可能な命令を含むメモリ装置と、
前記コンピュータ装置の相対的な表示領域に対応する画像情報を取得するように動作可能な画像取得エレメントと
を備え、
前記プロセッサは、
前記画像取得エレメントを用いて第1画像と第2の画像とを取得し、前記第1画像と第2の画像は、前記コンピュータ装置のユーザの特徴を含み、
前記コンピュータ装置に対する前記ユーザの前記特徴の前記位置の変化を判定するために取得された前記第1画像と第2の画像を解析し、
前記判定された変化に少なくとも部分的に基づいて前記グラフィカルユーザインタフェース内に表示された情報を変更し、前記グラフィカルユーザインタフェース内に表示された前記情報は、前記取得された第1の画像、前記取得された第2の画像、または前記取得された第1画像と第2の画像の双方の表現したものを除外するように動作可能であるコンピュータ装置。
[第32節]
コンピュータ装置に対する入力を受け取るための方法であって、
前記コンピュータ装置に対するユーザの少なくとも1つの特徴の少なくとも1つの相対的な位置を判定するために画像情報を解析することであって、前記画像情報は、前記コンピュータ装置の画像取得エレメントを用いて取得されることと、
少なくとも前記変化に対応する入力閾値を満たす前記ユーザの前記少なくとも1つの特徴の前記少なくとも1つの相対的な位置の変化を検出することに応じて、検出された変化に対応する入力機能を選択することと、前記選択された入力機能を実行することとを含み、
ユーザは前記検出された変化に対応する前記入力機能を定義することができる方法。
[第33節]
前記ユーザの少なくとも1つの特徴の前記少なくとも1つの相対的な位置の変化を検出することは、前記ユーザの少なくとも1つの顔の特徴の変化を検出することを含む、第32節に記載の方法。
[第34節]
前記ユーザの少なくとも1つの特徴の前記少なくとも1つの位置の変化を検出することは、前記ユーザの前記少なくとも1つの顔の特徴に対する複数の相対的な位置の少なくとも1つの変化を検出することを含み、前記ユーザの少なくとも1つの顔の特徴は、その顔の特徴に対する表情の変化が前記顔の特徴の少なくとも1つの相対位置の変化を結果的にもたらすように関連する複数の相対的な位置を有する、第33節に記載の方法。
[第35節]
前記検出された変化に対応する入力機能を判定するステップおよび前記選択された入力機能を実行するステップは、前記検出された変化に少なくとも部分的に基づいて前記コンピュータ装置に関連したグラフィカルユーザインタフェース内に表示された情報を変更することを含み、前記コンピュータ装置の前記グラフィカルユーザインタフェースは、前記画像情報を表現したものを除外する、第32節に記載の方法。
[第36節]
コンピュータ装置であって、
プロセッサと、
表示エレメントと、
画像情報を取り込むように動作可能な画像取得エレメントであって、前記表示エレメントを見るユーザが前記画像情報に少なくとも部分的に取り込まれるように配置されている画像取得エレメントと、
前記プロセッサにより実行された時、
前記コンピュータ装置の前記ユーザの顔の特徴に対応する一組の測定可能な態様を判定するために前記画像情報を解析し、
前記一組の測定可能な態様のための値に少なくとも部分的に基づいて前記コンピュータ装置に対する前記ユーザの相対的な配向を判定し、
前記コンピュータ装置に対する前記ユーザの相対的な配向の変化を判定し、前記配向の変化は、前記コンピュータ装置の位置の変化に少なくとも部分的に基づいており、
前記相対的な配向の前記判定された変化に対応する機能を実行し、前記コンピュータ装置のユーザは、前記相対的な配向の個々の複数の判定可能な変化に応じて、実行される機能を定義することができることをプロセッサに実行させる命令を含むメモリ装置と
を備えるコンピュータ装置。
[第37節]
前記メモリ装置は、前記プロセッサにより実行された時、
動作を行なう前に、前記変化が前記変化に対応する入力閾値を少なくとも満たすか否かを判定することを前記プロセッサに実行させる命令をさらに含む、第36節に記載のコンピュータ装置。
[第38節]
前記機能を実行するステップは、前記判定された変化に少なくとも部分的に基づいて前記コンピュータ装置の表示エレメント上のグラフィカルユーザインタフェース内に表示された前記情報を変更することを含み、前記装置の前記グラフィカルユーザインタフェース内に表示された前記情報は、前記画像情報を表現したものを除外する、第36節に記載のコンピュータ装置。
[第39節]
コンピュータ装置を制御するためにコンピュータ読み取り可能な媒体に組み込まれるコンピュータプログラム製品であって、
前記コンピュータ装置に対するユーザの少なくとも1つの特徴の少なくとも1つの相対的な位置を判定するために画像情報を分析するためのプログラムコードであって、前記画像情報は、前記コンピュータ装置の前記ユーザの表現が少なくとも前記画像情報に部分的に含まれるように配置された前記コンピュータ装置の少なくとも1つの画像取得エレメントを用いて取得されるプログラムコードと、
前記ユーザの少なくとも1つの特徴の前記少なくとも1つの相対的な位置の変化を検出するのに応じて、前記変化が前記変化に対応する入力閾値を少なくとも満たしているか否かを判定するためのプログラムコードと、
少なくとも前記入力閾値を満たしている検出された変化に対応する入力を判定し、前記判定された入力に応じて前記コンピュータ装置上で動作を実行するためのプログラムコードであって、前記コンピュータ装置上の動作を実行するためのプログラムコードは、前記検出された変化に少なくとも部分的に基づいて前記コンピュータ装置のグラフィカルユーザインタフェース内に表示エレメント上の表示された情報を変更することを含み、前記コンピュータ装置の前記グラフィカルユーザインタフェース上に表示された前記情報は、前記ユーザを表現したものを除いているプログラムコードと
を備えるコンピュータプログラム製品。
[第40節]
前記携帯コンピュータ装置の配向を判定するためのプログラムコードであって、前記携帯コンピュータ装置は前記配向を判定するように動作可能な少なくとも1つのエレメントを含むプログラムコードと、
前記コンピュータ装置の前記配向の変化を判定するためのプログラムコードであって、前記変化が前記変化に対応する入力閾値を少なくとも満たすか否かを判定するためのプログラムコードは、前記ユーザの少なくとも1つの特徴の配向の変化と相対的な位置の変化との双方を解析するための命令を含むプログラムコードと
を備える、第39節に記載のコンピュータプログラム製品。
[第41節]
前記コンピュータ装置のユーザは、複数の検出可能な変化の各々に応じて実行される行動を定義することができる、第40節に記載のコンピュータプログラム製品。
[第42節]
コンピュータ装置のディスプレイ内のエレメントの表示を変更する方法であって、
前記コンピュータ装置の前記ユーザに対する前記コンピュータ装置の配向の変化を検出するためにユーザの画像情報を解析することであって、前記画像情報は前記コンピュータ装置の画像取得エレメントを用いて取得されることと、
前記コンピュータ装置の前記配向の前記変化を検出することに応じて、前記エレメントの前記表示を変更することと
を含む方法。
[第43節]
画像取得エレメントは高速ビデオカメラである、第42節に記載の方法。
このように、明細書および図面は、限定的な意味というよりよりむしろ1つの例示として考慮されるべきである。しかしながら、様々な変形および変更が、特許請求の範囲で述べられるような本発明の幅広い精神および範囲から逸脱せずになされてもよいことは明白であろう。

Claims (15)

  1. 携帯コンピュータ装置上のグラフィカルユーザインタフェースと相互にやりとりする方法であって、
    前記携帯コンピュータ装置の画像取得エレメントを用いて、第1の画像を取得することであって、前記第1の画像は前記携帯コンピュータ装置のユーザの顔の特徴を含むことと、
    前記画像取得エレメントを用いて、第2の画像を取得することであって、前記第2の画像は前記携帯コンピュータ装置の前記ユーザの前記顔の特徴を含むことと、
    前記携帯コンピュータ装置により、前記携帯コンピュータ装置に対する前記ユーザの前記顔の特徴の位置の変化を判定するために、取得された前記第1の画像および前記第2の画像を解析することと、
    前記判定された変化に少なくとも部分的に基づいて前記グラフィカルユーザインタフェース内に表示された情報を変更することとを含み、前記グラフィカルユーザインタフェース内に表示された前記情報は、前記第1の画像と前記第2の画像とのいずれかまたは双方を表現したものを除外すること
    を含む方法。
  2. 前記グラフィカルユーザインタフェース内に表示された前記情報を変更することは、前記判定された変化に少なくとも部分的に基づいて機能を実行することを含み、前記機能は、前記コンピュータ装置の前記グラフィカルユーザインタフェースの少なくとも1つの態様を制御する、請求項1に記載の方法。
  3. 前記携帯コンピュータ装置に対する前記ユーザ前記の顔の特徴の前記位置の変化を判定するために取得された前記第1の画像および前記第2の画像を解析することは、前記ユーザと前記携帯コンピュータ装置との間の相対的な配向の変化を判定することを含む、請求項1に記載の方法。
  4. 前記グラフィカルユーザインタフェース内に表示された前記情報を変更することは、
    前記判定された変化に対応する方向に前記グラフィカルユーザインタフェースに対してカーソルを移動させることと、
    前記コンピュータ装置上の3次元画像の2次元表現を生成するために用いる視点を調整することと
    のうちの少なくとも1つを含む、請求項1に記載の方法。
  5. 前記グラフィカルユーザインタフェース内に表示された前記情報を変更することは、
    電子カタログに関連した項目の中をナビゲートすることと、
    ファイルシステムをナビゲートすることと、
    回転式選択機構から項目を選択することと
    のうちの少なくとも1つを含む、請求項1に記載の方法。
  6. コンピュータ装置内の英数字を選択する方法であって、
    前記コンピュータ装置の前記ユーザに対する前記コンピュータ装置の配向の変化を検出するためにユーザの画像情報を解析することであって、前記画像情報が前記コンピュータ装置の画像取得エレメントを用いて取得されることと、
    前記コンピュータ装置の前記配向の前記変化の検出に応じて、選択のために利用可能な前記英数字を識別することと、
    前記英数字の選択を受け取ることと
    を含む方法。
  7. 前記コンピュータ装置の表示エレメントを用いて、文字セットを表示することと、
    前記文字セットにおける少なくとも1文字を選択するための位置にカーソルがある場合において、前記少なくとも1文字の前記選択を受け取ることを実行するステップと
    をさらに含む、請求項6に記載の方法。
  8. 前記配向の変化を判定するために前記画像情報を解析することと併用して、前記コンピュータ装置の配向検出エレメントを用いることをさらに含み、
    カーソルは、前記コンピュータ装置の前記配向の前記第1の変化に従って、選択されるべき前記少なくとも1文字に向かって導かれるように構成される、請求項6に記載の方法。
  9. ユーザが選択可能な要素の選択を受け取ったことに応答して、前記カーソルの移動能力を1つの自由度だけ低下させることをさらに含み、
    前記第2の選択を受け取る前に前記表示エレメントに対して少なくとも2つの自由度で移動するように前記カーソルは構成される、請求項6に記載の方法。
  10. コンピュータ装置と相互にやりとりする方法であって、
    前記コンピュータ装置に対するユーザの少なくとも1つの特徴の第1の相対的な配向を判定するために、前記コンピュータ装置の画像取得エレメントを用いて取得された画像情報を解析することと、
    周囲環境に対する前記コンピュータ装置の第2の相対的な配向を判定するために、前記コンピュータ装置の配向検出エレメントを用いて取得された装置の配向情報を解析することと、
    第1の相対的な配向と第2相対的な配向との少なくとも1つの変化を検出することと、
    前記変化の検出に応じて、所望の機能を実行することと
    を含む方法。
  11. 前記画像情報を解析することは、前記コンピュータ装置に対する前記ユーザの前記少なくとも1つの特徴の前記位置を判定するために前記携帯コンピュータ装置から少なくとも1つの画像を取り込むことを含み、前記ユーザの前記少なくとも1つの特徴の少なくとも1つの位置と前記コンピュータ装置の配向との変化を検出することは、前記携帯コンピュータ装置から少なくとも1つのさらなる画像を取り込み、少なくとも1つの特徴の位置の差を判定することを含む、請求項10に記載の方法。
  12. 前記検出された変化のための所望の機能を実行する前記ステップは、前記検出された変化に少なくとも部分的に基づいてグラフィカルユーザインタフェース内に表示された前記情報を変更することを含み、
    前記装置の前記グラフィカルユーザインタフェースは、前記画像情報を表現したものを除外する、請求項10に記載の方法。
  13. 所望の機能を実行することは、項目を見ることと選択することとの少なくとも1つを含むこと
    を特徴とする請求項10に記載の方法。
  14. プロセッサと、
    表示エレメントと、
    画像情報を取り込むように動作可能な画像取得エレメントであって、前記表示エレメントを見るユーザが前記画像情報に少なくとも部分的に取り込ように配置されている画像取得エレメントと、
    前記プロセッサにより実行された時、
    前記コンピュータ装置の前記ユーザの顔の特徴に対応する一組の測定可能な態様を判定するために前記画像情報を解析し、
    前記一組の測定可能な態様のための値に少なくとも部分的にに基づいて前記コンピュータ装置に対する前記ユーザの相対的な配向を判定し、
    前記コンピュータ装置に対する前記ユーザの相対的な配向の変化を判定し、前記配向の変化は、前記コンピュータ装置の位置の変化に少なくとも部分的に基づいており、
    前記相対的な配向の前記判定された変化に対応する機能を実行し、前記コンピュータ装置のユーザは、前記相対的な配向の個々の複数の判定可能な変化に応じて、実行される機能を定義することができることをプロセッサに実行させる命令を含むメモリ装置と
    を備えるコンピュータ装置。
  15. 前記機能を実行するステップは、前記判定された変化に少なくとも部分的に基づいて前記コンピュータ装置の表示エレメント上のグラフィカルユーザインタフェース内に表示された前記情報を変更することを含み、前記装置の前記グラフィカルユーザインタフェース内に表示された前記情報は、前記画像情報を表現したものを除外する、請求項14に記載のコンピュータ装置。
JP2011537661A 2008-11-20 2009-11-20 入力機構としての動き認識 Pending JP2012509544A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US11643008P 2008-11-20 2008-11-20
US61/116,430 2008-11-20
US12/332,049 US8788977B2 (en) 2008-11-20 2008-12-10 Movement recognition as input mechanism
US12/332,049 2008-12-10
PCT/US2009/065364 WO2010059956A1 (en) 2008-11-20 2009-11-20 Movement recognition as input mechanism

Publications (1)

Publication Number Publication Date
JP2012509544A true JP2012509544A (ja) 2012-04-19

Family

ID=42172960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011537661A Pending JP2012509544A (ja) 2008-11-20 2009-11-20 入力機構としての動き認識

Country Status (7)

Country Link
US (2) US8788977B2 (ja)
EP (1) EP2364470B1 (ja)
JP (1) JP2012509544A (ja)
KR (1) KR101312227B1 (ja)
CN (1) CN102239460A (ja)
CA (1) CA2743914C (ja)
WO (1) WO2010059956A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013539113A (ja) * 2010-08-24 2013-10-17 クアルコム,インコーポレイテッド 電子デバイスディスプレイの上方の空気中で物体を移動させることによって電子デバイスアプリケーションと相互作用するための方法および装置
JP2014052934A (ja) * 2012-09-10 2014-03-20 Mega Chips Corp 携帯端末装置、プログラムおよび入力方法
JP2014126997A (ja) * 2012-12-26 2014-07-07 Denso Corp 操作装置、及び操作検出方法
JP2014149794A (ja) * 2013-02-04 2014-08-21 Tokai Univ 視線分析装置
JP2016511471A (ja) * 2013-02-22 2016-04-14 サムスン エレクトロニクス カンパニー リミテッド 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末
JP2016517994A (ja) * 2013-05-09 2016-06-20 アマゾン テクノロジーズ インコーポレイテッド モバイルデバイスインターフェース
JP2016143414A (ja) * 2015-01-30 2016-08-08 ピックスアート イメージング インコーポレイテッド インタラクティブシステム、リモコン及びその操作方法
JP2016537710A (ja) * 2013-10-14 2016-12-01 ノキア テクノロジーズ オサケユイチア 偏位平面手首入力
JP2016539434A (ja) * 2013-09-17 2016-12-15 ノキア テクノロジーズ オサケユイチア 操作の決定
JP2017507412A (ja) * 2014-01-31 2017-03-16 クアルコム,インコーポレイテッド デバイスにユーザ入力を供給するための技法

Families Citing this family (400)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823747B2 (en) * 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
EP2163987A3 (en) 2007-04-24 2013-01-23 Oblong Industries, Inc. Processing of events in data processing environments
US20090089705A1 (en) * 2007-09-27 2009-04-02 Microsoft Corporation Virtual object navigation
US8502821B2 (en) * 2008-02-04 2013-08-06 C Speed, Llc System for three-dimensional rendering of electrical test and measurement signals
KR101534789B1 (ko) * 2008-05-28 2015-07-07 구글 인코포레이티드 모바일 컴퓨팅 디바이스에서의 모션-컨트롤 뷰
US20090315766A1 (en) 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
US8467991B2 (en) 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
KR101505198B1 (ko) * 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
JP2012501016A (ja) * 2008-08-22 2012-01-12 グーグル インコーポレイテッド モバイルデバイス上の3次元環境内でのナビゲーション
WO2010030984A1 (en) * 2008-09-12 2010-03-18 Gesturetek, Inc. Orienting a displayed element relative to a user
US8896632B2 (en) * 2008-09-12 2014-11-25 Qualcomm Incorporated Orienting displayed elements relative to a user
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
KR101390045B1 (ko) * 2008-12-24 2014-04-30 에릭슨엘지엔터프라이즈 주식회사 통화 장치 및 그 제어 장치
JP2010176170A (ja) * 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8732623B2 (en) * 2009-02-17 2014-05-20 Microsoft Corporation Web cam based user interaction
US9424578B2 (en) * 2009-02-24 2016-08-23 Ebay Inc. System and method to provide gesture functions at a device
US8121640B2 (en) * 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US20100248203A1 (en) * 2009-03-26 2010-09-30 Kuo Hsiing Cho Portable LED interactive learning device
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US20100315439A1 (en) * 2009-06-15 2010-12-16 International Business Machines Corporation Using motion detection to process pan and zoom functions on mobile computing devices
US8872767B2 (en) * 2009-07-07 2014-10-28 Microsoft Corporation System and method for converting gestures into digital graffiti
EP2472374B1 (en) * 2009-08-24 2019-03-20 Samsung Electronics Co., Ltd. Method for providing a ui using motions
JP5593655B2 (ja) 2009-08-31 2014-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101078057B1 (ko) * 2009-09-08 2011-10-31 주식회사 팬택 영상인식기법을 이용한 촬영 제어 기능을 구비한 이동단말 및 영상인식기법을 이용한 촬영 제어 시스템
KR101038323B1 (ko) * 2009-09-24 2011-06-01 주식회사 팬택 영상인식기법을 이용한 화면 프레임 제어장치
US8347221B2 (en) * 2009-10-07 2013-01-01 Research In Motion Limited Touch-sensitive display and method of control
KR20110037657A (ko) * 2009-10-07 2011-04-13 삼성전자주식회사 모션을 이용한 gui 제공방법 및 이를 적용한 디스플레이 장치
US20110087687A1 (en) * 2009-10-14 2011-04-14 International Business Machines Corporation Position sensitive type-ahead matching for resource navigation
US20120206414A1 (en) * 2009-10-16 2012-08-16 Rohm Co., Ltd. Mobile device
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
KR101644015B1 (ko) * 2009-11-27 2016-08-01 삼성전자주식회사 시스템과 다수 사용자 간의 대화 인터페이스 장치
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US8698845B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
KR101647044B1 (ko) * 2010-02-11 2016-08-09 삼성전자 주식회사 휴대 단말기의 화면 표시 방법 및 장치
GB2477959A (en) * 2010-02-19 2011-08-24 Sony Europ Navigation and display of an array of selectable items
US8922480B1 (en) * 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
ES2820345T3 (es) * 2010-03-08 2021-04-20 Nokia Technologies Oy Interfaz de usuario
JP5630041B2 (ja) * 2010-03-15 2014-11-26 株式会社ニコン 電子装置
US9052926B2 (en) 2010-04-07 2015-06-09 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9513801B2 (en) 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US8581905B2 (en) * 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
US9235268B2 (en) 2010-04-09 2016-01-12 Nokia Technologies Oy Method and apparatus for generating a virtual interactive workspace
US8898567B2 (en) * 2010-04-09 2014-11-25 Nokia Corporation Method and apparatus for generating a virtual interactive workspace
US9733699B2 (en) * 2010-04-13 2017-08-15 Dean Stark Virtual anamorphic product display with viewer height detection
US8447070B1 (en) * 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
US9520056B2 (en) * 2010-05-11 2016-12-13 Universal Electronics Inc. System and methods for enhanced remote control functionality
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US8977987B1 (en) * 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
TW201205271A (en) * 2010-07-29 2012-02-01 Hon Hai Prec Ind Co Ltd Electronic device with power saving mode and power saving control method thereof
US9304591B2 (en) 2010-08-10 2016-04-05 Lenovo (Singapore) Pte. Ltd. Gesture control
US20120038675A1 (en) * 2010-08-10 2012-02-16 Jay Wesley Johnson Assisted zoom
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
US10150033B2 (en) * 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
US8767019B2 (en) 2010-08-31 2014-07-01 Sovanta Ag Computer-implemented method for specifying a processing operation
US8972467B2 (en) 2010-08-31 2015-03-03 Sovanta Ag Method for selecting a data set from a plurality of data sets by means of an input device
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
JP5621422B2 (ja) * 2010-09-07 2014-11-12 ソニー株式会社 情報処理装置、プログラム及び制御方法
JP5664036B2 (ja) 2010-09-07 2015-02-04 ソニー株式会社 情報処理装置、プログラム及び制御方法
US20120079532A1 (en) * 2010-09-29 2012-03-29 Sony Corporation Techniques for developing a television user interface for a secondary device
US20120079533A1 (en) * 2010-09-29 2012-03-29 Sony Corporation Techniques for developing a customized television user interface for a secondary device
KR101728725B1 (ko) * 2010-10-04 2017-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8564535B2 (en) * 2010-10-05 2013-10-22 Immersion Corporation Physical model based gesture recognition
US20120212405A1 (en) * 2010-10-07 2012-08-23 Benjamin Zeis Newhouse System and method for presenting virtual and augmented reality scenes to a user
WO2012048252A1 (en) 2010-10-07 2012-04-12 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
US9484046B2 (en) 2010-11-04 2016-11-01 Digimarc Corporation Smartphone-based methods and systems
KR101731346B1 (ko) * 2010-11-12 2017-04-28 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
KR101482634B1 (ko) 2010-11-17 2015-01-26 장인지 모바일 단말기의 문자 입력 방법 및 해당 방법을 수행하는 모바일 단말기
JP5643617B2 (ja) * 2010-11-18 2014-12-17 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理方法、画像処理システム
US8560960B2 (en) 2010-11-23 2013-10-15 Apple Inc. Browsing and interacting with open windows
US9851866B2 (en) 2010-11-23 2017-12-26 Apple Inc. Presenting and browsing items in a tilted 3D space
WO2012071466A2 (en) 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
US9041743B2 (en) * 2010-11-24 2015-05-26 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
WO2012071463A2 (en) * 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US20240080339A1 (en) * 2010-11-29 2024-03-07 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US11269977B2 (en) 2010-11-29 2022-03-08 Biocatch Ltd. System, apparatus, and method of collecting and processing data in electronic devices
US10917431B2 (en) 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10298614B2 (en) * 2010-11-29 2019-05-21 Biocatch Ltd. System, device, and method of generating and managing behavioral biometric cookies
US10897482B2 (en) 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US10970394B2 (en) 2017-11-21 2021-04-06 Biocatch Ltd. System, device, and method of detecting vishing attacks
US10728761B2 (en) 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US10395018B2 (en) 2010-11-29 2019-08-27 Biocatch Ltd. System, method, and device of detecting identity of a user and authenticating a user
US10083439B2 (en) 2010-11-29 2018-09-25 Biocatch Ltd. Device, system, and method of differentiating over multiple accounts between legitimate user and cyber-attacker
US10476873B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. Device, system, and method of password-less user authentication and password-less detection of user identity
US9483292B2 (en) 2010-11-29 2016-11-01 Biocatch Ltd. Method, device, and system of differentiating between virtual machine and non-virtualized device
US10776476B2 (en) 2010-11-29 2020-09-15 Biocatch Ltd. System, device, and method of visual login
US20120135783A1 (en) * 2010-11-29 2012-05-31 Google Inc. Mobile device image feedback
US10747305B2 (en) 2010-11-29 2020-08-18 Biocatch Ltd. Method, system, and device of authenticating identity of a user of an electronic device
US10404729B2 (en) 2010-11-29 2019-09-03 Biocatch Ltd. Device, method, and system of generating fraud-alerts for cyber-attacks
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10069852B2 (en) 2010-11-29 2018-09-04 Biocatch Ltd. Detection of computerized bots and automated cyber-attack modules
US10949757B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. System, device, and method of detecting user identity based on motor-control loop model
US10586036B2 (en) 2010-11-29 2020-03-10 Biocatch Ltd. System, device, and method of recovery and resetting of user authentication factor
US10164985B2 (en) 2010-11-29 2018-12-25 Biocatch Ltd. Device, system, and method of recovery and resetting of user authentication factor
US10685355B2 (en) * 2016-12-04 2020-06-16 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10032010B2 (en) 2010-11-29 2018-07-24 Biocatch Ltd. System, device, and method of visual login and stochastic cryptography
US10069837B2 (en) * 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US10262324B2 (en) 2010-11-29 2019-04-16 Biocatch Ltd. System, device, and method of differentiating among users based on user-specific page navigation sequence
US10055560B2 (en) 2010-11-29 2018-08-21 Biocatch Ltd. Device, method, and system of detecting multiple users accessing the same account
US10037421B2 (en) 2010-11-29 2018-07-31 Biocatch Ltd. Device, system, and method of three-dimensional spatial user authentication
US10474815B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. System, device, and method of detecting malicious automatic script and code injection
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US9526006B2 (en) * 2010-11-29 2016-12-20 Biocatch Ltd. System, method, and device of detecting identity of a user of an electronic device
WO2012074278A2 (ko) * 2010-12-01 2012-06-07 Jang In Ji 모바일 단말기의 문자 입력 방법 및 해당 방법을 수행하는 모바일 단말기
US8812973B1 (en) * 2010-12-07 2014-08-19 Google Inc. Mobile device text-formatting
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US8957847B1 (en) 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US8953022B2 (en) 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
US8548206B2 (en) 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
US8421752B2 (en) 2011-01-27 2013-04-16 Research In Motion Limited Portable electronic device and method therefor
KR101766332B1 (ko) 2011-01-27 2017-08-08 삼성전자주식회사 복수의 컨텐츠 레이어를 디스플레이하는 3d 모바일 기기 및 그 디스플레이 방법
EP2482168A1 (en) * 2011-01-27 2012-08-01 Research In Motion Limited Portable electronic device and method therefor
US8531536B2 (en) * 2011-02-17 2013-09-10 Blackberry Limited Apparatus, and associated method, for selecting information delivery manner using facial recognition
US9507416B2 (en) 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
US9285883B2 (en) * 2011-03-01 2016-03-15 Qualcomm Incorporated System and method to display content based on viewing orientation
US9118970B2 (en) * 2011-03-02 2015-08-25 Aria Glassworks, Inc. System and method for embedding and viewing media files within a virtual and augmented reality scene
CN102934157B (zh) * 2011-03-04 2016-02-03 松下电器产业株式会社 显示装置及显示方向切换方法
WO2012125596A2 (en) 2011-03-12 2012-09-20 Parshionikar Uday Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US8643703B1 (en) 2011-03-30 2014-02-04 Amazon Technologies, Inc. Viewer tracking image display
US20120249468A1 (en) * 2011-04-04 2012-10-04 Microsoft Corporation Virtual Touchpad Using a Depth Camera
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
RU2612572C2 (ru) * 2011-04-08 2017-03-09 Конинклейке Филипс Н.В. Система обработки изображений и способ
US9766698B2 (en) * 2011-05-05 2017-09-19 Nokia Technologies Oy Methods and apparatuses for defining the active channel in a stereoscopic view by using eye tracking
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US9449427B1 (en) 2011-05-13 2016-09-20 Amazon Technologies, Inc. Intensity modeling for rendering realistic images
US8843346B2 (en) * 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
WO2012158955A2 (en) 2011-05-19 2012-11-22 NEWMAN, Harvey H. Golf swing analyzer and analysis methods
CN102784473B (zh) * 2011-05-20 2015-05-13 幻音科技(深圳)有限公司 姿势分析系统及方法
US9483085B2 (en) 2011-06-01 2016-11-01 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same
US9041734B2 (en) * 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US8912979B1 (en) 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
JP5849502B2 (ja) * 2011-08-01 2016-01-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP2555536A1 (en) 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
JP5586545B2 (ja) * 2011-09-09 2014-09-10 任天堂株式会社 ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
US10489570B2 (en) * 2011-09-09 2019-11-26 Google Llc Preventing computing device from timing out
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
EP2761422A4 (en) * 2011-09-30 2015-05-06 Intel Corp MECHANISM FOR ENHANCING THE PERSPECTIVE OF VIEWING VIDEO IMAGES ON COMPUTER DEVICES
US8879801B2 (en) 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
KR101905038B1 (ko) * 2011-11-16 2018-10-08 삼성전자주식회사 다중 어플리케이션 환경 하에서 터치스크린을 가지는 장치 및 그 제어 방법
JP5460679B2 (ja) * 2011-11-28 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造
KR101891786B1 (ko) * 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US9852135B1 (en) 2011-11-29 2017-12-26 Amazon Technologies, Inc. Context-aware caching
JP5845860B2 (ja) * 2011-12-01 2016-01-20 株式会社デンソー 地図表示操作装置
EP2605107A1 (en) * 2011-12-13 2013-06-19 Research In Motion Limited Methods and devices for identifying a gesture
CN103988149A (zh) * 2011-12-14 2014-08-13 英特尔公司 注视激活的内容传输系统
KR20130068700A (ko) * 2011-12-16 2013-06-26 삼성전자주식회사 전자서적을 표시하는 방법 및 장치
US9274597B1 (en) * 2011-12-20 2016-03-01 Amazon Technologies, Inc. Tracking head position for rendering content
US8942434B1 (en) 2011-12-20 2015-01-27 Amazon Technologies, Inc. Conflict resolution for pupil detection
JP2013132371A (ja) * 2011-12-26 2013-07-08 Denso Corp 動作検出装置
US20160011724A1 (en) * 2012-01-06 2016-01-14 Google Inc. Hands-Free Selection Using a Ring-Based User-Interface
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
KR101180119B1 (ko) * 2012-02-23 2012-09-05 (주)올라웍스 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체
US9423877B2 (en) * 2012-02-24 2016-08-23 Amazon Technologies, Inc. Navigation approaches for multi-dimensional input
JP2013178702A (ja) * 2012-02-29 2013-09-09 Azbil Corp 顔認証センサ
US9702723B2 (en) * 2012-03-01 2017-07-11 Nokia Technologies Oy Method and apparatus for receiving user estimation of navigational instructions
KR101861377B1 (ko) * 2012-03-09 2018-05-28 삼성전자주식회사 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말
US9378581B2 (en) * 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
JP2013196156A (ja) * 2012-03-16 2013-09-30 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2013142625A2 (en) * 2012-03-20 2013-09-26 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US9373025B2 (en) 2012-03-20 2016-06-21 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US9367124B2 (en) 2012-03-20 2016-06-14 A9.Com, Inc. Multi-application content interactions
US9304646B2 (en) 2012-03-20 2016-04-05 A9.Com, Inc. Multi-user content interactions
US9213420B2 (en) 2012-03-20 2015-12-15 A9.Com, Inc. Structured lighting based content interactions
KR101917685B1 (ko) 2012-03-21 2018-11-13 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US8971928B2 (en) * 2012-04-10 2015-03-03 Here Global B.V. Method and system for changing geographic information displayed on a mobile device
US9633186B2 (en) 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
KR101680059B1 (ko) * 2012-05-02 2016-11-28 삼성전자주식회사 화면을 이동시키기 위한 방법 및 그 전자 장치
AU2013205535B2 (en) * 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
US9471763B2 (en) * 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking
US20130303247A1 (en) * 2012-05-08 2013-11-14 Mediatek Inc. Interaction display system and method thereof
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
KR101683868B1 (ko) 2012-05-09 2016-12-07 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169854A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
AU2013259642A1 (en) 2012-05-09 2014-12-04 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN108287651B (zh) 2012-05-09 2021-04-13 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN108958550B (zh) 2012-05-09 2021-11-12 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
TWI497347B (zh) * 2012-05-09 2015-08-21 Hung Ta Liu 以手勢為輸入之控制系統
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP3096218B1 (en) 2012-05-09 2018-12-26 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US9304621B1 (en) 2012-05-25 2016-04-05 Amazon Technologies, Inc. Communication via pressure input
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
KR20130136174A (ko) * 2012-06-04 2013-12-12 삼성전자주식회사 그래픽 사용자 인터페이스 제공 방법 및 장치
US9916514B2 (en) 2012-06-11 2018-03-13 Amazon Technologies, Inc. Text recognition driven functionality
US8862104B2 (en) * 2012-06-29 2014-10-14 Intel Corporation System and method for gesture-based management
WO2014008185A1 (en) 2012-07-02 2014-01-09 Sony Computer Entertainment Inc. Methods and systems for interaction with an expanded information space
KR101920020B1 (ko) 2012-08-07 2019-02-11 삼성전자 주식회사 단말기 상태 전환 제어 방법 및 이를 지원하는 단말기
US10890965B2 (en) * 2012-08-15 2021-01-12 Ebay Inc. Display orientation adjustment using facial landmark information
TWI470477B (zh) * 2012-08-29 2015-01-21 Utechzone Co Ltd 眼控溝通系統
US9575960B1 (en) * 2012-09-17 2017-02-21 Amazon Technologies, Inc. Auditory enhancement using word analysis
US9406103B1 (en) 2012-09-26 2016-08-02 Amazon Technologies, Inc. Inline message alert
US9626799B2 (en) 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
US9423886B1 (en) * 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
JP2016502175A (ja) * 2012-10-22 2016-01-21 ヴィド スケール インコーポレイテッド モバイルデバイスにおけるユーザプレゼンスの検出
US9213419B1 (en) * 2012-11-13 2015-12-15 Amazon Technologies, Inc. Orientation inclusive interface navigation
JP6138268B2 (ja) 2012-11-21 2017-05-31 ソムニック インク. エンパセティックコンピューティングのための装置、及び方法
US9081571B2 (en) 2012-11-29 2015-07-14 Amazon Technologies, Inc. Gesture detection management for an electronic device
US20140152534A1 (en) * 2012-12-03 2014-06-05 Facebook, Inc. Selectively Steer Light from Display
US9075514B1 (en) * 2012-12-13 2015-07-07 Amazon Technologies, Inc. Interface selection element display
US20140168054A1 (en) * 2012-12-14 2014-06-19 Echostar Technologies L.L.C. Automatic page turning of electronically displayed content based on captured eye position data
US20140179369A1 (en) * 2012-12-20 2014-06-26 Nokia Corporation Apparatus and method for providing proximity-based zooming
TWI540492B (zh) * 2012-12-20 2016-07-01 晨星半導體股份有限公司 電子裝置以及電子裝置控制方法
GB2509323B (en) 2012-12-28 2015-01-07 Glide Talk Ltd Reduced latency server-mediated audio-video communication
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
AU2013368443B2 (en) 2012-12-29 2016-03-24 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
WO2014105274A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for navigating user interface hierarchies
EP2752789A1 (en) * 2013-01-03 2014-07-09 Alcatel-Lucent Method for adjusting the orientation of contents on an electronic display
KR102062310B1 (ko) 2013-01-04 2020-02-11 삼성전자주식회사 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법
EP2752730B1 (en) * 2013-01-08 2019-04-03 Volvo Car Corporation Vehicle display arrangement and vehicle comprising a vehicle display arrangement
KR102049475B1 (ko) * 2013-01-08 2020-01-08 삼성전자주식회사 입력 장치, 디스플레이 장치 및 제어 방법
USD731453S1 (en) * 2013-01-29 2015-06-09 Lg Electronics Inc. Mobile phone
CN103116403A (zh) * 2013-02-16 2013-05-22 广东欧珀移动通信有限公司 一种屏幕切换方法及移动智能终端
US10269058B2 (en) * 2013-02-20 2019-04-23 Path Mobile Inc Pte. Ltd. Simulating physics in a user interface
US9288471B1 (en) * 2013-02-28 2016-03-15 Amazon Technologies, Inc. Rotatable imaging assembly for providing multiple fields of view
US9619020B2 (en) 2013-03-01 2017-04-11 Tobii Ab Delay warp gaze interaction
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US10546204B1 (en) * 2013-03-05 2020-01-28 Amazon Technologies, Inc. Item information discovery with a wearable device
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US10769852B2 (en) 2013-03-14 2020-09-08 Aria Glassworks, Inc. Method for simulating natural perception in virtual and augmented reality scenes
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9658740B2 (en) 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
WO2014155747A1 (ja) * 2013-03-29 2014-10-02 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
CN103150761A (zh) * 2013-04-02 2013-06-12 乐淘奇品网络技术(北京)有限公司 通过网页高速逼真3d渲染进行物品设计定制的方法
CN103197889B (zh) * 2013-04-03 2017-02-08 锤子科技(北京)有限公司 一种亮度调整方法、装置及一种电子设备
KR102163996B1 (ko) * 2013-04-03 2020-10-13 삼성전자 주식회사 사용자 기기의 비접촉식 인식 기능 성능 향상 방법 및 장치
US9380295B2 (en) * 2013-04-21 2016-06-28 Zspace, Inc. Non-linear navigation of a three dimensional stereoscopic display
US9075435B1 (en) 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
US9672627B1 (en) * 2013-05-09 2017-06-06 Amazon Technologies, Inc. Multiple camera based motion tracking
US10078372B2 (en) 2013-05-28 2018-09-18 Blackberry Limited Performing an action associated with a motion based input
EP2808752B1 (en) * 2013-05-28 2017-09-20 BlackBerry Limited Performing an action associated with a motion based input
EP3003147B1 (en) * 2013-06-06 2021-03-03 Koninklijke Philips N.V. Fall detection system and method
GB201310367D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
DE102013210842A1 (de) * 2013-06-11 2014-12-11 Bundesdruckerei Gmbh Dokument mit einer integrierten Anzeigevorrichtung
RU2015148842A (ru) 2013-06-14 2017-07-19 Интерконтинентал Грейт Брендс Ллк Интерактивные видеоигры
JP2015012304A (ja) * 2013-06-26 2015-01-19 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US10384925B2 (en) * 2013-08-07 2019-08-20 The Coca-Cola Company Dynamically adjusting ratios of beverages in a mixed beverage
US9832452B1 (en) * 2013-08-12 2017-11-28 Amazon Technologies, Inc. Robust user detection and tracking
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
KR102063104B1 (ko) * 2013-08-29 2020-02-11 엘지전자 주식회사 이동 단말기
WO2015033151A2 (en) * 2013-09-04 2015-03-12 Zero360, Inc. Processing system and method
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US20150082145A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
US9591295B2 (en) 2013-09-24 2017-03-07 Amazon Technologies, Inc. Approaches for simulating three-dimensional views
US9437038B1 (en) * 2013-09-26 2016-09-06 Amazon Technologies, Inc. Simulating three-dimensional views using depth relationships among planes of content
KR102220085B1 (ko) * 2013-10-18 2021-02-26 삼성전자주식회사 멀티윈도우 운용 방법 및 이를 지원하는 전자 장치
KR102129594B1 (ko) 2013-10-30 2020-07-03 애플 인크. 관련 사용자 인터페이스 객체를 표시
CN104598136B (zh) * 2013-10-31 2018-07-31 纬创资通(昆山)有限公司 移动装置及移动装置的显示画面旋转方法
US10146299B2 (en) 2013-11-08 2018-12-04 Qualcomm Technologies, Inc. Face tracking for additional modalities in spatial interaction
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
US9354778B2 (en) 2013-12-06 2016-05-31 Digimarc Corporation Smartphone-based methods and systems
US9367086B2 (en) * 2013-12-10 2016-06-14 Atmel Corporation Smart watch with adaptive touch screen
US9632655B2 (en) * 2013-12-13 2017-04-25 Amazon Technologies, Inc. No-touch cursor for item selection
US9928572B1 (en) * 2013-12-20 2018-03-27 Amazon Technologies, Inc. Label orientation
US10489912B1 (en) * 2013-12-20 2019-11-26 Amazon Technologies, Inc. Automated rectification of stereo cameras
US20150205840A1 (en) * 2014-01-17 2015-07-23 Crytek Gmbh Dynamic Data Analytics in Multi-Dimensional Environments
US20150213784A1 (en) * 2014-01-24 2015-07-30 Amazon Technologies, Inc. Motion-based lenticular image display
US10067341B1 (en) 2014-02-04 2018-09-04 Intelligent Technologies International, Inc. Enhanced heads-up display system
US9542844B2 (en) * 2014-02-11 2017-01-10 Google Inc. Providing navigation directions in view of device orientation relative to user
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
US10977864B2 (en) 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
DE102014203462A1 (de) 2014-02-26 2015-08-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms
FR3018119B1 (fr) * 2014-02-28 2017-07-07 Thales Sa Systeme de visualisation de casque comportant des moyens d'affichage et de gestion de documentation
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
US11004139B2 (en) 2014-03-31 2021-05-11 Monticello Enterprises LLC System and method for providing simplified in store purchases and in-app purchases using a use-interface-based payment API
US12008629B2 (en) * 2014-03-31 2024-06-11 Monticello Enterprises LLC System and method for providing a social media shopping experience
US10511580B2 (en) * 2014-03-31 2019-12-17 Monticello Enterprises LLC System and method for providing a social media shopping experience
US11080777B2 (en) * 2014-03-31 2021-08-03 Monticello Enterprises LLC System and method for providing a social media shopping experience
US11915303B2 (en) * 2014-03-31 2024-02-27 Monticello Enterprises LLC System and method for providing a social media shopping experience
WO2015156128A1 (ja) * 2014-04-07 2015-10-15 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
US9703373B2 (en) 2014-04-23 2017-07-11 Google Inc. User interface control using gaze tracking
US9508137B2 (en) * 2014-05-02 2016-11-29 Cisco Technology, Inc. Automated patron guidance
US10365721B2 (en) 2014-05-06 2019-07-30 Symbol Technologies, Llc Apparatus and method for performing a variable data capture process
US9483763B2 (en) 2014-05-29 2016-11-01 Apple Inc. User interface for payments
US9652031B1 (en) * 2014-06-17 2017-05-16 Amazon Technologies, Inc. Trust shifting for user position detection
US9910505B2 (en) * 2014-06-17 2018-03-06 Amazon Technologies, Inc. Motion control for managing content
US9857869B1 (en) 2014-06-17 2018-01-02 Amazon Technologies, Inc. Data optimization
US9754552B2 (en) * 2014-06-17 2017-09-05 Amazon Technologies, Inc. Architectures for processing of head tracking on a mobile device
US9965796B2 (en) * 2014-06-26 2018-05-08 Paypal, Inc. Social media buttons with payment capability
DE202014103215U1 (de) 2014-07-11 2014-09-30 Christian Stroetmann Elektronisches, visuelles Gerät, das eine flexible beziehungsweise biegbare Vorrichtung zur optischen Signalisierung von veränderlichen Informationen, ein flexibles beziehungsweise biegbares Gehäuse mit mindestens einem Gelenk/Scharnier und ein Regel-/Steuerungssystem besitzt
GB2528319A (en) * 2014-07-18 2016-01-20 Ibm Device display perspective adjustment
US20160034143A1 (en) * 2014-07-29 2016-02-04 Flipboard, Inc. Navigating digital content by tilt gestures
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US10095394B2 (en) * 2014-09-02 2018-10-09 Apple Inc. Image display and interaction using a mobile device
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
EP3002669A1 (en) * 2014-09-30 2016-04-06 Advanced Digital Broadcast S.A. System and method for controlling a virtual input interface
EP3002661A1 (en) * 2014-09-30 2016-04-06 Advanced Digital Broadcast S.A. System and method for controlling a virtual input interface
WO2016064311A1 (en) 2014-10-22 2016-04-28 Telefonaktiebolaget L M Ericsson (Publ) Method and device for providing a touch-based user interface
US9665249B1 (en) * 2014-11-10 2017-05-30 Amazon Technologies, Inc. Approaches for controlling a computing device based on head movement
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
FR3028221B1 (fr) * 2014-11-12 2018-03-16 Psa Automobiles Sa. Interface homme/machine et procede de controle de fonctions d’un vehicule par detection de mouvement et/ou d’expression du conducteur
KR102347248B1 (ko) 2014-11-26 2022-01-04 삼성전자주식회사 터치 제스쳐 인식 방법 및 장치
US9953216B2 (en) * 2015-01-13 2018-04-24 Google Llc Systems and methods for performing actions in response to user gestures in captured images
WO2016126863A1 (en) * 2015-02-04 2016-08-11 Invensense, Inc Estimating heading misalignment between a device and a person using optical sensor
EP3262490A4 (en) 2015-02-23 2018-10-17 Somniq, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
US10289820B2 (en) * 2015-02-24 2019-05-14 Motorola Mobility Llc Multiuse 3D IR for electronic device
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
WO2016142933A1 (en) * 2015-03-10 2016-09-15 Eyefree Assisting Communication Ltd. System and method for enabling communication through eye feedback
US10409464B2 (en) * 2015-03-18 2019-09-10 Microsoft Technology Licensing, Llc Providing a context related view with a wearable apparatus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10146301B1 (en) * 2015-03-26 2018-12-04 Amazon Technologies, Inc. Rendering rich media content based on head position information
CN104699439B (zh) * 2015-03-30 2019-03-12 三星电子(中国)研发中心 用于移动终端的画面显示方法、装置和移动终端
US9934443B2 (en) 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
TW201642161A (zh) * 2015-05-21 2016-12-01 鴻海精密工業股份有限公司 便攜式電子裝置解鎖系統及方法
US10073886B2 (en) * 2015-05-27 2018-09-11 International Business Machines Corporation Search results based on a search history
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
CN107850993A (zh) * 2015-06-11 2018-03-27 加里·舒斯特 聚集和协同搜索结果的方法
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
US10397484B2 (en) * 2015-08-14 2019-08-27 Qualcomm Incorporated Camera zoom based on sensor data
KR20170028001A (ko) * 2015-09-03 2017-03-13 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN106557221A (zh) * 2015-09-24 2017-04-05 天津三星通信技术研究有限公司 在终端输入文本的方法和设备
US9939908B2 (en) * 2015-09-28 2018-04-10 Paypal, Inc. Multi-device authentication
KR102402829B1 (ko) * 2015-11-10 2022-05-30 삼성전자 주식회사 사용자 인증 방법 및 이를 지원하는 전자 장치
US10222979B2 (en) * 2015-12-04 2019-03-05 Datalogic Usa, Inc. Size adjustable soft activation trigger for touch displays on electronic device
USD806711S1 (en) 2015-12-11 2018-01-02 SomniQ, Inc. Portable electronic device
WO2017100641A1 (en) * 2015-12-11 2017-06-15 SomniQ, Inc. Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
CN105573434A (zh) * 2015-12-18 2016-05-11 联想(北京)有限公司 一种信息处理方法及电子设备
US10019072B2 (en) 2016-01-01 2018-07-10 International Business Machines Corporation Imagined grid fingertip input editor on wearable device
US10019412B2 (en) * 2016-03-22 2018-07-10 Verizon Patent And Licensing Inc. Dissociative view of content types to improve user experience
JP6727921B2 (ja) 2016-05-18 2020-07-22 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理システム、情報処理方法
CN106126037A (zh) * 2016-06-30 2016-11-16 乐视控股(北京)有限公司 一种虚拟现实交互界面的切换方法和装置
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
CN106325501A (zh) * 2016-08-10 2017-01-11 合肥泰壤信息科技有限公司 一种基于面部表情识别技术的游戏控制方法及系统
US10860199B2 (en) * 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
US10198122B2 (en) 2016-09-30 2019-02-05 Biocatch Ltd. System, device, and method of estimating force applied to a touch surface
US11061559B2 (en) * 2016-10-25 2021-07-13 Hewlett-Packard Development Company, L.P. Controlling user interfaces for electronic devices
US10579784B2 (en) 2016-11-02 2020-03-03 Biocatch Ltd. System, device, and method of secure utilization of fingerprints for user authentication
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
CN106683152B (zh) * 2016-11-16 2019-09-20 腾讯科技(深圳)有限公司 三维视觉效果模拟方法及装置
EP3336674B1 (en) * 2016-12-16 2020-06-24 Alpine Electronics, Inc. Method and system for providing a slider bar control on a graphical user interface of a portable device
US10520782B2 (en) 2017-02-02 2019-12-31 James David Busch Display devices, systems and methods capable of single-sided, dual-sided, and transparent mixed reality applications
CN107219921B (zh) * 2017-05-19 2019-09-27 京东方科技集团股份有限公司 一种操作动作执行方法及其系统
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
US20190007672A1 (en) 2017-06-30 2019-01-03 Bobby Gene Burrough Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections
US10397262B2 (en) 2017-07-20 2019-08-27 Biocatch Ltd. Device, system, and method of detecting overlay malware
US11445094B2 (en) 2017-08-07 2022-09-13 Apple Inc. Electronic device having a vision system assembly held by a self-aligning bracket assembly
US10268234B2 (en) 2017-08-07 2019-04-23 Apple Inc. Bracket assembly for a multi-component vision system in an electronic device
US10996713B2 (en) 2017-08-07 2021-05-04 Apple Inc. Portable electronic device
US10838585B1 (en) * 2017-09-28 2020-11-17 Amazon Technologies, Inc. Interactive content element presentation
US10884597B2 (en) * 2017-10-17 2021-01-05 Paypal, Inc. User interface customization based on facial recognition
US10664041B2 (en) 2017-11-13 2020-05-26 Inernational Business Machines Corporation Implementing a customized interaction pattern for a device
US10867054B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening assistant device
US10999733B2 (en) 2017-11-14 2021-05-04 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening device
US11100913B2 (en) 2017-11-14 2021-08-24 Thomas STACHURA Information security/privacy via a decoupled security cap to an always listening assistant device
US10872607B2 (en) 2017-11-14 2020-12-22 Thomas STACHURA Information choice and security via a decoupled router with an always listening assistant device
US10867623B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Secure and private processing of gestures via video input
US11720222B2 (en) 2017-11-17 2023-08-08 International Business Machines Corporation 3D interaction input for text in augmented reality
CN111656304B (zh) 2017-12-07 2023-10-17 艾弗里协助通信有限公司 通信方法及系统
GB201804129D0 (en) * 2017-12-15 2018-05-02 Cirrus Logic Int Semiconductor Ltd Proximity sensing
EP3502837B1 (en) * 2017-12-21 2021-08-11 Nokia Technologies Oy Apparatus, method and computer program for controlling scrolling of content
US20190236976A1 (en) * 2018-01-31 2019-08-01 Rnd64 Limited Intelligent personal assistant device
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR20200094396A (ko) * 2019-01-30 2020-08-07 삼성전자주식회사 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법
CN113728380A (zh) 2019-02-07 2021-11-30 托马斯·斯塔胡拉 用于智能扬声器的隐私装置
US20220124256A1 (en) * 2019-03-11 2022-04-21 Nokia Technologies Oy Conditional display of object characteristics
US11856045B2 (en) * 2019-10-12 2023-12-26 Breezeway Logic Llc Computing and communication systems and methods
EP3945402B1 (en) * 2020-07-29 2024-03-27 Tata Consultancy Services Limited Method and device providing multimodal input mechanism
US20220137700A1 (en) * 2020-10-30 2022-05-05 Rovi Guides, Inc. System and method for selection of displayed objects by path tracing
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11822761B2 (en) 2021-05-15 2023-11-21 Apple Inc. Shared-content session user interfaces
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
CN117170492A (zh) * 2022-05-27 2023-12-05 林诚皓 一种基于自然语言处理和计算机视觉的输入系统和方法
WO2024103348A1 (en) * 2022-11-17 2024-05-23 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Electronic device, method of controlling electronic device, and computer readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002164990A (ja) * 2000-11-28 2002-06-07 Kyocera Corp 携帯通信端末装置
JP2002351603A (ja) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp 携帯情報処理装置
JP2004318826A (ja) * 2003-04-04 2004-11-11 Mitsubishi Electric Corp 携帯端末装置および文字入力方法
JP2007121489A (ja) * 2005-10-26 2007-05-17 Nec Corp 携帯表示装置
JP2008097220A (ja) * 2006-10-10 2008-04-24 Nec Corp 文字入力装置、文字入力方法およびプログラム

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4836670A (en) 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
DE69326431T2 (de) 1992-12-28 2000-02-03 Toshiba Kawasaki Kk Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist
GB2274190B (en) 1993-01-12 1996-05-08 Mars Inc Coin dispensing apparatus
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5995080A (en) 1996-06-21 1999-11-30 Digital Equipment Corporation Method and apparatus for interleaving and de-interleaving YUV pixel data
JP3749369B2 (ja) 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US6750848B1 (en) 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6266059B1 (en) 1997-08-27 2001-07-24 Microsoft Corporation User interface for switching between application modes
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JP3597370B2 (ja) 1998-03-10 2004-12-08 富士通株式会社 文書処理装置および記録媒体
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US7750891B2 (en) 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
US6791531B1 (en) 1999-06-07 2004-09-14 Dot On, Inc. Device and method for cursor motion control calibration and object selection
US6766036B1 (en) 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
GB2353184A (en) 1999-08-13 2001-02-14 Nokia Mobile Phones Ltd Disabling a touch sensitive display screen when a call is established
US8686922B2 (en) 1999-12-15 2014-04-01 American Vehicular Sciences Llc Eye-location dependent vehicular heads-up display system
US6864912B1 (en) 1999-12-16 2005-03-08 International Business Machines Corp. Computer system providing hands free user input via optical means for navigation or zooming
JP4618840B2 (ja) 2000-02-21 2011-01-26 株式会社沖データ 座標入力装置
US20030023435A1 (en) 2000-07-13 2003-01-30 Josephson Daryl Craig Interfacing apparatus and methods
JP3561463B2 (ja) 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
WO2002015560A2 (en) 2000-08-12 2002-02-21 Georgia Tech Research Corporation A system and method for capturing an image
US6996800B2 (en) 2000-12-04 2006-02-07 International Business Machines Corporation MVC (model-view-controller) based multi-modal authoring tool and development environment
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
US7369997B2 (en) 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
AU2003214595A1 (en) 2002-03-07 2003-09-16 Yechezkal Evan Spero Enhanced vision for driving
AU2003213780B2 (en) 2002-03-08 2008-03-13 Quantum Interface, Llc Electric device control apparatus
US8213917B2 (en) 2006-05-05 2012-07-03 Waloomba Tech Ltd., L.L.C. Reusable multimodal application
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
CA2409915C (en) 2002-10-29 2012-01-03 Research In Motion Limited Electronic device having keyboard for thumb typing
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US6637883B1 (en) 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US20040174497A1 (en) 2003-03-07 2004-09-09 Manish Sharma Method and system for controlling the movement of a device
US7643055B2 (en) 2003-04-25 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
US7081884B2 (en) 2003-04-25 2006-07-25 Microsoft Corporation Computer input device with angular displacement detection capabilities
ATE377822T1 (de) * 2003-05-28 2007-11-15 Koninkl Philips Electronics Nv Vorrichtung und verfahren zum einbetten eines wasserzeichens unter verwendung von subbandfilterung
US20040260438A1 (en) 2003-06-17 2004-12-23 Chernetsky Victor V. Synchronous voice user interface/graphical user interface
US7217913B2 (en) 2003-12-18 2007-05-15 Micron Technology, Inc. Method and system for wavelength-dependent imaging and detection using a hybrid filter
US7446756B2 (en) 2004-03-22 2008-11-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus for controlling the position of a screen pointer with low sensitivity to particle contamination
US7301526B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Dynamic adaptation of gestures for motion controlled handheld devices
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US9030532B2 (en) 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
JP2006055388A (ja) 2004-08-20 2006-03-02 Toyama Prefecture 遠隔介護支援システム
NO20044073D0 (no) * 2004-09-27 2004-09-27 Isak Engquist Informasjonsbehandlingssystem og fremgangsmate
WO2006038662A1 (ja) 2004-10-07 2006-04-13 Japan Science And Technology Agency 画像表示装置および電子眼鏡
US8614676B2 (en) * 2007-04-24 2013-12-24 Kuo-Ching Chiang User motion detection mouse for electronic device
CN101137996A (zh) * 2005-01-07 2008-03-05 格斯图尔泰克股份有限公司 基于光流的倾斜传感器
US20080136916A1 (en) 2005-01-26 2008-06-12 Robin Quincey Wolff Eye tracker/head tracker/camera tracker controlled camera/weapon positioner control system
CN1293446C (zh) 2005-06-02 2007-01-03 北京中星微电子有限公司 一种非接触式目控操作系统和方法
US7661074B2 (en) 2005-07-01 2010-02-09 Microsoft Corporation Keyboard accelerator
US7603143B2 (en) 2005-08-26 2009-10-13 Lg Electronics Inc. Mobile telecommunication handset having touch pad
US8719034B2 (en) 2005-09-13 2014-05-06 Nuance Communications, Inc. Displaying speech command input state information in a multimodal browser
US7562312B2 (en) * 2006-01-17 2009-07-14 Samsung Electronics Co., Ltd. 3-dimensional graphical user interface
JP2007243250A (ja) 2006-03-03 2007-09-20 Olympus Imaging Corp 撮像装置および撮像方法
JP4862447B2 (ja) 2006-03-23 2012-01-25 沖電気工業株式会社 顔認識システム
US20070236413A1 (en) 2006-03-29 2007-10-11 3M Innovative Properties Company Fluted optical plate with internal light sources and systems using same
US20080005418A1 (en) 2006-05-09 2008-01-03 Jorge Julian Interactive interface for electronic devices
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
GB2440348B (en) * 2006-06-30 2008-10-22 Motorola Inc Computer device having a user interface and method for positioning a cursor thereon
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
KR100776801B1 (ko) 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7594192B2 (en) 2006-09-19 2009-09-22 International Business Machines Corporation Method and apparatus for identifying hotkey conflicts
US7599712B2 (en) 2006-09-27 2009-10-06 Palm, Inc. Apparatus and methods for providing directional commands for a mobile computing device
US8031264B2 (en) * 2006-12-06 2011-10-04 Sony Corporation Wall mount camera
JP4725802B2 (ja) 2006-12-27 2011-07-13 富士フイルム株式会社 撮影装置、合焦方法および合焦プログラム
JP2008186247A (ja) 2007-01-30 2008-08-14 Oki Electric Ind Co Ltd 顔向き検出装置および顔向き検出方法
US8725513B2 (en) 2007-04-12 2014-05-13 Nuance Communications, Inc. Providing expressive user interaction with a multimodal application
US8243048B2 (en) 2007-04-25 2012-08-14 Elo Touch Solutions, Inc. Touchscreen for detecting multiple touches
US8549415B2 (en) 2007-05-04 2013-10-01 Apple Inc. Automatically adjusting media display in a personal display system
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8325214B2 (en) * 2007-09-24 2012-12-04 Qualcomm Incorporated Enhanced interface for voice and video communications
US8031176B1 (en) 2008-01-22 2011-10-04 Cypress Semiconductor Corporation Optical navigation system using a single-package motion sensor
WO2009100233A2 (en) 2008-02-08 2009-08-13 Novarra, Inc. User interface with multiple simultaneous focus areas
US9582049B2 (en) * 2008-04-17 2017-02-28 Lg Electronics Inc. Method and device for controlling user interface based on user's gesture
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
JP5377057B2 (ja) 2008-06-30 2013-12-25 株式会社ジャパンディスプレイ 画像表示装置の駆動方法、並びに、画像表示装置組立体及びその駆動方法
CN102165396B (zh) 2008-07-25 2014-10-29 高通股份有限公司 挥动约定姿态的增强检测
US20110157097A1 (en) 2008-08-29 2011-06-30 Sharp Kabushiki Kaisha Coordinate sensor, electronic device, display device, light-receiving unit
WO2010034795A1 (en) 2008-09-25 2010-04-01 Movea S.A Command by gesture interface
US8253713B2 (en) 2008-10-23 2012-08-28 At&T Intellectual Property I, L.P. Tracking approaching or hovering objects for user-interfaces
US20100107067A1 (en) 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20100138680A1 (en) 2008-12-02 2010-06-03 At&T Mobility Ii Llc Automatic display and voice command activation with hand edge sensing
US8432366B2 (en) 2009-03-03 2013-04-30 Microsoft Corporation Touch discrimination
US8199186B2 (en) 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
KR101566379B1 (ko) 2009-05-07 2015-11-13 삼성전자주식회사 입력 신호 종류 별 사용자 기능 활성화 방법 및 이를 지원하는 휴대 단말기
US9594431B2 (en) 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
KR20110015747A (ko) 2009-08-10 2011-02-17 삼성전자주식회사 복수의 입력 장치를 구비하는 휴대 단말기 및 그의 인터렉션 제공 방법
CN102782616A (zh) 2009-10-16 2012-11-14 Rpo有限公司 用于检测和跟踪触摸对象的方法
CN102934058A (zh) 2009-11-17 2013-02-13 Rpo私人有限公司 接收触摸输入的装置和方法
TWI416385B (zh) 2009-12-18 2013-11-21 Au Optronics Corp 三維互動立體顯示器之指示物位置判斷方法
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
JP5413673B2 (ja) 2010-03-08 2014-02-12 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8228292B1 (en) 2010-04-02 2012-07-24 Google Inc. Flipping for motion-based input
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US20130044080A1 (en) 2010-06-16 2013-02-21 Holy Stone Enterprise Co., Ltd. Dual-view display device operating method
US8700392B1 (en) 2010-09-10 2014-04-15 Amazon Technologies, Inc. Speech-inclusive device interfaces
US9274744B2 (en) 2010-09-10 2016-03-01 Amazon Technologies, Inc. Relative position-inclusive device interfaces
KR101242481B1 (ko) 2011-01-04 2013-03-13 목포대학교산학협력단 사용자 터치와 입김을 활용한 멀티 모달 인터페이스 지원 사용자 단말과 그 제어 방법
US20130016129A1 (en) 2011-07-14 2013-01-17 Google Inc. Region-Specific User Input
WO2013021385A2 (en) 2011-08-11 2013-02-14 Eyesight Mobile Technologies Ltd. Gesture based interface system and method
US8683054B1 (en) 2011-08-23 2014-03-25 Amazon Technologies, Inc. Collaboration of device resources
US20130050131A1 (en) 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US8902125B1 (en) 2011-09-29 2014-12-02 Rockwell Collins, Inc. Reconfigurable handheld device
EP2748699A1 (en) 2011-10-03 2014-07-02 Sony Ericsson Mobile Communications AB Electronic device with touch-based deactivation of touch input signaling
TWI493387B (zh) 2011-11-18 2015-07-21 Primax Electronics Ltd 多點觸控滑鼠
US9219857B2 (en) 2011-12-21 2015-12-22 Nokia Technologies Oy Image capture
US20130191779A1 (en) 2012-01-20 2013-07-25 Microsoft Corporation Display of user interface elements based on touch or hardware input
US9928562B2 (en) 2012-01-20 2018-03-27 Microsoft Technology Licensing, Llc Touch mode and input type recognition
US10209954B2 (en) 2012-02-14 2019-02-19 Microsoft Technology Licensing, Llc Equal access to speech and touch input
US8965045B2 (en) 2012-02-22 2015-02-24 Nokia Corporation Image capture
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US8994672B2 (en) 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input
WO2013170383A1 (en) 2012-05-16 2013-11-21 Xtreme Interactions Inc. System, device and method for processing interlaced multimodal user input
US9046917B2 (en) 2012-05-17 2015-06-02 Sri International Device, method and system for monitoring, predicting, and accelerating interactions with a computing device
KR101341737B1 (ko) 2012-06-21 2013-12-16 주식회사 팬택 후면 터치를 이용한 단말 제어 장치 및 방법
US9691115B2 (en) 2012-06-21 2017-06-27 Cellepathy Inc. Context determination using access points in transportation and other scenarios
US9720508B2 (en) 2012-08-30 2017-08-01 Google Technology Holdings LLC System for controlling a plurality of cameras in a device
WO2014088621A1 (en) 2012-12-03 2014-06-12 Google, Inc. System and method for detecting gestures
US20140282272A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Interactive Inputs for a Background Task
US9026939B2 (en) 2013-06-13 2015-05-05 Google Inc. Automatically switching between input modes for a user interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002164990A (ja) * 2000-11-28 2002-06-07 Kyocera Corp 携帯通信端末装置
JP2002351603A (ja) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp 携帯情報処理装置
JP2004318826A (ja) * 2003-04-04 2004-11-11 Mitsubishi Electric Corp 携帯端末装置および文字入力方法
JP2007121489A (ja) * 2005-10-26 2007-05-17 Nec Corp 携帯表示装置
JP2008097220A (ja) * 2006-10-10 2008-04-24 Nec Corp 文字入力装置、文字入力方法およびプログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013539113A (ja) * 2010-08-24 2013-10-17 クアルコム,インコーポレイテッド 電子デバイスディスプレイの上方の空気中で物体を移動させることによって電子デバイスアプリケーションと相互作用するための方法および装置
JP2014052934A (ja) * 2012-09-10 2014-03-20 Mega Chips Corp 携帯端末装置、プログラムおよび入力方法
JP2014126997A (ja) * 2012-12-26 2014-07-07 Denso Corp 操作装置、及び操作検出方法
JP2014149794A (ja) * 2013-02-04 2014-08-21 Tokai Univ 視線分析装置
JP2016511471A (ja) * 2013-02-22 2016-04-14 サムスン エレクトロニクス カンパニー リミテッド 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末
US10775896B2 (en) 2013-02-22 2020-09-15 Samsung Electronics Co., Ltd. Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
US10126904B2 (en) 2013-05-09 2018-11-13 Amazon Technologies, Inc. Mobile device gestures
JP2016517994A (ja) * 2013-05-09 2016-06-20 アマゾン テクノロジーズ インコーポレイテッド モバイルデバイスインターフェース
US11036300B1 (en) 2013-05-09 2021-06-15 Amazon Technologies, Inc. Mobile device interfaces
US11016628B2 (en) 2013-05-09 2021-05-25 Amazon Technologies, Inc. Mobile device applications
US10955938B1 (en) 2013-05-09 2021-03-23 Amazon Technologies, Inc. Mobile device interfaces
US10394410B2 (en) 2013-05-09 2019-08-27 Amazon Technologies, Inc. Mobile device interfaces
US9947080B2 (en) 2013-09-17 2018-04-17 Nokia Technologies Oy Display of a visual event notification
US10013737B2 (en) 2013-09-17 2018-07-03 Nokia Technologies Oy Determination of an operation
US10497096B2 (en) 2013-09-17 2019-12-03 Nokia Technologies Oy Determination of a display angle of a display
JP2016539434A (ja) * 2013-09-17 2016-12-15 ノキア テクノロジーズ オサケユイチア 操作の決定
US11410276B2 (en) 2013-09-17 2022-08-09 Nokia Technologies Oy Determination of an operation
JP2016537710A (ja) * 2013-10-14 2016-12-01 ノキア テクノロジーズ オサケユイチア 偏位平面手首入力
US10423245B2 (en) 2014-01-31 2019-09-24 Qualcomm Incorporated Techniques for providing user input to a device
JP2017507412A (ja) * 2014-01-31 2017-03-16 クアルコム,インコーポレイテッド デバイスにユーザ入力を供給するための技法
US10775901B2 (en) 2014-01-31 2020-09-15 Qualcomm Incorporated Techniques for identifying rolling gestures on a device
JP2016143414A (ja) * 2015-01-30 2016-08-08 ピックスアート イメージング インコーポレイテッド インタラクティブシステム、リモコン及びその操作方法

Also Published As

Publication number Publication date
EP2364470B1 (en) 2018-01-10
US9304583B2 (en) 2016-04-05
KR20110095894A (ko) 2011-08-25
EP2364470A4 (en) 2014-08-20
US20140285435A1 (en) 2014-09-25
US8788977B2 (en) 2014-07-22
EP2364470A1 (en) 2011-09-14
KR101312227B1 (ko) 2013-09-27
CA2743914C (en) 2017-05-09
US20100125816A1 (en) 2010-05-20
CN102239460A (zh) 2011-11-09
CA2743914A1 (en) 2010-05-27
WO2010059956A1 (en) 2010-05-27

Similar Documents

Publication Publication Date Title
US9304583B2 (en) Movement recognition as input mechanism
JP6605000B2 (ja) 三次元オブジェクト表示のためのアプローチ
JP6058626B2 (ja) 注視に基づくコンテンツディスプレイ
US20180348988A1 (en) Approaches for three-dimensional object display
US10592064B2 (en) Approaches for three-dimensional object display used in content navigation
EP2972727B1 (en) Non-occluded display for hover interactions
JP6129879B2 (ja) 多次元入力のためのナビゲーション手法
US9268407B1 (en) Interface elements for managing gesture control
US8947355B1 (en) Motion-based character selection
US20160070342A1 (en) Distracted browsing modes
US20150082145A1 (en) Approaches for three-dimensional object display
US9665249B1 (en) Approaches for controlling a computing device based on head movement
US9547420B1 (en) Spatial approaches to text suggestion
US20220214725A1 (en) Posture probabilities for hinged touch display
US10585485B1 (en) Controlling content zoom level based on user head movement
US9524036B1 (en) Motions for displaying additional content

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140604

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140605

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140626

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140905