JP5323987B2 - ユーザ入力オブジェクトのサイズ及び/又は方位角を検出し且つそれに応答する電子デバイス用ディスプレイ - Google Patents

ユーザ入力オブジェクトのサイズ及び/又は方位角を検出し且つそれに応答する電子デバイス用ディスプレイ Download PDF

Info

Publication number
JP5323987B2
JP5323987B2 JP2012510787A JP2012510787A JP5323987B2 JP 5323987 B2 JP5323987 B2 JP 5323987B2 JP 2012510787 A JP2012510787 A JP 2012510787A JP 2012510787 A JP2012510787 A JP 2012510787A JP 5323987 B2 JP5323987 B2 JP 5323987B2
Authority
JP
Japan
Prior art keywords
user
user input
input object
selection
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012510787A
Other languages
English (en)
Other versions
JP2012527035A (ja
Inventor
イェルゲン バークラー,
Original Assignee
ソニーモバイルコミュニケーションズ, エービー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーモバイルコミュニケーションズ, エービー filed Critical ソニーモバイルコミュニケーションズ, エービー
Publication of JP2012527035A publication Critical patent/JP2012527035A/ja
Application granted granted Critical
Publication of JP5323987B2 publication Critical patent/JP5323987B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Description

本発明は、電子デバイス用ディスプレイに関し、特にユーザ入力を受信するディスプレイに関する。
タッチセンシティブディスプレイにおけるスタイラス及び/又は指の接触を検出するために、種々の技術が使用可能である。例えば抵抗膜方式タッチスクリーンパネルは、2つの離間した薄い金属製の導電層及び抵抗層を含む。ユーザ入力オブジェクトがパネルに触れた時に層が接続されることにより、電流は変化する。この電流の変化は、ユーザ入力接触イベントとして検出される。一般に抵抗膜方式タッチスクリーンは、相対的に精密であるが、特にユーザの指がタッチスクリーンに接触するために使用される場合に十分に感知可能でない場合がある。
一般に静電容量方式タッチスクリーンは、センサを介して電流を継続的に伝導する酸化インジウムスズ等の物質で塗布される。センサは、横軸及び縦軸の双方に格納された電子の制御された場を示し、静電容量を達成する。センサの容量場がユーザの指等の別の容量場により変更される場合、パネルの各隅に配置された電子回路は、歪みを測定し、障害の場所を識別する。静電容量方式タッチスクリーンは、相対的に高い感度を有するが、イベントの場所が検出される精度は低い。
側光式タッチスクリーンは、ディスプレイの表面の上部で光検出器のグリッドを使用する。光は、水平に及び垂直に一方から他方に送出され且つ検出器により受信される。指又はスタイラスが近接すると光のビームが遮断され、検出器により場所を座標に変換することができるようになる。しかし、光源及び検出器がディスプレイの上部に配置される必要があるため、この構成は、一般に移動デバイスでは望ましくない高さを形成する。
別の種類の光学式タッチスクリーンは、全反射原理を使用する。屈折媒体は光で充填され、指又は他の物体が表面に対して押下される場合に内部反射光路が遮断されることにより、光は屈折媒体の外側に反射される。屈折媒体の外側の光はカメラにより検出される。一般に光屈折タッチスクリーンは、高い感度及び精度を有する。しかし、光源及び屈折媒体に必要な空間により、ディスプレイの寸法は増大し、また、カメラと組み合わされるため、ディスプレイのコントラストも制限される可能性がある。従って、この種の光学式タッチスクリーンは、ハンドヘルドデバイスで使用するのは現実的ではないだろう。
また、ユーザ入力が画面と接触する場合にのみ生成されるため、タッチスクリーンは、マウスを用いたユーザインタフェースと同一の一般的なプロトコルを使用して動作できないだろう。従って、ユーザがアイコンの移動を追跡すること、例えば領域を選択することは、マウスで実行するよりも困難だろう。しかし、マウス入力デバイスは、小型化されたハンドヘルドデバイスで使用するのは望ましくないだろう。
いくつかの実施形態に係る電子デバイスは、電磁放射線検出器の配列を含むタッチセンシティブディスプレイスクリーンを備える。電磁放射線検出器の配列は、ディスプレイスクリーンから離れて近接するユーザ入力オブジェクトの画像を表す画像信号を生成し、ディスプレイスクリーンがユーザ入力オブジェクトによってタッチされたことに応じてタッチ信号を生成するように構成される。電子デバイスは制御回路を更に備え、制御回路は、キーボードを形成する複数のキーを表示すると共にキー上に文字を表示するように構成される。制御回路は、画像信号から、ディスプレイスクリーンに対するユーザ入力オブジェクトのサイズ及び/又は方位角を識別する。制御回路は、ユーザ入力オブジェクトの識別されたサイズ及び/又は方位角に応じて、且つタッチ信号に応じて、キーボードのキー上に示された文字の中からのユーザ選択を識別し、識別されたユーザ選択の文字に対応する文字データを出力する。
いくつかの更なる実施形態において、前記制御回路は更に、前記キーボードの複数のキーの各々の上に少なくとも2つの異なる文字を表示し、キーを選択する前記ユーザ入力オブジェクトの前記識別された方位角に応じて、前記複数のキーのうちの選択された1つのキー上に表示された文字の中からのユーザ選択を識別する、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ選択の文字として、前記ユーザ入力オブジェクトの前記識別された方位角によって示される方向に存在する、前記選択されたキー上の複数の文字のうちの最初の文字を識別するように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、左手の指による前記キーボードのキーのうちの1つの選択と、右手の指による選択とを区別する選択信号を生成し、前記選択されたキー上に表示された複数の文字のうちの最も左の文字をユーザが選択したと判断することにより、前記選択が左手の指により行われたと識別する前記選択信号に対して応答し、前記選択されたキー上に表示された複数の文字のうちの最も右の文字をユーザが選択したと判断することにより、前記選択が右手の指により行われたと識別する前記選択信号に対して応答する、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、ユーザの左手の指による前記キーボードのキーの中からの選択と、ユーザの右手の別の指による選択とを区別する選択信号を生成し、ユーザが選択したキーボードの一連の文字を用いて定義された単語のデータベースの中から候補の単語を選択する予測テキスト入力動作を起動することにより、ユーザが片方の手を用いてタイプしていることを示す前記選択信号に対して応答する、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記キーボードの複数のキーの各々の上に少なくとも2つの異なる文字を表示し、キーを選択する前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、前記複数のキーのうちの選択された1つのキー上に表示された複数の文字の中からのユーザ選択を識別する、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、ユーザの親指を用いた前記キーボードのキーの中からの選択と、親指でない別の指を用いた選択とを区別する選択信号を生成するように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、ユーザが選択する可能性のある文字を表示された数字でない文字に制限することにより、ユーザの親指による選択を示す前記選択信号に対して応答し、ユーザが選択する可能性のある文字を表示された英字でない文字に制限することにより、ユーザの親指でない指の1つによる選択を示す前記選択信号に対して応答する、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、選択された一連の英文字を用いて定義された単語のデータベースの中から候補の単語を選択する予測テキスト入力動作を起動することにより、ユーザの片方又は両方の親指による表示された英文字の一連の選択を示す前記選択信号に対して応答し、ユーザの親指でない指のうちの1つによる少なくとも1つのキーの選択を示す前記選択信号に応じて、前記予測テキスト入力動作を停止する、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、前記キーボードのキーの少なくとも一部の表示サイズを修正するように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの第1の閾値サイズを識別したことに応じて、前記ディスプレイスクリーン上のQWERTYキーボードの第1の複数のキーを表示し、前記ユーザ入力オブジェクトの第2の閾値サイズを識別したことに応じて、前記表示された第1の複数のキーを、前記ディスプレイスクリーン上のQWERTYキーボードの第2の複数のキーにより置き換える、ように構成される。前記第2の閾値サイズは、前記第1の閾値サイズよりも大きく、前記第2の複数のキーは、前記第1の複数のキーよりも少ない。
いくつかの更なる実施形態において、前記制御回路は更に、前記識別されたサイズに応じて、ユーザの親指によるキーの選択と、ユーザの親指でない指のうちの1つによる選択とを区別する選択信号を生成し、ユーザの親指による選択を識別したことに応じて、前記キーボードのキーのうちの少なくとも1つの表示サイズを拡大し、ユーザの親指でない指のうちの1つのよる選択を識別したことに応じて、以前の前記拡大された少なくとも1つのキーの表示サイズを減少させる、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、ユーザの親指によるキーの選択と、ユーザの親指でない指のうちの1つによる選択とを区別する選択信号を生成し、ユーザの親指でない指のうちの1つによる選択を識別したことに応じて、QWERTYキーボード構成に配列される第1の複数のキーの各々に第1の複数の英文字を表示し、ユーザの親指による選択を識別したことに応じて、第2の複数の表示キー上に前記第1の複数の英文字のグルーピングを表示する、ように構成され、前記第2の複数の表示キーは、前記第1の複数の表示キーよりも少ない。
いくつかの更なる実施形態において、前記制御回路は更に、前記第1の複数の表示キーよりも大きなキーシンボルとして、前記第2の複数の表示キーを表示するように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、前記キーボードのキーのうちの1つの選択が左手の指によるものであるか右手の指によるものであるかを示す選択信号を生成し、前記第1の複数のキーの中からの選択のためにユーザが右手及び左手両方の指を使用しているということを示す前記選択信号に応じて、前記第1の複数のキーの表示を、前記第2の複数のキーの表示により置き換える、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、少なくとも複数である閾値数のキー選択に関して、両方ではなくどちらか片方の親指を用いてユーザが表示キーの中から選択しているということを示す前記選択信号に応じて、前記第1又は第2の複数のキーの表示を、第3の複数のキーの表示により置き換えるように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、ユーザの親指でない指のうちの少なくとも1つを用いてユーザが前記第2の複数のキーの中から選択しているということを示す前記選択信号に応じて、前記第2の複数のキーの表示を、前記第1の複数のキーの表示により置き換えるように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、閾値時間の間ユーザが右手及び左手両方の親指を用いて前記第1の複数のキーの中から選択しているということを示す前記選択信号に応じて、前記第1の複数のキーの表示を、前記第2の複数のキーの表示により置き換え、ユーザの親指でない指のうちの少なくとも1つを用いてユーザが前記第2の複数のキーの中から選択しているということを示す前記選択信号に応じて、前記第2の複数のキーの表示を、前記第1の複数のキーの表示により置き換える、ように構成される。
いくつかの更なる実施形態において、前記制御回路は更に、前記第2の複数のキーのうちの選択されたキー上に表示された文字のうちの最も左の文字をユーザが選択したと識別することにより、左手の指によるキー選択を示す前記選択信号に応答し、前記第2の複数のキーのうちの選択されたキー上に表示された文字のうちの最も右の文字をユーザが選択したと識別することにより、右手の指によるキー選択を示す前記選択信号に応答する、ように構成される。
いくつかの他の実施形態において、電子デバイスは、タッチセンシティブディスプレイスクリーンと、制御回路と、を備える。前記タッチセンシティブディスプレイスクリーンは、電磁放射線検出器の配列を含み、前記電磁放射線検出器の配列は、当該ディスプレイスクリーンから離れて近接するユーザ入力オブジェクトの画像を表す画像信号を生成し、当該ディスプレイスクリーンが前記ユーザ入力オブジェクトによってタッチされたことに応じてタッチ信号を生成するように構成される。前記制御回路は、キーボードを形成する複数のキーを前記ディスプレイスクリーン上に表示すると共に当該キー上に文字を表示するように構成される。前記制御回路は、前記画像信号から、前記ディスプレイスクリーンに対する前記ユーザ入力オブジェクトのサイズ及び方位角のうちの少なくとも一方を識別する。戦記制御回路は、前記ユーザ入力オブジェクトの前記識別されたサイズ及び方位角のうちの少なくとも一方に応じて、且つ前記タッチ信号に応じて、前記キーボードのキー上に示された文字の中からのユーザ選択を識別し、前記識別されたユーザ選択の文字に対応する文字データを出力する。前記制御回路は、前記ユーザ入力オブジェクトの第1の閾値サイズを識別したことに応じて、QWERTYキーボード構成に配列される第1の複数のキーの各々に第1の複数の英文字を表示し、前記ユーザ入力オブジェクトの第2の閾値サイズを識別したことに応じて、第2の複数の表示キー上に前記第1の複数の英文字のグルーピングを表示する。前記第2の閾値サイズは、前記第1の閾値サイズよりも大きく、前記第2の複数のキーは、前記第1の複数のキーよりも少ない。前記制御回路は、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、左手の指による前記キーボードのキーのうちの1つの選択と、右手の指による選択とを区別し、前記ユーザ選択の文字として、前記ユーザ入力オブジェクトの前記識別された方位角によって示される方向に存在する、前記選択されたキー上の複数の文字のうちの最初の文字を識別する。
本明細書に組み込まれ且つその一部を構成する添付の図面は、本発明の実施形態を図示し、説明と共に本発明の原理を説明するために用いられる。
図1は、本発明の実施形態に係るディスプレイを有する移動通信デバイスを示す正面図である。 図2は、図1のディスプレイを示す分解図である。 図3は、図1のディスプレイを示す横断面図である。 図4は、本発明の実施形態に係る電磁放射線エミッタ及び電磁放射線検出器を含む図1のディスプレイの層を示す横断面図である。 図5Aは、本発明の実施形態に係る電磁放射線プロファイルを示すデジタル画像を示す図である。図5Bは、図5Aの画像から導出された強調画像を示す図である。図5Cは、図5A及び図5Bの画像を使用してユーザ入力デバイスを識別することを示す概略図である。図5Dは、図5Cの概略図に基づいて識別された対象領域を示す概略図である。 図6は、本発明の実施形態に係る動作を示すフローチャートである。 図7は、本発明のいくつかの実施形態に係るタッチセンシティブディスプレイを示す横断面図である。 図8は、本発明のいくつかの実施形態に係る別のタッチセンシティブディスプレイを示す横断面図である。 図9は、本発明の実施形態に係る動作を示すフローチャートである。 図10は、本発明のいくつかの実施形態に係る無線移動通信デバイスを含む無線通信システムを示す概略ブロック図である。 図11は、更なる実施形態に係るディスプレイを示す平面図である。 図12は、更なる実施形態に係るディスプレイの画素を示す概略図である。 図13は、本発明の実施形態に係る動作を示すフローチャートである。 図14は、種々の実施形態に係るユーザ入力オブジェクトを示すデジタル画像である。 図15は、いくつかの実施形態に従って取り込まれ且つ特徴付けられるホットスポットのいくつかの属性を示す図である。 図16は、いくつかの実施形態に従って制御回路が表示装置上に描画する例示的なQWERTYキーボードを示す図である。 図17は、いくつかの実施形態に従って制御回路が表示装置上に描画する別の例示的なキーボードを示す図である。 図18は、いくつかの実施形態に従う、キーボードキー上に表示される複数の文字の中からのユーザの選択を識別するための、制御器により実行される動作を示すフローチャートである。 図19は、いくつかの実施形態に従う、選択されたキーボードキー上に表示される2つの文字の中からのユーザの選択を識別するための、制御器により実行される動作を示すフローチャートである。 図20は、いくつかの実施形態に従う、予測テキスト入力動作を起動させ且つ停止させるための、制御器により実行される動作を示すフローチャートである。 図21は、いくつかの実施形態に従う、、予測テキスト入力動作を起動させ且つ停止させ、且つキーを選択したユーザの指のサイズに応じて、選択されたキー上に表示される数字、英字及び/又は他の文字の中からのユーザ選択を判定するための、制御器により実行される動作を示すフローチャートである。 図22は、いくつかの実施形態に従って制御器が表示装置上に表示するキー毎に1つの文字を含む例示的なQWERTYキーボードを示す図である。 図23は、いくつかの実施形態に従って制御器が表示装置上に表示するキー毎に2つの文字を含むより小型化されたQWERTYキーボードを示す図である。 図24は、いくつかの実施形態に従って制御器が表示装置上に表示するキー毎に2つの文字を含む更により小型化されたQWERTYキーボードを示す図である。 図25は、いくつかの実施形態に従う、ユーザがキーを親指でない指で選択したか、あるいは親指で選択したかに応じて、キーボードキーの数及びサイズ、及び各キー上に表示される文字の数を制御するために、少なくともいくつかの機能を実行するための、制御器により実行される例示的な動作を示すフローチャートである。 図26は、いくつかの実施形態に従う、ユーザが親指/親指でない指でタイプしているか及びユーザが両手を使用してタイプしているかに応じて、キーボードキーの数及びサイズ、及び各キー上に表示される文字の数を制御するために、少なくともいくつかの機能を実行するための、制御器により実行される例示的な動作を示すフローチャートである。
次に、本発明の実施形態が示される添付の図面及び例を参照して、以下において本発明を説明する。しかし、本発明は、多くの種々の形態で具体化されてもよく、本明細書で説明する実施形態に限定されるものとして解釈されるべきではない。これらの実施形態は、その開示内容が完璧で完全なものとなり、且つ本発明の範囲が当業者に完全に理解されるように提供される。
全体を通して、同様の参照番号は同様の要素を示す。図において、ある特定の線、層、構成要素、要素又は特徴は、明確にするために誇張されている場合もある。
本明細書で使用される専門用語は、特定の実施形態を説明するためだけのものであり、本発明を限定することを意図しない。本明細書で使用されるように、特に指示のない限り、単数形(“a”, “an”, and “the”)は複数形を含むことを意図する。本明細書で使用される場合の用語「備える(“comprises” and/or “comprising”)」は、記載される特徴、ステップ、動作、要素及び/又は構成要素の存在を特定するが、1つ以上の他の特徴、ステップ、動作、要素、構成要素及び/又はそれらの集合の存在又は追加を除外しないことが更に理解されるだろう。本明細書で使用されるように、「及び/又は(and/or)」という用語は、関連付けられ且つ列挙された項目のうちの1つ以上のいずれか及び全ての組合せを含む。本明細書で使用されるように、「XとYとの間」及び「XとYの周囲の間(between about X and Y)」等の表現は、X及びYを含むように解釈されるべきである。本明細書で使用されるように、「XとYの周囲の間」等の表現は「Xの周囲とYの周囲との間」を意味する。本明細書で使用されるように、「Xの周囲からYへ」等の表現は「Xの周囲からYの周囲へ」を意味する。
特に指示のない限り、本明細書で使用される全ての用語(技術科学用語を含む)は、本発明が属する技術の当事者により一般に理解されるのと同一の意味を有する。一般的に使用される辞書において定義される用語等の用語は、関連技術説明におけるそれらの用語の意味と一致する意味を有するものとして解釈されるべきであり、特に指示のない限り、理想化された意味又は過度に形式的な意味に解釈されないことが更に理解されるだろう。既知の機能又は構成は、簡潔に及び/又は明確にするために詳細に説明されなくてもよい。
要素は、例えば別の要素「上にあり(“on”)」、別の要素に「装着され(“attached”)」、別の要素に「接続され(“connected” to)」、別の要素と「結合され(“coupled” with)」、別の要素に「接触している(contacting)」などものとして示される場合、直接他の要素上にあるか、他の要素に装着されるか、他の要素に接続されるか、他の要素と結合されるか、又は他の要素に接触していてもよく、あるいは介在要素が更に存在してもよいことが理解されるだろう。これに対して、要素が、例えば別の要素の「直接上にあるか」、別の要素に「直接装着されるか」、別の要素に「直接接続されるか」、別の要素と「直接結合されるか」、あるいは別の要素に「直接接触している」場合、介在要素は存在しない。別の特徴に「隣接して」開示される構造又は特徴を参照することは、隣接する特徴と重なり合うか、あるいは隣接する特徴の基盤をなす部分を有する場合があることが当業者により更に理解されるだろう。
空間に関係のある用語、例えば「下(“under”)」、「下側(“below”)」、「下方(“lower”)」、「上(“over”)」及び「上側(“upper”)」等は、説明を簡単にするために本明細書で使用されてもよく、図示されるように別の要素又は特徴との1つの要素又は特徴の関係を説明する。空間に関係のある用語は、図において説明される方位に加え、使用中又は動作中のデバイスの種々の方位を含むことを意図することが理解されるだろう。例えば、図のデバイスが反転される場合、他の要素又は特徴の「下」あるいは「真下」にあるものとして説明される要素は、他の要素又は特徴の「上」に配向される。従って、「下」という例示的な用語は、「上」及び「下」の双方の方位を含む。あるいは、デバイスは配向されてもよく(90度又は他の方位で回転されてもよく)、本明細書で使用される空間に関係のある記述子はそれに応じて解釈される。同様に、特に指示のない限り、「上方に」、「下方に」、「垂直」及び「水平」等の用語は、説明のためだけに本明細書で使用される。
種々の要素を説明するために「第1の」、「第2の」等の用語が本明細書で使用されてもよいが、これらの要素はこれらの用語により限定されるべきではないことが理解されるだろう。これらの用語は、1つの要素を別の要素と区別するためだけに使用される。従って、以下で説明する「第1の」要素は、本発明の教示から逸脱せずに「第2の」要素と呼ばれてもよい。特に指示のない限り、動作(又はステップ)の手順は、請求の範囲又は図面に提示される順序に限定されない。
本明細書で使用されるように、「移動通信端末」又は「端末」は、例えばセルラネットワーク、ワイドエリアネットワーク、無線ローカルエリアネットワーク(WLAN)、GPSシステム及び/又は別のRF通信デバイスから無線インタフェースを介して通信信号を受信するように構成される通信デバイスを含むがそれに限定されない。
本明細書で使用されるように、「ディスプレイ」は、情報を表示するため及び/又は美的のためにグラフィックス、照明又は背面照明等の視覚表現を提供できるデバイスを含むがそれに限定されない。
図1〜図3に示されるように、例示的なハンドヘルド移動電子デバイス10は、液晶ダイオード(LCD)ディスプレイ12を含む。ディスプレイ12は、背面照明層14と、液晶層16と、保護層18(ガラス等)と、タッチパネル層20とを含む。図4に示されるように、背面照明層14及び/又は液晶層16が省略される別の構成を採用する有機発光ダイオード(OLED)が使用される。図4のディスプレイ12は、基板S上に電磁放射線エミッタE及び電磁放射線検出器Dの配列を含む。いくつかの実施形態において、電磁放射線エミッタE及び電磁放射線検出器Dは、それぞれ、赤外線エミッタ及び赤外線検出器を含んでもよい。基板Sは、ディスプレイ12上で種々の色の画素を表示するために使用される発光ダイオード(LED)又はOLED等の光エミッタR、G及びBを更に含む。
図3に示されるように、エミッタは、ディスプレイ12から離れる方向へ電磁放射線ERを発する。指等のユーザ入力オブジェクト22がディスプレイ12に隣接して(必ずしもディスプレイ12と接触しない)配置される場合、電磁放射線ERは、ディスプレイ12の方向へ反射される。反射された電磁放射線ERは、液晶層16内及び/又は液晶層16の真下で検出器Dにより検出される。ユーザ入力オブジェクト22とディスプレイとの接触は必要ではなく、電磁放射線ERは、オブジェクト22がディスプレイ12から離間される場合にオブジェクト22により反射されてもよい。
図5A〜図5D及び図6に示されるように、電磁放射線検出器Dの出力は、ユーザにより選択されるかあるいは強調(ハイライト)されるディスプレイの領域等のユーザ入力を識別する(図5D、図6のブロック102)ために使用可能な、検出された電磁放射線プロファイル(図5、図6のブロック100)に応じて2次元画像を生成するために、使用される。この構成において、指又はスタイラス等のユーザ入力オブジェクトは、オブジェクトが離間され且つディスプレイ12と物理的に接触しない場合にも検出可能である。
例えば、図5Aに示されるように、検出器Dからのデータは、ユーザの指の例示的な赤外線(IR)画像を示す図5Aに示された画像を提供するために使用される。画像の画素間のコントラストは、オプションとして図5Bに示されるように強調されてもよい。ユーザの指Fの形状は、図5Cに示されるように識別されてもよい。図5Dに示されるように、対象領域Tは、例えば指Fの形状(例えば、指Fの先)から領域を識別するために当業者に既知である画像解析技術を使用することにより識別される。いくつかの実施形態において、対象領域Tは、例えば対象領域Tでアイコンを表示することにより、図1〜図4のディスプレイ12上に示されてもよい。従って、ユーザ入力オブジェクト又は指Fの移動は、指Fの移動に応答するアイコンを表示することにより、ディスプレイ12上で追跡されてもよい。この構成において、種々のユーザ入力は、指Fからの接触なしでディスプレイにより登録されてもよい。
特定の実施形態において、ディスプレイ12は、ユーザ入力オブジェクトがディスプレイに接触する場合に更なるユーザ入力が検出されるように、タッチセンシティブディスプレイを更に含む。この構成において、従来のマウスの環境で使用されるのと同様のディスプレイ12へのユーザ入力が使用される。ユーザがディスプレイ12に接触せずに、例えば図5A〜図5Dに関連して説明されるようにユーザ入力オブジェクトを移動する場合、従来のマウス矢印等のアイコンは移動する。ユーザがディスプレイ12に触れる場合、別のユーザ入力は電子デバイス10により受信される。これは、特定の場所でマウスボタンを選択すること又は「クリックすること」に類似してもよい。それに応じて、ディスプレイ12は、ユーザ入力オブジェクトの動き及び/又は接触を検出し、従来のマウス環境に類似するユーザインタフェースを提供する。
図4の赤外線電磁放射線エミッタE及び赤外線電磁放射線検出器Dに関連して本発明に係る実施形態を説明するが、ユーザ入力オブジェクトの場所に応答する電磁放射線プロファイルを提供するために他の適切な技術が使用されてもよいことが理解されるべきである。例えば、いくつかの実施形態において、図4に示されたエミッタEは省略され、検出器Dは、ユーザ入力オブジェクトの位置に応答するバックグラウンド電磁放射線の障害物を検出するように構成される。いくつかの実施形態において、電磁放射線検出器Dは、例えばユーザの手の指(digit or finger)からの熱放射を赤外線(IR)信号として検出するように構成される。
本発明の更なる実施形態によると、タッチセンシティブディスプレイシステムが提供されてもよい。図7に示されるように、ディスプレイ12’は、電磁放射線エミッタE、E、電磁放射線検出器D、D及び屈折媒体30の配列を含む。指F等のユーザ入力オブジェクトからの接触が無い状態で且つエミッタE及び検出器Dに関連して示されるように、エミッタEは屈折媒体30に対して電磁放射線を発するように構成され、屈折媒体30の全反射は検出器Dに対する電磁放射線を反射する。屈折媒体30の全反射が、エミッタE及び検出器Dに関連して示されるように指Fからの接触により妨害されるかあるいは変化するため、反射された電磁放射線の方向は変化し、検出器Dは減少した量の電磁放射線を検出する。屈折媒体30は、透明及び/又は半透明プラスチック、エラストマ材料又はガラスを含むあらゆる適切な材料から形成されてもよい。いくつかの実施形態において、表面30は、反射コーティング又は部分反射コーティングを含む。従って、指Fの存在は、検出器Dにおいて検出された電磁放射線を削減するかあるいは除去することにより検出される。
図8で示されたようないくつかの実施形態において、エミッタE及び検出器Dは、それぞれ、赤、緑及び青の光に対する光エミッタR、G、Bと共に基板S上に提供される。光エミッタR、G、Bは、LED又はOLEDであってもよい。従って、エミッタE及び/又は検出器Dはディスプレイに組み込むことができる。
図9に示されるように、エミッタE及び検出器Dは、例えばディスプレイ12’上で検出器Dの配列により検出された電磁放射線の量を検出することにより、ディスプレイの電磁放射線プロファイルを検出する(ブロック150)ために使用される。ディスプレイの屈折媒体が接触され(ブロック152)、それに起因する電磁放射線プロファイルの変化が検出される(ブロック154)。検出器が減少した量の反射光を検出する領域を識別すること等に基づいて、接触領域が検出される(ブロック156)。
特定の実施形態において、図7及び図8に示された構成は、図2〜図6に関連して説明されるように、ディスプレイ12’と接触していないユーザ入力オブジェクトを検出するように構成される更なるエミッタE及び検出器Dを含む。図7及び図8の屈折媒体30の表面は、エミッタEにより発せられた電磁放射線の入射角に基づいて、反射するようになる(例えば、プラスチック又はガラスと、空気との境界面(interface)の場合、約45度)。他の角度において、屈折媒体30の表面は透過的である。それに応じて、屈折媒体30上のエミッタEの入射角を選択して、図7及び図8に関連して説明された(すなわち、反射された電磁放射線、及び屈折媒体30と接触することによる、その途絶を検出する)ように構成されるエミッタE及び検出器Dのペア、並びに図2〜図6に関連して説明した(すなわち、ディスプレイ12、12’から離れたユーザ入力オブジェクトを検出する)ように屈折媒体30を介して電磁放射線を発するかあるいは送信するエミッタEを提供することができる。
図10は、セルラ基地局202及び/又は無線ローカルネットワーク216から無線通信信号を受信する移動無線通信端末等の無線端末200を含む無線通信システムを示す概略ブロック図である。セルラ基地局202は、MTSO206に接続されることにより、PSTN212及びネットワーク214(例えば、インターネット)に接続される。移動端末200は、802.11a、802.11b、802.11e、802.11g、802.11iを含んでもよいがそれらに限定されない通信プロトコル及び/又は他の無線ローカルエリアネットワークプロトコルを使用して無線ローカルネットワーク216と通信してもよい。無線ローカルネットワーク216は、ネットワーク214に接続されてもよい。
本発明のいくつかの実施形態において、移動端末200は、制御回路232と、セルラ送受信機回路234と、メモリ回路236と、タイミング回路(時計)238と、ローカルネットワーク送受信機回路240と、スピーカデバイス242と、マイクデバイス244と、表示装置246と、キーパッド248とを備える。ディスプレイ246は、本明細書で説明するディスプレイ12、12’の要素を内蔵してもよい。
メモリ236は、制御器232により実行されるソフトウェアを格納し、1つ以上の消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュEPROM)、バッテリバックアップランダムアクセスメモリ(RAM)、磁気記憶装置、光記憶装置又は他のデジタル記憶装置を含んでもよく、制御器232から又は制御器232内で少なくとも部分的に分離されてもよい。制御器232は、同一のパッケージに内臓されるか又は互いに分離してもよい2つ以上のプロセッサ、例えば汎用プロセッサ及びデジタル信号プロセッサ等を含んでもよい。
特に制御器232は、例えばディスプレイ12、12’の検出器Dにより検出された電磁放射線プロファイルからのユーザ入力を識別すること、及び識別された入力に応答して、表示装置246上に表示されている項目(アイテム)の中からのユーザの選択を判定することにより、図1〜図9に関連して説明したような動作を制御するように構成されてもよい。
一般にセルラ送受信機234は、送信機(TX)250及び受信機(RX)252の双方を含むことにより双方向通信を可能にするが、本発明はそのようなデバイスに限定されず、本明細書で使用されるように、「送受信機」は受信機252のみを含んでもよい。移動端末200は、アンテナ254を介して通信されてもよい無線周波数信号を使用して基地局202とそのように通信してもよい。例えば移動端末200は、1つ以上のセルラ通信プロトコル、例えば先進移動電話サービス(AMPS)、ANSI−136、GSM(登録商標)(Global Standard for Mobile)通信、汎用パケット無線サービス(GPRS)、GSM進化型高速データレート(EDGE)、符号分割多元接続(CDMA)、広帯域CDMA、CDMA2000及びユニバーサル移動通信システム(UMTS)等を使用してセルラ送受信機234を介して通信するように構成されてもよい。本明細書で使用されるような通信プロトコルは、通信される情報、タイミング、周波数、変調及び/又は通信接続を設定し及び/又は維持する動作を特定してもよい。いくつかの実施形態において、アンテナ228及び254は単一のアンテナであってもよい。
更なる実施形態を図11及び図12に示す。図11及び図12に示されるように、ディスプレイ12は、それぞれがOLEDエミッタ及び/又はLEDエミッタR、G、B、並びにIR検出器Dを含む複数の画素42を含んでもよい。IR検出器Dの出力は、サンプリングされ、ディスプレイ12に近似する空間の感知された画像、例えば図5Aに示されたIR画像を表す画像信号を生成する。上述したように、IR画像は、ユーザの指及び/又はスタイラス等のユーザ入力オブジェクトの存在を識別するように従来の画像処理技術を使用して処理されてもよい。いくつかの実施形態によると、ユーザ入力オブジェクトによる動き及び/又は動作は、種々の入力又はコマンドに対応するものとして制御器232により解釈される。ユーザ入力オブジェクトがディスプレイ12に触れる前に検出器Dの配列がユーザ入力オブジェクトの動きを感知するため、移動端末200は、タッチ又はタッチベースのジェスチャに加えて他の種類の動作又は動作の組合せに応答する。いくつかの実施形態によると、タッチに基づくジェスチャと組み合わされたタッチに基づかないジェスチャは、移動端末200の動作を制御するために使用される。
いくつかの実施形態に係るジェスチャ解釈は、従来のタッチのみのタッチパッドを使用するジェスチャ解釈よりも複雑かもしれない。例えば図13は、いくつかの実施形態に係るジェスチャ解釈を示す図である。図13のフローチャートのブロックは、移動端末200によりジェスチャ解釈で使用されるステップを示してもよく、移動端末200の制御器232により実行されたソフトウェアプログラムで機能モジュールとして実現されてもよい。
図13を参照すると、ジェスチャ解釈は、画像取得(ブロック/モジュール302)、画像フィルタリング及び正規化(ブロック/モジュール304)、形状識別(ブロック/モジュール306)、ホットスポット検出(ブロック/モジュール308)、タッチ検出(ブロック/モジュール310)及びジェスチャ判定(ブロック/モジュール312)のうちの1つ以上を含んでもよい。
画像取得(ブロック/モジュール302)は、IR検出器Dの出力をサンプリングし、且つそれに応答してユーザ入力オブジェクト(例えば、指又はスタイラス)の2次元電磁画像を表す画像信号を生成することにより実行されてもよい。生成された画像信号は、ノイズを削減するか、縁部を鮮明にするか、画像の特徴を強調(ハイライト)するか、あるいは他の目的でフィルタリングされ且つ正規化されてもよい(ブロック/モジュール304)。形状識別(ブロック/モジュール306)は、画像信号で表された形状を識別するためにパターン認識を使用する。一般にパターン認識は、画像に関する数字情報又は記号情報が算出される特徴抽出を含んでもよい。分類スキーム又は記述スキームは抽出された特徴を分類する。例えば、画像信号により表された画像から抽出される特徴は、画像のスケール不変の(scale-invariant)特徴及び/又は回転不変の(rotation-invariant)特徴を含む。物体/画像認識技術は、当業者には既知であり、本明細書で詳細に説明される必要はない。
ユーザ入力オブジェクト、例えばユーザの指、スタイラスチップ等の形状が画像で識別されると、ユーザ入力オブジェクトの「ホットスポット」の場所が識別される(ブロック/モジュール308)。「ホットスポット」は、ユーザがユーザ入力オブジェクトでディスプレイ12に触れた場合にユーザ入力オブジェクトと表示画面12との接触が予想されるユーザ入力オブジェクト上の点を示す。すなわち、以下に更に詳細に説明するように、ユーザ入力オブジェクト(例えば、指、スタイラス等)がディスプレイ12と接触していない場合でも、移動端末200の動作はホットスポットの場所に応答して制御される。
ホットスポットの判定は、1つ以上の発見的方法(ヒューリスティック)及び/又は決定論的方法を使用して実行可能である。例えばホットスポットは、識別された特定のユーザ入力オブジェクトがユーザの指、ユーザの親指、あるいはスタイラス又は他の人工のポインティングデバイスであるという判定に基づいて予測/位置特定することができる。ホットスポットの判定はまた、較正データに基づいて実行されてもよい。例えば、予備的なホットスポットが判定されてもよく、次にユーザが画面に触れるように要求されてもよい。ホットスポットの場所は、画面上のタッチの予測された場所と実際の場所との差に基づいて調整される。
形状判定を図14に更に詳細に示す。図14に示されるように、形状判定は、縁部のぼけにより判定されるような形状(例えば、人差し指、親指又はスタイラス)、方位(左手又は右手)及び画面までの距離等のユーザ入力オブジェクト55の属性を判定するために使用される。例えば、図14(d)に示されるように、画面から離れた状態で保持されるユーザ入力オブジェクト55は、縁部のぼけ55aを示す。縁部のぼけの量は、ディスプレイ12からのユーザ入力オブジェクト55の距離の長さとして解釈される。
図14(a)を参照すると、ホットスポット60は、ユーザ入力オブジェクト55の場所及び方位に基づいて判定される。ホットスポット60を図15に更に詳細に示す。
いくつかの実施形態によると、移動端末200は、ディスプレイ12の検出器Dにより取り込まれた画像を解析するホットスポット検出モジュール308を含んでもよい。ホットスポット検出モジュールは、形状(s)、位置(x、y)、方位角(θ)、半径(r)、表示画面からの距離(z)及び/又は速度ベクトル(u、v、w)等のホットスポットの種々の属性を識別し且つ出力する。1つ以上のジェスチャは、これらの属性に応じて推測される。いくつかの実施形態において、1つ以上のジェスチャは、タッチスクリーンディスプレイ12上のタッチと組み合わせてこれらの属性に応じて推測される。
形状は、ホットスポット検出モジュール308によりユーザ入力オブジェクトとして検出された形状の種類、例えば指、親指、スタイラス等を示す。
位置(x、y)は、ホットスポット60の中心を示す。位置(x、y)は、ユーザ入力オブジェクトとして使用される形状の種類を認識することに基づいて判定されてもよい。形状が識別されると、ホットスポット検出モジュール308は、発見的方法又は決定論的方法を適用し、形状の種類に基づいてホットスポット60の中心の位置を特定する。また、いくつかの実施形態において、種々の形状は、移動端末200で種々の機能を起動するためのユーザ入力オブジェクトとして使用されてもよい。例えば親指の形状は、いくつかの実施形態において指の形状とは異なる機能を起動するために使用されてもよい。ホットスポットの中心位置は、特定のジェスチャにより起動(アクティブ化)されるディスプレイ12上の場所を規定する。
ホットスポットの中心位置(x、y)は、ディスプレイ12上の場所に触れるようにユーザに命令することにより較正される。場所は、ディスプレイ上のいかなる場所であってもよく、あるいはグラフィックアイコンにより示された場所等の事前定義された場所であってもよい。タッチの場所は、ディスプレイ12のタッチスクリーン機能により検出され、形状に対するホットスポットの中心の位置(x、y)が判定される。
方位角(θ)は、表示画面12の方位に対するユーザ入力オブジェクトの主軸の角度を表してもよい。方位角(θ)を認識することにより、ホットスポットをより正確に判定できるようになる場合がある。また、いくつかの実施形態において、ユーザ入力オブジェクトの方位角に基づいて種々のコマンドが呼び出されてもよい。
ホットスポット60のサイズは、ホットスポット60の半径(r)により表される。半径は、ディスプレイ12と接触しているユーザ入力オブジェクトの部分のサイズを表す。例えば指は、スタイラスより大きな表示画面12との接触半径を有してもよい。ホットスポット60の半径は、ジェスチャの効力の有効領域を判定するために使用されてもよい。いくつかの実施形態において、ホットスポットのサイズを考慮する確率モデルは、ジェスチャにより起動される表示画面12の領域を推定又は予測するために使用される。
出力(z)は、表示画面12までのユーザ入力オブジェクト55の距離を示す。表示画面までのユーザ入力オブジェクトの距離を追跡することにより、ジェスチャは、ユーザ入力オブジェクトが表示画面に接触しない場合でも解釈され、且つ移動端末200においてコマンド又は動作を呼び起こすために使用される。
いくつかの実施形態によると、ホットスポット60から画面12までの距離(z)は、追跡されたオブジェクトの縁部の相対的なぼけを解析することにより推定される。すなわち、距離(z)は、追跡されるオブジェクトの種類/形状、並びに追跡されたオブジェクトのぼけの双方の機能として推定されてもよい。表示画面12からのユーザ入力オブジェクトの距離は、いくつかの実施形態において画像ズーム機能を呼び起こすために使用される。
ホットスポットの速度ベクトル(u、v、w)は、x方向及びy方向(u及びv)、並びにz方向(w)にホットスポットの速度を追跡する。ホットスポットの速度(u、v、w)は、最後に認識したホットスポット座標からの範囲に含まれた距離を計算することにより判定される。z方向の速度ベクトルwは、z方向の速度を判定する際にホットスポットの半径(r)の変化を更に考慮する。
ディスプレイ12はタッチスクリーン機能を更に含み、移動端末200は、画面12がユーザ入力オブジェクトにより触れられる時及び場所を判定するように構成される(ブロック/モジュール310)。ディスプレイ12は、従来のタッチスクリーン(例えば、抵抗膜方式、静電容量方式等)を含んでもよく、及び/又は図7及び図8の実施形態に対して上述したようにユーザ入力オブジェクトによるタッチを検出するように構成されてもよい。
ジェスチャは、ホットスポット検出モジュール308により出力されたホットスポット属性のうちの1つ以上に基づいて判定される。例えば、以下の表1に示されたジェスチャは、1つ以上のホットスポット属性に基づいて識別される。表1に示されるように、ジェスチャは、事前条件、トリガ及び事後条件に基づいて識別される。事前条件と、トリガと、事後条件との組合せは、移動端末200の特徴又は機能にマッピングされるイベントの発生を示す。表1において、「HS」は「ホットスポット」を示す。「イベント」列は、ジェスチャ検出から上位層(例えば、アプリケーション層)に渡されるデータを表す。当該ジェスチャに依存して、アプリケーションに対して種々のデータが使用可能であってもよい。イベント列の数字「1」は、1つのイベントが存在することを示す。イベント列の記号「」は、ジェスチャが検出される間に複数のイベントが存在してもよいことを示す。
表1−考えられるジェスチャ検出アルゴリズム
表1から分かるように、3次元のユーザ入力オブジェクト追跡及びジェスチャ解釈は、タッチパッド及びタッチスクリーンのユーザに親しみのある2次元のジェスチャ解釈の上位集合である。しかし、3次元のユーザ入力オブジェクト追跡及びジェスチャ解釈により、ドラッグアンドドロップ等の直感的ジェスチャを含むより多種多様のジェスチャが可能になる。
ユーザ入力オブジェクト追跡を種々のジェスチャを検出するアルゴリズムと組み合わせることにより、広範な固有のユーザインタフェース動作の作成及び実現が可能になる。例えば表1は、「選択」ジェスチャ及び「クリック」ジェスチャの双方を規定する。「選択」ジェスチャは、ホットスポットの検出(事前条件)に応答して解釈され、ディスプレイ上のタッチの検出(トリガリングイベント)、再度ホットスポットの検出(事後条件)が後続する。「クリック」ジェスチャは、閾値速度wclickを超えるz方向の速度でディスプレイ上のタッチの検出(トリガリングイベント)に応答して解釈され、再度ホットスポットの検出(事後条件)が後続する。これらのジェスチャは、類似するが異なる効力を有する。例えば、「選択」ジェスチャは、ウェブページ上に表示されたハイパーリンク等の表示画面の小部分をゆっくりと選択するために使用され、「クリック」ジェスチャは、タッチスクリーン上のクリック可能なボタン等の広いヒット領域を選択するために使用される。
「追跡」ジェスチャは、「選択」ジェスチャで選択される表示画面の部分に関する視覚フィードバックをユーザに与えるように、例えば実際のリンクがマウスポインタのように強調表示される高密度のウェブページで適切な有用性を提供する。
ジェスチャは、使用される特定のユーザ入力オブジェクトに依存して異なってもよく、及び/又は同一のジェスチャは、使用されるユーザ入力オブジェクト(例えば、指対親指)に依存して移動端末200内で異なる機能を起動してもよいことが理解されるだろう。それに応じて、いくつかの実施形態において、形状は異なるイベントをトリガするために使用されてもよいことが理解されるだろう。更に形状は、意図した対象の選択の精度を向上させるために使用されてもよい。
いくつかの他の実施形態に従って、電子デバイスは、ディスプレイに対してユーザタッチオブジェクトのサイズ及び/又は方位角を検出し、且つユーザにより選択されるキーボード上に視覚的に表示される文字を判定するのを補助し及び/又はキーボード及び関連付けられた文字がユーザに対して表示される方法を変更するためにその情報を使用するように構成される制御器と、タッチセンシティブディスプレイとを備える。図16〜図26に関して、これらの実施形態及び更なる実施形態を以下に詳細に説明する。図10の移動端末200に関連して種々の実施形態を本明細書で説明するが、本発明は、タッチセンシティブディスプレイスクリーン及び制御回路を含むあらゆる電子デバイスで具体化されてもよいため、種々の実施形態に限定されない。
本明細書で使用されるように、「選択された」という用語は、指又は他のユーザ入力オブジェクトがタッチセンシティブディスプレイ246等のディスプレイに必ずしも触れていないが近接に配置されることを示す画像信号を示す。それに応じて、ユーザ入力オブジェクトは、キーに触れていないが隣接する場合に表示されたキーを選択したと判定されてもよい。従って、いくつかの実施形態に従って、ユーザ入力オブジェクトは、ディスプレイに必ずしも触れていないが近接に配置され、本明細書で説明する種々の機能の動作、例えば表示されたキーボード上で文字を選択すること及び/又は種々のキーボード構成を表示させることをトリガしてもよい。あるいは、いくつかの他の実施形態において、そのような機能は、ユーザ入力オブジェクトがディスプレイの規定された1つ以上の領域に物理的に接触するまでトリガされなくてもよい。
上述したように、いくつかの実施形態において、表示装置246は、ディスプレイに対して近接に離間されるユーザ入力オブジェクトの画像を表す画像信号を生成するように構成される電磁放射線検出器Dの配列を含む。ユーザ入力オブジェクトは、ユーザの手の指及び/又はユーザにより操作されるスタイラス又は他の物体を含んでもよいが、それらに限定されない。検出器Dは、ユーザ入力オブジェクトにより触れられるディスプレイ246に応答してタッチ信号を生成するように更に構成されてもよい。
制御回路232は、キーボードを形成し且つキー上に文字を表示する構成で複数のキーを表示装置246上に視覚的に表示するように構成される。本明細書で使用されるように、「キーボード」という用語は、全体的又は部分的なQWERTYキーボード配列、タッチパッド配列(例えば、英数字記号を含む従来の電話キーパッド構成)、あるいは他のあらゆるキー配列を含むがそれに限定されない。図16は、制御回路232が表示装置246上に描画する例示的なQWERTYキーボードを示す。図16を参照すると、QWERTYキーボードは、キー300と、キー300内に表示される文字とを表すグラフィックシンボルを含む。
制御器232は、表示装置246に対して近接に離間されたユーザ入力オブジェクトのサイズ及び/又は方位角を画像信号から識別するように構成されてもよい。制御器232は、識別されたユーザ入力オブジェクトのサイズ及び/又は方位角、並びにタッチ信号に応答してキーボードキー300上に示された文字の中からのユーザの選択を識別し、且つ識別されたユーザが選択した文字に対応する文字データを移動端末200の他の回路/機能アプリケーションに出力する。
例えば、タッチポイントが2つの隣接キー300の間に現れる場合、制御器232は、識別されたユーザ入力オブジェクトの方位角により示された方向に現れる2つのキーのうちの最初のキーをユーザが選択したキーであるものとして識別してもよい。従って、左手の指が水平に隣接した2つのキーの間のキーボードに触れる場合、制御器232は、左のキーが選択されたと判定することによりそれに応答する。同様に、右手の指が水平に隣接した2つのキーの間のキーボードに触れる場合、制御器232は、右のキーが選択されたと判定することによりそれに応答する。
あるいは又は更に、制御器232は、ユーザの指のサイズに応じて選択キー上に表示される複数の文字の中からのユーザの選択を識別してもよい。例えば制御器232は、ユーザの親指により実行されたキー選択をユーザの親指でない他の指(例えば、人差し指)により実行された選択と区別してもよい。それに応じて、ユーザの指の方位角及び/又はサイズは、選択されたキーボード上のキーを識別し、及び/又は選択されたキー上に表示される複数の文字の中から選択された文字を識別するために使用される。これらの実施形態及び他の実施形態を以下に更に詳細に説明する。
制御器232は、キーボードキー300のうちのいくつか又は全ての上に複数の異なる文字を表示し、且つ識別されたキーを選択しているユーザ入力オブジェクトの方位角に応じて、選択された複数の文字キー300のうちの1つの文字キー上に表示された文字の中からのユーザの選択を識別するように構成されてもよい。
図17は、制御器232が表示装置246上に描画する例示的なキーボード(例えば、キーパッド)を示す。図17を参照すると、キーボードは、各キー310上に表示される複数の文字を含む。示された文字は、英字及び非英字(例えば、数字、数学記号及び他の記号)を含む。制御回路232は、識別されたキーを選択しているユーザ入力オブジェクトの方位角に応じて、選択された複数の文字キー310のうちの1つの文字キー上に表示された複数の文字の中からのユーザの選択を識別するように構成される。
図18は、図17のキーボード310等のキーボードキー上に表示される複数の文字の中からのユーザの選択を識別するための、制御器232により実行される動作320を示すフローチャートである。図17及び図18を参照すると、ディスプレイ246は、ユーザ入力オブジェクトがディスプレイ246に接触する前及び/又は接触した後にユーザ入力オブジェクトの取得した画像を表す画像信号を生成する(ブロック322)。制御器232は、ディスプレイ246に対して画像信号により示されたユーザ入力オブジェクトの方位角を識別する(ブロック324)。次に制御器232は、識別された方位角に応じて選択されたキー310上に表示された複数の文字の中からのユーザ選択を識別し(ブロック326)、ユーザが選択した文字を出力する(ブロック328)。
例えば、図17に示されたキー310のうちの1つは、英字「a」、「b」及び「c」を含む。制御器232は、選択されたキーに対してユーザの指が左から接近する場合に最左端の文字(「a」)をユーザにより選択されたものとして識別するように構成され、選択されたキーに対してユーザの指が右から接近する場合に最右端の文字(「c」)をユーザにより選択されたものとして識別し、選択されたキーに対してユーザの指がキーボードキー310の上部/下部から接近する場合に中央の文字(「b」)をユーザにより選択されたものとして識別する。
図19は、図17のキーボード310等のキーボードキー上に表示される2つの文字の中からのユーザの選択を識別するための、制御器232により実行される更なる動作330を示すフローチャートである。図19の動作330は、制御器232が、識別された方位角に応じてユーザが左手又は右手の指を使用してキーを選択したかを識別し、且つそれに応じて選択されたキー上の2つの文字の中から選択するという点で、図18の動作320とは根本的に異なる。
図19を参照すると、ディスプレイ246は、選択されたキーに対して取得した指の画像を表す画像信号を生成する(ブロック332)。制御器232は、左手の指により実行されたキー選択を右手の指により実行されたキー選択と区別する選択信号を生成する(ブロック334)。制御器232は、ユーザの左手の指がキーを選択したかを判定し(ブロック336)、そうである場合に選択されたキー上に表示された2つの文字のうちの左の文字をユーザが選択した文字として出力する(ブロック338)。これに対して、ユーザの右手の指がキーを選択した場合、制御器232は、選択されたキー上に表示された右の文字をユーザが選択した文字として出力する。
いくつかの更なる実施形態は、ディスプレイに対するユーザ入力オブジェクトの方位角に応じて予測テキスト入力動作を起動すること及び停止することに関する。予測テキスト入力動作は、ユーザがタッチセンシティブディスプレイ上に表示されるキーボード上でタイプする時に入力された一連の英字を使用して、規定された単語のデータベースの中から候補の単語を選択する。
図20は、予測テキスト入力を起動し且つ停止するための、制御器232により実行される動作340を示すフローチャートである。図20を参照すると、ディスプレイ246は、選択されたキーに対して取得した指の画像を表す画像信号を生成する(ブロック342)。制御器232は、識別されたユーザ入力オブジェクトの方位角に応じて、ユーザの左手の指によりキーボードキーの中から選択することをユーザの右手の指により選択することと区別する選択信号を生成する(ブロック344)。制御器232は、選択信号からユーザが片手でタイプしているかを判定し(ブロック346)、そうである場合に、ユーザが片手を使用してキーボード上でタイプするにつれてユーザが選択した一連のキーボード文字を使用して単語を見つけるためにデータベースの中から候補の単語を選択する、予測テキスト入力動作を起動する(ブロック348)。あるいは、制御器232は、予測テキスト入力動作を停止する(ブロック349)ことにより、ユーザが両手を使用してキーボード上でタイプしているという判定に応答する(ブロック346)。
いくつかの更なる実施形態は、予測テキスト入力動作を起動すること及び停止すること、並びにキーを選択したユーザの指のサイズに応じて選択されたキー上に表示される数字、英字及び/又は他の文字の中からのユーザ選択を判定することに関する。図21は、この機能のうちの少なくともいくつかを実行するために制御器232により実行される動作350を示すフローチャートである。図21を参照すると、ディスプレイ246は、選択されたキーに対して取得された指の画像を表す画像信号を生成する(ブロック352)。制御器232は、選択する指のサイズに応じて、親指を使用してキーを選択するユーザを親指でない指を使用してキーを選択するユーザと区別する選択信号を生成する(ブロック354)。制御器232は、選択信号からユーザが親指でキーを選択したかを判定し(ブロック356)、そうである場合に予測テキスト入力動作を起動し(ブロック358)、選択されたキーの複数の表示文字の中からユーザが選択する可能性のある文字を数字でない文字に制限する(ブロック360)。あるいは、制御器232は、予測テキスト入力動作を停止し(ブロック362)(アクティブであった場合)、且つ選択されたキーの複数の表示文字の中からユーザが選択する可能性のある文字を数字に制限する(ブロック364)ことにより、ユーザが親指でない指を使用してキーを選択したと判定すること(ブロック356)に応答する。
特定の限定しない例として、図17に示されたキーボードキー310を参照すると、制御器232は、予測テキスト入力を停止し、且つ選択されたキー上でユーザが選択する可能性のある文字を表示された英字でない文字(例えば、数字及び数学記号)に制限することにより、親指でない指(例えば、人差し指)を使用してキーを選択するユーザに応答する。これに対して、制御器232は、予測テキスト入力を起動し、且つ選択されたキー上でユーザが選択する可能性のある文字を表示された英字に制限することにより、親指を使用してキーを選択するユーザに応答する。
いくつかの更なる実施形態は、ユーザの指のサイズ及びユーザがキーボードキーを選択するために使用する指の数に応じて、キーボードキーの数及び/又はサイズ、及び/又は各キーの上に表示される文字の数を制御することに関する。図22〜図26に関して、例示的な実施形態を以下に説明する。図22は、親指でない指(例えば、人差し指)を使用してキーボード上でタイプするユーザに応答して制御器232が表示装置246上に表示する、キー毎に1つの文字を含む例示的なQWERTYキーボード370を示す。図23は、2つの親指を使用してキーボード380上でタイプするユーザに応答して制御器232が表示装置246上に表示する、キー毎に2つの文字を含むより小型化されたQWERTYキーボード380を示す。図24は、2つの親指を使用してキーボード380上でタイプするユーザに応答して制御器232が表示装置246上に表示する、キー毎に2つの文字を含む更により小型化されたキーボード390(例えば、電話キーパッド構成)を示す。
図25は、ユーザがキーを親指でない指で選択したか、あるいは親指で選択したかに応じて、キーボードキーの数及びサイズ、及び各キー上に表示される文字の数を制御するために、少なくともいくつかの機能を実行するための、制御器232により実行される例示的な動作400を示すフローチャートである。図22及び図23の例示的なキーボードと組み合わせて図25を参照すると、ディスプレイ246は、選択されたキーに対して取得した指の画像を表す画像信号を生成する(ブロック402)。制御器232は、選択している指のサイズに応じて、親指を使用してキーを選択するユーザを親指でない指を使用してキーを選択するユーザと区別する選択信号を生成する(ブロック404)。制御器232は、選択信号からユーザが親指でない指(例えば、人差し指)でキーを選択したかを判定し(ブロック406)、そうである場合に各キー上に異なる文字を含む第1の複数のQWERTYキーボードキー370を表示する(ブロック408)。制御器232は、ユーザが親指を使用してキーを選択したと判定する(ブロック410)場合、キーボード370のキーより大きいがより少ないキーを有するより小型化されたQWERTYキーボード380を表示する(ブロック412)。キーボード380のより大きなキーは、片方又は両方の親指を使用してキーボード380上でタイプしているユーザにより、より正確に選択されるだろう。制御器232は、ユーザが親指を使用してキーボード380上でタイプしていると判定することに応答して、予測テキスト入力動作を更に起動してもよい(ブロック414)。
従って、制御器232は、ユーザが親指又は親指でない指でタイプしているかに応じて、ユーザに対して種々のキーボードを表示してもよい。ここで、種々のキーボードは特に、関連付けられた親指/親指でない指を使用するユーザによるより簡単で正確なタイプを補助するように構成されてもよい。
図26は、いくつかの実施形態に従う、ユーザが親指/親指でない指でタイプしているか及びユーザが両手を使用してタイプしているかに応じて、キーボードキーの数及びサイズ、及び各キー上に表示される文字の数を制御するために、少なくともいくつかの機能を実行するための、制御器232により実行される例示的な動作420を示すフローチャートである。図22〜図24の例示的なキーボードと組み合わせて図26を参照すると、ディスプレイ246は、選択されたキーに対して取得した指の画像を表す画像信号を生成する(ブロック422)。制御器232は、ディスプレイ246に対して識別された指の方位角に応じて、左手の指でタイプするユーザを右手の指でタイプするユーザと区別する選択信号を生成する(ブロック424)。制御器232は、選択信号からユーザが親指でない指を使用してタイプしているかを判定し(ブロック426)(例えば、規定された長さの、親指でない指による一連のキー選択を検出する)、そうである場合に各キー上に異なる文字を含む第1の複数のQWERTYキーボードキー370を表示する(ブロック428)。制御器232は、ユーザが両手から由来するものを使用してタイプしていると判定する(ブロック430)場合、キーボード370のキーより大きいがより少ないキーを有するより小型化されたQWERTYキーボード380を表示する(ブロック432)。キーボード380のより大きなキーは、両方の親指でタイプするユーザにより、より正確に選択されるだろう。示されないが、更に制御器232は、ユーザがキーボード380上で両方の親指でタイプする時、予測テキスト入力動作を起動して単語を予測してもよい。制御器232は、ユーザが片手(例えば、片手の片方の親指)のみを使用してタイプしていると判定する(ブロック434)場合、キーボード370のキーより大きいがより少ないキーを有する更により小型化されたキーボード380を表示する(ブロック436)。より小型化されたキーボード380のより大きなキーは、片方の親指でタイプするユーザにより、より簡単に且つ正確に選択することができる。制御器232は、ユーザが片手を使用してキーボード390上でタイプする時、予測テキスト入力動作を起動して(ブロック438)単語を予測する。
上記の記述は、本発明を例示するものであり、本発明を限定するものとして解釈されるべきではない。本発明のいくつかの例示的な実施形態を説明したが、本発明の新規の教示及び利点から実質的に逸脱することなく、例示的な実施形態において多くの変更が可能であることは、当業者により容易に理解されるだろう。従って、全てのそのような変更は、請求の範囲で規定される本発明の範囲内に含まれることを意図する。従って、上記の記述は、本発明を例示するものであり、開示された特定の実施形態に限定されるものとして解釈されるべきではなく、且つ開示された実施形態及び他の実施形態に対する変更は、添付の請求の範囲の範囲内に含まれることを意図することが理解されるべきである。本発明は、本発明に含まれる請求の範囲の均等物と共に、以下の請求の範囲により規定される。
[関連出願]
本願は、2008年10月13日に出願された同時係属中で同一譲受人の米国出願第12/250,108号(タイトル:“User Input Displays For Mobile Devices”)、及び、2008年11月14日に出願された同時係属中で同一譲受人の米国出願第12/271,239号(タイトル:“Displays for Mobile Devices that Detect User Inputs Using Touch and Tracking of User Input Objects”)に関連し、これら両方の開示は、その全体が参照により本願に組み込まれる。

Claims (10)

  1. タッチセンシティブディスプレイスクリーンと、制御回路と、を備える電子デバイスであって、
    前記タッチセンシティブディスプレイスクリーンは、当該ディスプレイスクリーンから離れて近接するユーザ入力オブジェクトの画像を表す画像信号を生成し、当該ディスプレイスクリーンが前記ユーザ入力オブジェクトによってタッチされたことに応じてタッチ信号を生成するように構成される、電磁放射線検出器の配列を含み、
    前記制御回路は、キーボードを形成する複数のキーを前記ディスプレイスクリーン上に表示すると共に当該キー上に文字を表示し、前記画像信号から、前記ディスプレイスクリーンに対する前記ユーザ入力オブジェクトのサイズ及び方位角を識別し、前記ユーザ入力オブジェクトの前記識別されたサイズ及び方位角に応じて、且つユーザ選択の文字に対応する単一のタッチポイントにおける前記ユーザ入力オブジェクトによるタッチを示す前記タッチ信号に応じて、前記キーボードのキー上に示された文字の中からのユーザ選択を識別し、前記識別されたユーザ選択の文字に対応する文字データを出力する、ように構成される
    ことを特徴とする電子デバイス。
  2. 前記制御回路は更に、前記キーボードの複数のキーの各々の上に少なくとも2つの異なる文字を表示し、前記単一のタッチポイントにおいてキーを選択する前記ユーザ入力オブジェクトの前記識別された方位角に応じて、且つ、前記単一のタッチポイントにおいてキーを選択する前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、或いはこれらのいずれか一方に応じて、前記複数のキーのうちの選択された1つのキー上に表示された文字の中からのユーザ選択を識別する、ように構成される
    ことを特徴とする請求項1に記載の電子デバイス。
  3. 前記制御回路は更に、前記ユーザ選択の文字として、前記ユーザ入力オブジェクトの前記識別された方位角によって示される方向に存在する、前記選択されたキー上の複数の文字のうちの最初の文字を識別するように構成される
    ことを特徴とする請求項2に記載の電子デバイス。
  4. 前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、前記単一のタッチポイントにおける左手の指による前記キーボードのキーのうちの1つの選択と、前記単一のタッチポイントにおける右手の指による選択とを区別する選択信号を生成し、前記選択されたキー上に表示された複数の文字のうちの最も左の文字をユーザが選択したと判断することにより、前記選択が左手の指により行われたと識別する前記選択信号に対して応答し、前記選択されたキー上に表示された複数の文字のうちの最も右の文字をユーザが選択したと判断することにより、前記選択が右手の指により行われたと識別する前記選択信号に対して応答する、ように構成される
    ことを特徴とする請求項2に記載の電子デバイス。
  5. 前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、前記単一のタッチポイントにおけるユーザの左手の指による前記キーボードのキーの中からの選択と、前記単一のタッチポイントにおけるユーザの右手の別の指による選択とを区別する選択信号を生成し、ユーザが選択したキーボードの一連の文字を用いて定義された単語のデータベースの中から候補の単語を選択する予測テキスト入力動作を起動することにより、ユーザが片方の手を用いてタイプしていることを示す前記選択信号に対して応答する、ように構成される
    ことを特徴とする請求項1に記載の電子デバイス。
  6. 前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、前記単一のタッチポイントにおけるユーザの親指を用いた前記キーボードのキーの中からの選択と、前記単一のタッチポイントにおける親指でない別の指を用いた選択とを区別する選択信号を生成するように構成される
    ことを特徴とする請求項1に記載の電子デバイス。
  7. 前記制御回路は更に、ユーザが選択する可能性のある文字を表示された数字でない文字に制限することにより、ユーザの親指による選択を示す前記選択信号に対して応答し、ユーザが選択する可能性のある文字を表示された英字でない文字に制限することにより、ユーザの親指でない指の1つによる選択を示す前記選択信号に対して応答する、ように構成される
    ことを特徴とする請求項に記載の電子デバイス。
  8. 前記制御回路は更に、選択された一連の英文字を用いて定義された単語のデータベースの中から候補の単語を選択する予測テキスト入力動作を起動することにより、ユーザの片方又は両方の親指による表示された英文字の一連の選択を示す前記選択信号に対して応答し、ユーザの親指でない指のうちの1つによる少なくとも1つのキーの選択を示す前記選択信号に応じて、前記予測テキスト入力動作を停止する、ように構成される
    ことを特徴とする請求項に記載の電子デバイス。
  9. 前記制御回路は更に、前記ユーザ入力オブジェクトの前記識別されたサイズに応じて、前記キーボードのキーの少なくとも一部の表示サイズを修正するように構成される
    ことを特徴とする請求項1に記載の電子デバイス。
  10. 前記制御回路は更に、前記単一のタッチポイントに応じて、複数の文字のサブセットを識別し、前記ユーザ入力オブジェクトの前記識別された方位角に応じて、前記サブセットの中からのユーザ選択の文字を識別する、ように構成される
    ことを特徴とする請求項1に記載の電子デバイス。
JP2012510787A 2009-05-12 2009-11-18 ユーザ入力オブジェクトのサイズ及び/又は方位角を検出し且つそれに応答する電子デバイス用ディスプレイ Expired - Fee Related JP5323987B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/464,403 US8169418B2 (en) 2009-05-12 2009-05-12 Displays for electronic devices that detect and respond to the size and/or angular orientation of user input objects
US12/464,403 2009-05-12
PCT/US2009/064893 WO2010132076A1 (en) 2009-05-12 2009-11-18 Displays for electronic devices that detect and respond to the size and/or angular orientation of user input objects

Publications (2)

Publication Number Publication Date
JP2012527035A JP2012527035A (ja) 2012-11-01
JP5323987B2 true JP5323987B2 (ja) 2013-10-23

Family

ID=41818620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012510787A Expired - Fee Related JP5323987B2 (ja) 2009-05-12 2009-11-18 ユーザ入力オブジェクトのサイズ及び/又は方位角を検出し且つそれに応答する電子デバイス用ディスプレイ

Country Status (6)

Country Link
US (1) US8169418B2 (ja)
EP (1) EP2430513A1 (ja)
JP (1) JP5323987B2 (ja)
KR (1) KR20120023642A (ja)
CN (1) CN102422254B (ja)
WO (1) WO2010132076A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
JP2010533331A (ja) * 2007-08-31 2010-10-21 ソニー エリクソン モバイル コミュニケーションズ, エービー 近赤外線タッチ入力画面を有する携帯通信装置
US9043718B2 (en) * 2009-06-05 2015-05-26 Blackberry Limited System and method for applying a text prediction algorithm to a virtual keyboard
GB2473239B (en) 2009-09-04 2014-07-09 Cambridge Display Tech Ltd Touch screen display device
US20110102334A1 (en) * 2009-11-04 2011-05-05 Nokia Corporation Method and apparatus for determining adjusted position for touch input
US8786639B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating a collection of objects
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
JPWO2011152224A1 (ja) * 2010-06-01 2013-07-25 日本電気株式会社 端末、処理選択方法、制御プログラムおよび記録媒体
US8773370B2 (en) 2010-07-13 2014-07-08 Apple Inc. Table editing systems with gesture-based insertion and deletion of columns and rows
JP5561089B2 (ja) * 2010-10-15 2014-07-30 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8766937B2 (en) * 2011-09-08 2014-07-01 Blackberry Limited Method of facilitating input at an electronic device
US9612670B2 (en) * 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US9250681B2 (en) * 2011-10-25 2016-02-02 Nook Digital, Llc Infrared reflection based cover detection
US20130125016A1 (en) * 2011-11-11 2013-05-16 Barnesandnoble.Com Llc System and method for transferring content between devices
US8581870B2 (en) * 2011-12-06 2013-11-12 Apple Inc. Touch-sensitive button with two levels
US10504485B2 (en) 2011-12-21 2019-12-10 Nokia Tehnologies Oy Display motion quality improvement
KR101819513B1 (ko) * 2012-01-20 2018-01-17 엘지전자 주식회사 이동단말기 및 그 제어방법
US8436828B1 (en) * 2012-01-27 2013-05-07 Google Inc. Smart touchscreen key activation detection
US9037090B2 (en) 2012-02-07 2015-05-19 Empire Technology Development Llc Signal enhancement
US9244612B1 (en) * 2012-02-16 2016-01-26 Google Inc. Key selection of a graphical keyboard based on user input posture
JP5962085B2 (ja) * 2012-03-15 2016-08-03 ソニー株式会社 表示制御装置、その制御方法およびプログラム
US20130300696A1 (en) * 2012-05-14 2013-11-14 N-Trig Ltd. Method for identifying palm input to a digitizer
US8487897B1 (en) 2012-09-12 2013-07-16 Google Inc. Multi-directional calibration of touch screens
WO2014047161A2 (en) * 2012-09-18 2014-03-27 Google Inc. Posture-adaptive selection
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR102059359B1 (ko) * 2012-11-13 2019-12-26 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 동작 방법 및 제조 방법
US9081417B2 (en) * 2012-11-30 2015-07-14 Blackberry Limited Method and device for identifying contactless gestures
US10540083B2 (en) * 2012-12-11 2020-01-21 University Of Washington Use of hand posture to improve text entry
KR102086799B1 (ko) 2013-02-21 2020-03-09 삼성전자주식회사 가상 키 패드를 디스플레이하기 위한 방법 및 그 전자 장치
JP2014203288A (ja) * 2013-04-05 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20150070283A1 (en) * 2013-09-06 2015-03-12 Linkedln Corporation Techniques for providing a scrolling carousel
US9483143B2 (en) 2013-09-27 2016-11-01 International Business Machines Corporation Method and system providing viewing-angle sensitive graphics interface selection compensation
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US10095361B2 (en) 2015-03-18 2018-10-09 Microsoft Technology Licensing, Llc Stylus detection with capacitive based digitizer sensor
US10296146B2 (en) 2015-12-22 2019-05-21 Microsoft Technology Licensing, Llc System and method for detecting grip of a touch enabled device
US10423268B2 (en) 2015-12-22 2019-09-24 Microsoft Technology Licensing, Llc System and method for detecting grounding state of a touch enabled computing device
US9823774B2 (en) 2016-02-23 2017-11-21 Microsoft Technology Licensing, Llc Noise reduction in a digitizer system
DE102016216388A1 (de) 2016-08-31 2018-03-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zum Trennen eines rohrförmigen Bauteils
CN107870665A (zh) * 2016-09-23 2018-04-03 中兴通讯股份有限公司 一种控制终端的方法、装置及终端
US10732787B2 (en) * 2018-03-09 2020-08-04 Abl Ip Holding Llc Lighting wall controller with configurable user interface
US10678348B2 (en) 2018-03-12 2020-06-09 Microsoft Technology Licensing, Llc Touch detection on an ungrounded pen enabled device
US10616349B2 (en) 2018-05-01 2020-04-07 Microsoft Technology Licensing, Llc Hybrid sensor centric recommendation engine
DK180359B1 (en) 2019-04-15 2021-02-03 Apple Inc Accelerated scrolling and selection
US11327651B2 (en) 2020-02-12 2022-05-10 Facebook Technologies, Llc Virtual keyboard based on adaptive language model
US11853509B1 (en) 2022-05-09 2023-12-26 Microsoft Technology Licensing, Llc Using a camera to supplement touch sensing

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110730A (ja) * 1993-10-13 1995-04-25 Fujitsu Ltd キーボード
US7006080B2 (en) * 2002-02-19 2006-02-28 Palm, Inc. Display system
JP2003271310A (ja) * 2002-03-13 2003-09-26 Canon Inc 情報入出力装置、その制御方法および該制御方法を実現するためのプログラム
CA2531666A1 (en) * 2003-07-09 2005-01-27 Wildseed Ltd. Shared input key method and apparatus
US20070152980A1 (en) * 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US20080098331A1 (en) 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US20070097096A1 (en) 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
JP2008052536A (ja) * 2006-08-25 2008-03-06 Nissan Motor Co Ltd タッチパネル式入力装置
JP2010533331A (ja) * 2007-08-31 2010-10-21 ソニー エリクソン モバイル コミュニケーションズ, エービー 近赤外線タッチ入力画面を有する携帯通信装置
CN101169689B (zh) * 2007-12-10 2011-06-01 北京安效技术有限公司 应用手指识别的输入方法和键盘
JP4743267B2 (ja) * 2008-12-12 2011-08-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20100289752A1 (en) 2010-11-18
WO2010132076A1 (en) 2010-11-18
EP2430513A1 (en) 2012-03-21
US8169418B2 (en) 2012-05-01
CN102422254A (zh) 2012-04-18
CN102422254B (zh) 2014-07-23
JP2012527035A (ja) 2012-11-01
KR20120023642A (ko) 2012-03-13

Similar Documents

Publication Publication Date Title
JP5323987B2 (ja) ユーザ入力オブジェクトのサイズ及び/又は方位角を検出し且つそれに応答する電子デバイス用ディスプレイ
US8514190B2 (en) Displays for electronic devices that detect and respond to the contour and/or height profile of user input objects
US20100123665A1 (en) Displays for Mobile Devices that Detect User Inputs Using Touch and Tracking of User Input Objects
US10409490B2 (en) Assisting input from a keyboard
EP2350796B1 (en) User input displays for mobile devices
US8446376B2 (en) Visual response to touch inputs
US20110012856A1 (en) Methods for Operation of a Touch Input Device
US20110063224A1 (en) System and method for remote, virtual on screen input
US20100302144A1 (en) Creating a virtual mouse input device
KR101770309B1 (ko) 촉각 입력 디바이스를 통해 받아들인 입력 판정
CN104679362A (zh) 触控装置及其控制方法
WO2012032515A1 (en) Device and method for controlling the behavior of virtual objects on a display
US9477398B2 (en) Terminal and method for processing multi-point input
US9538316B2 (en) Smart monitor system and hand-held electronic device
US8970498B2 (en) Touch-enabled input device
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
US20160026280A1 (en) Shadeless touch hand-held electronic device and touch cover
KR101706909B1 (ko) 핑거 입력장치
TW202248820A (zh) 電子裝置
KR101888902B1 (ko) 움직임 감지장치를 이용한 휴대 단말의 포토 앨범 정보 표시 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130717

R150 Certificate of patent or registration of utility model

Ref document number: 5323987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees