JP2011503756A - ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド - Google Patents

ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド Download PDF

Info

Publication number
JP2011503756A
JP2011503756A JP2010534959A JP2010534959A JP2011503756A JP 2011503756 A JP2011503756 A JP 2011503756A JP 2010534959 A JP2010534959 A JP 2010534959A JP 2010534959 A JP2010534959 A JP 2010534959A JP 2011503756 A JP2011503756 A JP 2011503756A
Authority
JP
Japan
Prior art keywords
touchpad
display
motion
touch
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010534959A
Other languages
English (en)
Other versions
JP5284364B2 (ja
Inventor
ウーリー,リチャード・ディー
オオシマ,クリス
Original Assignee
サーク・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーク・コーポレーション filed Critical サーク・コーポレーション
Publication of JP2011503756A publication Critical patent/JP2011503756A/ja
Application granted granted Critical
Publication of JP5284364B2 publication Critical patent/JP5284364B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

ディスプレイと組み合わせた接触感応および遠方場または近接感応タッチパッド。このタッチパッドは、ディスプレイの内側に隠蔽したタッチストリップとして形成されている。動作誘発デバイスが、タッチパッドから閾値距離に達すると、メニューのような第1機能またはインターフェースがイネーブルされる。動作誘発デバイスがタッチパッドと接触すると、第2機能またはインターフェースがイネーブルされる。タッチパッドと接触した後、第1機能は継続してもしなくてもよい。
【選択図】図4

Description

関連出願に対する相互引用
本文書は、連番第60/989,047号を有し、2007年11月19日に出願された仮特許出願(整理番号4137.CIRQ.PR)および連番第61/128,529号を有し、2008年5月22日に出願された仮特許出願(整理番号4292.CIRQ.PR)に含まれる主題の全てに対して優先権を主張し、これらの出願をここで引用したことにより、その内容全てが本願にも含まれるものとする。
発明の分野
本発明は、一般的には、タッチパッド能力およびディスプレイを組み合わせた電子機器に関する。この電子機器は、タッチパッドに近接して動作誘発デバイス(actuating device)が検出されたときに第1機能またはインターフェースをアクティブとし、この動作誘発デバイスがタッチパッドと接触したときに第2機能またはインターフェースをアクティブとする。
タッチパッドは、ディスプレイまたは表示画面(以後「ディスプレイ」と呼ぶ)と組み合わされて、追加機能または異なる入力供給手段を備えるようになっている。ディスプレイの周囲に沿って配置された接触感応帯を含むディスプレイについて考える。タッチストリップは、指をこのタッチストリップに沿って移動させることによってスクロールする能力を追加するために設けられた。先行技術から明白であったのは、いずれの機能を実行するためであってもタッチストリップは接触を必要とすること、そして記載した機能はスクローリングの範囲に限定されることである。
本発明において用いることができるタッチパッドの技術の一実施形態について説明することは有用である。具体的には、CIRQUE(登録商標)社の容量感応タッチパッド技術は、液晶ディスプレイ(LCD)のようなディスプレイと組み合わせると本発明を実現するために用いることができる。CIRQUE(登録商標)社のタッチパッドは、相互容量検知デバイスであり、その一例を図1に示す。このタッチパッドは、不透明面を用いてまたは透過面を用いて実現することができる。つまり、このタッチパッドは、従来のタッチパッドとして、またはディスプレイ上の接触感応面として、つまりタッチ・スクリーンとしても動作させることができる。
このCIRQUE(登録商標)社のタッチパッドでは、行および列電極の格子を用いて、タッチパッドのタッチ感応区域を規定する。通例、タッチパッドは約16個×12個の電極、または空間に制約がある場合は8個×6個の電極からなる矩形格子である。これらの行および列電極の内部または周囲には、1つの検知電極が織りまぜられている。全ての位置測定は検知電極を通じて行われる。しかしながら、行電極および列電極は、検知電極としても作用することができるので、少なくとも1つの電極が信号を駆動し、他の電極が信号の検出に用いられることが重要な側面となる。
更に詳細には、図1は、CIRQUE(登録商標)社が教示する容量検知タッチパッド10を示し、タッチパッド電極格子の中に行(12)および列(14)(即ち、XおよびY)電極の格子を含む。タッチパッド・パラメータの測定は全て、同様にタッチパッドの電極格子上に配置されている単独検知電極16によって行われるのであり、XまたはY電極12、14によってではない。測定には、固定の基準点は用いられない。タッチパッド・センサ制御回路20が、P、N発生器22、24から信号(正および負)を発生し、これらの信号は直接XおよびY電極12、14に種々のパターンで送られる。したがって、タッチパッド電極格子上の電極数と、タッチパッド・センサ制御回路20上の駆動ピンの数との間には、1対1の対応がある。
タッチパッド10は、タッチパッド表面上またはその近傍における指(またはその他の容量性物体)の場所を決定する際に、絶対容量測定に依存しない。タッチパッド10は、検知ライン16に対する電荷の不均衡を測定する。タッチパッド10上に指示物体がない場合、タッチパッド・センサ制御回路20は均衡状態にあり、検知ライン16上には信号がない。電極12、14上には容量性電荷があってもなくてもよい。CIRQUE(登録商標)社の方法論では、これは無関係である。容量性結合のためにポインティング・デバイスが不均衡を生ずると、タッチパッド電極格子を構成する複数の電極12、14上で容量変化が発生する。測定するのは容量変化であって、電極12、14上における絶対容量値ではない。タッチパッド10は、容量変化を判定する際、検知ライン上において均衡を再確立するため即ち再現するために、検知ライン16に注入しなければならない電荷量を測定する。
タッチパッド10は、指のような指示物体の位置を判定するために、X電極12およびY電極14について2回の完全な測定サイクル(4回の完全な測定)を実行しなければならない。X12およびY14電極双方について、ステップは次の通りである。
最初に、P、N発生器22からの第1信号によって、電極の一群(例えば、X電極12の選択群)を駆動し、相互容量測定デバイス26を用いた第1測定を行って最も大きな信号の場所を判定する。しかしながら、この1回の測定からは、指がこの最大信号に対して最も近い電極の一方側にあるのかまたは他方側にあるのか、知ることができない。
次に、最も近い電極の一方側に電極1つだけずらして、再度電極群を信号によって駆動する。言い換えると、電極群の一方側に直接隣接する電極を追加する一方で、元の電極群の逆側にある電極はもはや駆動しない。
第3に、新しい電極群を駆動し、第2測定を行う。
最後に、測定した2つの信号の大きさを比較する方程式を用いて、指の場所を判定する。
このように、タッチパッド10は、指の場所を判定するために、容量変化を測定する。前述したこのハードウェアおよび方法論の全ては、タッチパッド・センサ制御回路20がタッチパッド10の電極12、14を直接駆動することを想定している。つまり、典型的な12×16電極格子のタッチパッドでは、タッチパッド・センサ回路20から合計28本のピン(12+16=28)が利用可能であり、これらを用いて電極格子の電極12、14を駆動する。
CIRQUE(登録商標)社のタッチパッドの感度または分解能は、16×12格子の行および列電極が含意するよりも遥かに高い。分解能は、通例、1インチ当たり約960カウント以上である。正確な分解能は、構成部品の感度、同じ行および列上にある電極間の間隔、そして本発明にとっては重要でないその他の要因によって決定される。
前述したCIRQUE(登録商標)社のタッチパッドは、XおよびY電極の格子、ならびに別個の単独検知電極を用いるが、多重化を用いることによって、検知電極もXまたはY電極にすることができる。いずれの設計でも、本発明は機能することができる。
CIRQUE(登録商標)社のタッチパッドの基礎となる技術は、容量センサを基本とする。しかしながら、本発明には他のタッチパッド技術も用いることができる。これら他の近接感応および接触感応タッチパッド技術には、電磁、誘導、圧力検知、静電、超音波、光、抵抗性メンブレーン、半導電性メンブレーン、あるいはその他の指またはスタイラス感応技術が含まれる。
以上、本発明を実現するために用いることができる技術を確認したので、タッチ・インターフェースと接触せずにディスプレイ上において出力を変化させることできることを、先行技術は教示していないことは、理解されてしかるべきである。例えば、先行技術には、タッチパッドまたはタッチ・スクリーンを用いて入力を制御しディスプレイ上に結果を表示させる例が満ち溢れている。しかしながら、先行技術は、近接感応デバイスがどのようにして非接触物体の移動を追跡でき、しかもディスプレイ上に示される出力に作用することができるのか示すことができない。
したがって、遠方場検知および近接検知ならびに接触検知が可能なタッチパッドまたはタッチ・スクリーンであって、ディスプレイを組み合わせたタッチパッドまたはタッチ・スクリーンが求められている。近接ジェスチャ(proximity gesturing)を行うことができるユーザの手のような物体の近接検知機能を備えることができれば利点となろう。タッチパッドまたはタッチ・スクリーンの検知領域内にある三次元空間において行われるジェスチャは、所望の機能を実行する、コマンドを送る、あるいは近接または接触入力によって特定のインターフェースを表示させるおよび/または双方向処理を行わせるための入力として用いられる。
本発明の目的は、ディスプレイと組み合わせた、接触感応および遠方場または近接検知タッチパッドまたはタッチ・スクリーン(以後纏めてタッチパッドと呼ぶ)を提供することである。
別の目的は、前述のタッチパッドを、ディスプレイ上においてフロント・ベゼル、サイド・パネル、リア・パネル、またはこれら3つのあらゆる組み合わせの直下に配置することである。
別の目的は、三次元空間において物体の検出および追跡を可能にするディスプレイの場所にタッチパッドを配置することにより、近接ジェスチャを可能にすることである。
別の目的は、指のような動作誘発デバイスがタッチパッドの検出可能距離以内で移動したときに、ディスプレイが第1インターフェースを示すことまたは第1機能を実行することを可能にすることである。
別の目的は、第1機能をメニューの表示とし、タッチパッドが近接検知または接触検知を用いて、表示されているメニューからどの項目が選択されているのか判断できるようにすることである。
別の目的は、タッチパッドが近接検知または接触検知を用いて、メニューに示される項目全てを通してスクロールしページめくりを実行することである。
別の目的は、タッチパッドが近接検知または接触検知を用いて、メニューに示されている項目を選択することである。
別の目的は、近接検知または接触検知を用いて、指がタッチパッドに接近しつつある方向を検知することを可能にすることである。
別の目的は、タッチパッドの検知区域内にある三次元空間において行われる非接触ジェスチャによって、機能またはコマンドを実行させる、あるいはインターフェースを表示させるまたは変化させることを可能にする近接ジェスチャを行うことである。
好ましい実施形態では、本発明は、ディスプレイと組み合わせた接触感応および遠方場または近接感応タッチパッドまたはタッチ・スクリーンである。このタッチパッドは、ディスプレイ筐体の内側に隠蔽されているタッチストリップとして形成されている。動作誘発デバイスがタッチパッドから閾値距離に到達すると、第1機能、インターフェース、またはコマンドを表示、変更、または実行する。動作誘発デバイスがタッチパッドと接触すると、第2機能またはインターフェースをイネーブルする。近接ジェスチャは、タッチパッドの範囲内における三次元空間で行うことができるが、接触する必要はない。
本発明の第1の態様では、タッチパッドは、タッチパッドの長手方向軸に沿った指示物体の移動を可能にする狭い帯として形成する。
本発明の第2の態様では、タッチパッドは、1本の軸に沿った移動の検出を可能とする単層タッチパッドとして実施する。
本発明の第3の態様では、タッチパッドは、二次元または三次元における移動を検出することができる多層汎用タッチパッドとして実施する。
本発明のこれらおよびその他の目的、特徴、および利点は、添付図面と組み合わせて以下の詳細な説明を検討することにより、当業者には明白となろう。
図1は、CIRQUE(登録商標)社によって作られ、本発明の原理にしたがって動作することができる容量感応タッチパッドの構成部品のブロック図である。 図2は、接触および近接感応タッチパッドを含む腕時計の上方にある指の輪郭図である。 図3は、フロント・ベゼル、サイド・パネル、またはリア・パネルの下に配置されている1つ又は複数のタッチストリップが内部に隠蔽されているディスプレイの斜視図である。 図4は、近接感応タッチストリップによって検出された指の斜視図であり、検出によって活性化されたメニューを、タッチストリップの上方にある空間内で動く指によって動作させる。 図5は、動作誘発物体のディスプレイからの距離の関数として拡大するアイコンを示すディスプレイの斜視図である。
これより、図面を参照するが、これらの図面では本発明の種々の要素に参照番号を与える。図面において、当業者が本発明を実施し使用することを可能にするように本発明について論ずることとする。尚、以下の説明は本発明の原理の一例に過ぎず、以下に続く特許請求の範囲を狭めるように見なしてはならないことは言うまでもない。
ハードウェアの態様からは、本発明は、近接検知能力および接触検知能力双方を含むタッチパッド(またはタッチ・スクリーン)と組み合わせたディスプレイである。本発明は、ディスプレイに対してこのハードウェアをどのように配置するか、そしてこのハードウェアをどのように用いるかに関する。
本発明の使用は、近接機能および接触機能に関係する。近接機能については、これは動作誘発物体(actuating object)の移動の検出および追跡と同じ程度に単純であることができる。近接ジェスチャ(proximity gesture)の態様の方が複雑度は高い。近接ジェスチャとは、タッチパッドによって検出することできるような動作誘発物体の移動と定義する。言い換えると、三次元空間内において特定の移動を識別することができたならば、次に実行する行為とこの移動を関連付けるか、または実行する行為をこの移動が定義する。行為には、機能の実行、コマンドの実行、インターフェースの活性化、またはインターフェースの変更というようなことが含まれる。これらの行為は、限定として見なしてはならず、単なる例に過ぎない。
本発明の第1実施形態を図2に示す。図2は電子機器の側面図であり、この例では腕時計30である。腕時計30の例は、図示を目的とするに過ぎず、限定的な例と見なしてはならない。つまり、いずれの電子機器でも、携帯用であろうが据置型であろうが、腕時計30と置き換えることができる。理解すべき重要なことは、腕時計30がディスプレイと、近接検知能力および接触検知能力の双方を含むタッチパッドとを含むことである。
図2において、動作誘発デバイスは、本例ではユーザの指となっており、腕時計30の閾値距離36以内に近付けられている。閾値距離36とは、物理的な接触をせずに、動作誘発デバイスがタッチパッド34によって検出可能な距離のことである。閾値距離36は、タッチパッド34やディスプレイ32に用いられる技術、ならびにタッチパッドおよびディスプレイの互いに関する構成に応じて、大きく変動する可能性がある。本発明にとって重要なことは、タッチパッド34が、物理的接触が生ずる前に、動作誘発デバイスを検出できることである。つまり、実際の閾値距離36は変動してもよい。
この例では、腕時計30はLCDディスプレイ32を含むが、タッチパッド34と組み合わせることができる、適したディスプレイであれば、いずれでも用いることができる。また、タッチパッド34は、ディスプレイ32の上またはその直下に配置することができることを理解するのも重要である。タッチパッド34が直下に配置されている場合、ディスプレイ32と接触すれば、タッチパッドとの「物理的接触」という要件が満たされることになる。
以上の実施形態では、タッチパッド34がLCDの上または直下にあることを想定している。しかしながら、代替実施形態では、タッチパッド34をディスプレイの技術に統合する。例えば、表示技術を実現するために用いられる電極は、タッチパッド34の電極としても用いることができる。
一旦閾値距離36において動作誘発デバイスを検出したなら、第1機能、第1インターフェース、または双方を作動させる。例えば、腕時計30について考える。指が閾値距離36に達したとき、腕時計30の中にある照明38を活性化させて腕時計を照らし、現在の時刻を表示することができるようにする。これは1つの機能である。
インターフェースの一例は、ディスプレイ32上にメニュー、あるいは現在の時刻または日付を設定するために用いることができる仮想ボタン、あるいはメニューおよび仮想ボタンの組み合わせを表示することである。
機能とインターフェースとの双方を同時に活性化することが望ましい場合もあり得る。例えば、閾値距離36に達したときに、照明38を照らし仮想ボタンを表示する。ユーザは、閾値距離36に達した後、タッチパッド34と接触する必要がないことは、注記してしかるべきである。第1機能を作動させることが、望まれる全てである場合もある。
ディスプレイ32上において機能、インターフェース、または双方を作動させた後、第2機能を実行すること、第2インターフェースを活性化すること、または双方が望ましい場合もある。この第2機能またはインターフェースは、移動または接触によって活性化することができる。
例えば、第2機能またはインターフェースは、近接ジェスチャにおいて動作誘発デバイスを動かすことによって活性化することができる。近接ジェスチャは、動作誘発デバイスがタッチパッド34に接近する単純な移動であってもよく、または異なる動作とすることもできる。
また、第2機能またはインターフェースは、接触によって活性化することもできる。つまり、動作誘発デバイスがタッチパッド34と接触するまで、これを移動させることができる。動作誘発デバイスによる近接ジェスチャまたはタッチパッド34の接触によってどのような行為を行わせるかについては、何の限定を行うことも示唆することもない。つまり、接触することによって次の行為が生ずることができるというのは、一例に過ぎない。第1機能および/またはインターフェースを不活性化することができ、第2機能および/またはインターフェースを活性化することができる。第1機能および/またはインターエースを活性化し、次いで、第2機能および/またはインターフェースを活性化する。言い換えると、第1機能および/またはインターフェースは、相互に排他的イベントまたは行為である必要はない。機能および/またはインターフェースは対立する場合もしない場合もあるので、第1機能およびインターフェースを活性化するが、接触が行われたときに第1機能またはインターフェースの内一方だけを不活性化することも可能であってもよく、そして第2機能および/またはインターフェースを活性化する。
本発明によって検出することができる近接ジェスチャは、検出可能な物体によって行うことができるあらゆるジェスチャである。このようなジェスチャには、指をタッチパッド34に向けて動かす、指をタッチパッドから離れるように動かす、円運動を行うというような特定の運動で指を動かす、または動作誘発デバイスの形状をジェスチャとして定義できるように動作誘発デバイスを操作するというような行為が含まれる。例えば、手が平らになるように1本の手の指全てを一緒にすることは、認識可能なジェスチャとすることができる。この平らな手から親指を延ばすことは、別のジェスチャとすることができる。このように、近接ジェスチャは、動作誘発デバイスの認識可能な移動および認識可能な形状を含む。
要約すると、行為は相互に排他的なイベントである必要はない。第1機能またはインターフェースが実行または表出させられると、続く行為によって修正することもでき、あるいは続く行為による影響を全く受けなくてもよい。つまり、第1機能またはインターフェースは、指の接近というような近接ジェスチャの結果として実行または表示することができる。そして、後に続く近接ジェスチャおよび/または接触ジェスチャは、対応する異なる機能および/またはインターフェースを活性化する。
本発明の別の態様は、多層のタッチパッド・インターフェースまたはメニューをユーザに提供できることである。腕時計30の例を用いると、第1インターフェースは、時刻を変える仮想ボタンを示すことができる。接触が行われ、時刻を調節した後またはしなかった後に、ユーザは仮想ボタンを変更し、以後日付の入力にこれらを用いるようにすることができる。このように、多数のメニューを表示し、各メニューの可能性を他とは異なるように調整することができる。例えば、第1インターフェースは、時刻を変えるために円形のスクローリング・ホイール機能を備えることができ、第2インターフェースは、日付を変えるために直線状のスクローリング・バー機能を備えることができ、円形スクローリング・ホイールおよび直線状スクローリング・バーは、ディスプレイ32上に示すように、同じ空間の多くを占有する。
本発明の別の有用な態様は、タッチパッドがタッチパッド・ゾーンを設けることができ、これら自体がボタンとして機能することができることである。タッチパッド・ゾーンは、通例単層タッチパッドによって設けられ、この単層タッチパッドは、もっと複雑なタッチパッド機能を備えることはできず、ボタン入力を備えることに限定されている。関連する概念では、近接ジェスチャまたはタッチパッド表面上における特定のボタンが、仮想タッチパッド・ボタンの所望の配列を活性化する。同様に、選択した配列の仮想タッチパッド・ボタンを実装する(bring up)ために、機械式ボタンを用いることもできる。
以上の実施形態は、ディスプレイと組み合わせたタッチパッドを対象とした。代案では、タッチパッドをディスプレイと組み合わせない。固定電子機器または移動体電話機のような携帯用電子機器のキーパッドの直下に配置したタッチパッドについて考える。手または指のような動作誘発デバイスをキーパッドに近付けると、移動体電話機をスリープ・モードから「起動」(wake)することができる。同様に、近接ジェスチャを行うことによって逆の機能も実行することができ、据置型または携帯用電子機器を「スリープ」モードにする。このような近接ジェスチャの1つは、手全体をデバイスの上に、接触せずに、置くこととすることができる。
また、本発明の技術は、ディスプレイ上に新しいインターフェースを提示するためにも用いることができる。表示技術は本発明とは関係がないので、いずれの種類でも可能であり、LCD、プラズマ、OLED、またはDLPを含むがこれらに限定されるのではない。ディスプレイは、いずれの種類の処理または仮想メディア・デバイスの一部であることもできる。例えば、ディスプレイは、コンピュータの一部であることができ、あるいはテレビジョンまたは娯楽センタの一部であることもできる。
本実施形態において用いられるタッチパッドは、タッチストリップ(touchstrip)と言うこともできる。これは、その形状、その機能、または双方のいずれかのために、単に特殊化したタッチパッドである。タッチストリップの形状は、全体的に長くそして細いので、狭い場所にも配することができ、あるいはもっと大きなデバイスの狭い区域に制限することも容易に行うことができる。本実施形態では、タッチストリップの位置はディスプレイのベゼルの中である。しかしながら、タッチストリップは、照明スイッチの筐体というように、ディスプレイではないデバイスの内側に配置することもできる。
また、タッチストリップは機能も通常限定されるが、そうする必要はない。通例、タッチストリップはその長軸に沿った次元というような、1つの次元における指示物体の追跡のみを行う。したがって、タッチストリップは、1列に示されている項目のリストをスクロールするまたはそのリストから選択するというような用途に有用である。また、スクローリングは、照明スイッチによって制御する照明の強度というような、何らかの可変パラメータの値を増大または減少させるというように定義することもできる。
タッチストリップは通例一次元の機能を備えるが、本発明は、二次元でも移動を追跡することができるタッチストリップを用いて実現することもできる。タッチストリップが1つの次元における移動を追跡し、領域またはゾーンにおける着地を検出することしかできない場合、単層のタッチパッドを用いてタッチストリップを作成することができるが、このように限定されるのではない。タッチストリップが二次元で運動を追跡することができる場合、汎用の多層タッチパッド技術を用いて作成することができる。
図3は、本発明の別の実施形態であり、タッチストリップ40が、ディスプレイ42の周囲に配されていることが示されている。ディスプレイ筐体の外縁の上面上にタッチストリップを配する先行技術とは対照的に、本発明におけるディスプレイ42の周囲は、ディスプレイ筐体の外縁によって囲まれその内面の中にある、または外縁の内面上にあるように規定されている。具体的には、タッチストリップ40は、フロント・ベゼル44の直下、サイド・パネル46の直下、リア・パネル(図示しないが、ディスプレイ42の周囲付近に示されている他のタッチストリップと同様に配される)の直下に配置されるか、またはこれら3つの場所のいずれの組み合わせでもよい。タッチストリップ40は、内面上にあるタッチストリップの可能な輪郭を表す破線として示されている。タッチストリップ40の長さも調節可能である。タッチパッドを1カ所よりも多い場所に配置する場合、筐体の所望の内面をカバーするために、角に沿って折り曲げる。
コンピュータ・モニタまたはテレビジョンのようなディスプレイの筐体ユニットの構造に用いられる材料は、タッチパッドの通常動作を妨害しない材料とするのが通例である。したがって、筐体は、金属や、通常のタッチパッド動作を妨害する可能性があるその他の導電性材料を含有すべきでないことが重要である。この限定は、ディスプレイの一部ではない筐体にも適用される。
ディスプレイ42の内面にタッチストリップ40を隠蔽することによって、先行技術に対して様々な利点が得られる。例えば、タッチストリップ40は、ディスプレイ42に突入する物体またはこれを引っかくいずれの物体によってタッチストリップに発生し得るあらゆる損傷からも、完全に保護される。つまり、本発明の設計の耐久性が大幅に向上する。この設計変更は、近接検知デバイスではなく接触検知デバイスとして一般的に組み込まれるタッチパッドでは、典型的ではない。
また、タッチストリップ40をディスプレイ42内部に隠蔽することによって、ディスプレイの筐体を設計し直す必要性が解消する。先行技術は、タッチストリップの存在を受け入れるためには、ディスプレイに溝または窪みを作成しなければならないと教示している。この変更には、コストがかかる可能性がある。加えて、タッチストリップセンサ回路が、ディスプレイの外側に配されたタッチパッド・センサと接触できるように、ディスプレイを貫通する孔を作成する必要がある。
対照的に、本発明は、既存のディスプレイ42の筐体の外側に何の修正も必要としない。何故なら、タッチストリップ・センサおよびタッチストリップ・センサ回路は双方共ディスプレイの内側にあるからである。このため、タッチストリップ40を組み込むコストが大幅に低減する。
本発明のタッチストリップ40を所望通りに動作させるためには、タッチストリップが接触および近接双方を検知できることが好ましい。何故なら、これはフロント・ベゼル44の直下、サイド・パネル46の直下、リア・パネル48の直下、あるいはこれらのいずれの組み合わせに配置されてもよいからである。フロント・ベゼル44、サイド・パネル46、またはリア・パネル48の表面に接触すると、タッチストリップ40に接触したこととして規定され、一方ディスプレイ42またはその筐体のいずれの部分にも接触しない指示物体の検出および追跡はいずれも、近接検知として規定される。
タッチストリップ40は、本発明の第1実施形態に示すタッチパッドおよびタッチ・スクリーンの機能の全てを備えている。したがって、タッチストリップ40は、フロント・ベゼル44、サイド・パネル46、またはリア・パネル48と接触する前に、指または手のような指示物体の検出が可能である。
本実施形態におけるタッチストリップ40の典型的な用途は、指示物体がタッチストリップの閾値活性化距離以内に入ってきたときに、ディスプレイ上にメニュー、1つのアイコン、または複数のアイコンを提示することである。例えば、ユーザは、ディスプレイ42の周囲に指を近付ける。指が検出されると、ディスプレイ42にメニューを表示させる。このメニューは、仮想ボタンを含むこと、1つのアイコンを示すこと、あるいは複数のアイコンを含むことができる。
ラップトップ・コンピュータ、電子書籍即ちeBookリーダ、またはディジタル写真フレームというような種々のデバイスに配置したタッチストリップの例について考える。eBookでは、ユーザはeBookディスプレイの上辺部の上方で手を揺り動かすと、ページを一方の方向にめくることができ、底辺部の上方で手を揺り動かすと、ページを逆方向にめくることができる。あるいは、上辺部の上方で手を第1方向に動かすと、ページが第1方向にめくられ、一方上辺部の上方においたまま手を第1方向とは逆の第2方向に動かすと、第1方向とは逆の方向にページをめくることができる。
ディジタル写真フレームの例では、長距離センサ(long range sensor)を用いれば、人の接近または通過を検出することができ、したがって活性化することができる。次いで、ユーザがフレーム上で手または指を揺り動かすと、所望の方向に写真を進ませる(increment)。写真全体またはその大部分の上に手を置くと、スリープ・モードに入るコマンドとして解釈することもできる。
図4は、第1の想定場面において、ユーザがタッチストリップ40と接触しないが、検出閾値距離以内で指を動かすことを示す。タッチストリップ40が指を検出すると、ディスプレイ42上にメニュー50が表示される。次いで、ユーザは、メニュー50の異なる部分が強調されるように、指を動かす。例えば、位置Aでは、第1項目52がメニュー50上で強調され、位置Bでは、第2項目54がメニュー上で強調され、最後に、位置Cでは第3項目56がメニュー上で強調される。メニュー50上のメニュー数は、いずれの数でも可能であり、上の例に限定されるのではない。あるいは、ユーザは、メニューを活性化した後に、筐体に接触し、メニューの選択肢の位置で指を上下に滑らせても、特定のメニュー項目を強調することができる。一旦選択が行われると、ユーザは機能を選択できたことになり、この機能は、筐体上で指を上下に動かすことによって更に操作することができる。この機能の例には、音量制御、ズーミング(zooming)、スクローリング等が含まれる。
一旦メニュー上である項目を強調したなら、ユーザは選択を行わなければならない。選択を行うには、ユーザは指58を動かしてタッチストリップ40と直接接触させる。あるいは、ユーザは、指58をディスプレイ42に近付けるが接触させないことにより、近接ジェスチャを行うこともできる。本発明のタッチストリップ40は、この指の位置変化を検出することができ、これは、選択を行ったこととして定義することができる。
図4では、メニュー50は、縦1列に選択肢を並べたものとして示されている。また、メニュー50は、横1列の選択肢とすることもでき、図4に示すような垂直方向の代わりに、指を水平方向に行ったり来たりさせることによって、選択を行う。
代替実施形態では、ユーザは、メニュー50上のどの選択肢が強調されているかに関して、変更を行うためには、タッチストリップ40と接触しなければならない。この変更を行うには、指をタッチストリップ40に沿って滑らせる。すると、タッチストリップ40から指を持ち上げる、タッチストリップを軽くたたく(tap)または2回軽くたたく、あるいは所定の時間長だけ待つというような他の何らかの行為によって、強調されたメニュー選択肢が選択される。
尚、タッチパッドは、単に固定距離における物体だけでなく、移動している物体でも検出できることは、理解されてしかるべきである。つまり、動作誘発物体は、検出範囲内でそれが移動するのであれば、どこにあっても追跡することができる。以下の例によって、実施態様の一例を紹介する。図5に示すように、ディスプレイ42について考える。ディスプレイ42およびこのディスプレイの内部に配置されているタッチパッド62(図示せず)に指60が近づくと、この指が検出される。指60が検出された後、メニューまたはアイコン62のような物体が表示される。あるいは、既に表示されている場合、ディスプレイ上で大きくなり始める。指がディスプレイ42に近づくに連れて、アイコン64は、輪郭66および68で示すように、徐々に大きくなる。アイコン64のサイズは、指60のディスプレイ42からの距離の関数とされている。アイコン64は、最大サイズまで大きくなり、その後はそれ以上大きくならない。同様に、アイコン64のサイズは距離の関数として、最大距離まで縮小し、最大距離において、アイコンは消失するか、ディスプレイ42上でそれ以上小さくならない。
アイコン64は、メニューまたは複数のアイコンのように、ディスプレイ42上に示すことができるのであれば、いずれの物体とでも置き換えることができる。理解すべき概念は、表示する物体64のサイズが、動作誘発物体62の距離の関数となるということである。
尚、タッチストリップ40の近接検知は、動作誘発物体の存在を検出するだけでなく、移動を追跡することも可能であることは明らかなはずである。例えば、ユーザは、タッチストリップ40上で前後に揺らす運動で指を動かすことによって、近接ジェスチャを行うことができる。揺らす運動は、ユーザがページをめくっているかのように、メニューを変更するために用いることができる。指を揺らす運動は、タッチストリップ40の上方にある三次元空間において行われるジェスチャの一例である。
本発明の別の態様は、タッチパッドがディスプレイ筐体には限定されないことである。つまり、タッチパッドは、このタッチパッドの操作を妨害しないのであれば、いずれのデバイスの内側にでも配置することができる。例えば、タッチパッドは、デスクトップ・コンピュータの外部キーボードの中に配置することもできる。
尚、以上で説明した構成は、本発明の原理の応用を例示するに過ぎないことは言うまでもない。本発明の主旨や範囲から逸脱することなく、多数の変更や代替構成も当業者には考案することができる。添付した特許請求の範囲は、このような変更や構成も包含することを意図している。

Claims (14)

  1. 電子機器であって、
    ディスプレイ筐体であって、タッチパッドが当該ディスプレイ筐体を介して動作するのを妨げない材料を用いて製造した、ディスプレイ筐体と、
    前記ディスプレイ筐体内に配置したタッチパッドであって、該タッチパッドが少なくとも1つの外側縁に配置されており、前記ディスプレイ筐体に近接しているが接触していない動作誘発物体の移動を検出し追跡することが可能である、タッチパッドと、
    を備えている、電子機器。
  2. 請求項1記載の電子機器において、前記タッチパッドは、前記ディスプレイ筐体において、フロント・ベゼル、サイド・パネル、リア・パネル、または前記3つの位置のあらゆる組み合わせに配置されている、電子機器。
  3. 請求項1記載の電子機器において、前記タッチパッドは、更に、二次元または三次元において前記動作誘発物体を検出および追跡することができる多層汎用設計によって構成されている、電子機器。
  4. 請求項1記載の電子機器において、前記タッチパッドは、更に、一次元において前記動作誘発物体を検出および追跡することができる単層設計によって構成されている、電子機器。
  5. 請求項1記載の電子機器において、前記タッチパッドは、前記動作誘発物体が前記ディスプレイ筐体と接触しているときも、該動作誘発物体を検出可能である、電子機器。
  6. 電子機器を用いて動作誘発物体を検出および追跡する方法であって、
    1)ディスプレイ筐体であって、タッチパッドが当該ディスプレイ筐体を介して動作するのを妨げない材料を用いて製造した、ディスプレイ筐体と、前記ディスプレイ筐体内に配置したタッチパッドであって、該タッチパッドが少なくとも1つの外側縁に配置されており、前記ディスプレイ筐体に近接しているが接触していない動作誘発物体の移動を検出し追跡することが可能である、タッチパッドとを設けるステップと、
    2)前記タッチパッドの閾値距離以内で前記動作誘発物体を移動させることによって、第1近接ジェスチャを行うステップであって、前記タッチパッドが前記動作誘発物体の移動を検出および追跡する、ステップと、
    3)前記第1近接ジェスチャに応答して、前記電子機器の少なくとも第1機能または第1インターフェースを活性化するステップと、
    を備えている、方法。
  7. 請求項6記載の方法において、更に、前記ディスプレイ筐体におけるフロント・ベゼル、サイド・パネル、リア・パネル、またはこれら3つの位置のあらゆる組み合わせに、前記タッチパッドを配置するステップを備えている、方法。
  8. 請求項6記載の方法において、更に、
    1)多層汎用設計のタッチパッドを設けるステップと、
    2)二次元または三次元において前記動作誘発物体を検出および追跡するステップと、を備えている、方法。
  9. 請求項6記載の方法において、更に、
    1)単層設計のタッチパッドを設けるステップと、
    2)一次元において前記動作誘発物体を検出および追跡するステップと、
    を備えている、方法。
  10. 請求項6記載の方法において、更に、前記動作誘発物体が前記ディスプレイ筐体と接触しているときに、該動作誘発物体を検出するステップを備えている、方法。
  11. 請求項6記載の方法において、更に、前記動作誘発物体によって行われた近接ジェスチャを検出および追跡するステップを備えている、方法。
  12. 請求項6記載の方法において、更に、
    1)近接ジェスチャまたは接触ジェスチャのいずれかである第2のジェスチャを行うステップと、
    2)前記第2のジェスチャに応答して、前記電子機器の少なくとも第2機能または第2インターフェースを活性化するステップであって、前記第2機能または第2インターフェースが前記第1機能または第1インターフェースと互いに排他的である、ステップと、
    を備えている、方法。
  13. 請求項6記載の方法において、更に、
    1)前記第1近接ジェスチャに応答して、前記ディスプレイ上に物体を表示するステップと、
    2)前記動作誘発物体を前記ディスプレイに近付けるように移動させるステップと、
    3)前記動作誘発物体の前記ディスプレイからの距離の関数として、前記ディスプレイ上における前記物体のサイズを、最大表示サイズまで増大するステップと、
    を備えている、方法。
  14. 電子機器であって、
    電子機器用の筐体と、
    前記筐体内に配置したディスプレイと、
    前記ディスプレイの上面に配置したタッチパッドと、
    を備えており、前記タッチパッドが、当該タッチパッドに近接しているが接触していない動作誘発物体の移動を検出および追跡可能である、電子機器。
JP2010534959A 2007-11-19 2008-11-19 ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド Expired - Fee Related JP5284364B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US98904707P 2007-11-19 2007-11-19
US60/989,047 2007-11-19
US12852908P 2008-05-22 2008-05-22
US61/128,529 2008-05-22
PCT/US2008/012948 WO2009067224A1 (en) 2007-11-19 2008-11-19 Touchpad combined with a display and having proximity and touch sensing capabilities

Publications (2)

Publication Number Publication Date
JP2011503756A true JP2011503756A (ja) 2011-01-27
JP5284364B2 JP5284364B2 (ja) 2013-09-11

Family

ID=40667791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010534959A Expired - Fee Related JP5284364B2 (ja) 2007-11-19 2008-11-19 ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド

Country Status (7)

Country Link
US (2) US8933892B2 (ja)
EP (1) EP2212762A4 (ja)
JP (1) JP5284364B2 (ja)
KR (1) KR101234968B1 (ja)
CN (1) CN101952792B (ja)
HK (1) HK1148839A1 (ja)
WO (1) WO2009067224A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238152A (ja) * 2011-05-11 2012-12-06 Nec Saitama Ltd 表示装置、表示方法およびプログラム
JP2013511763A (ja) * 2009-11-24 2013-04-04 サムスン エレクトロニクス カンパニー リミテッド ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器
JP2013085038A (ja) * 2011-10-06 2013-05-09 Fuji Xerox Co Ltd 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP2013218549A (ja) * 2012-04-10 2013-10-24 Alpine Electronics Inc 電子機器
JP2014110010A (ja) * 2012-12-04 2014-06-12 Denso Corp 入力装置
JP2014137738A (ja) * 2013-01-17 2014-07-28 Alps Electric Co Ltd 携帯型電子機器
JP2015122648A (ja) * 2013-12-24 2015-07-02 京セラ株式会社 携帯電子機器
JP2016149145A (ja) * 2016-03-23 2016-08-18 インテル コーポレイション コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム
JP2019062464A (ja) * 2017-09-27 2019-04-18 京セラ株式会社 電子機器

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
JP4600548B2 (ja) * 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
JP4670970B2 (ja) * 2009-01-28 2011-04-13 ソニー株式会社 表示入力装置
US8917239B2 (en) * 2012-10-14 2014-12-23 Neonode Inc. Removable protective cover with embedded proximity sensors
KR20100101389A (ko) * 2009-03-09 2010-09-17 삼성전자주식회사 사용자 메뉴를 제공하는 디스플레이 장치 및 이에 적용되는ui제공 방법
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
US20100289740A1 (en) * 2009-05-18 2010-11-18 Bong Soo Kim Touchless control of an electronic device
US20100302175A1 (en) * 2009-05-29 2010-12-02 Agere Systems Inc. User interface apparatus and method for an electronic device touchscreen
CN102804114B (zh) * 2009-06-24 2019-04-16 微晶片科技德国有限责任公司 用于显示装置的电极装置
US8248366B2 (en) * 2009-07-03 2012-08-21 Lite-On It Corp. Image display device and operation method thereof
US9323398B2 (en) 2009-07-10 2016-04-26 Apple Inc. Touch and hover sensing
KR20110020642A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
JP2011053971A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
EP2315106A3 (en) * 2009-10-20 2014-09-17 Bang & Olufsen A/S Method and system for detecting control commands
KR101623008B1 (ko) * 2009-10-23 2016-05-31 엘지전자 주식회사 이동 단말기
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
CN102135839B (zh) * 2010-01-22 2014-07-30 联想(北京)有限公司 一种终端及其输入方法
US20130057454A1 (en) * 2010-03-30 2013-03-07 Nokia Corporation User Configurable Apparatus
JP2011248768A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
US9367227B1 (en) * 2010-06-30 2016-06-14 Amazon Technologies, Inc. Chapter navigation user interface
US9223475B1 (en) 2010-06-30 2015-12-29 Amazon Technologies, Inc. Bookmark navigation user interface
CN102314298A (zh) * 2010-07-06 2012-01-11 宏碁股份有限公司 电子装置与工具栏的显示方法
JP2012038164A (ja) * 2010-08-09 2012-02-23 Sony Corp 情報処理装置
US9098138B2 (en) 2010-08-27 2015-08-04 Apple Inc. Concurrent signal detection for touch and hover sensing
JP5556515B2 (ja) * 2010-09-07 2014-07-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2012044714A1 (en) * 2010-10-01 2012-04-05 Imerj LLC Pinch gesture to swap windows
US20120084737A1 (en) 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controls for multi-screen hierarchical applications
JP2012104994A (ja) * 2010-11-09 2012-05-31 Sony Corp 入力装置、入力方法、プログラム及び記録媒体
JP2012108838A (ja) * 2010-11-19 2012-06-07 Sanyo Electric Co Ltd 表示制御装置
JP5648844B2 (ja) 2010-12-21 2015-01-07 ソニー株式会社 画像表示制御装置および画像表示制御方法
ES2392419B1 (es) * 2010-12-27 2013-10-22 BSH Electrodomésticos España S.A. Dispositivo de aparato doméstico, aparato doméstico con un dispositivo de aparato doméstico, y procedimiento para la puesta en funcionamiento de un dispositivo de aparato doméstico.
FR2971066B1 (fr) 2011-01-31 2013-08-23 Nanotec Solution Interface homme-machine tridimensionnelle.
JP5810554B2 (ja) * 2011-02-28 2015-11-11 ソニー株式会社 電子装置、表示方法、およびプログラム
KR20120100453A (ko) * 2011-03-04 2012-09-12 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN102681750B (zh) * 2011-03-14 2014-04-23 联想(北京)有限公司 用于移动显示对象的方法、显示装置和电子设备
WO2012119548A1 (zh) 2011-03-07 2012-09-13 联想(北京)有限公司 控制方法、控制装置、显示装置以及电子设备
US9152255B2 (en) * 2011-05-03 2015-10-06 Htc Corporation Management and application methods and systems for touch-sensitive devices, and computer program products thereof
JP2012247911A (ja) * 2011-05-26 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2012248066A (ja) * 2011-05-30 2012-12-13 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
CN102955564B (zh) * 2011-08-25 2016-06-22 中国移动通信集团公司 一种终端的操作方法及终端
EP3043238B1 (en) 2011-09-15 2018-11-21 Koninklijke Philips N.V. Gesture-based user-interface with user-feedback
US20130093688A1 (en) * 2011-10-17 2013-04-18 Matthew Nicholas Papakipos Virtual Soft Keys in Graphic User Interface with Side Mounted Touchpad Input Device
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
CN102364409B (zh) * 2011-11-09 2014-03-12 江苏惠通集团有限责任公司 触摸装置及其自适应方法
CN102495707B (zh) * 2011-12-06 2015-02-04 天马微电子股份有限公司 一种触摸显示器及其触控显示方法、系统
US9030407B2 (en) * 2011-12-21 2015-05-12 Nokia Technologies Oy User gesture recognition
US9298333B2 (en) 2011-12-22 2016-03-29 Smsc Holdings S.A.R.L. Gesturing architecture using proximity sensing
US20140253438A1 (en) * 2011-12-23 2014-09-11 Dustin L. Hoffman Input command based on hand gesture
KR101850034B1 (ko) * 2012-01-06 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101991493B1 (ko) * 2012-01-17 2019-06-20 삼성전자주식회사 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US8884896B2 (en) * 2012-01-18 2014-11-11 Google Inc. Computing device user presence detection
KR101967632B1 (ko) * 2012-02-13 2019-04-11 삼성전자주식회사 사용자 인터페이스를 가진 태블릿
CA2779837C (en) * 2012-04-24 2021-05-04 Comcast Cable Communications, Llc Video presentation device and method using gesture control
FR2990020B1 (fr) * 2012-04-25 2014-05-16 Fogale Nanotech Dispositif de detection capacitive avec arrangement de pistes de liaison, et procede mettant en oeuvre un tel dispositif.
US9201547B2 (en) 2012-04-30 2015-12-01 Apple Inc. Wide dynamic range capacitive sensing
US9086768B2 (en) 2012-04-30 2015-07-21 Apple Inc. Mitigation of parasitic capacitance
CN103513876A (zh) * 2012-06-21 2014-01-15 阿里巴巴集团控股有限公司 一种页面标记方法及移动终端
KR101969352B1 (ko) * 2012-09-11 2019-04-16 엘지전자 주식회사 이동단말기 및 그 제어방법
DE102012021251A1 (de) * 2012-10-30 2014-04-30 Audi Ag Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug
DE102012021252A1 (de) * 2012-10-30 2014-04-30 Audi Ag Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug
DE102012022312A1 (de) * 2012-11-14 2014-05-15 Volkswagen Aktiengesellschaft Informationswiedergabesystem und Verfahren zur Informationswiedergabe
KR101430199B1 (ko) * 2012-11-16 2014-09-23 세종대학교산학협력단 비밀 채널 인터페이스 제공 장치 및 방법
US9280656B2 (en) 2012-11-16 2016-03-08 University-Industry Foundation, Yonsei University Device and method for providing security channel interface
JP6302215B2 (ja) * 2012-11-23 2018-03-28 キヤノン株式会社 撮像装置
US9529439B2 (en) * 2012-11-27 2016-12-27 Qualcomm Incorporated Multi device pairing and sharing via gestures
KR20140080257A (ko) * 2012-12-20 2014-06-30 엘지전자 주식회사 전자 장치 및 디스플레이 점등 제어 방법
KR102120099B1 (ko) * 2013-02-06 2020-06-09 엘지전자 주식회사 양면 터치 인식 가능한 디지털 디바이스 및 제어 방법
FR3002052B1 (fr) 2013-02-14 2016-12-09 Fogale Nanotech Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation
US20140232659A1 (en) * 2013-02-18 2014-08-21 Nokia Corporation Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures
WO2014131188A1 (en) * 2013-02-28 2014-09-04 Hewlett-Packard Development Company, L.P. Input for portable computing device based on predicted input
US10289203B1 (en) * 2013-03-04 2019-05-14 Amazon Technologies, Inc. Detection of an input object on or near a surface
US9507425B2 (en) * 2013-03-06 2016-11-29 Sony Corporation Apparatus and method for operating a user interface of a device
US10152135B2 (en) * 2013-03-15 2018-12-11 Intel Corporation User interface responsive to operator position and gestures
KR102088910B1 (ko) * 2013-03-15 2020-03-13 엘지전자 주식회사 영상표시장치 및 그 제어방법
CN104077013B (zh) * 2013-03-28 2019-02-05 联想(北京)有限公司 指令识别方法和电子设备
CN104077042B (zh) * 2013-03-29 2018-02-02 联想(北京)有限公司 一种显示方法及装置、电子设备
FR3003963B1 (fr) * 2013-03-29 2016-12-30 Dav Module d interface
TWI502480B (zh) * 2013-06-07 2015-10-01 Insyde Software Corp Control method of touch device and its end function
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
US9841815B2 (en) * 2013-09-09 2017-12-12 Samsung Electronics Co., Ltd. Method for differentiation of touch input and visualization of pending touch input
KR102063349B1 (ko) * 2013-11-19 2020-01-08 엘지디스플레이 주식회사 표시장치와 그 구동 방법
US9933879B2 (en) 2013-11-25 2018-04-03 Apple Inc. Reconfigurable circuit topology for both self-capacitance and mutual capacitance sensing
CN104714625A (zh) * 2013-12-11 2015-06-17 联想(北京)有限公司 一种信息处理方法及电子设备
FR3017723B1 (fr) * 2014-02-19 2017-07-21 Fogale Nanotech Procede d'interaction homme-machine par combinaison de commandes tactiles et sans contact
USD743349S1 (en) * 2014-04-07 2015-11-17 Honeywell International Inc. Building control device
US20170024124A1 (en) * 2014-04-14 2017-01-26 Sharp Kabushiki Kaisha Input device, and method for controlling input device
JP6237890B2 (ja) * 2014-04-18 2017-11-29 株式会社村田製作所 表示装置及びプログラム
KR102178346B1 (ko) * 2014-04-21 2020-11-13 삼성디스플레이 주식회사 표시 장치, 이의 구동 방법 및 이를 포함하는 영상 표시 시스템
DE102014208502A1 (de) 2014-05-07 2015-11-12 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum Wechseln zwischen Bildschirmansichten einer Anwenderschnittstelle
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
USD741269S1 (en) * 2014-07-15 2015-10-20 Vivint, Inc. Touch panel
KR102343657B1 (ko) * 2014-08-28 2021-12-24 삼성전자주식회사 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들
CN105224207B (zh) * 2014-09-04 2018-06-26 维沃移动通信有限公司 一种终端应用程序隔空控制方法及移动终端
US10345967B2 (en) * 2014-09-17 2019-07-09 Red Hat, Inc. User interface for a device
CN104866221A (zh) * 2015-04-21 2015-08-26 上海墨百意信息科技有限公司 一种基于可穿戴设备的触摸操作响应方法和装置
KR102340480B1 (ko) 2015-06-04 2021-12-20 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US10564770B1 (en) 2015-06-09 2020-02-18 Apple Inc. Predictive touch detection
US9874952B2 (en) 2015-06-11 2018-01-23 Honda Motor Co., Ltd. Vehicle user interface (UI) management
JP2017058719A (ja) * 2015-09-14 2017-03-23 株式会社東海理化電機製作所 操作装置
US9990078B2 (en) * 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
CN105718112A (zh) * 2016-01-20 2016-06-29 苏州佳世达电通有限公司 显示装置
US10209821B2 (en) 2016-04-05 2019-02-19 Google Llc Computing devices having swiping interfaces and methods of operating the same
KR102193036B1 (ko) 2016-07-05 2020-12-18 삼성전자주식회사 디스플레이장치, 디스플레이장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR20180023664A (ko) * 2016-08-26 2018-03-07 삼성전자주식회사 디스플레이 장치, 멀티 디스플레이 시스템, 디스플레이 장치의 제어 방법
KR102023187B1 (ko) * 2016-09-26 2019-09-19 주식회사 엠에스코리아 디스플레이 장치에 설치되는 착탈식 터치 패널 장치
WO2018081641A1 (en) * 2016-10-27 2018-05-03 Cirque Corporation Finger tracking in an input device with proximity sensing
US10254846B1 (en) * 2017-03-15 2019-04-09 Meta Company Systems and methods to facilitate interactions with virtual content in an augmented reality environment
KR20190054397A (ko) * 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP2019128693A (ja) * 2018-01-23 2019-08-01 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
US10921854B2 (en) 2018-09-06 2021-02-16 Apple Inc. Electronic device with sensing strip
KR102218899B1 (ko) * 2019-08-02 2021-02-24 삼성전기주식회사 하나의 센서로 터치센싱 및 포스센싱이 구현된 터치 센싱 장치 및 이를 포함하는 전자 기기
US11003275B2 (en) 2019-08-02 2021-05-11 Samsung Electro-Mechanics Co., Ltd. Touch sensing and force sensing sensor, touch sensing device including the sensor, and an electronic device including the touch sensing device
US11099706B1 (en) 2020-06-30 2021-08-24 Dell Products L.P. Enhanced user interface using touch gestures
CN116868146A (zh) * 2021-03-03 2023-10-10 瑞典爱立信有限公司 计算机软件模块装置、电路装置、用户设备和用于改进和扩展的用户接口的方法
EP4302167A1 (en) * 2021-03-03 2024-01-10 Telefonaktiebolaget LM Ericsson (publ) A computer a software module arrangement, a circuitry arrangement, a user equipment and a method for an improved and extended user interface
USD975031S1 (en) 2021-03-12 2023-01-10 Honeywell International Inc. Building controller
JP2022186445A (ja) * 2021-06-04 2022-12-15 京セラドキュメントソリューションズ株式会社 表示入力装置
KR102636031B1 (ko) * 2022-08-29 2024-02-13 임규홍 비접촉 정전용량 센서를 이용한 화장실 제어 장치
US11899923B1 (en) 2022-08-31 2024-02-13 Dell Products L.P. Information handling system collaborative touchpad cursor over control icons
US11842043B1 (en) 2022-08-31 2023-12-12 Dell Products L.P. Information handling system collaborative touchpad and multizone touch rejection
US11893960B1 (en) 2022-08-31 2024-02-06 Dell Products L.P. Information handling system collaborative touchpad display brightness management

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044223A (ja) * 2001-07-30 2003-02-14 Pfu Ltd タッチ入力機構を備えた表示装置およびその制御方法ならびにその制御プログラム
JP2005031799A (ja) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc 制御システムおよび制御方法
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US7088343B2 (en) * 2001-04-30 2006-08-08 Lenovo (Singapore) Pte., Ltd. Edge touchpad input device
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP4439351B2 (ja) * 2004-07-28 2010-03-24 アルパイン株式会社 振動付与機能付きタッチパネル入力装置および操作入力に対する振動付与方法
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8614669B2 (en) * 2006-03-13 2013-12-24 Navisense Touchless tablet method and system thereof
US20070279385A1 (en) 2006-03-28 2007-12-06 Woolley Richard D Capacitance sensing touchpad circuit capable of dual use as a touchpad controller and keyboard controller
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7876310B2 (en) * 2007-01-03 2011-01-25 Apple Inc. Far-field input identification
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US20090002199A1 (en) * 2007-06-28 2009-01-01 Nokia Corporation Piezoelectric sensing as user input means

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
JP2003044223A (ja) * 2001-07-30 2003-02-14 Pfu Ltd タッチ入力機構を備えた表示装置およびその制御方法ならびにその制御プログラム
JP2005031799A (ja) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc 制御システムおよび制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511763A (ja) * 2009-11-24 2013-04-04 サムスン エレクトロニクス カンパニー リミテッド ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器
JP2012238152A (ja) * 2011-05-11 2012-12-06 Nec Saitama Ltd 表示装置、表示方法およびプログラム
JP2013085038A (ja) * 2011-10-06 2013-05-09 Fuji Xerox Co Ltd 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP2013218549A (ja) * 2012-04-10 2013-10-24 Alpine Electronics Inc 電子機器
JP2014110010A (ja) * 2012-12-04 2014-06-12 Denso Corp 入力装置
JP2014137738A (ja) * 2013-01-17 2014-07-28 Alps Electric Co Ltd 携帯型電子機器
JP2015122648A (ja) * 2013-12-24 2015-07-02 京セラ株式会社 携帯電子機器
JP2016149145A (ja) * 2016-03-23 2016-08-18 インテル コーポレイション コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム
JP2019062464A (ja) * 2017-09-27 2019-04-18 京セラ株式会社 電子機器

Also Published As

Publication number Publication date
KR101234968B1 (ko) 2013-02-20
HK1148839A1 (en) 2011-09-16
EP2212762A4 (en) 2011-06-29
KR20100105555A (ko) 2010-09-29
JP5284364B2 (ja) 2013-09-11
CN101952792A (zh) 2011-01-19
US20090219255A1 (en) 2009-09-03
EP2212762A1 (en) 2010-08-04
US20150130764A1 (en) 2015-05-14
WO2009067224A1 (en) 2009-05-28
US9703435B2 (en) 2017-07-11
US8933892B2 (en) 2015-01-13
CN101952792B (zh) 2014-07-02

Similar Documents

Publication Publication Date Title
JP5284364B2 (ja) ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド
US10949082B2 (en) Processing capacitive touch gestures implemented on an electronic device
US10503258B2 (en) Input mechanism with force and rotation inputs and haptic feedback
KR101070111B1 (ko) 복수의 터치 감지 장치를 가지는 핸드 헬드 전자 장치
US8681112B2 (en) Apparatus and method for touch screen user interface for electronic devices part IC
US7884807B2 (en) Proximity sensor and method for indicating a display orientation change
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
US10114485B2 (en) Keyboard and touchpad areas
US20090213081A1 (en) Portable Electronic Device Touchpad Input Controller
TWI382739B (zh) 用以提供資訊的卷軸運動之方法、電腦程式產品、電子裝置及卷軸多功能鍵模組
US20090167719A1 (en) Gesture commands performed in proximity but without making physical contact with a touchpad
US20140043265A1 (en) System and method for detecting and interpreting on and off-screen gestures
KR101412808B1 (ko) 전자 기기 및 그 동작 방법
JP2004038927A (ja) ディスプレイ及びタッチスクリーン
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
KR20130002983A (ko) 전극 배열이 집적된 컴퓨터 키보드
JP2016512371A (ja) タッチおよびホバー・アクションを組み合わせたタッチ・センサ上の入力相互作用
EP2605113B1 (en) Apparatus pertaining to display orientation
JP5718182B2 (ja) 入力装置
KR20140056868A (ko) 터치스크린을 구비한 단말기
KR20120052659A (ko) 광학 입력 장치 및 이를 이용한 명령 입력 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120730

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121030

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130529

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees