JP5554969B2 - センサーシステム用制御方法 - Google Patents

センサーシステム用制御方法 Download PDF

Info

Publication number
JP5554969B2
JP5554969B2 JP2009262734A JP2009262734A JP5554969B2 JP 5554969 B2 JP5554969 B2 JP 5554969B2 JP 2009262734 A JP2009262734 A JP 2009262734A JP 2009262734 A JP2009262734 A JP 2009262734A JP 5554969 B2 JP5554969 B2 JP 5554969B2
Authority
JP
Japan
Prior art keywords
image
child
total
predetermined value
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009262734A
Other languages
English (en)
Other versions
JP2010267245A (ja
Inventor
林卓毅
呂志宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixart Imaging Inc
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Publication of JP2010267245A publication Critical patent/JP2010267245A/ja
Application granted granted Critical
Publication of JP5554969B2 publication Critical patent/JP5554969B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、センサーシステム(sensing system)とセンサーシステムに適用する制御方法に関する。
従来の技術に係るセンサーシステムは、パネル(panel)と、2つのイメージセンサー(image sensor)と、プロセッサー(processor)と、を含む。各々のイメージセンサーは、前記パネルの1つの区域にあるスタイラスペンなどの操作物のイメージを感知し、前記プロセッサーは、前記イメージセンサーが感知した情報により操作物(pointer)の位置を検出する。前記操作物の位置を検出する従来の技術は、アメリカの特許4、782、328号と、特許6、803、906号と、6、954、197号などを参照することができる。
米国特許第4、782、328号明細書 米国特許第6、803、906号明細書 米国特許第6、954、197号明細書
しかし、上述したセンサーシステムは、操作物の位置を検出するだけ、ほかの機能を実現することができない。
本発明の主な目的は、検出する総画像(total pattern)のサイズ(size)によりデリート機能、手書き機能、ペインティング機能などの特殊機能(specific function)を起動するかないか判断するセンサーシステム用制御方法を提供することにある。
上記課題を解決するために本発明では、検出する第一総画像のサイズにより特殊機能を起動するかないか判断するステップを含むセンサーシステム用制御方法を提供する。
前記センサーシステム用制御方法で、検出する第一総画像のサイズにより特殊機能を起動するかないか判断する前記ステップは、検出する第一総画像のサイズと第一総画像を検出する時間の長さにより特殊機能を起動するかないか判断する。
前記センサーシステム用制御方法で、前記センサーシステムは、パネルと、前記パネルの上に設置される第一イメージセンサーと、前記パネルの上に設置される第二イメージセンサーと、を含む。前記パネルの検出区域は、前記第一イメージセンサーと第二イメージセンサーの検出の範囲に入っている。前記第一イメージセンサーは、前記検出区域を検出する複数の第一感知用画素を含み、前記第二イメージセンサーは、前記検出区域を検出する複数の第二感知用画素を含む。検出する第一総画像のサイズと第一総画像を検出する時間の長さにより特殊機能を起動するかないか判断する前記ステップは、前記第一イメージセンサーと前記第二イメージセンサーが前記検出区域を検出して第一子画像を含む第一画像と第二子画像を含む第二画像を形成し、前記第一子画像と前記第二子画像により第一総画像が形成され、且つ前記第一総画像のサイズと、前記第一子画像を獲得する第一感知用画素の数量と前記第二子画像を獲得する第二感知用画素の数量の合が同じであるステップ(a)と、前記第一総画像のサイズが第一所定値より大きいか同じであるかを判断するステップ(b)と、前記第一総画像のサイズが第一所定値より大きいか同じである場合、前記第一総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(c)と、前記第一総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能を起動するステップ(d)と、を含む。
前記センサーシステム用制御方法で、前記ステップ(b)を実施した後に実施するステップは、前記第一総画像のサイズが第一所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(c1)をさらに含むか、或いは前記ステップ(c)を実施した後に実施するステップは、前記第一総画像を検出する時間が第二所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(d1)をさらに含むか、或いはステップ(d)が第一子画像と第二子画像により得る第一物体の第一座標を出力するステップさらに含む。
前記センサーシステム用制御方法で、前記ステップ(d)を実施した後に実施するステップは、前記第一イメージセンサーと前記第二イメージセンサーが同時に前記検出区域を検出して、第三子画像を含む第三画像と第四子画像を含む第四画像を得、且つ前記第三子画像と前記第四子画像により第二総画像が構成され、且つ前記第二総画像のサイズと、前記第一子画像を獲得する第一感知用画素の数量と前記第二子画像を獲得する第二感知用画素の数量の合が同じであるステップ(e)と、前記第二総画像のサイズが第一所定値より小さいかを判断するステップ(f)と、前記第二総画像のサイズが第一所定値より小さい場合、前記第二総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(g)と、前記第二総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能をオフさせるステップ(h)と、をさらに含む。
前記センサーシステム用制御方法で、前記ステップ(f)を実施した後に実施するステップは、前記第二総画像のサイズが第一所定値より大きいか同じである場合、特殊機能の起動状態を維持し、且つ第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(g1)をさらに含む。前記ステップ(g)を実施した後に実施するステッは、前記第二総画像を検出する時間が第二所定値より小さい場合、第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(h1)をさらに含むか、ステップ(h)は、第三子画像と第四子画像により得る第二物体の第二座標を出力するステップさらに含む。
前記センサーシステム用制御方法で、前記センサーシステムは、パネルと、前記パネルの上に設置されるイメージセンサーと、前記パネルの上に配置され且つ前記パネルの第一区域を反射して第一区域の鏡像である第二区域を形成する鏡面式反射面を含む。前記第一区域と第二区域は、前記イメージセンサーの検出範囲に入っている。前記第一イメージセンサーは、前記第一区域と第二区域を検出する複数の感知用画素を含む。検出する第一総画像のサイズと第一総画像を検出する時間の長さにより特殊機能を起動するかないか判断する前記ステップは、前記イメージセンサーが前記第一区域と第二区域を検出して第一子画像と第二子画像を含む第一画像を形成し、前記第一子画像と前記第二子画像により第一総画像が形成され、且つ前記第一総画像のサイズと、前記第一子画像を獲得する感知用画素の数量と前記第二子画像を獲得する感知用画素の数量の合が同じであるステップ(a)と、前記第一総画像のサイズが第一所定値より大きいか同じであるかを判断するステップ(b)と、前記第一総画像のサイズが第一所定値より大きいか同じである場合、前記第一総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(c)と、前記第一総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能を起動するステップ(d)と、を含む。
前記センサーシステム用制御方法で、前記ステップ(b)を実施した後に実施するステップは、前記第一総画像のサイズが第一所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(c1)をさらに含む。前記ステップ(c)を実施した後に実施するステップは、前記第一総画像を検出する時間が第二所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(d1)をさらに含むか、或いはステップ(d)が第一子画像と第二子画像により得る第一物体の第一座標を出力するステップさらに含む。
前記センサーシステム用制御方法で、前記ステップ(d)を実施した後に実施するステップは、前記イメージセンサーが前記第一区域と第二区域を同時に検出して、第三子画像と第四子画像を含む第二画像を得、且つ前記第三子画像と前記第四子画像により第二総画像が構成され、且つ前記第二総画像のサイズと、前記第一子画像を獲得する感知用画素の数量と前記第二子画像を獲得する感知用画素の数量の合が同じであるステップ(e)と、前記第二総画像のサイズが第一所定値より小さいかを判断するステップ(f)と、前記第二総画像のサイズが第一所定値より小さい場合、前記第二総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(g)と、前記第二総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能をオフさせるステップ(h)と、をさらに含む。
前記センサーシステム用制御方法で、前記ステップ(f)を実施した後に実施するステップは、前記第二総画像のサイズが第一所定値より大きいか同じである場合、特殊機能の起動状態を維持し、且つ第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(g1)をさらに含む。前記ステップ(g)を実施した後に実施するステップは、前記第二総画像を検出する時間が第二所定値より小さい場合、第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(h1)をさらに含むか、ステップ(h)が第三子画像と第四子画像により得る第二物体の第二座標を出力するステップさらに含む。前記センサーシステム用制御方法で、前記特殊機能がデリート機能である。
上述したように、本発明のセンサーシステム用制御方法は、検出する第一総画像のサイズにより特殊機能を起動するかないか判断するので、使用者が本発明のセンサーシステムを使うことが便利になる。且つ、検出する第一総画像のサイズと第一総画像を検出する時間の長さにより特殊機能を起動するかないか判断するので、センサーシステムが判断を不正確にして特殊機能を起動することを防ぐことができる。
本発明の第一実施形態に係るセンサーシステムを示す図である。 図1のセンサーシステムに適用する制御方法の流れ図である。 図2の制御方法をより詳しい示す流れ図である。 図1の第一イメージセンサーと第二イメージセンサーが検出する第一画像と第二画像を示す図である。 図1のセンサーシステムの第一イメージセンサーと第二イメージセンサーが検出する第三画像と第四画像を示す図である。 本発明の第二実施形態に係るセンサーシステムを示す図である。 図6のセンサーシステム用制御方法の流れ図である。 図7のセンサーシステム用制御方法を詳しい説明する流れ図である。 図6のセンサーシステムのイメージセンサーが検出する第一画像を示す図である。 図6のセンサーシステムのイメージセンサーが検出する第二画像を示す図である。
図1は、本発明の第一実施形態に係るセンサーシステムを示す図である。本発明のセンサーシステム200は、パネル210と、第一イメージセンサー220と、第二イメージセンサー230と、プロセッサー(processor)240と、を含む。前記パネル210は、上表面214と、前記上表面214の略中心に位置し且つ外形が矩形である検出区域212と、を含む。前記第一イメージセンサー220と第二イメージセンサー230は、前記パネル210の上表面214に配置され、且つ前記プロセッサー240に電気接続されている。前記パネル210の検出区域212は、前記第一イメージセンサー220と第二イメージセンサー230の検出できる範囲に入っている。本実施形態のパネル210は、白色板(whiteboard)或いはタッチ式パネル(touch screen)である。
センサーシステム200の使用者がスタイラスペンなどの物体20を前記検出区域212に接近させる場合、前記第一イメージセンサー220と第二イメージセンサー230は、前記検出区域212に接近或いは接続される物体20を感知し、前記プロセッサー240は、前記第一イメージセンサー220と第二イメージセンサー230が感知する情報により前記物体20の位置を検出する。前記物体20の位置を検出する上述の内容は、アメリカの特許4、782、328号と特許6、803、906号を参照することができるので、これで再度説明しない。前記物体20を前記検出区域212の上で移動させる場合、物体20の移動の軌跡が前記タッチパネルのパネル210に表示されるか、電気接続される外部の表示装置のパネル210に表示される。
図2は、図1のセンサーシステムに適用する制御方法の流れ図であり、図3は、図2の制御方法をより詳しい示す流れ図であり、図4は、図1の第一イメージセンサーと第二イメージセンサーが検出する第一画像と第二画像を示す図である。本実施形態のセンサーシステム用制御方法は、感知する第一総画像P1のサイズにより特殊の機能を起動する特殊の機能を有する。即ち、前記第一総画像P1のサイズと第一総画像P1を感知する時間の長さにより特殊の機能を起動する。以下、センサーシステム用制御方法に対して詳しい説明する。
まず、ステップ(a)で、前記第一イメージセンサー220と第二イメージセンサー230が前記検出区域212に接近或いは接続される物体を感知して、第一画像222と第二画像232を得る。前記第一画像222は、第一子画像222aを含み、前記第二画像232は、第二子画像232aを含む。前記第一子画像222aと前記第二子画像232aにより第一総画像P1を構成される。
前記第一イメージセンサー220は、前記検出区域212の物体を感知する複数の第一感知用画素(図に示さない)を含み、前記第二イメージセンサー230は、前記検出区域212の物体を感知する複数の第二感知用画素(図に示さない)を含む。第一物体(図に示さない)を前記検出区域212に接近させる場合、前記第一イメージセンサー220の第一感知用画素と前記第二イメージセンサー230の第二感知用画素が前記第一物体を感知して画像を形成する。前記第一感知用画素が第一画像222を形成し、前記第二感知用画素が第二画像232を形成する。且つ、前記第一感知用画素が前記第一物体を感知して第一画像222に第一子画像222aを形成し、前記第二感知用画素が前記第一物体を感知して第二画像232に第二子画像232aを形成する。換言すれば、前記第一物体を前記パネル210の検出区域212に接近させる場合、前記第一イメージセンサー220と第二イメージセンサー230に感知され、且つ前記第一画像222に第一子画像222aが形成され、前記第二画像232に第二子画像232aが形成される。
前記第一物体は、スタイラスペン、指、板状消しゴム、手の平などを指す。前記第一物体がスタイラスペン或いは指である場合、前記第一総画像P1のサイズが小さい。前記第一総画像P1のサイズは、前記第一子画像222aを獲得する第一感知用画素の数量と前記第二子画像232aを獲得する第二感知用画素の数量の合と同じである。前記第一物体が板状消しゴム或いは手の平である場合、前記第一総画像P1のサイズが大きくなる。図4に示す第一子画像222aと第二子画像232aは、板状消しゴムにより形成されることである。
複数の第一物体を前記パネル210の検出区域212に接近させる場合、例えば2つの指で前記パネル210の検出区域212を触る場合、前記第一画像222に複数の第一子画像222aが形成され、前記第二画像232に複数の第二子画像232aが形成される。且つ、前記複数の第一子画像222aと前記複数の第二子画像232aにより第一総画像P1が形成される。前記第一総画像P1のサイズは、前記第一子画像222aを獲得する第一感知用画素の数量と前記第二子画像232aを獲得する第二感知用画素の数量の合と同じである。
次に、ステップ(b)で、前記プロセッサー240は前記第一総画像P1のサイズが所定値より大きいか同じかを比較する。本実施形態で、前記所定値は、画素の所定の数量で構成される。前記画素の数量は、前記第一イメージセンサー220の第一感知用画素と第二イメージセンサー230の第二感知用画素の合の2分の1〜3分の2になっている。
次に、ステップ(c)で、前記第一総画像P1のサイズが第一所定値より大きいか同じである場合、前記第一総画像P1を検出する時間が第二所定値(例えば1.5秒)より大きいか同じかをさらに判断する。図2に示すステップ(c)は、図3に示す計数方法を使うことができる。例えば、前記第一イメージセンサー220と第二イメージセンサー230が一定の時間を挟んで(例えば1/240秒)、前記検出区域212を一回ずつ検出する。前記第一イメージセンサー220と第二イメージセンサー230が前記検出区域212を一回ずつ検出する度に前記プロセッサー240が第一総画像P1のサイズが第一所定値より大きいか同じかを比較する。前記検出区域212を一回検出すると、計数値(counting value)が1増え、前記プロセッサー240は前記計数値が第三所定値より大きいか同じかを比較する(図3に示すステップ(c2)と(c3)を参照なさい)。前記第二所定値(例えば1.5秒)を所定の公式、例えば公式1.5秒/(1/240)により第三所定値360を得ることができる。
次に、ステップ(d)で、第一総画像P1を連続に検出する時間が第二所定値より大きいか同じかを判断する。前記プロセッサー240は、前記判断結果により特殊な機能を起動させ、且つ検出する第一子画像222aと第二子画像232aを第一物体の第一座標にする。本実施形態で、第一物体が板状消しゴム或いは手の平である場合、本発明のセンサーシステム200は第一物体をデリート用物体に見なす。即ち、前記パネル210或いは外部の表示装置に形成される第一物体の移動軌跡をデリートする特殊な機能を実施する。
本発明のセンサーシステム用制御方法は、前記ステップ(b)を実施した後に実施するステップ(c1)をさらに含む。前記第一総画像P1のサイズが第一所定値より小さい場合、前記プロセッサー240が検出する第一子画像222aと第二子画像232aにより得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻る。本実施形態で、第一物体がスタイラスペン或いは指である場合、本発明のセンサーシステム200は第一物体を操作用物体に見なす。
本発明のセンサーシステム用制御方法は、前記ステップ(c)を実施した後に実施するステップ(d1)をさらに含む。前記第一総画像P1を検出する時間が第二所定値より小さい場合(または計数値が第三所定値より小さい場合)、前記プロセッサー240が検出する第一子画像222aと第二子画像232aにより得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻る。本実施形態で、前記第一物体が板状消しゴム或いは手の平であるが、第一物体を検出する時間が短くて前記プロセッサー240が前記第一物体を操作用物体に見なす可能性がある。例えば、使用者が板状消しゴム或いは手の平で前記検出区域212を一回触った場合(時間がとても短い)、前記プロセッサー240が前記板状消しゴム或いは手の平を操作用物体に見なして、特殊な機能を実施する可能性がある。
前記ステップ(a)、(b)、(b1)、(c)、(d)と(d1)が第一制御ステップを構成する。前記第一制御ステップで、前記第一イメージセンサー220と第二イメージセンサー230が検出する物体がみんな第一物体である。即ち、前記第一制御ステップで、前記第一物体は前記第一イメージセンサー220と第二イメージセンサー230が検出する物体の共通名称である。
本実施形態のセンサーシステムの制御方法で、検出する第一総画像P1のサイズにより特殊な機能を実施するかないかを判断するので、使用者が前記制御方法を有するセンサーシステム200を容易に使うことができる。且つ、検出する第一総画像P1のサイズ、第一総画像P1を検出する時間の長さにより特殊な機能を実施するかないか判断するので、センサーシステムが特殊な機能を間違い起動することを防ぐことができる。
図5は、図1のセンサーシステムの第一イメージセンサーと第二イメージセンサーが検出する第三画像と第四画像を示す図である。本実施形態のセンサーシステムの制御方法は、前記ステップ(d)を実施した後実施する以下のステップを含む。図1、図2、図3及び図5を参照なさい。次のステップ(e)で、前記第一イメージセンサー220と前記第二イメージセンサー230が前記検出区域212に接近或いは接続される物体を感知して、第三画像224と第四画像234を得る。前記第三画像223は、第三子画像224aを含み、前記第四画像234は、第四子画像234aを含む。前記第三子画像223aと前記第四子画像234aにより第二総画像P2が構成される。前記第三子画像224aと前記第四子画像234aは、前記検出区域212に接近される第二物体により形成されることである。前記パネル210の検出区域212に接近される第二物体により形成される第三子画像224aが前記第三画像224の中心に形成され、第四子画像234aが前記第四画像234の中心に形成される。
前記第二物体は、スタイラスペン、指、板状消しゴム、手の平などを指す。図5の第三子画像224aと第四子画像234aは、スタイラスペンなどの第二物体により形成されるものである。
次のステップ(f)で、前記第二総画像P2のサイズが第一所定値より小さいかを判断する。前記第二総画像P2のサイズは、前記第三子画像224aを検出する第一感知用画素の数量と第四子画像234aを検出する第二感知用画素の数量の合と同じである。
次のステップ(g)で、前記第二総画像P2のサイズが第一所定値より小さい場合、前記第二総画像P2を検出する時間が第二所定値より大きいか同じかをさらに判断する。図2に示すステップ(g)は、図3に示す計数方法で実施することができる。例えば、前記第一イメージセンサー220と第二イメージセンサー230が前記検出区域212を一回ずつ検出する度に、前記プロセッサー240が第二総画像P2のサイズが第一所定値より小さいかを比較する。前記検出区域212を一回検出すると、計数値(counting value)が1増え、前記プロセッサー240は前記計数値が第三所定値より大きいか同じかを比較する(図3に示すステップ(g2)と(g3)を参照なさい)。
次のステップ(h)で、前記第二総画像P2を検出する時間が第二所定値より大きいか同じである場合(または計数値が第三所定値より大きいか同じである場合)、前記プロセッサー240が特殊な機能をオフさせ、且つ第二物体の第三子画像224aと第四子画像234aにより得る第二座標を出力する。本実施形態で、前記第二物体がスタイラスペン、指である場合、前記センサーシステム200は前記第二物体を操作用物体と見なす。
前記センサーシステム用制御方法は、前記ステップ(f)を実施した後に実施するステップ(g1)をさらに含む。前記第二総画像P2のサイズが第一所定値より大きいか同じである場合、前記プロセッサー240が特殊な機能を起動させ、且つ第二物体の第三子画像224aと第四子画像234aから得る第二座標を出力し、ステップ(e)に戻る。本実施形態で、本実施形態で、第二物体が板状消しゴム或いは手の平である場合、本発明のセンサーシステム200は第二物体をデリート用物体に見なす。
前記センサーシステム用制御方法は、前記ステップ(g)を実施した後に実施するステップ(h1)をさらに含む。前記第二総画像P2を検出する時間が第二所定値より小さい場合(または計数値が第三所定値より小さい場合)、前記プロセッサー240が特殊な機能を続き起動させ、且つ第二物体の第三子画像224aと第四子画像234aから得る第二座標を出力し、ステップ(e)に戻る。前記第二物体がスタイラスペン、指であるが、第二物体を検出する時間が短くて前記プロセッサー240が前記第二物体をデリート用物体に見なす可能性がある。例えば、使用者がスタイラスペン、指で前記検出区域212を一回触った場合(時間がとても短い)、前記プロセッサー240が間違い判断することを防ぐために前記特殊な機能をオフさせる。
前記ステップ(e)、(f)、(g1)、(g)、(h)と(h1)が第二制御ステップを構成する。前記第二制御ステップで、前記第一イメージセンサー220と第二イメージセンサー230が検出する物体がみんな第二物体である。即ち、前記第二制御ステップで、第二物体は前記第一イメージセンサー220と第二イメージセンサー230が検出する物体の共通名称である。
本発明のセンサーシステム用制御方法で、第一制御ステップのステップ(a)を実施する前に、使用者がスタイラスペンでセンサーシステム200の他の特殊機能(第二特殊機能)を実施することができる。例えば、手書き機能、ペインティング機能を実施することができる。次に、デリート機能などの特殊機能(前記第二特殊機能と違う第一特殊機能と見なすことができる)を一定な時間実施した後、第一特殊機能をオフさせる(例えば板状消しゴムを離間させる)。次に前記第二特殊機能をさらに起動させることができる。即ち、前記第二特殊機能は、前記センサーシステム200に設置するプリセット機能に見なすことができる。
図6は、本発明の第二実施形態に係るセンサーシステムを示す図である。本発明のセンサーシステム300は、パネル310と、イメージセンサー320と、鏡面反射部品330と、プロセッサー340と、を含む。前記イメージセンサー320は、前記パネル310の上に配置されている。前記鏡面反射部品330は、前記パネル310の上に配置され、前記パネル310の第一区域312を反射して第二区域312’(第一区域312の鏡像である)形成する鏡面式反射面(reflective mirror plane)332を含む。前記イメージセンサー320は、前記鏡面反射部品330と向き合うように前記プロセッサー340に電気接続されている。前記第一区域312と第二区域312’は、前記イメージセンサー320の検出範囲に入っている。本実施形態のセンサーシステム300は、鏡面反射部品330を設置したので、第一実施形態の第二イメージセンサー230を設置しなく、1つのイメージセンサー320だけを設置してもよい。
前記センサーシステム300が検出できる物体30が前記第一区域312に接近する場合、前記鏡面反射部品330により物体30の鏡像30’が形成される。前記イメージセンサー320は、前記第一区域312と第二区域312’を検出し、前記プロセッサー340は、前記イメージセンサー320が検出する画像により前記物体30の位置を決める。上述する技術は、台湾の特願097126033と、特願097142355と、特願098100969と、台湾の特願に対応するアメリカの特願12/249222と、特願12/334449と、特願12/422191を参照することができるので、再度説明しない。
図7は、図6のセンサーシステム用制御方法の流れ図であり、図8は、図7のセンサーシステム用制御方法を詳しい説明する流れ図であり、図9は、図6のセンサーシステムのイメージセンサーが検出する第一画像を示す図であり、図10は、図6のセンサーシステムのイメージセンサーが検出する第二画像を示す図である。図6〜図10を参照なさい。第二実施形態のセンサーシステム用制御方法と第一実施形態のセンサーシステム用制御方法が違う所は、第二実施形態のステップ(a)、ステップ(e)の内容と第一実施形態のステップ(a)、ステップ(e)の内容が違うことである。
本実施形態のステップ(a)で、前記イメージセンサー320が第一区域312と第二区域312’を検出して第一画像322を形成する。前記第一画像322は、第一子画像322aと第二子画像322bを含み、前記第一子画像322aと前記第二子画像322bにより、第一総画像P3が形成される。
前記イメージセンサー320は、前記第一区域312と第二区域312’を検出する複数の感知用画素(図に示さない)を含む。第一物体(図に示さない)を前記パネル310の第一区域312に接近させる場合、前記イメージセンサー320の複数の感知用画素が前記第一区域312と第二区域312’を検出して第一画像322を形成する。この場合、一部分の感知用画素が前記第一物体を検出して第一子画像322aを形成し、一部分の感知用画素が前記第一物体を検出して第二子画像322bを形成する。即ち、前記第一物体を前記パネル310の第一区域312に接近させる場合、前記イメージセンサー320が前記第一物体とその鏡像を検出して、第一画像322とその内部に形成される第一子画像322aと前記第二子画像322bを形成する。
前記第一総画像P3のサイズと、前記第一子画像322aを検出する感知用画素の数量と前記第二子画像322bを検出する感知用画素の数量の合が同じである。図9に示す第一子画像322aと前記第二子画像322bは、板状消しゴムなどの第一物体により形成されることである。
本実施形態のステップ(e)で、前記イメージセンサー320が前記第一区域312と第二区域312’を検出して第二画像324を得る。前記第二画像324は、第三子画像324aと第四子画像324bを含み、且つ前記第三子画像324aと第四子画像324bにより、第二総画像P4が形成される。前記第三子画像324aと第四子画像324bは、前記第一区域に接近する第二物体とその鏡像により形成されるものである。即ち、第二物体を前記パネル310の第一区域312に接近させる場合、前記イメージセンサー320が前記第二物体とその鏡像を検出して、第一画像322とその内部に形成される第一子画像322aと前記第二子画像322bを形成する。
前記第二総画像P4のサイズと、前記第三子画像324aを検出する感知用画素の数量と前記第四子画像324bを検出する感知用画素の数量の合が同じである。図10に示す第三子画像324aと前記第四子画像324bは、スタイラスペンなどの第二物体により形成されるものである。
本実施形態の第一所定値は、画素の一定な数量と同じである。例えば、イメージセンサー320の感知用画素の数量の1/2〜2/3と同じである。
上述したように、本発明のセンサーシステム用制御方法は以下の発明効果を得ることができる。
第一、本発明のセンサーシステム用制御方法で、検出する第一総画像のサイズにより特殊機能を起動するかないか判断するので、使用者が本発明のセンサーシステムを使うことが便利になる。
第二、本発明のセンサーシステム用制御方法で、検出する第一総画像のサイズと第一総画像を検出する時間の長さにより特殊機能を起動するかないか判断するので、センサーシステムが判断を不正確にして特殊機能を起動することを防ぐことができる。
110 パネル
20、30 物体
30’ 鏡像
200、300 センサーシステム
210、310 パネル
212、312、312’ 区域
214 表面
220、230、320 イメージセンサー
222、224、232、234、322、324 画像
222a、224a、232a、234a、322a、324a 子画像
240、340 プロセッサー
330 鏡面反射部品
332 鏡面式反射面
P1、P2、P3、P4 総画像

Claims (9)

  1. センサーシステムのための制御方法であって、
    検出する第一総画像のサイズと第一総画像を検出する時間の長さとにより特殊機能を起動するかないか判断するステップを含み、
    前記センサーシステムは、パネルと、前記パネルの上に設置される第一イメージセンサーと、前記パネルの上に設置される第二イメージセンサーと、を含み、前記パネルの検出区域は、前記第一イメージセンサーと第二イメージセンサーの検出の範囲に入り、前記第一イメージセンサーは、前記検出区域を検出する複数の第一感知用画素を含み、前記第二イメージセンサーは、前記検出区域を検出する複数の第二感知用画素を含み、
    検出する第一総画像のサイズと第一総画像を検出する時間の長さとにより特殊機能を起動するかしないか判断する前記ステップは、
    前記第一イメージセンサーと前記第二イメージセンサーが前記検出区域を検出して第一子画像を含む第一画像と第二子画像を含む第二画像を形成し、前記第一総画像のサイズが前記第一子画像を獲得する第一感知用画素の数量と前記第二子画像を獲得する第二感知用画素の数量との総和となるように、前記第一子画像と前記第二子画像により第一総画像を形成するステップ(a)と、
    前記第一総画像のサイズが第一所定値より大きいか同じであるかを判断するステップ(b)と、
    前記第一総画像のサイズが第一所定値より大きいか同じである場合、前記第一総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(c)と、
    前記第一総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能を起動するステップ(d)と、を含む
    ことを特徴とするセンサーシステム用制御方法。
  2. 前記センサーシステム用制御方法は、前記ステップ(b)を実施した後に実施するステップは、前記第一総画像のサイズが第一所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(c1)をさらに含むか、或いは
    前記ステップ(c)を実施した後に実施するステップは、前記第一総画像を検出する時間が第二所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(d1)をさらに含むか、或いは、
    ステップ(d)が第一子画像と第二子画像により得る第一物体の第一座標を出力するステップさらに含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  3. 前記センサーシステム用制御方法で、前記ステップ(d)を実施した後に実施するステップは、
    前記第一イメージセンサーと前記第二イメージセンサーが同時に前記検出区域を検出して、第三子画像を含む第三画像と第四子画像を含む第四画像を得、且つ、第二総画像のサイズが前記第三子画像を獲得する第一感知用画素の数量と前記第四子画像を獲得する第二感知用画素の数量との総和となるように、前記第三子画像と前記第四子画像により前記第二総画像構成るステップ(e)と、
    前記第二総画像のサイズが第一所定値より小さいかを判断するステップ(f)と、
    前記第二総画像のサイズが第一所定値より小さい場合、前記第二総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(g)と、
    前記第二総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能をオフさせるステップ(h)と、をさらに含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  4. 前記センサーシステム用制御方法で、前記ステップ(f)を実施した後に実施するステップは
    前記第二総画像のサイズが第一所定値より大きいか同じである場合、特殊機能の起動状態を維持し、且つ第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(g1)をさらに含むか、或いは
    前記ステップ(g)を実施した後に実施するステッは、前記第二総画像を検出する時間が第二所定値より小さい場合、第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(h1)をさらに含むか、ステップ(h)が第三子画像と第四子画像により得る第二物体の第二座標を出力するステップさらに含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  5. 前記センサーシステムは、パネルと、前記パネルの上に設置されるイメージセンサーと、前記パネルの上に配置され且つ前記パネルの第一区域を反射して第一区域の鏡像である第二区域を形成する鏡面式反射面を含み、前記第一区域と第二区域は、前記イメージセンサーの検出範囲に入り、前記第一イメージセンサーは、前記第一区域と第二区域を検出する複数の感知用画素を含み、
    検出する第一総画像のサイズと第一総画像を検出する時間の長さにより特殊機能を起動するかないか判断する前記ステップは、
    前記イメージセンサーが前記第一区域と第二区域を検出して第一子画像と第二子画像を含む第一画像を形成し、且つ、前記第一総画像のサイズが前記第一子画像を獲得する感知用画素の数量と前記第二子画像を獲得する感知用画素の数量との総和となるように、前記第一子画像と前記第二子画像により第一総画像形成るステップ(a)と、
    前記第一総画像のサイズが第一所定値より大きいか同じであるかを判断するステップ(b)と、
    前記第一総画像のサイズが第一所定値より大きいか同じである場合、前記第一総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(c)と、
    前記第一総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能を起動するステップ(d)と、を含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  6. 前記センサーシステム用制御方法で、前記ステップ(b)を実施した後に実施するステップは、
    前記第一総画像のサイズが第一所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(c1)をさらに含むか、或いは
    前記ステップ(c)を実施した後に実施するステップは、前記第一総画像を検出する時間が第二所定値より小さい場合、第一子画像と第二子画像により得る第一物体の第一座標を出力し、且つ再度ステップ(a)に戻るステップ(d1)をさらに含むか、或いは、
    ステップ(d)が第一子画像と第二子画像により得る第一物体の第一座標を出力するステップさらに含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  7. 前記センサーシステム用制御方法で、前記ステップ(d)を実施した後に実施するステップは、
    前記イメージセンサーが前記第一区域と第二区域を同時に検出して、第三子画像と第四子画像を含む第二画像を得、且つ、第二総画像のサイズが前記第三子画像を獲得する感知用画素の数量と前記第四子画像を獲得する感知用画素の数量との総和となるように、前記第三子画像と前記第四子画像により前記第二総画像構成るステップ(e)と、
    前記第二総画像のサイズが第一所定値より小さいかを判断するステップ(f)と、
    前記第二総画像のサイズが第一所定値より小さい場合、前記第二総画像を検出する時間が第二所定値より大きいか同じであるかをさらに判断するステップ(g)と、
    前記第二総画像を検出する時間が第二所定値より大きいか同じである場合、特殊な機能をオフさせるステップ(h)と、をさらに含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  8. 前記センサーシステム用制御方法で、前記ステップ(f)を実施した後に実施するステップは、
    前記第二総画像のサイズが第一所定値より大きいか同じである場合、特殊機能の起動状態を維持し、且つ第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(g1)をさらに含むか、或いは
    前記ステップ(g)を実施した後に実施するステップは、前記第二総画像を検出する時間が第二所定値より小さい場合、第三子画像と第四子画像により得る第二物体の第二座標を出力し、且つ再度ステップ(e)に戻るステップ(h1)をさらに含むか、或いは、
    ステップ(h)が第三子画像と第四子画像により得る第二物体の第二座標を出力するステップさらに含むことを特徴とする請求項に記載のセンサーシステム用制御方法。
  9. 前記特殊機能は、デリート機能を指すことを特徴とする請求項1に記載のセンサーシステム用制御方法。
JP2009262734A 2009-05-18 2009-11-18 センサーシステム用制御方法 Expired - Fee Related JP5554969B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098116457A TWI452488B (zh) 2009-05-18 2009-05-18 應用於感測系統的控制方法
TW098116457 2009-05-18

Publications (2)

Publication Number Publication Date
JP2010267245A JP2010267245A (ja) 2010-11-25
JP5554969B2 true JP5554969B2 (ja) 2014-07-23

Family

ID=43068122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009262734A Expired - Fee Related JP5554969B2 (ja) 2009-05-18 2009-11-18 センサーシステム用制御方法

Country Status (3)

Country Link
US (3) US8629854B2 (ja)
JP (1) JP5554969B2 (ja)
TW (1) TWI452488B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8937612B2 (en) * 2010-02-04 2015-01-20 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Coordinate locating method, coordinate locating device, and display apparatus comprising the coordinate locating device
TWI456464B (zh) * 2011-12-21 2014-10-11 Pixart Imaging Inc 光學觸控系統
CN103064613A (zh) * 2012-12-13 2013-04-24 鸿富锦精密工业(深圳)有限公司 触摸屏内容擦除的方法及装置
GB201409036D0 (en) 2014-05-21 2014-07-02 Wellstream Int Ltd Detection apparatus and method
US11036338B2 (en) * 2018-04-20 2021-06-15 Beechrock Limited Touch object discrimination by characterizing and classifying touch events

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4782328A (en) * 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
KR100318330B1 (ko) * 1991-04-08 2002-04-22 가나이 쓰도무 감시장치
JP3624070B2 (ja) * 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
JPH1185377A (ja) * 1997-09-02 1999-03-30 Fujitsu Ltd 光学式位置検出装置付き情報表示装置
JP3933278B2 (ja) * 1997-11-04 2007-06-20 株式会社ワコム 位置指示器を検出可能な位置検出方法及び装置
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP4052498B2 (ja) * 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US20040207606A1 (en) * 1999-11-08 2004-10-21 Atwood Stephen P. Sensing the size of a touch point in a touch-sensitive panel employing resistive membranes
JP3819654B2 (ja) * 1999-11-11 2006-09-13 株式会社シロク 指示体の識別機能を有する光デジタイザ
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP2003076484A (ja) * 2001-08-30 2003-03-14 Ricoh Co Ltd 座標指示物の大きさ算出方法、座標入力装置および座標指示物の大きさ算出プログラム
KR100472438B1 (ko) * 2001-11-14 2005-02-21 삼성전자주식회사 플라즈마 디스플레이 패널의 휘도 감쇠장치 및 방법
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
JP2005025415A (ja) * 2003-06-30 2005-01-27 Sony Corp 位置検出装置
EP1714271A2 (en) * 2004-02-12 2006-10-25 Atrua Technologies, Inc. System and method of emulating mouse operations using finger image sensors
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
WO2007035655A2 (en) * 2005-09-16 2007-03-29 The Trustees Of Columbia University In The City Of New York Using overlay networks to counter denial-of-service attacks
US20090090569A1 (en) * 2005-10-13 2009-04-09 Cho-Yi Lin Sensing System
EP1980935A1 (en) * 2006-02-03 2008-10-15 Matsushita Electric Industrial Co., Ltd. Information processing device
JP2007213135A (ja) * 2006-02-07 2007-08-23 Ricoh Elemex Corp 座標検知装置および座標検知方法
JP4750650B2 (ja) * 2006-08-22 2011-08-17 リコーエレメックス株式会社 描画表示装置、描画表示方法およびプログラム
TW200816062A (en) * 2006-09-29 2008-04-01 Ibm Video-based handwriting input method and apparatus
JP5391519B2 (ja) * 2007-02-06 2014-01-15 三菱電機株式会社 画像表示装置
WO2008128096A2 (en) * 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
JP2009003662A (ja) * 2007-06-21 2009-01-08 Hitachi Software Eng Co Ltd 電子ボードシステム
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8270669B2 (en) * 2008-02-06 2012-09-18 Denso Corporation Apparatus for extracting operating object and apparatus for projecting operating hand
KR101365776B1 (ko) * 2008-04-08 2014-02-20 엘지디스플레이 주식회사 멀티 터치 시스템 및 그 구동 방법
KR101047771B1 (ko) * 2008-07-01 2011-07-07 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 제어 방법

Also Published As

Publication number Publication date
TWI452488B (zh) 2014-09-11
TW201042504A (en) 2010-12-01
US20130215085A1 (en) 2013-08-22
US20160328088A1 (en) 2016-11-10
JP2010267245A (ja) 2010-11-25
US20100289773A1 (en) 2010-11-18
US8629854B2 (en) 2014-01-14

Similar Documents

Publication Publication Date Title
US9552154B2 (en) Device and method for providing a user interface
US8836645B2 (en) Touch input interpretation
US20110069018A1 (en) Double Touch Inputs
JP5554969B2 (ja) センサーシステム用制御方法
JP5783828B2 (ja) 情報処理装置およびその制御方法
JP5802247B2 (ja) 情報処理装置
US20150193037A1 (en) Input Apparatus
TWI470510B (zh) 光學觸控裝置及觸控感測方法
TW201327292A (zh) 觸控方法及觸控系統
TW201023011A (en) Detecting method for photo sensor touch panel and touch control electronic apparatus using the same
WO2012129989A1 (en) Method of identifying translation gesture and device using the same
US20160092032A1 (en) Optical touch screen system and computing method thereof
TWI511006B (zh) 光學影像式觸控系統與觸控影像處理方法
US20180059806A1 (en) Information processing device, input control method for controlling input to information processing device, and computer-readable storage medium storing program for causing information processing device to perform input control method
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
US9229586B2 (en) Touch system and method for determining the distance between a pointer and a surface
JP4080498B2 (ja) タッチパネルのインテリジェントタイプ移動の制御方法
TWI592848B (zh) 輸入裝置
CN102479002B (zh) 光学触控系统及其感测方法
TW201545051A (zh) 電子裝置的控制方法
Takahashi et al. Extending Three-Dimensional Space Touch Interaction using Hand Gesture
KR102441018B1 (ko) 전자 칠판에서의 이동 궤적에 따른 가변식 크기 변경 방식의 지우개 기능 작동 방법
JP5273676B2 (ja) 広域赤外線光源マルチタッチスクリーン
AU2013206686A1 (en) Adaptive and passive calibration
TW201504925A (zh) 使用者介面的操作方法與電子裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

R150 Certificate of patent or registration of utility model

Ref document number: 5554969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees