CN102750028A - 用于显示对象的方法和设备 - Google Patents

用于显示对象的方法和设备 Download PDF

Info

Publication number
CN102750028A
CN102750028A CN2012100980829A CN201210098082A CN102750028A CN 102750028 A CN102750028 A CN 102750028A CN 2012100980829 A CN2012100980829 A CN 2012100980829A CN 201210098082 A CN201210098082 A CN 201210098082A CN 102750028 A CN102750028 A CN 102750028A
Authority
CN
China
Prior art keywords
touch
sensing unit
input
coordinate
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012100980829A
Other languages
English (en)
Other versions
CN102750028B (zh
Inventor
韩荣兰
李喜元
崔景梧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN102750028A publication Critical patent/CN102750028A/zh
Application granted granted Critical
Publication of CN102750028B publication Critical patent/CN102750028B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供了一种用于显示对象的方法和设备。所述显示设备包括:显示单元,显示对象;第一触摸感测单元,通过第一输入方法感测用户输入;第二触摸感测单元,通过第二输入方法感测用户输入;坐标计算单元,计算第一触摸感测单元和第二触摸感测单元感测到的坐标值;控制器,响应于用户输入同时被第一触摸感测单元和第二触摸感测单元感测,将第一触摸感测单元和第二触摸感测单元感测到的坐标值进行比较,并确定所述用户输入是单个触摸输入还是多触摸输入,并且根据确定的结果,控制在显示单元上显示对象。

Description

用于显示对象的方法和设备
本申请要求于2011年4月5日在韩国知识产权局提交的第10-2011-0031256号韩国专利申请的优先权,该申请的公开通过引用全部包含于此。
技术领域
与示例性实施例一致的方法和设备涉及一种用于显示对象的方法和设备。更具体地说,示例性实施例涉及一种包括多个触摸感测单元的显示设备以及显示对象的方法,其中,所述多个触摸感测单元感测通过各种输入方法执行的触摸。
背景技术
已经开发出各种触摸方法用于向显示设备提供输入。具体地,在各种触摸方法中,包括红外线(IR)感测单元的数字笔方法由于可以准确识别点的坐标而被广泛使用在多个领域中。
具体地,根据包括IR感测单元的数字笔方法,等离子显示面板(PDP)显示设备通过对X轴方向和Y轴方向的扫描放电(scan-discharing)来产生IR,数字笔的IR感测单元获得在相应点产生的IR并发送该点的坐标值(参考第2009-0052606号韩国专利申请)。根据另一数字笔方法,包括IR感测单元的数字笔捕捉画有特定点图案(pattern)的表面,识别空间中的坐标并发送该坐标。
另一方面,采用这种数字笔方法的触摸板使用包括IR感测单元的数字笔,从而不能识别通过手指或其它对象进行的触摸。因此,除数字笔方法的触摸板之外,显示设备应该提供有能够利用不同方法(电容式、电阻式、相机或IR方法)的触摸板,从而显示设备可识别通过手指或其它对象进行的触摸。
然而,如果同时使用数字笔方法的触摸板和不同方法的触摸板,则存在从一点感测到多个坐标值的问题。具体地讲,如果用户在触摸感测单元的表面上使用数字笔,则不仅数字笔方法的触摸板感测到坐标值,而且不同方法的触摸板也感测到坐标值。在这种情况下,用户不能使用触摸笔流畅地执行事件。
为了解决这个问题,在现有技术中使用两种方法。一种方法是为两个触摸板之一分配开启/关闭模式,另一种方法是忽略同时输入的两个坐标值之一并仅使用一个坐标值(例如,通过数字笔方法的触摸板获得的坐标值)。然而,所述两种方法都不能支持同时识别通过数字笔方法的输入和通过除数字笔方法以外的其它方法的输入的多触摸输入。
因此,需要一种用于支持显示设备中的多触摸输入的方法,所述显示设备包括各种输入方法的触摸感测单元。
发明内容
一个或多个示例性实施例可克服上述缺点和以上未描述的其它缺点。然而,应理解,一个或多个示例性实施例不需要克服上述缺点,并可不克服上述任何问题。
一个或多个示例性实施例提供一种显示设备,所述显示设备响应于第一触摸感测单元和第二触摸感测单元同时感测到用户输入,将第一触摸感测单元和第二触摸感测单元感测到的坐标值进行比较并确定所述用户输入是单个触摸输入还是多触摸输入。一个或多个示例性实施例还提供用于显示对象的方法。
根据示例性实施例的一方面,提供了一种显示设备,包括:显示单元,显示对象;第一触摸感测单元,通过第一输入方法感测用户输入;第二触摸感测单元,通过第二输入方法感测用户输入;坐标计算单元,计算第一触摸感测单元和第二触摸感测单元感测到的坐标值;控制器,响应于用户输入同时被第一触摸感测单元和第二触摸感测单元感测,将第一触摸感测单元和第二触摸感测单元感测到的坐标值进行比较,并确定所述用户输入是单个触摸输入还是多触摸输入,并且根据确定的结果,控制在显示单元上的对象的显示。
响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离短,控制器可确定所述用户输入是单个触摸输入。响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离长,控制器可确定所述用户输入是多触摸输入。
单个触摸输入可仅显示第一触摸感测单元感测到的坐标值。
单个触摸输入可显示由用户设置的第一触摸感测单元和第二触摸感测单元中的一个感测到的坐标值。
多触摸输入可显示第一触摸感测单元和第二触摸感测单元感测到的所有坐标值。
响应于用户输入仅被第一触摸感测单元和第二触摸感测单元中的一个感测,坐标计算单元可计算感测到用户输入的触摸感测单元的坐标值,并可将所述坐标值输出到控制器。
第一输入方法可以是包括IR感测单元的数字笔输入方法。
第二输入方法可以是电阻式方法、相机方法、IR方法、光触摸方法和超声波触摸方法中的一个。
显示设备可以是电子板。
根据另一示例性实施例的一方面,提供了一种在包括第一输入方法的第一触摸感测单元和第二输入方法的第二触摸感测单元的显示设备上显示对象的方法,所述方法包括:由第一触摸感测单元和第二触摸感测单元中的至少一个感测用户输入;基于由所述第一触摸感测单元和第二触摸感测单元中的至少一个感测到的用户输入来计算坐标值;响应于用户输入被第一触摸感测单元和第二触摸感测单元同时感测,将第一触摸感测单元和第二触摸感测单元感测到的坐标值进行比较,并确定所述用户输入是单个触摸输入还是多触摸输入;根据确定的结果显示对象。
所述确定步骤可包括:响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离短,确定所述用户输入是单个触摸输入,响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离长,确定所述用户输入是多触摸输入。
所述显示步骤可包括:响应于用户输入是单个触摸输入,基于第一触摸感测单元感测到的坐标值显示对象。
所述方法还可包括:将第一触摸感测单元和第二触摸感测单元之一计算出的坐标值设置为单个触摸输入的坐标值,所述显示步骤可包括:响应于用户输入是单个触摸输入,基于设置的触摸感测单元感测到的坐标值显示对象。
所述显示步骤可包括:响应于用户输入是多触摸输入,基于第一触摸感测单元和第二触摸感测单元感测到的坐标值显示对象。
所述方法还可包括:响应于用户输入仅被第一触摸感测单元和第二触摸感测单元中的一个感测,显示感测到用户输入的触摸感测单元的坐标值。
第一输入方法可以是包括IR感测单元的数字笔输入方法。
第二输入方法可以是电阻式方法、相机方法、IR方法、光触摸方法和超声波触摸方法中的一个。
显示设备可以是电子板。
示例性实施例的另外的方面和优点将在详细描述中被阐述,从详细描述中将是明显的,或者可通过实施示例性实施例而被得知。
附图说明
通过参照附图详细描述示例性实施例,以上和/或其它方面将更清楚,附图中:
图1是示出根据示例性实施例的显示设备的框图;
图2是示出根据示例性实施例的用于响应于仅数字笔被输入而计算坐标值的方法的示图;
图3是示出根据示例性实施例的用于响应于数字笔和手指被同时输入而计算坐标值的方法的示图;
图4是示出根据示例性实施例的用于响应于仅手指被输入而计算坐标值的方法的示图;
图5是示出根据示例性实施例的使用由多个触摸板感测到的坐标值来显示对象的方法的流程图。
具体实施方式
在下文,将参照附图更详细地描述示例性实施例。
在下面的描述中,当相同标号在不同的附图中被描述时,它们被用于相同组件。提供描述中定义的事物(诸如详细结构和组件)以帮助对示例性实施例的全面理解。因此,清楚的是,可在没有那些专门定义的事物的情况下实现示例性实施例。此外,由于对现有技术中公知的功能或组件的不必要的细节会使示例性实施例模糊,因此不对现有技术中公知的功能或组件进行详细描述。
图1是示出根据示例性实施例的显示设备100的框图。如图1中所示,显示设备100包括第一触摸感测单元110、第二触摸感测单元120、坐标计算单元130、控制器140和显示单元150。第一触摸感测单元110、第二触摸感测单元120和显示单元150可形成一个显示面板。
第一触摸感测单元110是数字笔方法的触摸感测单元,所述数字笔方法使用包括红外线(IR)感测单元的数字笔。如上所述,在数字笔方法中,数字笔的IR感测单元感测从面板产生的IR并将感测到的点发送到显示设备,从而计算感测到的点的坐标值。
第二触摸感测单元120是除使用数字笔的数字笔方法以外的方法的触摸感测单元,第二触摸感测单元120感测用户的手指或除数字笔以外的对象。第二触摸感测单元120可以是电阻式方法、相机方法、IR方法、光触摸方法和超声波触摸方法中的一个方法的触摸感测单元。更具体地说,电阻式触摸感测单元基于触摸屏的当前值和电阻值的改变来计算触摸点的坐标,其中,所述改变由施加到触摸屏的物理压力导致。相机方法的触摸感测单元使用安装在显示设备的边角的相机来测量将被触摸的点的位置。IR触摸感测单元包括安装在显示设备的边角的并且与彼此相对的IR发送器和IR接收器,并通过获取对象阻碍IR的接收的时间来测量该对象的位置。除了使用光触摸方法和超声波触摸方法以外,可感测用户的手指或除数字笔以外的对象。
坐标计算单元130计算第一触摸感测单元110和第二触摸感测单元120中的至少一个感测到的用户输入的坐标值,并将所述坐标值输出到控制器140。坐标计算单元130计算根据各种输入方法感测到的用户输入的坐标值。用于以各种方法计算坐标的方法在现有技术中是公知的,因此省略其详细描述。
显示单元150由控制器140控制以在与由坐标计算单元130计算的坐标值相应的点显示对象。
控制器140控制显示单元150以在与由坐标计算单元130计算的坐标值相应的点显示对象。
更具体地说,控制器140确定第一触摸感测单元110和第二触摸感测单元120是否同时感测到用户输入。响应于第一触摸感测单元110和第二触摸感测单元120同时感测到用户输入,控制器140比较坐标计算单元130计算的由第一触摸感测单元110和第二触摸感测单元120感测到的坐标值,并确定该用户输入是单个触摸输入还是多触摸输入。更具体地说,控制器140将由第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离与预定距离进行比较,并确定用户输入是单个触摸输入还是多触摸输入。
更具体地说,响应于由第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离比预定距离短,控制器140确定用户输入是单个触摸输入,响应于由第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离比预定距离长,控制器140确定用户输入是多触摸输入。这是由于第一触摸感测单元110和第二触摸感测单元120的用于计算坐标值的方法不相同,且即使响应于相同点被触摸也存在坐标值的微小差。因此,响应于由两个触摸感测单元感测到的坐标值之间的距离比预定距离短,控制器140考虑该差来确定相同点被触摸并确定用户输入是单个触摸输入。然而,响应于由两个触摸感测单元感测到的坐标值之间的距离比预定距离长,控制器140确定两个点被触摸并确定用户输入是多触摸输入。预定距离是这样的距离,该距离可被识别为指示由所述两个触摸感测单元感测到的坐标值几乎是相同的点,并可以是0.5mm。然而,这仅是示例并且可设置不同值。
此外,即使响应于由第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离比预定距离短,控制器140也可产生用户接口(UI)以请用户确认用户输入是否是单个触摸输入。响应于用户通过UI确认用户输入是单个触摸输入,控制器140确定用户输入是单个触摸输入,并且响应于用户确认用户输入是多触摸输入,控制器140确定用户输入是多触摸输入。
上述单个触摸输入指的是显示通过所述两个触摸感测单元之一感测到的坐标值。此时,可将优先级给予数字笔方法的第一触摸感测单元110,这样做能够更精确地表达感测到的值。然而,这仅是示例并且可显示由用户设置的触摸感测单元的坐标值。此外,多触摸输入指的是显示通过所述两个触摸感测单元感测到的所有坐标值。
然而,响应于用户输入仅被第一触摸感测单元110和第二触摸感测单元120之一感测到,控制器140显示感测到用户输入的触摸感测单元的坐标值。
在下文,将参照图2至图4解释根据各种示例性实施例的控制器140计算坐标值的方法。在图2至图4中,第一触摸感测单元110是包括IR感测单元的数字笔方法的触摸感测单元,第二触摸感测单元120是包括安装在边角的相机121、122、123、124的相机方法的触摸感测单元。然而,这仅仅是示例,并且第二触摸感测单元120可以是电阻式方法、IR方法、光触摸方法或超声波触摸方法的触摸感测单元。
图2是示出根据示例性实施例的响应于仅数字笔200被输入而计算坐标值的方法的示图。如图2中所示,响应于用户使用数字笔200触摸多个触摸感测单元110、120,第一触摸感测单元110和第二触摸感测单元120同时感测数字笔200。
由于第一触摸感测单元110和第二触摸感测单元120同时感测数字笔200,控制器140将第一触摸感测单元110感测到的坐标值与第二触摸感测单元120感测到的坐标值之间的距离与预定距离进行比较。更具体地说,坐标值(x1,y1)由第一触摸感测单元110感测到,坐标值(x2,y2)由第二触摸感测单元120感测到。此时,由于数字笔200触摸第一触摸感测单元110和第二触摸感测单元120的相同点,因此(x1,y1)和(x2,y2)之间的距离比预定距离短。因此,控制器140确定第一触摸感测单元110和第二触摸感测单元120感测到的坐标值指示相同点,并仅显示第一触摸感测单元110的坐标值,将优先级给予第一触摸感测单元110。因此,即使两个触摸感测单元110、120感测到数字笔200,控制器140不显示多个坐标值,而仅显示第一触摸感测单元110的坐标值,由于第一触摸感测单元110能够更精确地表达感测到的值,因此将优先级给予第一触摸感测单元110。
图3是示出根据示例性实施例的响应于数字笔200和手指300被同时输入而计算坐标值的方法的示图。如图3中所示,响应于用户使用数字笔200和手指300触摸多个触摸感测单元110、120,数字笔200被第一触摸感测单元110和第二触摸感测单元120感测,而手指300被第二触摸感测单元120感测。
如图3中所示,即使数字笔200被第一触摸感测单元110和第二触摸感测单元120感测,由于所述两个触摸感测单元110、120感测到的坐标值(x3,y3)和坐标值(x4、y4)之间的距离比预定距离小,因此控制器140同时仅确定第一触摸感测单元110感测到的坐标值。
然而,由于手指300也被同时感测,因此控制器140将第一触摸感测单元110感测到的数字笔200的坐标值和第二触摸感测单元120感测到的手指300的坐标值进行比较。更具体地说,将第一触摸感测单元110感测到的数字笔200的坐标值(x3,y3)和第二触摸感测单元120感测到的手指300的坐标值(x5、y5)之间的距离与预定距离进行比较。由于数字笔200触摸的点与手指300触摸的点不同,因此(x3,y3)和(x5、y5)之间的距离比预定距离长。因此,控制器140确定第一触摸感测单元110和第二触摸感测单元120感测到的坐标值指示不同的点,从而将两个触摸感测单元110、120感测到的坐标值(x3,y3)和坐标值(x5、y5)的全部显示在显示单元150上。因此,响应于通过不同输入方法同时输入触摸,不显示仅一个输入方法的坐标值,而显示多个输入方法的所有坐标值,从而可支持多触摸输入。
图4是示出根据示例性实施例的用于在仅手指300被输入的情况下计算坐标值的方法的示图。如图4中所示,响应于用户使用手指300触摸多个触摸感测单元110、120,手指300仅被第二触摸感测单元120感测。这是由于手指300不包括IR感测单元。
因此,控制器140仅将第二触摸感测单元120感测到的坐标值(x6,y6)显示在显示单元150上。
如上所述,即使在包括具有多个输入方法的多个触摸感测单元的情况下,响应于通过数字笔和除数字笔以外的对象中的一个的输入触摸,显示设备100确定单个触摸输入,并且响应于通过数字笔和除数字笔以外的对象的两者的输入触摸,显示设备100确定多触摸输入。
图5是示出根据示例性实施例的用于使用由多个触摸板感测到的坐标值来显示对象的方法的流程图。
显示设备100感测第一触摸感测单元110和第二触摸感测单元120中的至少一个(S510)。第一触摸感测单元110是包括IR感测单元的数字笔方法的触摸感测单元,第二触摸感测单元120是除数字笔方法以外(诸如电阻式、相机、IR、光触摸和超声波触摸方法)的触摸感测单元。
显示设备100计算第一触摸感测单元110和第二触摸感测单元120中的至少一个感测到的用户输入的坐标值(S520)。
显示设备100确定用户输入是否被第一触摸感测单元110和第二触摸感测单元120同时感测(S530)。响应于用户输入没有被第一触摸感测单元110和第二触摸感测单元120同时感测(S530-否),也就是说,响应于用户输入仅被第一触摸感测单元110和第二触摸感测单元120之一感测,显示设备100基于感测到用户输入的触摸感测单元的坐标值来显示对象。例如,响应于使用手指来输入触摸,用户输入被第二触摸感测单元120感测,从而显示设备100基于第二触摸感测单元120感测到的坐标值来显示对象。
然而,响应于用户输入被第一触摸感测单元110和第二触摸感测单元120同时感测(S530-是),显示设备100确定第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离是否落入预定距离(S550)。换句话说,显示设备100确定第一触摸感测单元110和第二触摸感测单元120感测到的坐标值是否指示相同点。
响应于第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离落入预定距离(S550-是),显示设备100确定用户输入是单个触摸输入(S580)。例如,响应于数字笔200被第一触摸感测单元110和第二触摸感测单元120同时感测,第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离落入预定距离。因此,显示设备100识别用户输入作为在相同点的触摸输入并确定所述用户输入是单个触摸输入。
单个触摸输入指的是用于显示两个触摸感测单元之一感测到的坐标值的输入。此时,优先级可给予数字笔方法的第一触摸感测单元110,这样可以更精确地表达感测到的值。然而,这仅是示例,并且可显示由用户设置的触摸感测单元感测到的坐标值。
响应于单个触摸输入被确定,显示设备100基于第一触摸感测单元110感测到的坐标值来显示对象(S590)。
响应于第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离超过预定距离(S550-否),显示设备100确定用户输入是多触摸输入(S560)。例如,响应于数字笔200被第一触摸感测单元110感测,并且同时用户的手指被第二触摸感测单元120感测,第一触摸感测单元110和第二触摸感测单元120感测到的坐标值之间的距离超过预定距离。因此,显示设备100识别到两个触摸感测单元的触摸输入发生在不同点,并确定用户输入是多触摸输入。
多触摸输入指的是用于显示第一触摸感测单元110和第二触摸感测单元120感测到的所有坐标值的输入。
响应于多触摸输入被确定,显示设备100基于第一触摸感测单元110和第二触摸感测单元120感测到的所有坐标值来显示对象(S570)。
根据上述方法,可不仅使用数字笔还可使用手指或除数字笔以外的对象来感测触摸,并且响应于数字笔和手指或除数字笔以外的对象被同时触摸,还支持多触摸输入的确定。
根据示例性实施例的显示设备100可以是大屏幕的电子板。然而,这仅是示例,并且可应用允许使用触摸感测单元的用户输入的显示设备。
以上示例性实施例和优点仅仅是示例性的,并且不被解释为限制本发明构思。示例性实施例可被容易地应用于其它类型的设备。此外,示例性实施例的描述意图是说明性的,并不意图限制权利要求的范围,对本领域技术人员而言,许多代替、修改和改变将是明显的。

Claims (15)

1.一种显示设备,包括:
显示单元,显示对象;
第一触摸感测单元,通过第一输入方法感测用户输入;
第二触摸感测单元,通过第二输入方法感测用户输入;
坐标计算单元,计算第一触摸感测单元和第二触摸感测单元感测到的坐标值;
控制器,响应于用户输入同时被第一触摸感测单元和第二触摸感测单元感测,将第一触摸感测单元和第二触摸感测单元感测到的坐标值进行比较,并确定所述用户输入是单个触摸输入还是多触摸输入,并且根据确定的结果,控制在显示单元上的对象的显示。
2.如权利要求1所述的显示设备,其中,响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离短,控制器确定所述用户输入是单个触摸输入,响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离长,控制器确定所述用户输入是多触摸输入。
3.如权利要求1或权利要求2所述的显示设备,其中,单个触摸输入仅显示第一触摸感测单元感测到的坐标值。
4.如权利要求1所述的显示设备,其中,单个触摸输入显示由用户设置的第一触摸感测单元和第二触摸感测单元中的一个感测到的坐标值。
5.如权利要求1所述的显示设备,其中,多触摸输入显示第一触摸感测单元和第二触摸感测单元感测到的所有坐标值。
6.如权利要求1所述的显示设备,其中,响应于用户输入仅被第一触摸感测单元和第二触摸感测单元中的一个感测,坐标计算单元计算感测到用户输入的触摸感测单元的坐标值,并将所述坐标值输出到控制器。
7.如权利要求1所述的显示设备,其中,第一输入方法是包括IR感测单元的数字笔输入方法。
8.如权利要求1所述的显示设备,其中,第二输入方法是电阻式方法、相机方法、IR方法、光触摸方法和超声波触摸方法中的一个。
9.如权利要求1所述的显示设备,其中,显示设备是电子板。
10.一种在包括第一输入方法的第一触摸感测单元和第二输入方法的第二触摸感测单元的显示设备上显示对象的方法,所述方法包括:
由第一触摸感测单元和第二触摸感测单元中的至少一个感测用户输入;
基于由所述第一触摸感测单元和第二触摸感测单元中的至少一个感测到的用户输入来计算坐标值;
响应于用户输入同时被第一触摸感测单元和第二触摸感测单元感测,将第一触摸感测单元和第二触摸感测单元感测到的坐标值进行比较,并确定所述用户输入是单个触摸输入还是多触摸输入;
根据确定的结果显示对象。
11.如权利要求10所述的方法,其中,所述确定步骤包括:响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离短,确定所述用户输入是单个触摸输入,响应于第一触摸感测单元和第二触摸感测单元感测到的坐标值之间的距离比预定距离长,确定所述用户输入是多触摸输入。
12.如权利要求10所述的方法,其中,所述显示步骤包括:响应于用户输入是单个触摸输入,基于第一触摸感测单元感测到的坐标值显示对象。
13.如权利要求10所述的方法,还包括:将第一触摸感测单元和第二触摸感测单元之一计算出的坐标值设置为单个触摸输入的坐标值,
其中,所述显示步骤包括:响应于用户输入是单个触摸输入,基于第一触摸感测单元感测到的坐标值显示对象。
14.如权利要求10所述的方法,其中,所述显示步骤包括:响应于用户输入是多触摸输入,基于第一触摸感测单元和第二触摸感测单元感测到的坐标值显示对象。
15.如权利要求10所述的方法,还包括:响应于用户输入仅被第一触摸感测单元和第二触摸感测单元中的一个感测,显示感测到用户输入的触摸感测单元的坐标值。
CN201210098082.9A 2011-04-05 2012-04-05 用于显示对象的方法和设备 Expired - Fee Related CN102750028B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110031256A KR101811636B1 (ko) 2011-04-05 2011-04-05 디스플레이 장치 및 이의 오브젝트 표시 방법
KR10-2011-0031256 2011-04-05

Publications (2)

Publication Number Publication Date
CN102750028A true CN102750028A (zh) 2012-10-24
CN102750028B CN102750028B (zh) 2017-06-23

Family

ID=45841176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210098082.9A Expired - Fee Related CN102750028B (zh) 2011-04-05 2012-04-05 用于显示对象的方法和设备

Country Status (5)

Country Link
US (1) US9007345B2 (zh)
EP (1) EP2508965B1 (zh)
JP (1) JP6027328B2 (zh)
KR (1) KR101811636B1 (zh)
CN (1) CN102750028B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11486728B1 (en) * 2021-07-30 2022-11-01 Coupang Corp. Electronic apparatus and operation method thereof

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI456458B (zh) * 2012-09-03 2014-10-11 Acer Inc 電子裝置以及相關之控制方法
JP5958215B2 (ja) * 2012-09-12 2016-07-27 富士通株式会社 情報端末装置、タッチ座標決定方法及びタッチ座標決定プログラム
KR20140046557A (ko) * 2012-10-05 2014-04-21 삼성전자주식회사 다점 입력 인식 방법 및 그 단말
US9836154B2 (en) 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US20140267181A1 (en) * 2013-03-14 2014-09-18 Research In Motion Limited Method and Apparatus Pertaining to the Display of a Stylus-Based Control-Input Area
KR102096861B1 (ko) * 2013-11-25 2020-04-06 엘지디스플레이 주식회사 통합 터치 시스템 및 표시장치
TW201528078A (zh) 2014-01-08 2015-07-16 Chunghwa Picture Tubes Ltd 觸控面板電路及其操作方法
CN104375698A (zh) * 2014-07-17 2015-02-25 深圳市钛客科技有限公司 一种触控设备
KR102332468B1 (ko) * 2014-07-24 2021-11-30 삼성전자주식회사 기능 제어 방법 및 그 전자 장치
CN105786265B (zh) * 2014-12-17 2018-09-25 中强光电股份有限公司 光学触控系统、光幕产生模块及调整结构
CN104898996B (zh) * 2015-05-04 2022-04-22 联想(北京)有限公司 信息处理方法及电子设备
JP2017083973A (ja) * 2015-10-23 2017-05-18 富士通株式会社 表示端末装置、表示制御方法および表示制御プログラム
KR20180096606A (ko) * 2015-12-21 2018-08-29 소니 주식회사 정보 처리 장치 및 정보 처리 방법
KR102649009B1 (ko) 2016-12-20 2024-03-20 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN113260971A (zh) 2019-01-03 2021-08-13 三星电子株式会社 电子设备及其控制方法
KR102359654B1 (ko) * 2019-12-10 2022-02-08 인천대학교 산학협력단 디지털 길이 측정 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611258B1 (en) * 1996-01-11 2003-08-26 Canon Kabushiki Kaisha Information processing apparatus and its method
US20040179001A1 (en) * 2003-03-11 2004-09-16 Morrison Gerald D. System and method for differentiating between pointers used to contact touch surface
CN101057271A (zh) * 2004-07-15 2007-10-17 N-Trig有限公司 双模数字化器的自动转换
CN101551728A (zh) * 2009-05-21 2009-10-07 友达光电股份有限公司 电阻式触控式面板的多点触控方法
CN101957683A (zh) * 2010-10-08 2011-01-26 汉王科技股份有限公司 双模输入设备和双模输入方法
US20110069029A1 (en) * 2008-05-22 2011-03-24 Melfas, Inc. Method and apparatus for sensing multi-touch inputs

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3292212B2 (ja) * 1992-12-18 2002-06-17 富士ゼロックス株式会社 画像編集機能を備えた画像形成装置
JP3202483B2 (ja) * 1994-06-06 2001-08-27 日本電気株式会社 座標検出装置
EP1330777A1 (en) * 2000-10-27 2003-07-30 Elo Touchsystems, Inc. Touch confirming touchscreen utilizing plural touch sensors
US20060012580A1 (en) * 2004-07-15 2006-01-19 N-Trig Ltd. Automatic switching for a dual mode digitizer
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
JP2008165575A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp タッチパネル装置
KR101394510B1 (ko) 2007-11-21 2014-05-14 엘지전자 주식회사 세탁물 처리기기의 전극센서 및 상기 전극센서를 포함하는세탁물 처리기기
US8842076B2 (en) * 2008-07-07 2014-09-23 Rockstar Consortium Us Lp Multi-touch touchscreen incorporating pen tracking
KR100910024B1 (ko) * 2008-10-13 2009-07-30 호감테크놀로지(주) 선형 적외선 발광체를 이용한 카메라 방식의 터치 스크린
KR101073345B1 (ko) * 2009-10-06 2011-10-14 삼성모바일디스플레이주식회사 터치 스크린 내장형 액정표시장치
KR101073194B1 (ko) * 2009-10-06 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 내장형 액정표시장치
US20120154295A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Cooperative use of plural input mechanisms to convey gestures
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611258B1 (en) * 1996-01-11 2003-08-26 Canon Kabushiki Kaisha Information processing apparatus and its method
US20040179001A1 (en) * 2003-03-11 2004-09-16 Morrison Gerald D. System and method for differentiating between pointers used to contact touch surface
CN101057271A (zh) * 2004-07-15 2007-10-17 N-Trig有限公司 双模数字化器的自动转换
US20110069029A1 (en) * 2008-05-22 2011-03-24 Melfas, Inc. Method and apparatus for sensing multi-touch inputs
CN101551728A (zh) * 2009-05-21 2009-10-07 友达光电股份有限公司 电阻式触控式面板的多点触控方法
CN101957683A (zh) * 2010-10-08 2011-01-26 汉王科技股份有限公司 双模输入设备和双模输入方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11486728B1 (en) * 2021-07-30 2022-11-01 Coupang Corp. Electronic apparatus and operation method thereof

Also Published As

Publication number Publication date
EP2508965A2 (en) 2012-10-10
EP2508965B1 (en) 2017-12-20
US9007345B2 (en) 2015-04-14
CN102750028B (zh) 2017-06-23
JP6027328B2 (ja) 2016-11-16
EP2508965A3 (en) 2016-01-13
US20120256880A1 (en) 2012-10-11
KR20120113511A (ko) 2012-10-15
KR101811636B1 (ko) 2017-12-27
JP2012221494A (ja) 2012-11-12

Similar Documents

Publication Publication Date Title
CN102750028A (zh) 用于显示对象的方法和设备
EP2724215B1 (en) Touch sensor system
JP5616557B1 (ja) 電子機器および座標検出方法
US9542904B2 (en) Electronic apparatus
WO2019150468A1 (ja) タッチパネル装置
CN102981743A (zh) 控制操作对象的方法及电子设备
JP2015053058A (ja) 電子機器および座標検出方法
JP2016071836A (ja) ホログラム表示を実現する対話型表示方法、制御方法及びシステム
CN104407747B (zh) 一种红外触控屏、其触控侦测方法及显示装置
EP2339436A2 (en) Display apparatus and touch sensing method
CN105511692A (zh) 一种红外触控装置及方法
US20120013556A1 (en) Gesture detecting method based on proximity-sensing
US20150338960A1 (en) Touch panel system
JP6236640B2 (ja) 静電容量式センサを用いた検出方法と電子機器
KR102176575B1 (ko) 입력을 감지하는 전자 장치 및 방법
CN104166460B (zh) 一种电子设备及信息处理的方法
CN107111387B (zh) 确定方位角或姿态的方法、触控输入装置、触控屏及系统
CN101951254A (zh) 具有导航按键的电子设备及利用其实现的导航方法
JP5658838B1 (ja) 電子機器および座標検出方法
KR101986660B1 (ko) 터치 센서가 구비된 곡면 디스플레이 장치
KR101359472B1 (ko) 감압식 터치스크린 디바이스의 멀티 터치 처리방법
CN104345956A (zh) 防止手掌误触的方法
CN107980116A (zh) 悬浮触控感测方法、悬浮触控感测系统及悬浮触控电子设备
KR101360631B1 (ko) 터치 제스처의 방향에 기초하여 디스플레이 기기를 원격제어 하기 위한 터치 감지 시스템 및 방법 그리고 원격제어 시스템 및 방법
TW201039205A (en) Method for positioning coordinate

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170623

Termination date: 20200405

CF01 Termination of patent right due to non-payment of annual fee