CN101231564B - 改善触摸屏的可用性的设备和方法 - Google Patents

改善触摸屏的可用性的设备和方法 Download PDF

Info

Publication number
CN101231564B
CN101231564B CN200810003567.9A CN200810003567A CN101231564B CN 101231564 B CN101231564 B CN 101231564B CN 200810003567 A CN200810003567 A CN 200810003567A CN 101231564 B CN101231564 B CN 101231564B
Authority
CN
China
Prior art keywords
touch
sensing
designator
movement
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN200810003567.9A
Other languages
English (en)
Other versions
CN101231564A (zh
Inventor
俞炳仁
金诚运
金渊培
金喃佑
李权株
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN101231564A publication Critical patent/CN101231564A/zh
Application granted granted Critical
Publication of CN101231564B publication Critical patent/CN101231564B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

本发明提供一种用于改善触摸屏的可用性的设备和方法。所述设备包括:触摸感测单元,感测第一触摸和第二触摸,并检测感测到的触摸的触摸位置;指示符设置单元,将指示符设置到检测到的第一触摸的位置;以及坐标变换单元,将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。

Description

改善触摸屏的可用性的设备和方法
本申请要求于2007年1月25日在韩国知识产权局提交的第10-2007-0007972号韩国专利申请的优先权,该申请全部公开于此以资参考。
技术领域
本发明涉及一种用于改善触摸屏的可用性的设备和方法,更具体地说,涉及一种用于改善触摸屏的可用性的设备和方法,所述设备和方法能够防止显示在基于位置的服务(LBS)设备上的期望的屏幕图像被用户的身体的一部分(诸如手指)或工具(诸如记录笔)部分隐藏,并且能够准确地控制指示符的操作。
背景技术
基于位置的服务(LBS)指示基于移动通信终端(诸如移动电话或个人数字助理(PDA))的位置从地理信息系统(GIS)、全球定位系统(GPS)或无线数据通讯系统向终端用户提供与位置相关的信息的各种类型的服务。LBS采用三方网络方法(由3个基站同时检测当前位置)或基于GPS的方法。近来已经将LBS应用于位置信息和交通导航领域,还应用于私人区域服务(诸如移动广告、移动赠券、旅行信息、车辆诊断支持、紧急情况操作和出租车呼叫服务)领域。
图1A和图1B示出通过地图浏览显示在传统LBS设备110上的地图。
这里,假设图1A和图1B示出的LBS设备110采用触摸屏技术,其中,用户能够通过触摸LBS设备110移动并搜索地图,并且能够参照关于地图上特定位置的信息。如图1A所示,在LBS设备110的屏幕111上显示地图,并且用户能够通过触摸屏幕111上地图的特定位置111a在地图上看到位置111a的纬度、经度、名称和地址。
在这种情况下,如图1B所示,触摸位置111a的用户身体的一部分(例如,手指120)不仅隐藏了位置111a,而且隐藏了相邻位置。
另外,如上所述,近来已经将LBS积极地应用于私人区域,因此增加了对于LBS设备的需求。此外,随着数字设备的尺寸越来越小,很难通过用户身体的一部分(例如,手指120)精确地操纵变得越来越小的触摸屏。
发明内容
本发明提供一种改善触摸屏的可用性的设备和方法,所述设备和方法在基于位置的服务(LBS)设备中能够防止用户身体的一部分(例如,手指120)阻碍用户的视野。
本发明还允许用户在具有触摸屏的LBS设备上准确地移动并搜索地图。
将根据下面描述的优选实施例来描述本发明的上述和其它目的,或者根据下面描述的优选实施例,本发明的上述和其它目的是明显的。
根据本发明的一方面,提供一种用于改善触摸屏的可用性的设备,所述设备包括:触摸感测单元,感测第一触摸和第二触摸,并检测感测的触摸的位置;指示符设置单元,将指示符设置到检测的第一触摸的位置;以及坐标变换单元,将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。
根据本发明的另一方面,提供一种用于改善触摸屏的可用性的方法,所述方法包括:感测第一触摸,并检测感测的第一触摸的触摸位置;将指示符设置到检测的第一触摸的位置;感测第二触摸,并检测感测的第二触摸的触摸位置;以及将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。
附图说明
通过下面参照附图对本发明的优选实施例进行的详细描述,本发明的上述和其它特点和优点将会变得更加明显,其中:
图1A和图1B示出通过地图浏览显示在传统基于位置的服务(LBS)设备上的地图;
图2A是根据本发明的实施例的用于改善触摸屏的可用性的设备的框图;
图2B是示出根据本发明的实施例的将用于改善触摸屏的可用性的设备实际应用于LBS设备的情况的示图;
图3A和图3B是示出根据本发明的实施例的用户进行第一触摸的示图;
图3C是示出根据本发明的实施例的指示符的设置的示图;
图3D和图3E是示出根据本发明的实施例的由第二触摸的位置的移动引起的触摸位置的移动的示图;
图3F是示出根据本发明的实施例的触摸感测单元将第一触摸和第二触摸彼此区分的示图;
图3G是示出根据本发明的实施例的将第二触摸的位置的移动反映到指示符的移动的示图;
图3H是示出根据本发明的实施例的旋转地图的方法的示图;
图3I和图3J是示出根据本发明的实施例的压力感测单元命令操作如何执行的示图;以及
图4是示出根据本发明的实施例的改善触摸屏的可用性的方法的流程图。
具体实施方式
通过参照下面详细描述的优选实施例和附图,可以更加容易理解本发明的优点和特点以及实现本发明的优点和特点的方法。然而,本发明可以以许多不同的形式被实施并且不应被解释为局限于在此阐述的实施例。此外,提供这些实施例从而本公开将会彻底和完整,并完全地将本发明的构思传达给本领域的技术人员,本发明将仅由权利要求来限定。
在整个说明书中,相同的标号是指相同的部件。
以下参照根据本发明的示例性实施例的方法的流程图说明来描述本发明。
应该理解,流程图说明的每个块和在流程图说明中的块的组合可由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或者其他可编程数据处理设备的处理器,以创建用于实现在流程图中的一个块或多个块中指定的功能的装置。
这些计算机程序指令也可被存储在可引导计算机或者其他可编程数据处理设备以特定方式运行的计算机可用或计算机可读存储器中,从而所述指令实现流程图中的一个块或多个块中指定的功能。
计算机程序指令也可被载入计算机或其他可编程数据处理设备,以使得一系列操作步骤在计算机或其他可编程设备上被执行,以产生计算机实现的用于实现在流程图中的一个块或多个块中指定的功能的处理。
另外,每个块可代表模块,代码段或代码的一部分,其可包括一个或更多用于实现指定逻辑功能的可执行指令。应注意的是,在其他实现中,在这些块中标注的功能可不按标注的顺序出现,或者以不同的硬件和软件配置执行。例如,连续示出的两个块事实上可基本同时地被执行,或者有时块以相反的顺序执行,这取决于涉及的功能。
在本发明的示例性实施例中,假设在基于位置的服务(LBS)设备的触摸屏上显示地图,并且用户在地图上选择期望的位置。以下,将参照附图详细描述本发明的示例性实施例。
图2A是根据本发明的实施例的用于改善触摸屏的可用性的设备的框图。
参照图2A,根据本发明的实施例的用于改善触摸屏的可用性的设备200包括:触摸感测单元201,感测第一触摸和第二触摸并且检测感测的触摸的触摸位置;指示符设置单元202,将指示符设置到触摸感测单元201检测的第一触摸的触摸位置;坐标变换单元203,将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动;压力感测单元204,感测施加到触摸感测单元201检测的触摸位置的压力,以命令执行与感测的压力相应的操作;以及显示单元205,显示指示符的位置的移动和与感测的压力相应的操作。如图2B所示,可将图2A的设备200应用于LBS设备。
触摸感测单元201可包括触摸传感器以感测用户的触摸,并且可以位于作为LBS设备的屏幕的显示单元205的顶部。压力感测单元204感测施加到触摸的位置的压力。一个或多个压力感测单元204可位于显示单元205的底部。
同时,图2A中使用的术语“单元”的意思是,但不限于,执行特定任务的软件或硬件组件,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。
单元可以方便地被配置以驻留在可寻址的存储介质上,并且可被配置以在一个或多个处理器上执行。
因此,举例来说,单元可以包括:诸如软件组件、面向对象的软件组件、类组件和任务组件的组件、进程、函数、属性、过程、子程序、程序代码段、驱动程序、固件、微码、电路、数据、数据库、数据结构、表、数组和变量。
在组件和单元中提供的功能可被组合为更少的组件和单元,或者可进一步被分离成另外的组件和单元。
首先,图2A的设备200的触摸感测单元201感测第一触摸和第二触摸,并且检测感测的触摸的触摸位置。
第一触摸指示用户通过使用对象来触摸LBS设备的屏幕上的期望位置。这里,对象意思是用户的身体的一部分(诸如手指)或工具(诸如记录笔)。
以下,为了解释方便,假设在本发明的实施例中使用用户的身体的一部分(例如,手指)来将输入施加到LBS设备。当描述图2A示出的其它部件202至205时,将更加详细地描述第二触摸和触摸感测单元201。
图3A和图3B是示出根据本发明的实施例的用户进行第一触摸的示图。
参照图3A,在LBS设备310的屏幕320上显示地图,用户用他/她的手指330在地图上触摸期望的位置321。
图3B示出被用户的手指330触摸的图3A示出的期望的位置321的第一触摸的位置321。
在这种情况下,触摸感测单元201感测第一触摸并且检测第一触摸的触摸位置321。
图3C是示出根据本发明的实施例的指示符的设置的示图。
参照图3C,指示符设置单元202将指示符322设置到触摸感测单元201所检测的第一触摸的触摸位置321。
同时,如图3C所示,用户的手指330与第一触摸的位置321分离。
当用户触摸第一触摸的位置并随后停止触摸第一触摸的位置321时或者当用户触摸位置321随后从第一触摸的位置321移动预定距离时,指示符设置单元202设置指示符322,即,指示符设置单元202将指示符322放置在第一触摸的位置321。
指示符设置单元202的上述操作与触摸感测单元201的操作(将第一触摸和第二触摸彼此区分)密切相关,稍后将参照图3F描述。
图3D和图3E示出根据本发明的实施例的由第二触摸的位置的移动引起的触摸位置的移动。
如上面参照图3A至图3C所描述的,触摸感测单元201感测第一触摸并检测第一触摸的触摸位置321,指示符设置单元202将指示符322设置到第一触摸的触摸位置321。
接下来,当如图3D所示用户确定LBS设备310的屏幕320上估计的第二触摸的位置323,并且如图3E所示触摸确定的位置323时,触摸感测单元201感测第二触摸并且检测第二触摸的触摸位置323。
坐标变换单元203从触摸感测单元201接收关于第一触摸的触摸位置321和第二触摸的触摸位置323的信息,并且将由第二触摸的移动引起的触摸位置323的移动(图3E示出的位置324)变换为指示符322的位置的移动。
这里,第二触摸的意思是为了控制设置到第一触摸的触摸位置321的指示符322的移动而进行的用户触摸。如图3E所示,优选地将第二触摸的位置323确定为方便控制指示符322的移动的区域,所述指示符322被设置到LBS设备310的屏幕320上的第一触摸的位置321。
触摸感测单元201参照预定时刻将第一触摸和第二触摸彼此区分。
例如,如图3C所示,当在用户的第一触摸之后,用户取消第一触摸并且触摸新位置而不是第一触摸的位置321时,触摸感测单元201将新位置的触摸识别为第二触摸。
图3F是示出根据本发明的实施例的触摸感测单元201将第一触摸和第二触摸彼此区分的示图。
触摸感测单元201可参照预定距离将第一触摸和第二触摸彼此区分。
例如,在用户的第一触摸之后,当用户在保持第一触摸的同时从第一触摸移动所述预定距离,也就是说,当用户从第一触摸的位置321移动到预定边界325的外部时,触摸感测单元201识别这一移动为第二触摸。
另外,触摸感测单元201根据是否将压力施加到第一触摸和第二触摸的位置将第一触摸和第二触摸彼此区分。
例如,如果用户进行第一触摸并且同时按压触摸位置,则将指示符设置到触摸位置,并且如果用户进行第二触摸而没有按压触摸位置,则触摸感测单元201将其识别为第二触摸。
由于已知第一触摸和第二触摸的触摸位置,即,第一触摸和第二触摸的触摸位置的坐标,因此坐标变换单元203将每当用户改变第二触摸的位置时改变的第二触摸的位置的坐标反映到第一触摸的位置的坐标,即,反映到指示符的位置的坐标。
因此,将用户的第二触摸的位置的移动变换为指示符的位置的移动。
图3G是示出根据本发明的实施例的将第二触摸的位置的移动反映到指示符的位置的运动的示图。
如果将第二触摸的初始触摸位置323改变到新的触摸位置324,则触摸感测单元201检测新位置324的坐标,并且将检测的坐标实时反映到被设置到第一触摸的位置的指示符322的坐标,从而移动指示符322。图3G示出如上所述被坐标变换单元203移动的指示符326。
在这种情况下,坐标变换单元203能够以1比1的比率将第二触摸的位置的移动变换为指示符的位置的移动。
例如,如果在屏幕上将第二触摸的位置向右移动3cm,则也在屏幕上将指示符的当前位置向右移动3cm。
坐标变换单元203还能够以1比N的比率将第二触摸的位置的移动变换为指示符的位置的移动。
例如,在屏幕上将第二触摸的位置向左移动3cm,根据变换比率将指示符的当前位置向左移动1cm、0.5cm或小于0.5cm。在这种情况下,即使在LBS设备的屏幕上显示的地图的比例高,也可以精确地在地图上移动指示符。此外,随着不仅每个LBS设备的屏幕,而且多数数字设备中的每一个的触摸屏也变得越来越小,本发明允许精确地移动指示符,从而改善设备的可用性。
此外,根据本发明的实施例的设备不仅能够基于第一触摸和第二触摸移动指示符,而且还能够使用按钮(未显示)或触摸(未显示)通过输入预定模式转换来旋转地图。
图3H是示出根据本发明的实施例的旋转地图的方法的示图。
如图3E所示,如果触摸感测单元201感测到第一触摸并且检测到第一触摸的触摸位置321,指示符设置单元202将指示符322设置到第一触摸的位置321,并且进行第二触摸,则用户可通过使用旋转转换按钮(未显示)或用于旋转转换的触摸激活器(未显示)将地图旋转到期望的程度。
在这种情况下,如图3H所示,相对于第一触摸的位置321旋转地图,并且用户可通过移动第二触摸的位置来调整旋转的程度。
坐标变换单元203能够根据第二触摸的位置的移动以上述第二触摸的位置的移动与指示符的位置的移动的比率(例如,以1比1的比率或1比N的比率)相对于指示符准确地调整地图的旋转。
压力感测单元204感测施加到触摸感测单元201检测的第一触摸和第二触摸的位置的压力,以命令执行与每个感测的压力相应的操作。
另外,压力感测单元204可根据感测的压力的持续时间和强度命令执行与感测的压力相应的操作。
例如,当在地图上执行放大操作或缩小操作时,可根据压力的强度控制放大操作或缩小操作的速度。
如果压力低,则可以减小放大操作或缩小操作的速度,如果压力高,则可以增加放大操作或缩小操作的速度。
图3I和图3J是示出根据本发明的实施例的通过压力感测单元来命令如何执行操作的示图。
例如,当在第一触摸之后,在预定持续时间内将压力施加到第一触摸的触摸位置而不移动第一触摸的位置时,如图3I所示,压力感测单元204请求显示单元205显示关于地图上第一触摸的位置的信息327。
这里,信息327可包括第一触摸的位置的名称、地址、经度和纬度。
另外,如果在第二触摸之后,在预定持续时间内将压力施加到第二触摸的触摸位置而不移动第二触摸的位置,则压力感测单元204可呈现出点击鼠标的左键或右键的效果。
例如,当在第二触摸之后,将压力施加到第二触摸的触摸位置而不移动第二触摸的位置时,可以获得点击鼠标左键的效果。另外,如图3J所示,当在第二触摸之后,在预定持续时间(例如,2秒)内将压力施加到第二触摸的位置而不移动第二触摸的位置时,实现点击鼠标右键的效果,因此弹出属性窗口328。
可按各种方式确定根据本发明施加的压力的持续时间和强度,而不受限制。
图4是示出根据本发明的实施例的改善触摸屏的可用性的方法的流程图。
现将参照图2A和图2B描述示出根据本发明的实施例的改善触摸屏的可用性的方法的图4的流程图。
触摸感测单元201感测用户的第一触摸,并且检测第一触摸的触摸位置(S401)。在操作S401之后,触摸感测单元201确定是否取消第一触摸(S402)。
如果在操作S402确定取消了第一触摸,则指示符设置单元202将指示符设置到第一触摸的位置(S403)。
在操作S403之后,触摸感测单元201感测用户的第二触摸,并且检测第二触摸的触摸位置(S404)。
在这种情况下,由于在第一触摸取消之后进行了第二触摸(即,由于在第一触摸之后的预定时间间隔进行了第二触摸),因此触摸感测单元201可识别第二触摸。
在操作S404之后,压力感测单元204确定是否将压力施加到第二触摸的位置(S405)。
如果在操作405确定没有施加压力,则触摸感测单元201感测用户的第二触摸的移动,并且检测移动的第二触摸的位置(S406)。
如果在操作S405确定压力被施加到第二触摸的位置,则压力感测单元204执行稍后将描述的操作S412和操作S413。
在操作S406之后,坐标变换单元203通过将第二触摸的位置的移动变换为指示符的移动来反映在操作S405确定的第二触摸的位置的移动(S407)。
在这种情况下,坐标变换单元203能够通过根据第二触摸的移动以1比1的比率或1比N的比率反映指示符的移动来准确地控制基于第二触摸的指示符的移动。
在操作S407,将指示符的移动显示在显示单元205上(S408)。如果在操作S402确定第一触摸没有取消,则触摸感测单元201确定第一触摸的位置是否被移动(S409)。
如果在操作S409确定第一触摸移动到预定范围的外部,则触摸感测单元201确定这一移动为第二触摸,并且指示符设置单元202将指示符设置到第一触摸的原始位置(S410)。
如果在操作S409确定第一触摸的移动在预定范围内,则触摸感测单元201继续感测第一触摸并检测第一触摸的触摸位置。
如果在操作S409确定第一触摸的位置没有移动,则压力感测单元204确定是否将压力施加到第一触摸的位置(S411)。
如果在操作S411确定施加了压力,则检测施加的压力的持续时间和强度,并且命令执行与检测的压力的持续时间和强度相应的操作(S412)。
在操作S412之后,显示单元205显示命令执行的操作(S413)。
根据本发明的用于改善触摸屏的可用性的上述设备和方法具有如下一个或多个优点。
本发明具有防止期望的屏幕图像被用户的身体的一部分(例如,手指)或工具(诸如记录笔)部分隐藏的优点。
另外,可以基于第一触摸和第二触摸准确地控制指示符的移动或准确地控制使用指示符执行的操作。
另外,可以在不放大屏幕图像的尺寸的情况下准确地控制指示符的移动或准确地控制使用指示符执行的操作,从而最小化LBS设备的尺寸。
尽管已经参照本发明的示例性实施例具体显示和描述了本发明,但本领域的技术人员应该理解,在不脱离由权利要求限定的本发明的精神和范围的情况下,可以在此进行形式和细节的各种改变。因此,期望本发明实施例在各方面被认为是说明性的而不是限制性的,参照权利要求而不是上面的描述来指示本发明的范围。

Claims (14)

1.一种用于改善触摸屏的可用性的设备,所述设备包括:
触摸感测单元,感测第一触摸和第二触摸,并检测感测到的触摸的触摸位置;
指示符设置单元,将指示符设置到检测到的第一触摸的位置;以及
坐标变换单元,响应于第二触摸从第二触摸的触摸位置移动到新位置,将第二触摸的触摸位置的移动变换为设置到检测到的第一触摸的位置的指示符的位置的移动,
其中,第二触摸是指为了控制设置到检测到的第一触摸的位置的指示符的移动而进行的用户触摸。
2.如权利要求1所述的设备,还包括:压力感测单元,感测施加到感测到的触摸的位置的压力,以命令执行与感测的压力相应的操作。
3.如权利要求2所述的设备,其中,根据感测的压力的持续时间和强度之一执行压力感测单元命令的操作。
4.如权利要求1所述的设备,其中,触摸感测单元参照预定时刻将第一触摸和第二触摸彼此区分。
5.如权利要求1所述的设备,其中,触摸感测单元参照预定距离将第一触摸和第二触摸彼此区分。
6.如权利要求1所述的设备,其中,坐标变换单元以1比1的比率将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。
7.如权利要求1所述的设备,其中,坐标变换单元以1比N的比率将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。
8.一种用于改善触摸屏的可用性的方法,所述方法包括:
感测第一触摸,并检测感测到的第一触摸的触摸位置;
将指示符设置到检测到的第一触摸的位置;
感测第二触摸,并检测感测到的第二触摸的触摸位置;以及
响应于第二触摸从第二触摸的触摸位置移动到新位置,将第二触摸的触摸位置的移动变换为设置到检测到的第一触摸的位置的指示符的位置的移动,
其中,第二触摸是指为了控制设置到检测到的第一触摸的位置的指示符的移动而进行的用户触摸。
9.如权利要求8所述的方法,还包括:感测施加到触摸的位置的压力,以命令执行与感测的压力相应的操作。
10.如权利要求9所述的方法,其中,根据感测的压力的持续时间和强度之一执行在感测压力的步骤中命令执行的操作。
11.如权利要求9所述的方法,其中,感测第二触摸包括参照预定时刻将第一触摸和第二触摸彼此区分。
12.如权利要求8所述的方法,其中,感测第二触摸包括参照预定距离将第一触摸和第二触摸彼此区分。
13.如权利要求8所述的方法,其中,变换触摸位置的移动包括以1比1的比率将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。
14.如权利要求8所述的方法,其中,变换触摸位置的移动包括以1比N的比率将由第二触摸的移动引起的触摸位置的移动变换为指示符的位置的移动。
CN200810003567.9A 2007-01-25 2008-01-25 改善触摸屏的可用性的设备和方法 Active CN101231564B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020070007972A KR100891099B1 (ko) 2007-01-25 2007-01-25 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법
KR10-2007-0007972 2007-01-25
KR1020070007972 2007-01-25

Publications (2)

Publication Number Publication Date
CN101231564A CN101231564A (zh) 2008-07-30
CN101231564B true CN101231564B (zh) 2014-06-25

Family

ID=39415137

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810003567.9A Active CN101231564B (zh) 2007-01-25 2008-01-25 改善触摸屏的可用性的设备和方法

Country Status (5)

Country Link
US (1) US8760410B2 (zh)
EP (1) EP1950653B1 (zh)
JP (2) JP5448346B2 (zh)
KR (1) KR100891099B1 (zh)
CN (1) CN101231564B (zh)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10983665B2 (en) * 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US8384687B2 (en) * 2008-08-21 2013-02-26 Denso Corporation Manipulation input apparatus
JP2010049460A (ja) * 2008-08-21 2010-03-04 Denso Corp 操作入力装置
US20100060588A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Temporally separate touch input
US8427424B2 (en) * 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
KR101507840B1 (ko) * 2008-10-23 2015-04-03 엘지전자 주식회사 이동통신 단말기 및 터치 스크린 제어방법
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
JP2010176330A (ja) 2009-01-28 2010-08-12 Sony Corp 情報処理装置、及び表示制御方法
DE102009008041A1 (de) * 2009-02-09 2010-08-12 Volkswagen Ag Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
KR101062594B1 (ko) * 2009-03-19 2011-09-06 김연수 포인터 디스플레이가 가능한 터치스크린
WO2010122813A1 (ja) * 2009-04-24 2010-10-28 京セラ株式会社 入力装置
US20100283722A1 (en) * 2009-05-08 2010-11-11 Sony Ericsson Mobile Communications Ab Electronic apparatus including a coordinate input surface and method for controlling such an electronic apparatus
US8355007B2 (en) * 2009-05-11 2013-01-15 Adobe Systems Incorporated Methods for use with multi-touch displays for determining when a touch is processed as a mouse event
JP5173924B2 (ja) * 2009-05-12 2013-04-03 京セラドキュメントソリューションズ株式会社 画像形成装置
FR2948808B1 (fr) * 2009-07-30 2012-08-03 Dassault Aviat Dispositif numerique d'affichage, notamment pour la preparation d'un trajet
US8441465B2 (en) 2009-08-17 2013-05-14 Nokia Corporation Apparatus comprising an optically transparent sheet and related methods
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
CN102033684B (zh) * 2009-09-30 2013-01-02 万达光电科技股份有限公司 触控面板的手势侦测方法
TW201115419A (en) * 2009-10-29 2011-05-01 Sentelic Corp Touch-sensing method and electronic device
CN102103452A (zh) * 2009-12-17 2011-06-22 深圳富泰宏精密工业有限公司 飞点控制系统及飞点控制方法
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20110224896A1 (en) * 2010-03-09 2011-09-15 Nokia Corporation Method and apparatus for providing touch based routing services
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
KR101694157B1 (ko) * 2010-05-11 2017-01-09 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8640020B2 (en) * 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8643616B1 (en) 2011-07-29 2014-02-04 Adobe Systems Incorporated Cursor positioning on a touch-sensitive display screen
EP2562628A1 (en) * 2011-08-26 2013-02-27 Sony Ericsson Mobile Communications AB Image scale alteration arrangement and method
EP2763378B1 (en) * 2011-09-27 2019-07-24 NEC Corporation Portable electronic device, touch operation processing method and program
JP2013080412A (ja) * 2011-10-05 2013-05-02 Sony Corp 情報処理装置、情報処理方法、及びプログラム
KR101123886B1 (ko) * 2011-10-26 2012-03-23 주식회사 한글과컴퓨터 터치스크린 장치 및 터치스크린 화면 크기 조정 방법
KR101338825B1 (ko) 2011-12-14 2013-12-06 현대자동차주식회사 다이나믹 터치 인터렉션을 이용한 선택영역 상세 정보 표시 제어방법 및 그 장치
US9158383B2 (en) 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
KR101690261B1 (ko) 2012-04-02 2016-12-27 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
CN108052264B (zh) * 2012-05-09 2021-04-27 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
CN103425311A (zh) * 2012-05-25 2013-12-04 捷达世软件(深圳)有限公司 移动对象点选定位方法及系统
CN102750034B (zh) * 2012-06-20 2017-07-28 中兴通讯股份有限公司 一种上报触摸屏坐标点的方法及移动终端
US9487388B2 (en) 2012-06-21 2016-11-08 Nextinput, Inc. Ruggedized MEMS force die
CN103513908B (zh) * 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
EP2870445A1 (en) 2012-07-05 2015-05-13 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
JP6015183B2 (ja) * 2012-07-18 2016-10-26 富士ゼロックス株式会社 情報処理装置およびプログラム
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
KR101404505B1 (ko) * 2012-09-24 2014-06-09 (주)이스트소프트 디스플레이를 구비한 전자기기에서 그래픽을 스케일링 또는 회전 조작하는 방법 및 이를 실행하는 전자기기
US10139937B2 (en) 2012-10-12 2018-11-27 Microsoft Technology Licensing, Llc Multi-modal user expressions and user intensity as interactions with an application
JP6029453B2 (ja) * 2012-12-21 2016-11-24 京セラ株式会社 携帯端末、カーソル表示制御プログラム、カーソル表示制御方法、カーソル発生制御プログラム、カーソル発生制御方法、アイコン表示プログラムおよびアイコン表示方法
JP5780438B2 (ja) * 2013-05-21 2015-09-16 カシオ計算機株式会社 電子機器、位置指定方法及びプログラム
CN103530052B (zh) * 2013-09-27 2017-09-29 华为技术有限公司 一种界面内容的显示方法和用户设备
CN104679423A (zh) * 2013-12-03 2015-06-03 方正国际软件(北京)有限公司 一种触摸屏地理位置精确定位的方法和系统
EP3094950B1 (en) 2014-01-13 2022-12-21 Nextinput, Inc. Miniaturized and ruggedized wafer level mems force sensors
US9965173B2 (en) * 2015-02-13 2018-05-08 Samsung Electronics Co., Ltd. Apparatus and method for precise multi-touch input
CN117486166A (zh) 2015-06-10 2024-02-02 触控解决方案股份有限公司 具有容差沟槽的加固的晶圆级mems力传感器
CN107168565B (zh) * 2016-03-07 2020-05-15 敦泰电子有限公司 触控装置及其驱动电路和驱动方法、电子设备
CN107229362A (zh) * 2016-03-25 2017-10-03 宇龙计算机通信科技(深圳)有限公司 一种触控压力提示方法和装置
CN107239202B (zh) * 2016-03-29 2020-06-30 中兴通讯股份有限公司 控制指令识别方法和装置
KR101835674B1 (ko) * 2016-04-27 2018-03-07 연세대학교 산학협력단 포스 터치를 기반으로 하는 데이터 입력 장치 및 방법
JP6313395B1 (ja) * 2016-10-17 2018-04-18 グリー株式会社 描画処理方法、描画処理プログラム及び描画処理装置
US20180121000A1 (en) * 2016-10-27 2018-05-03 Microsoft Technology Licensing, Llc Using pressure to direct user input
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
WO2018148503A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated digital force sensors and related methods of manufacture
CN111448446B (zh) 2017-07-19 2022-08-30 触控解决方案股份有限公司 在mems力传感器中的应变传递堆叠
US11423686B2 (en) 2017-07-25 2022-08-23 Qorvo Us, Inc. Integrated fingerprint and force sensor
US11243126B2 (en) 2017-07-27 2022-02-08 Nextinput, Inc. Wafer bonded piezoresistive and piezoelectric force sensor and related methods of manufacture
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
WO2019090057A1 (en) 2017-11-02 2019-05-09 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
JP6863918B2 (ja) * 2018-03-19 2021-04-21 グリー株式会社 制御プログラム、制御方法及び情報処理装置
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262718B1 (en) * 1994-01-19 2001-07-17 International Business Machines Corporation Touch-sensitive display apparatus
CN1886973A (zh) * 2003-12-01 2006-12-27 索尼爱立信移动通讯股份有限公司 提供菜单扩展和组织功能的装置、方法和计算机程序产品

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1136749A (en) * 1909-02-13 1915-04-20 Union Special Machine Co Feeding mechanism for sewing-machines.
JP3103085B2 (ja) * 1989-12-15 2000-10-23 株式会社東芝 表示入力装置
JPH0651908A (ja) * 1992-07-28 1994-02-25 Sony Corp タッチパネル式入力装置を備えた情報処理装置
JPH07104914A (ja) 1993-09-30 1995-04-21 Toshiba Corp タッチ入力装置
US20010040587A1 (en) 1993-11-15 2001-11-15 E. J. Scheck Touch control of cursonr position
JPH09251347A (ja) 1996-03-15 1997-09-22 Matsushita Electric Ind Co Ltd 座標入力装置
US5854625A (en) 1996-11-06 1998-12-29 Synaptics, Incorporated Force sensing touchpad
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6252544B1 (en) * 1998-01-27 2001-06-26 Steven M. Hoffberg Mobile communication device
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
JPH11338628A (ja) 1998-05-25 1999-12-10 Sharp Corp ポインティングデバイス
JP4044255B2 (ja) * 1999-10-14 2008-02-06 富士通株式会社 情報処理装置、及び画面表示方法
EP1191430A1 (en) 2000-09-22 2002-03-27 Hewlett-Packard Company, A Delaware Corporation Graphical user interface for devices having small tactile displays
JP5109212B2 (ja) * 2001-05-01 2012-12-26 ソニー株式会社 ナビゲーション装置、情報表示装置、オブジェクト生成方法、記憶媒体
FI115254B (fi) 2001-12-20 2005-03-31 Nokia Corp Kosketusnäytön käyttäminen osoitinvälineellä
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004110388A (ja) 2002-09-18 2004-04-08 Sharp Corp タッチパネルを有する装置
KR100480160B1 (ko) 2002-12-24 2005-04-06 엘지.필립스 엘시디 주식회사 터치패널의 구동 장치 및 방법
KR20040081697A (ko) 2003-03-12 2004-09-22 박경희 마우스식 터치패드
JP4215549B2 (ja) * 2003-04-02 2009-01-28 富士通株式会社 タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置
WO2005022372A1 (en) * 2003-08-29 2005-03-10 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
KR20060010579A (ko) 2004-07-28 2006-02-02 안준성 마우스 터치패드
JP2006126997A (ja) 2004-10-27 2006-05-18 Pfu Ltd 3次元タッチパネル
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
JP4642497B2 (ja) * 2005-02-10 2011-03-02 クラリオン株式会社 ナビゲーション装置
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
DE102005047648A1 (de) 2005-10-05 2007-04-12 Volkswagen Ag Eingabevorrichtung für ein Kraftfahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262718B1 (en) * 1994-01-19 2001-07-17 International Business Machines Corporation Touch-sensitive display apparatus
CN1886973A (zh) * 2003-12-01 2006-12-27 索尼爱立信移动通讯股份有限公司 提供菜单扩展和组织功能的装置、方法和计算机程序产品

Also Published As

Publication number Publication date
EP1950653A3 (en) 2009-07-08
KR20080070226A (ko) 2008-07-30
JP5881661B2 (ja) 2016-03-09
JP2008181523A (ja) 2008-08-07
EP1950653B1 (en) 2018-08-29
JP2014056590A (ja) 2014-03-27
US8760410B2 (en) 2014-06-24
US20080180402A1 (en) 2008-07-31
CN101231564A (zh) 2008-07-30
EP1950653A2 (en) 2008-07-30
JP5448346B2 (ja) 2014-03-19
KR100891099B1 (ko) 2009-03-31

Similar Documents

Publication Publication Date Title
CN101231564B (zh) 改善触摸屏的可用性的设备和方法
US10216407B2 (en) Display control apparatus, display control method and display control program
US8466934B2 (en) Touchscreen interface
JP4192731B2 (ja) 案内情報提供装置及びプログラム
EP2306154A2 (en) Navigation device and program
US20090289903A1 (en) Control method for displaying icons on a touchscreen
EP2811386A1 (en) Method and apparatus of controlling an interface based on touch operations
US9019210B2 (en) Input method for touch panel and related touch panel and electronic device
CN104471518A (zh) 用于三维交互的多点触摸手势识别的消歧
CN102576268A (zh) 利用多种输入检测技术的交互表面
JP2018018205A (ja) 表示手段の画面上の位置を決定する入力システム、検知装置、制御装置、プログラム及び方法
JP5820414B2 (ja) 情報処理装置及び情報処理方法
JP2014186555A (ja) 情報処理装置および情報処理方法
US20150301707A1 (en) System And Method Of Graphical User Interface With Map Overlay For Area Marking On Electronic Devices
JP2015215840A (ja) 情報処理装置及び入力方法
US20160286036A1 (en) Method for quick access to application functionalities
JP2010032280A (ja) 経路表示装置
JP2015049837A (ja) 携帯端末装置
JP6332532B1 (ja) 情報表示装置
JPH117372A (ja) 図形選択装置
CN105278715A (zh) 基于触摸屏的应用布局设置方法及终端设备
CN103902187A (zh) 一种控制电子设备的方法及电子设备
JP2022179592A (ja) 情報表示装置
CN104375717A (zh) 便携式装置、触控系统及触摸设备
KR101888902B1 (ko) 움직임 감지장치를 이용한 휴대 단말의 포토 앨범 정보 표시 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant