CN107003807B - 电子装置及显示它的图形对象的方法 - Google Patents

电子装置及显示它的图形对象的方法 Download PDF

Info

Publication number
CN107003807B
CN107003807B CN201580065515.2A CN201580065515A CN107003807B CN 107003807 B CN107003807 B CN 107003807B CN 201580065515 A CN201580065515 A CN 201580065515A CN 107003807 B CN107003807 B CN 107003807B
Authority
CN
China
Prior art keywords
display
stylus
graphic object
input
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580065515.2A
Other languages
English (en)
Other versions
CN107003807A (zh
Inventor
朴多惠
梁必承
元雪蕙
李真英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107003807A publication Critical patent/CN107003807A/zh
Application granted granted Critical
Publication of CN107003807B publication Critical patent/CN107003807B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供一种电子装置。该电子装置包括传感器、显示器和控制器,其中,传感器配置为感测触摸笔的输入并且输出与触摸笔的输入对应的信号;显示器配置为包括第一层和第二层,在第一层中显示图形对象,并且在第二层显示基于触摸笔的输入的手写图像;控制器配置为基于传感器输出的信号,控制显示器改变在第一层显示的图形对象的显示方向。

Description

电子装置及显示它的图形对象的方法
技术领域
本公开涉及电子装置以及显示它的图形对象的方法。
背景技术
随着便携式终端近来的增长,对直观地执行输入/输出操作的方法的需求不断增长。然而,出于便携性,诸如便携式终端的电子装置的尺寸受到限制,因此,用于显示信息的显示器的尺寸与普通电视(TV)、监视器等的显示器相比相对较小。出于该原因,便携式终端的输入方法已经从使用诸如键盘、小键盘、鼠标等输入装置的现有技术的用户接口(UI)方法发展为通过由各用户使用语音或用手或触摸笔直接地触摸屏幕来输入信息的直观的(intuitional)UI方法。具体地,用户能够通过使用触摸笔来执行更精确的触摸或输入手写稿(handwriting)。手写稿的方向可能与图形对象的显示方向不同。因此,需要各种方法以利用触摸笔将手写稿的方向自动地布置成与图形对象的显示方向对应。
上述信息作为背景信息被提出,以仅仅帮助理解本公开。至于以上信息中的任意信息是否可适于作为针对本公开的现有技术,没有做出确定并且没有做出断言。
发明内容
技术问题
本公开的方面至少解决上述问题和/或缺点,并且至少提供下述有益效果。因此,本公开一方面提供一种电子装置以及显示它的图形对象的方法,更具体地,提供通过使用触摸笔和显示器之间的角度来识别手写稿的方向、并且基于手写稿的方向将在显示器中显示的图形对象的显示方向自动地改变为水平方向或垂直方向的方法。
问题的解决方案
根据本公开的一方面,提供一种电子装置。电子装置包括通信器、显示器、传感器和控制器,其中,通信器配置为从外部源接收信号;显示器配置为显示图形对象;传感器配置为感测触摸笔的输入并且输出与触摸笔的输入对应的信号;控制器配置为基于传感器输出的信号,确定在显示器中显示的图形对象的显示方向。控制器可基于信号确定触摸笔的倾斜信息。控制器可通过通信器接收触摸笔输出的信号,并且基于触摸笔输出的信号确定触摸笔的倾斜信息。控制器可基于触摸笔的倾斜信息确定触摸笔的倾斜方向,并且基于触摸笔的倾斜方向确定图形对象的显示方向。控制器可控制显示器改变图形对象的显示方向,以使得触摸笔的倾斜方向和图形对象的显示方向彼此相反。控制器可控制显示器以在第一层中显示图形对象,并且在第二层中显示基于触摸笔的输入所显示的手写图像。控制器可控制显示器使第二层固定,以及基于触摸笔的倾斜方向改变第一层中的图形对象的显示方向。
根据本公开的另一方面,提供一种电子装置。该电子装置包括传感器、显示器和控制器,其中,传感器配置为感测触摸笔的输入并且输出与触摸笔的输入对应的信号;显示器配置为包括第一层和第二层,在第一层中显示图形对象,并且在第二层显示基于触摸笔的输入的手写图像;控制器配置为基于传感器输出的信号,控制显示器改变在第一层中显示的图形对象的显示方向。控制器可基于传感器输出的信号,确定触摸笔的倾斜方向,并且根据触摸笔的倾斜方向,控制显示器改变在第一层中显示的图形对象的显示方向。控制器可控制显示器:即使第一层的方向改变,也保持第二层的方向不改变。
根据本公开的另一方面,提供显示电子装置的图形对象的方法。该方法包括:在显示器中显示图形对象;感测触摸笔的输入;以及基于触摸笔的输入,改变在显示器中显示的图形对象的显示方向。改变图形对象的显示方向可包括:基于与触摸笔的输入对应的信号,确定触摸笔的倾斜信息。
该方法还可包括接收触摸笔输出的信号。触摸笔的倾斜信息可基于信号确定。改变图形对象的显示方向可包括:基于触摸笔的倾斜信息确定触摸笔的倾斜方向,以及基于触摸笔的倾斜方向确定图形对象的显示方向。改变图形对象的显示方向可包括:改变图形对象的显示方向,以使得触摸笔的倾斜方向和图形对象的显示方向彼此相反。该方法还可包括:基于触摸笔的输入显示手写图像。图形对象可显示在第一层中,并且基于触摸笔的输入显示的手写图像可显示在第二层中。改变图形对象的显示方向可包括:固定第二层,以及基于触摸笔的倾斜方向,改变第一层中的图形对象的显示方向。
根据本公开的另一方面,提供显示电子装置的图形对象的方法。该方法包括:在第一层中显示图形对象,感测触摸笔的输入,基于触摸笔的输入在第二层中显示手写图像,以及基于触摸笔的输入改变在第一层中显示的图形对象的显示方向。改变图形对象的显示方向可包括:基于触摸笔的输入确定触摸笔的倾斜方向,以及根据触摸笔的倾斜方向改变在第一层中显示的图形对象的显示方向。该方法还可包括:即使图形对象的显示方向改变,也保持第二层的方向不改变。
发明的有益效果
根据上述各实施方式,显示电子装置的图形对象的方法基于手写稿的方向自发地改变图形对象的显示方向,从而为用户提供方便。
通过结合附图披露本公开各实施方式的以下详细说明,本公开的其他方面、有益效果和显著特征对本领域技术人员将变得明显。
附图说明
通过结合附图的以下详细说明,本公开某些实施方式的上述和其他方面、特征和有益效果将变得更加明显,在附图中:
图1是示出根据本公开实施方式电子装置的结构的框图;
图2A和图2B是用于描述根据本公开实施方式基于触摸笔的倾斜方向改变图形对象的显示方向的实施方式的视图;
图3A和图3B是示出根据本公开实施方式手写输入层和图形对象显示层的视图;
图4A和图4B是用于描述根据本公开实施方式通过使用触摸笔将手写输入到具有输入栏(input field)的内容中的实施方式的视图;
图5A和图5B是用于描述根据本公开实施方式拖拽显示内容的显示器的边缘区域以显示备忘录窗口的实施方式的视图;
图6A和图6B是用于描述根据本公开实施方式通过识别手写图像来识别用户以及自动地设定钢笔风格的实施方式的视图;
图7A、图7B和图7C是用于描述根据本公开实施方式当文档图像在显示器中显示时触摸笔的交互的示例的视图;
图8是用于描述根据本公开实施方式触摸笔的悬停交互的示例的视图;
图9A和图9B是用于描述根据本公开实施方式通过使用触摸笔应用格式的方法的视图;
图10A和图10B是用于描述根据本公开实施方式应用格式的方法的视图;
图11是用于描述根据本公开实施方式设定用户格式的方法的视图;
图12A、图12B和图12C是用于描述根据本公开实施方式根据屏幕的放大率放大触摸笔的格式菜单的实施方式的视图;
图13A、图13B和图13C是用于描述根据本公开实施方式通过使用触摸笔转换手写输入模式和手势输入模式的方法的视图;以及
图14是用于描述基于触摸笔的输入改变在显示器中显示的图形对象的显示方向的方法的流程图。
在全部附图中,应注意,相同的参考标号用于描述相同或相似的元件、特征和结构。
具体实施方式
提供参照附图的以下描述,以帮助全面地理解如由权利要求及其等同限定的本公开各实施方式。它包括各种具体细节以帮助理解,但是这些细节仅仅视为示例性的。因此,在不脱离本公开的范围和精神的情况下,本领域普通技术人员应意识到,可以对本文描述的各实施方式做出各种改变和修改。此外,为了清楚和简明,可省略公知的功能和结构的描述。
以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅仅由发明人使用以使得能够清楚和一致地理解本公开。因此,对于本领域技术人员应显而易见,仅仅是出于例证目的来提供本公开各实施方式的以下描述,而不是出于限制本公开的目的,本公开由所附权利要求及其等同限定。
应理解,除非上下文清楚地另外指出,否则单数形式“一”、“一个”和“所述”包括复数对象。因此,例如,对“组件表面”的参考包括参考这样的表面中的一个或多个。
以下描述中使用的术语“包括”和“可包括”涉及所公开的功能、操作或元件,而不限制任意额外的一个或多个功能、操作或元件。此外,在本公开中,术语“包括”和“具有”表示存在本文公开的特征、数量、操作、元件、部件或它们的组合,而非旨在排除结合或添加一个或多个特征、数量、操作、元件、部件或它们的组合的可能性。
以下描述中的术语“或”包括与所述术语一起使用的词语的所有组合形式。例如,“A或B”可包括A、可包括B或可包括A和B二者。
在本公开中,诸如“第一”和“第二”的相关术语可修饰各种元件,而不限制所述元件。例如,所述术语用于将一个实体与另一实体区分开,而非一定指在这些实体之间的任意实际关系或顺序。例如,第一用户设备和第二用户设备均表示用户设备,并且分别地表示不同的用户设备。例如,在不脱离本公开的权利范围的情况下,第一元件可称作第二元件,反之第地元件可称作第一元件。
当描述一个元件被“连接”至另一元件时,所述元件可直接地连接至另一元件,但是在该情况中,它可被理解为在所述元件和另一元件之间可存在任意其他元件。与之相比,当描述一个元件被“直接地连接”至另一元件时,可被理解为在所述元件和另一元件之间不存在任意其他元件。
除非另有定义,否则以下描述中使用的全部术语,包括技术术语和科技术语,具有与本公开所属领域的普通技术人员(在下文中称作“本领域技术人员”)通常所理解的含义相同的含义。常用词典中所定义的术语应解释为相关领域中的上下文含义。除非本文明确地限定成这样,否则所述术语不理解为理想化或过于正式的含义。
在以下描述中,“模块”或“单元”执行至少一个功能或操作,并且可实现为硬件、软件或它们的组合。此外,多个“模块”或“单元”可集成为至少一个模块,并且可实现为至少一个处理器(未示出),其中需要被实现为特定硬件的“模块”或“单元”除外。
在下文中,将参考附图详细描述本公开各实施方式。在以下描述中,即使在不同的附图中,相同的附图参考标记也用于相同的元件,并且重复的描述将被省略。
图1是示出根据本公开实施方式电子装置100的结构的框图。
参照图1,电子装置100可包括显示器101、控制器103、传感器105和通信器107。显示器101可显示图形对象,并且针对从电子装置100输出的输出信息执行显示功能。图形对象可以是动态图像、静态图像、电子图书(E-book)屏幕、网页、内容和图形用户接口(GUI)。
传感器105可执行感测用户的各种输入的功能。此外,传感器105可通过使用诸如手指、笔等多种对象感测用户的不同输入,包括单点触摸输入、多点触摸输入、拖拽输入、手写输入或绘图输入。传感器105可设置为模块的形式,其中所述模块与显示器101实现为一体。此外,传感器105可通过使用既能够感测手指输入又能够感测触摸笔201的输入的一个面板来实现,或者可通过使用两个面板诸如感测手指输入的触摸面板和感测触摸笔输入的触摸笔识别面板来实现。在下文中,提供利用两个面板即感测手指输入的触摸面板和感测触摸笔输入的触摸笔识别面板来实现的传感器105的示例的描述。
显示器101可以是诸如液晶显示器(LCD)、有源有机发光显示器(AMOLED)等的面板。显示器101可根据各种操作状态、应用的执行和电子装置100的服务来显示不同的屏幕。显示器101可包括触摸面板。触摸面板可占用显示器101的下部中的特定空间。例如,触摸面板可占用用于覆盖显示器101的显示区域的空间。
触摸面板可感测用户触摸输入。例如,触摸面板可实现为触摸膜、触摸片、触摸板等。触摸面板感测触摸输入并且输出与所感测的触摸信号对应的触摸事件值。在这种情况下,关于所感测的触摸信号的信息可显示在显示器101上。触摸面板可根据通过各种输入方式实现的用户触摸输入接收处理(manipulation)信号。例如,触摸面板可感测利用用户身体(例如,手指)或物理工具实现的触摸输入。根据实施方式,触摸面板可实现为电容型触摸面板。就电容型触摸面板而言,触摸面板由这样的玻璃构成,所述玻璃两面均涂覆有使电流能够沿着玻璃的表面流动的薄金属导电材料(例如,铟锡氧化物(IPO))并且涂覆有用于存储电荷的电介质。响应于触摸面板的表面被对象触摸,一定量的电荷通过静电移动至接触点。触摸面板根据电荷的移动识别电流的改变以感测触摸点,并且跟踪触摸事件。在这种情况下,在触摸面板发生的触摸事件在多数情况下可通过人的手指来生成,但是也可通过可引起电容变化的其他对象来生成,所述其他对象例如可引起电容变化的导电对象。
触摸笔识别面板利用用户的触摸笔(例如,手写笔、数字笔等)感测触摸笔201的接近(access)输入或触摸输入,并且输出触摸笔接近事件或触摸笔触摸事件。触摸笔识别面板可按电磁响应(EMR)方式来实现。此外,触摸笔识别面板可根据经由触摸笔201的接近或触摸的电磁场强度的改变,感测触摸输入或接近输入。具体说来,触摸笔识别面板可包括电磁感应线圈传感器(未示出)和电信号处理器(未示出),其中,电磁感应线圈传感器具有网格结构,在该网格结构中多个环形线圈分别布置在预定的第一方向和与第一方向交叉的第二方向上,电信号处理器向电磁感应线圈传感器的各个环形线圈连续的供应具有特定频率的交变电流(AC)信号。响应于嵌入有谐振电路的触摸笔201位于触摸笔识别面板的环形线圈周围,基于触摸笔201中的谐振电路的相互电磁感应,从环形线圈发送出的磁场生成电流。根据所生成的电流,从构成触摸笔201中谐振电路的线圈生成感应磁场。触摸笔识别面板在信号接收状态中检测来自环形线圈的感测磁场,并且感测触摸笔201的接近位置或触摸位置。触摸笔识别面板可感测可基于电磁感应生成电流的对象的接近或触摸。根据实施方式,触摸笔识别面板专门用于识别触摸笔201的接近或触摸。触摸笔识别面板可安装在终端的特定位置处,并且可通过特殊事件的发生或通过默认具有激活状态。此外,触摸笔识别面板可占用显示器101下部一定的空间。例如,触摸笔识别面板可占用用于覆盖显示器101的显示区域的空间。
通信器107可从电子装置100的外部源接收信号。具体地,在电子装置100支持移动通信功能的情况下,通信器107可包括移动通信模块。通信器107可执行需要通信功能的电子装置100的具体功能,例如聊天功能、消息发送/接收功能、呼叫功能等。此外,通信器107可从诸如触摸笔201的外部设备接收信号。触摸笔201可通过通信器107向电子装置100发送与触摸笔201的倾斜有关的信息。
控制器103包括用于接收触摸笔201的手写输入并且显示所接收的手写稿的各种元件。控制器103可基于元件控制信号处理操作、数据处理操作和用于手写输入的其他功能。例如,控制器103可向所显示的应用提供手写输入层;并且控制显示器101在所提供的手写输入层上将用户输入的手写图像转换为文本,并在输入栏中插入和显示该文本。
响应于触摸笔输入被输入到显示器101中,控制器103可基于从传感器105输出的信号,确定在显示器101中显示的图形对象的显示方向。具体说来,控制器103可基于传感器105输出的信号,确定触摸笔201的倾斜信息。触摸笔201的倾斜信息可以是显示器101和触摸笔201之间的角度,以及触摸笔201的倾斜方向。
触摸笔201可以信号的形式输出关于触摸笔201的倾斜角度和倾斜方向的信息。在这种情况下,控制器103可通过通信器107接收从触摸笔201输出的信号,并且基于触摸笔201输出的信号确定触摸笔201的倾斜信息。
控制器103可基于触摸笔201的倾斜信息确定触摸笔201的倾斜方向,并且基于触摸笔201的倾斜方向确定图形对象的显示方向。此外,控制器103可控制显示器101改变图形对象的显示方向,以使得触摸笔201的倾斜方向和图形对象的显示方向彼此相反。
控制器103可控制显示器101在第一层中显示图形对象,并且在第二层中显示基于触摸笔输入所显示的手写图像。
控制器103可控制显示器101使第二层固定,并且基于触摸笔201的倾斜方向改变第一层中的图形对象的显示方向。
控制器103可基于传感器105输出的信号,控制显示器101改变在第一层中显示的图形对象的显示方向。此外,控制器103可基于传感器105输出的信号,确定在第一层中显示的图形对象的显示方向。控制器103可基于传感器105输出的信号,确定触摸笔201的倾斜方向;并且根据触摸笔201的倾斜方向,控制显示器101改变在第一层中显示的图形对象的显示方向。
图2A和图2B是用于描述根据本公开实施方式基于触摸笔201的倾斜方向改变图形对象的显示方向的实施方式的视图。
参照图2A和图2B,图2A示出电子装置100、显示器101和触摸笔201。响应于触摸笔201触及显示器101,控制器103可确定触摸笔201的接触点以及触摸笔201与显示器101之间的角度(P)203。换言之,控制器103可确定触摸笔201的倾斜方向。
图2B示出触摸笔201的倾斜方向以及根据倾斜方向的显示方向。响应于触摸笔201触及显示器101,控制器103可确定在向上、向下、向右和向左方向211、213、215和217的四个方向之中触摸笔201相对于显示器101的中心倾斜的方向。其后,控制器103可基于触摸笔201的倾斜方向确定图形对象的显示方向219、221、223、225,并且控制显示器101旋转屏幕。换言之,控制器103可控制显示器101改变图形对象的显示方向。
例如,响应于触摸笔201在“a”方向211上倾斜,控制器103可将图形对象的显示方向确定为第一方向219,并且控制显示器101基于所确定的显示方向旋转屏幕。响应于触摸笔201在“b”方向213上倾斜,控制器103可将图形对象的显示方向确定为第二方向221,并且控制显示器101基于所确定的显示方向旋转屏幕。响应于触摸笔201在“c”方向215上倾斜,控制器103可将图形对象的显示方向确定为第三方向223,并且控制显示器101基于所确定的显示方向旋转屏幕。响应于触摸笔201在“d”方向217上倾斜,控制器103可将图形对象的显示方向确定为第四方向225,并且控制显示器101基于所确定的显示方向旋转屏幕。
控制器103可根据用户用左手握持触摸笔201还是用右手握持触摸笔201,基于触摸笔201的倾斜方向不同地确定所述显示方向。例如,当用户经由左手将触摸笔201接触显示器101时,响应于触摸笔201在“a”方向211上倾斜,控制器103可将图形对象的显示方向确定为第四方向225,并且控制显示器101基于所确定的显示方向旋转屏幕。当用户经由左手将触摸笔201接触显示器101时,响应于触摸笔201在“b”方向213上倾斜,控制器103可将图形对象的显示方向确定为第一方向219,并且控制显示器101基于所确定的显示方向旋转屏幕。当用户经由左手将触摸笔201接触显示器101时,响应于触摸笔201在“c”方向215上倾斜,控制器103可将图形对象的显示方向确定为第二方向221,并且控制显示器101基于所确定的显示方向旋转屏幕。当用户经由左手将触摸笔201接触显示器101时,响应于触摸笔201在“d”方向217上倾斜,控制器103可将图形对象的显示方向确定为第三方向223,并且控制显示器101基于所确定的显示方向旋转屏幕。
当用户经由右手将触摸笔201接触显示器101时,响应于触摸笔201在“a”方向211上倾斜,控制器103可将图形对象的显示方向确定为第一方向219,并且控制显示器101基于所确定的显示方向旋转屏幕。当用户经由右手将触摸笔201接触显示器101时,响应于触摸笔201在“b”方向213上倾斜,控制器103可将图形对象的显示方向确定为第二方向221,并且控制显示器101基于所确定的显示方向旋转屏幕。当用户经由右手将触摸笔201接触显示器101时,响应于触摸笔201在“c”方向215上倾斜,控制器103可将图形对象的显示方向确定为第三方向223,并且控制显示器101基于所确定的显示方向旋转屏幕。当用户经由右手将触摸笔201接触显示器101时,响应于触摸笔201在“d”方向217上倾斜,控制器103可将图形对象的显示方向确定为第四方向225,并且控制显示器101基于所确定的显示方向旋转屏幕。
用户能够选择是在右手模式中使用电子装置100还是在左手模式中使用电子装置100。响应于用户选择右手模式,控制器103可确定用户经由右手握持触摸笔201,并相应地确定图形对象的显示方向。响应于用户选择左手模式,控制器103可确定用户经由左手握持触摸笔201,相应地确定图形对象的显示方向,并且控制显示器101基于所确定的方向旋转屏幕。
响应于用户既不选择右手模式又不选择左手模式,控制器103可基于触摸笔201和显示器101之间的角度以及手写移动方向,确定是使用右手模式还是使用左手模式。例如,响应于触摸笔201的倾斜方向为“b”方向213以及手写移动方向为向左方向,控制器103可确定使用左手模式。响应于触摸笔201的倾斜方向为“a”方向211以及手写移动方向为向右方向,控制器103可确定使用右手模式。
此外,控制器103可基于触摸笔201和显示器101之间的角度以及用户手的接触点,确定是使用右手模式还是使用左手模式。
响应于用户通过直立的手使用电子装置100,控制器103可基于重力传感器(未示出)输出的信号,确定图形对象的显示方向。然而,响应于用户在向一侧倾斜放置的桌子上使用电子装置100,或者通过以向一侧倾斜放置的手使用电子装置100,控制器103可能难以基于重力传感器输出的信号确定图形对象的显示方向。因此,在这种情况下,控制器103可基于触摸笔201的倾斜方向,确定图形对象的显示方向。
图3A和图3B是示出根据本公开实施方式手写输入层和图形对象显示层的视图。
参照图3A和图3B,图3A示出图形对象显示层301、手写输入层303和触摸笔201。在图形对象显示层301中,可显示图形字符和图像。例如,用于执行字符、内容和应用的图标和按钮可显示在图形对象显示层301中。在手写输入层303中,可基于触摸笔201的输入显示手写图像。响应于用户在保持触摸笔201相对于显示器101的触摸时移动触摸笔201,可生成手写图像。所生成的手写图像可转换为文本。
例如,手写输入层303可以透明的形式或半透明的形式提供。电子装置100可通过所设置的手写输入层303接收使用触摸笔201进行的手写图像。所接收的手写图像可显示在手写输入层303中。手写图像显示在不同于图形对象显示层301的手写输入层303中,因此,所接收的手写图像可与图形对象分开处理。换言之,控制器103可作为不同的对象识别并处理在图形对象显示层301中显示的手写图像。例如,控制器103可仅仅单独擦除手写图像。
图3B示出电子装置100、图形对象101a、101b、图形对象显示层301a、301b、手写输入层303、手写图像305和触摸笔201。图形对象101b为旋转90度的图形对象101a。
电子装置100可在显示器101中显示图形对象101a,感测触摸笔201的输入,并且基于触摸笔201的输入改变在显示器101中显示的图形对象的显示方向。图3B的下部附图示出图形对象所改变的显示方向。
为了改变图形对象的显示方向,电子装置100可基于与触摸笔201的输入对应的信号,确定触摸笔201的倾斜信息。与触摸笔201的输入对应的信号可以是传感器105响应于触摸笔201触及显示器101输出的信号。此外,与触摸笔201的输入对应的信号可以是在触摸笔201中生成的信号,以及可以是通过通信器107接收的信号。电子装置100可分析与触摸笔201的输入对应的信号,并且确定触摸笔201的倾斜信息。
电子装置100可基于触摸笔201的倾斜信息确定触摸笔201的倾斜方向,并且基于触摸笔201的倾斜方向确定图形对象的显示方向。
电子装置100可改变图形对象的显示方向,使得触摸笔201的倾斜方向和图形对象的显示方向变成彼此相反。
电子装置100可基于触摸笔201的输入,在显示器101中显示手写图像。在这种情况下,电子装置100可分别在不同的层中显示图形对象和手写图像。电子装置100可在第一层中显示图形对象,以及在第二层中显示基于触摸笔201的输入所显示的手写图像。第一层可以是图形对象显示层301。第二层可以是手写输入层303。
电子装置100可使第二层固定,并且基于触摸笔201的倾斜方向改变第一层中的图形对象的显示方向。
此外,电子装置100可在第一层中显示图形对象,感测触摸笔201的输入,基于触摸笔201的输入在第二层中显示手写图像,以及基于触摸笔201的输入改变图形对象的显示方向。
电子装置100可基于触摸笔201的输入确定触摸笔201的倾斜方向,以及基于触摸笔201的倾斜方向改变在第一层中显示的图形对象的显示方向。此外,电子装置100可:即使图形对象的显示方向改变,也保持第二层的方向不改变。
图3B的上部附图示出图形对象的显示方向和手写稿的显示方向彼此错位90度的示例。
图3B的下部附图示出根据触摸笔201的倾斜方向,图形对象的显示方向旋转90度使得图形对象与手写图像的显示方向对应的示例。
换言之,图3B的上部附图示出当在显示器101中参照“A”方向302显示图形对象101a时触摸笔201触及显示器101的示例。图形对象101a可显示在图形对象显示层301中。在这种情况下,手写输入的移动方向可以是基于“B”方向304。手写图像305可参照“B”方向304显示在手写输入层303中。在这种情况下,手写图像305和图形对象101a可相对于彼此错位90度。换言之,图形对象显示层301的显示方向和手写输入层303的手写方向是不一致的,并且相对于彼此错位90度。
响应于用户当图形对象101a在显示器101中显示时通过使用触摸笔201执行手写,手写图像305可显示在手写输入层303中。在这种情况下,图形对象101a的显示方向是“A”方向302。在手写输入层303中的手写输入方向是“B”方向304。控制器103可基于手写输入“B”方向304,改变图形对象101a的显示方向。
换言之,控制器103可基于触摸笔201的倾斜方向和手写图像的移动方向确定电子装置100的上部方向,以及控制显示器101将在图形对象显示层301a中显示的图形对象相对于电子装置100逆时针旋转90度。在这种情况下,控制器103可使在手写输入层303中显示的手写图像305固定不旋转。可替代地,控制器103可使手写输入层303固定。
图3B的下部附图所示的图形对象显示层301b表示图3B的上部附图所示的图形对象显示层301a逆时针旋转90度的状态。在图3B的下部附图中,在显示器101中显示的图形对象101b表示图形对象显示层101a逆时针旋转90度的状态。响应于图形对象101a旋转并被显示,控制器103可控制显示器101在显示器101的中心处放置手写输入。此外,响应于图形对象101a旋转并被显示,控制器103可控制显示器101布置上部使之一致。因此,图形对象101a的宽度可以被扩大和显示。
图4A和图4B是用于描述根据本公开实施方式通过使用触摸笔201将手写输入到具有输入栏的内容中的实施方式的视图。
参照图4A和图4B,图4A示出在显示器101中具有输入栏403的内容401。响应于用户通过使用触摸笔201触摸输入栏403或使触摸笔201接近输入栏403,控制器103可控制显示器101放大并显示输入栏403。内容401可以是具有输入栏403的图形对象。响应于在具有输入栏403的内容401在显示器101中显示时从输入栏403感测到触摸笔201的接触或接近(悬停),控制器103可提供如图4B所示的与输入栏403对应的手写输入层403a。
图4B示出具有输入栏403的内容401、与输入栏403对应的手写输入层403a以及手写图像403b。与输入栏403对应的手写输入层403a的尺寸可等于或大于输入栏403的尺寸。控制器103可控制显示器101在输入栏403中以重叠的方式显示手写输入层403a。可在显示器101中半透明地显示与输入栏403对应的手写输入层403a。与输入栏403对应的手写输入层403a的透明度可由用户预定或设定。与输入栏403对应的手写输入层403a可部分地位于图形对象显示层的输入栏403的位置。
当具有输入栏403的内容被显示时,响应于在输入栏403中接收到触摸感测信号,控制器103可控制显示器101放大并显示与输入栏403对应的手写输入层403a。在这种情况下,可响应于触摸笔201触及显示器101,从传感器105输出触摸感测信号。此外,可响应于用户手指触及显示器101,从传感器105输出触摸感测信号。
控制器103可在具有输入栏403的内容在图形对象显示层中显示时,感测触摸笔201相对于输入栏403的接触或接近;并且可基于所感测的触摸笔201的接触或接近,控制显示器101在与输入栏403对应的位置处以重叠的方式显示手写输入层403a。控制器103可将手写输入层403a的透明度调整至预定值。此外,控制器103可将手写输入层403a的尺寸调整为等于或大于输入栏403的尺寸。
响应于用户通过手写输入层403a将手写输入到输入栏403中,控制器103可控制显示器101在手写输入层403a中显示所输入的手写图像403b。手写图像403b可在字符识别模块(未示出)中转换为文本,并且在输入栏403中显示。
图5A和图5B是用于描述根据本公开实施方式拖拽显示内容的显示器101的边缘区域以显示备忘录窗口的实施方式的视图。
参照图5A和图5B,图5A示出内容501和边缘区域503。边缘区域503可以是显示器101的上端、下端、左端和右端。响应于用户拖拽显示内容501的显示器101的边缘区域503,控制器103可控制显示器101显示用于将手写输入到显示器101的备忘录窗口505。
图5B示出显示器101显示内容501和备忘录窗口505的示例。响应于从显示器101的边缘区域503感测到触摸笔201的拖拽操作,控制器103可控制显示器101显示备忘录窗口505。用户可通过备忘录窗口505,将手写输入到电子装置100中。通过备忘录窗口505输入的手写图像可转换为文本,或者以图像形式存储在电子装置100中。在这种情况下,可与所述手写图像一起存储关于内容501的信息。内容501可显示在图形对象显示层。备忘录窗口505可显示在手写输入层。手写输入层可小于图形对象显示层。当图形对象显示层在显示器101中显示时,响应于从显示器101的边缘区域503感测到用户输入,控制器103可控制显示器101在用户输入被感测的位置处显示手写输入层。具体说来,当图形对象在显示器101中显示时,响应于基于笔拖拽手势的信号被输入到显示器101的边缘区域503,控制器103可控制显示器101在边缘区域503中显示用于输入手写输入的备忘录窗口。笔拖拽手势可以是触摸笔201与显示器101接触的操作,以及当保持所述接触时移动触摸笔201的操作。传感器105可基于笔拖拽手势输出信号。
图6A和图6B是用于描述根据本公开实施方式通过识别关于手写图像来识别用户以及自动地设定钢笔风格(pen style)的实施方式的视图。
参照图6A,显示器101显示内容601和手写图像603、605、607、609。控制器103可通过分析经由手写输入层输入的手写稿的笔迹来识别用户,并且可基于对笔迹的分析自动地设定钢笔风格。可经由不同的用户输入手写图像603、605、607、609中的至少一个。例如,可经由用户A输入手写图像603、607、609,以及可经由用户B输入手写图像605。
控制器103可控制显示器101以红色显示手写图像603、607、609。换言之,控制器103可控制显示器101以红色显示经由用户A输入的手写图像603、607、609。控制器103可控制显示器101以黄色显示手写图像605。换言之,控制器103可控制显示器101以黄色显示经由用户B输入的手写图像605。
参照图6B,显示器101显示以不同的颜色显示的手写图像603a、605a、607a、609a。可对手写图像603a、607a、609a应用红色钢笔风格。此外,可对手写图像605a应用黄色钢笔风格。
此外,可对手写图像603a、609a应用钢笔风格。可对手写图像605a应用刷子风格。可对手写图像607a应用铅笔风格。
响应于通过对笔迹的分析识别到用户,控制器103可向所识别的用户授予预定文档编辑权限。例如,响应于通过对手写图像的分析将特定用户识别为学生,控制器103可针对所述用户限制文档编辑。响应于通过对手写图像的分析将用户识别为教师,控制器103可针对所述用户准许文档编辑。
换言之,控制器103可基于输入到手写输入层的手写图像,锁定或解锁图形对象显示层。可替代地,控制器103可基于输入到手写输入层的手写图像,控制图形对象显示层。
图7A至图7C是用于描述根据本公开实施方式当文档图像在显示器101中显示时触摸笔201的交互(interaction)的示例的视图。
参照图7A至图7C,图7A示出文档图像701、文本化文档703、文档部分705和局部文档图像707。控制器103可将文档图像701转换为文本化文档703。当文本化文档703在显示器101中显示时,响应于用户将触摸笔201接近文档部分705或者通过使用触摸笔201触摸文档部分705,控制器103可控制显示器101显示与文档部分705对应的局部文档图像707。在这种情况下,局部文档图像707可显示在触摸被感测的位置周围。
图7B示出文档图像701、文本化文档715、局部文档图像711、下划线713和触摸笔201。当文档图像701在显示器101中显示时,响应于用户在按压触摸笔201的按钮201a时执行用于将文档图像701的一部分转换为文本的拖拽操作,控制器103可控制显示器101在拖拽操作被感测的区域中在文档图像701的所述部分上显示下划线713,并且可将文档图像701的所述部分转换为文本。当文档图像701在显示器101中显示时,响应于感测到触摸笔201的接触或悬停,控制器103可确定接触或悬停被感测位置。当保持接触时,响应于触摸笔201移动,控制器103可控制显示器101在移动轨迹上显示下划线713,并且将下划线713周围的文档图像转换为文本。控制器103可在显示器101中显示经转换的文本化文档715。在这种情况下,仅仅包括在文档图像701中的局部文档图像711可被转换为文本。
图7C示出文档图像701、文本化文档721、下划线723和局部文档图像725。控制器103可将文档图像701转换为文本化文档721。当文本化文档721在显示器101中显示时,响应于用户使触摸笔201接近(悬停)部分文本,控制器103可控制显示器101显示与部分文本对应的局部文档图像725。在这种情况下,可在触摸笔201的悬停被感测的位置周围显示局部文档图像725。此外,当文本化文档721被显示时,响应于用户通过使用触摸笔201触摸部分文本,控制器103可控制显示器101显示与部分文本对应的局部文档图像725。在这种情况下,可在触摸笔201的接触被感测的位置周围显示局部文档图像725。
图8是用于描述根据本公开实施方式触摸笔201的悬停交互的示例的视图。
参照图8,显示器101显示文档801、应用803和触摸笔201。响应于用户在显示器101中显示的文档的任意位置处使触摸笔201接近显示器101,控制器103可感测来自所述文档的任意位置的悬停。控制器103可提取在悬停被感测的位置显示的字符和数字,并且调用与所提取的字符和数字对应的应用。响应于应用被调用,控制器103可将所提取的字符和数字连接到应用803。换言之,控制器103可将所提取的字符和数字用作应用的输入。此外,控制器103可控制显示器101显示通过在应用中输入所提取的字符和数字所获得的应用的执行结果。
应用803可以是窗口小部件。窗口小部件指的是作为促进用户和应用之间或用户和操作系统(OS)之间交互的GUI之一的迷你应用。例如,窗口小部件可包括词典窗口小部件、天气窗口小部件、计算器窗口小部件、时钟窗口小部件、电话窗口小部件等。
当阅读在显示器101中显示的文档801时,响应于用户将触摸笔201接近某些单词801a,控制器103可控制显示器101显示应用803的词典窗口小部件。此外,控制器103可将选定的单词801a输入到应用803的词典窗口小部件的搜索框中,并且可控制显示器101在应用803的词典窗口小部件中显示搜索结果。例如,响应于用户将触摸笔201接近单词“round”,控制器103可将单词“round”输入到应用803的词典窗口小部件中,并且可控制显示器101搜索单词“round”的意思并在应用803的词典窗口小部件中显示搜索结果。
此外,当阅读在显示器101中显示的文档801时,响应于用户将触摸笔201接近特定数字,控制器103可执行可将所述数字用作输入的应用或窗口小部件。
例如,响应于用户将触摸笔201接近号码“01032634119”,控制器103可控制显示器101显示电话窗口小部件并且可进行电话呼叫。根据另一实施方式,当阅读在显示器101中显示的文档801时,响应于用户将触摸笔201接近特定数字,控制器103可控制显示器101在显示器101中显示计算器窗口小部件。
图9A和图9B是用于描述根据本公开实施方式通过使用触摸笔201应用格式的方法的视图。
参照图9A,显示器101显示文档901、第一区域903、第二区域905和触摸笔201。可对在显示器101中显示的文档901应用格式。第一区域903和第二区域905可以是从文档中选择的部分区域。
触摸笔201可在第一模式或第二模式中操作。触摸笔201包括按钮。响应于用户在没有按压按钮的情况下将触摸笔201接触显示器101,触摸笔201可在第一模式中操作。响应于用户在按压按钮时将触摸笔201接触显示器101,触摸笔201可在第二模式中操作。响应于触摸笔201在第一模式中操作,控制器103可从触摸笔201接收第一信号。可替代地,响应于触摸笔201在第一模式中操作,控制器103可从传感器105接收第一信号。
响应于触摸笔201在第二模式中操作,控制器103可从触摸笔201接收第二信号。可替代地,响应于触摸笔201在第二模式中操作,控制器103可从传感器105接收第二信号。
当文档901在显示器101中显示时,响应于用户在按压触摸笔201的按钮时将触摸笔201接触第一区域903并且使触摸笔201移动,控制器103可选择第一区域903并且复制应用于第一区域903的格式。在这种情况下,响应于用户将触摸笔201接触第二区域905,控制器103可将第一区域903的格式应用至第二区域905。
当文档901在显示器101中显示时,响应于从触摸笔201接收到第二信号以及从第一区域903接收到用户输入,控制器103可获取第一区域903的格式。在第一区域903的格式已获得之后,响应于从显示器101的第二区域905接收到用户输入,控制器103可将第一区域903的格式应用至第二区域905。
例如,当文档901在显示器101中显示时,响应于用户在按压触摸笔201的按钮时在第一区域903中执行拖拽操作,控制器103可选择第一区域903。可将所选择的第一区域903倒置或高亮。此外,可提取所选择的第一区域903的格式。当按压触摸笔201的按钮时,响应于用户在第二区域905中执行拖拽操作,控制器103可将第一区域903的格式应用至第二区域905。换言之,响应于第一区域903的底色为黄色,控制器103可控制显示器101以黄色显示第二区域905的底色。响应于第一区域903的字体是哥特式字体,控制器103可控制显示器101以哥特式字体显示第二区域905的字体。响应于第一区域903的字体是斜体,控制器103可控制显示器101以斜体显示第二区域905的字体。
图9B示出文档901、第一区域913、第二区域917、格式列表915和触摸笔201。当文档901在显示器101中显示时,响应于用户将触摸笔201接触第一区域913,控制器103可选择第一区域913并且控制显示器101将所选择的区域高亮。可在与触摸笔201接触的第一区域913周围显示应用于第一区域913的格式列表915。响应于用户将触摸笔201接触第一区域913并且按压触摸笔201的按钮,控制器103可控制显示器101在与触摸笔201接触的第一区域913周围显示应用于第一区域913的格式列表915。
响应于用户通过使用触摸笔201选择包括在格式列表915中的多个格式之一、将触摸笔201移动至其他位置并且将触摸笔201与文档901的第二区域917接触,控制器103可将所述格式应用于第二区域917。换言之,第一区域913的格式可应用于第二区域917。
当文档在显示器101中显示时,响应于触摸笔201的接触和移动被感测,控制器103可基于触摸笔201的移动距离确定第一区域913。换言之,响应于在文档的第一区域913中接收到触摸笔201的拖拽操作,控制器103可获取应用于第一区域913的格式,并且控制显示器101在第一区域913周围显示应用于第一区域913的格式列表915。
响应于接收到从格式列表915中的多种格式之中选择一种格式的用户输入以及从第二区域917接收到触摸笔201的拖拽操作,控制器103可控制显示器101将所选择的格式应用至第二区域917并且显示第二区域917。
例如,当文档901在显示器101中显示时,响应于用户在第一区域913中执行拖拽操作,可在第一区域913周围显示应用于第一区域913的格式列表915。响应于用户通过使用触摸笔201触摸格式列表915中的多个格式中的一种格式,控制器103可选择所触摸的格式。在这种状态下,响应于用户通过使用触摸笔201在第二区域917中执行拖拽操作,控制器103可将所选择的格式应用至第二区域917。响应于所选择的格式具有粗体,可以粗体显示第二区域917。
图10A和图10B是用于描述根据本公开实施方式应用格式的方法的视图。
参照图10A和图10B,图10A示出文档1001、格式列表1003、格式1003a、选择区域1005、格式应用区域1007、触摸笔201和按钮201a。
当文档1001和格式列表1003在显示器101中显示时,响应于用户按压触摸笔201的按钮201a、从格式列表1003中选择格式1003a以及选择用户希望应用格式的选择区域1005,控制器103可应用所选择的格式1003a。显示器101可显示所述格式被应用的格式应用区域1007。响应于用户解除对触摸笔201的按钮的按压,控制器103可消除所应用的格式1003a。换言之,可仅仅当触摸笔201的按钮201a被按压时应用所选择的格式1003a。
此外,当文档1001和格式列表1003在显示器101中显示时,响应于用户从格式列表1003中选择格式1003a并且选择用户希望应用所述格式的选择区域1005,控制器103可应用所选择的格式1003a。显示器101可显示所述格式被应用的格式应用区域1007。除非接收到任意的释放命令,否则所应用的格式1003a可被持续应用。也可在用户通过使用触摸笔201输入手写稿时应用所选择的格式1003a。
图10B示出文档1011、格式列表1013、格式1013a、选择区域1005、格式应用区域1007、触摸笔201和按钮201a。
当文档1011和格式列表1013在显示器101中显示时,响应于用户通过使用手指触摸格式列表1013中的格式1013a以及通过使用触摸笔201在保持对格式1013a的触摸的情况下选择用户希望应用所述格式的选择区域1005,控制器103可应用所选择的格式1013a。显示器101可显示所述格式被应用的格式应用区域1007。响应于用户解除手指触摸,控制器103可消除所选择的格式1003a。换言之,可响应于用户通过使用手指触摸格式列表1013并且保持所述触摸而应用所选择的格式。
当在第一区域1013中的触摸被保持时,响应于从显示器101的第一区域1013感测到触摸并且从第二区域1005感测到另一触摸,控制器103可将在第一区域1013选择的格式应用至第二区域1005。第一区域1013可以是格式列表,第二区域1005可以是文档的一部分。
图11是用于描述根据本公开实施方式设定用户格式的方法的视图。图11示出文档1101、用户指定的格式列表1103、用户选择的格式1103a、触摸笔201和按钮102a。
参照图11,用户可储存并管理触摸笔201的要用于特定目的的特定格式。换言之,用户可将用户指定的格式储存在用户指定的格式列表1103中,并且根据需要访问所述格式。
当文档1101在显示器101中显示时,响应于用户调用用户指定的格式列表1103,控制器103可控制显示器101在屏幕上部中显示用户指定的格式列表1103。用户指定的格式列表1103可包括用户经常使用的格式。响应于用户从用户指定的格式列表1103中选择用户选择的格式1103a并且通过使用触摸笔201执行手写,控制器103可应用用户选择的格式1103a。可替代地,响应于用户从文档1101中选择特定的区域,控制器可应用用户选择的格式1103a。
图12A至图12C是用于描述根据本公开实施方式基于屏幕的放大率放大触摸笔201的格式菜单的实施方式的视图。
参照图12A至图12C,图12A示出文档1201、手写图像1203、格式列表1205和触摸笔201。显示器101以原始的放大率显示文档1201。控制器103可基于在显示器101中显示的文档1201的放大率,确定格式列表1205的显示放大率。响应于文档1201以原始的尺寸在显示器101中显示,控制器103可控制显示器101以原始的尺寸显示格式列表1205。在这种情况下,手写图像1203也可以原始的尺寸显示。
图12B示出文档1211、手写图像1213、格式列表1215和触摸笔201。显示器101可通过原始放大率的200%放大并显示文档1211。控制器103可基于在显示器101中显示的文档1211的放大率,确定格式列表1215的显示放大率。响应于文档1211以原始放大率的200%在显示器101中显示,控制器103可控制显示器101通过原始放大率的200%放大并显示格式列表1215。手写图像1203也可以通过原始放大率的200%放大并显示。
图12C示出文档1221、手写图像1223、格式列表1225和触摸笔201。显示器101可通过原始放大率的50%缩小并显示文档1221。控制器103可基于在显示器101中显示的文档1221的放大率,确定格式列表1225的显示放大率。响应于文档1221以原始放大率的50%在显示器101中显示,控制器103可控制显示器101通过原始放大率的50%缩小并显示格式列表1225。手写图像1223也可以原始放大率的50%缩小并显示。
换言之,当内容在显示器101中显示时,响应于触摸笔201的显示格式的用户输入被接收,控制器103可确定在显示器101中显示的内容的放大率,并且基于所确定的放大率控制显示器101显示触摸笔201的格式。
图13A至图13C是用于描述根据本公开实施方式通过使用触摸笔201转换手写输入模式和手势输入模式的方法的视图。
参照图13A至图13C,在手写输入模式中,触摸笔201的输入可识别为手写图像。在手势输入模式中,触摸笔201的输入可识别为执行特定功能的命令。例如,在手写输入模式中,响应于用户通过使用触摸笔201将手写稿输入到显示器101中,控制器103可将所输入的手写稿识别为手写图像,并且将所输入的手写稿转换为相应文本。在手势输入模式中,响应于用户通过使用触摸笔201在显示器101中绘制三角形,控制器103可回放音乐。当音乐被回放时,响应于用户通过使用触摸笔201在显示器101中绘制正方形,控制器103可停止回放。
图13A示出显示器101的第一区域1301和第二区域1303。响应于基于触摸笔201的接触的信号在显示器101中被接收,控制器103可基于电子装置100的方向,将显示器101划分为第一区域1301和第二区域1303。换言之,响应于触摸笔201的触摸信息在显示器101中被接收,控制器103可基于电子装置100的方向将显示器101划分为第一区域1301和第二区域1303。
控制器103可基于电子装置100的方向确定第一区域1301和第二区域1303。控制器103可将显示器101的上部区域确定为第二区域1303。在第一区域1301中,控制器103可接收基于触摸笔201的接触的信号,并且可基于手指的触摸不接收或忽视信号。在第二区域1303中,控制器103可接收基于手指的触摸的信号。
图13B示出第一区域1301、第二区域1303和触摸笔201。响应于基于用户输入的信号没有在第二区域1303中被接收,控制器103可将第一区域1301设定为第一模式。第一模式可以是手写输入模式。响应于基于触摸笔201的输入的信号在第一区域1301中被接收,控制器103可基于所接收的信号,控制显示器101显示手写图像。
响应于基于用户输入的信号在第二区域1303中被接收,控制器103可将第一区域1301设定为第二模式。第二模式可以是手势输入模式。响应于基于触摸笔201的输入的信号在第二区域1303中被接收,控制器103可基于所接收的信号确定手势,并且控制执行与所确定的手势对应的命令或功能。
图13C示出第一区域1301、第二区域1305和触摸笔201。控制器103可通过考虑电子装置100的方向,确定第一区域1301和第二区域1305。第二区域1305的位置可根据电子装置100的方向是水平方向还是垂直方向而改变。响应于基于触摸笔201的输入的信号在显示器101中被接收,控制器103可基于电子装置100的方向确定第一区域1301和第二区域1305。控制器103可禁用手指在第一区域1301中的触摸输入,并且激活手指在第二区域1305中的触摸输入。
图14是用于描述根据本公开实施方式基于触摸笔201的输入改变在显示器101中显示的图形对象的显示方向的方法的流程图。
参照图14,在操作S1401处,电子装置100在显示器101中显示图形对象。在这种情况下,图形对象可在图形对象显示层中显示。图形对象显示层可显示用于运行内容应用等的字符、图标和按钮。
在操作S1403处,电子装置100可感测触摸笔201在显示器101中的输入。显示器101可显示图形对象显示层和手写输入层。电子装置100可基于触摸笔201的输入,在手写输入层中显示手写图像。当图形对象在显示器101中显示时,响应于用户通过使用触摸笔201将手写稿输入到显示器101中,电子装置100可在手写输入层中显示手写图像。
在操作S1405处,电子装置100可基于触摸笔201的输入改变在显示器101中显示的图形对象的显示方向。响应于用户通过使用触摸笔201将手写稿输入到显示器101中,电子装置100可从传感器105接收基于触摸笔201的接触的信号。电子装置100可通过处理所接收的信号,确定触摸笔201和显示器101之间的角度和方向。换言之,电子装置100可确定触摸笔201的倾斜角度和方向。触摸笔201的倾斜角度和方向可以是触摸笔201的倾斜信息。电子装置100可通过使用触摸笔201的倾斜信息确定触摸笔201的手写输入的方向,并且可基于手写输入的方向确定图形对象的显示方向。
触摸笔201可自主地输出状态信息,诸如触摸笔201的倾斜信息。电子装置100可接收触摸笔201输出的信号,并且基于所接收的信号确定触摸笔201的倾斜信息。
电子装置100可基于触摸笔201的倾斜信息确定触摸笔201的倾斜方向,并且可基于触摸笔201的倾斜方向确定图形对象的显示方向。
电子装置100可旋转图形对象的显示方向,使得触摸笔201的倾斜方向和图形对象的显示方向变成彼此相反。
电子装置100可基于触摸笔201的输入,在第二层中显示手写图像。此外,电子装置100可在第一层中显示图形对象,并且在第二层中显示基于触摸笔201的输入所显示的手写图像。
电子装置100可使第二层固定,并且基于触摸笔201的倾斜方向旋转或固定第一层的显示方向。
在显示器101中显示的屏幕可包括第一层和第二层。第一层可以是图形对象显示层,第二层可以是触摸笔输入层。电子装置100可在第一层中显示图形对象,并且可通过第二层接收基于触摸笔201的输入的信号。电子装置100可基于触摸笔201的输入,在第二层中显示手写图像。此外,电子装置100可基于触摸笔201的输入,改变在第一层中显示的图形对象的显示方向。
电子装置100可基于触摸笔201的输入确定触摸笔201的倾斜方向,并且基于触摸笔201的倾斜方向改变在第一层中显示的图形对象的显示方向。
电子装置100可:即使图形对象的显示方向改变,也使第二层的方向固定。
根据各实施方式,装置可包括:处理器;用于存储和运行程序数据的存储器;永久性存储装置,例如磁盘驱动;用于与外部装置通信的通信端口;以及用户接口装置,例如触摸面板、按键、按钮等。实现为软件模块或算法的方法可以以能够在处理器中运行的在计算机可读代码或程序命令的形式存储在计算机可读记录介质中。在这种情况下,计算机可读记录介质可包括磁性存储介质(例如,只读存储器(ROM)、随机存取存储器(RAM)、软盘、硬盘等)和光学读取器(例如,光盘只读存储器(CD-ROM)、数字化视频光盘(DVD)等)。计算机可读记录介质可储存和执行代码,所述代码分布于通过网络互相连接的计算机系统并且可以以分布的方式被计算机读取。所述介质可被计算机读取、可存储在存储器中并且可在处理器中执行。
本实施方式可通过功能模块和各种处理操作来表达。功能模块可实现为用于执行特定功能的各种数量的硬件和/或软件元件。例如,各实施方式可使用集成电路,诸如存储器、处理逻辑、查找表等。集成电路可根据一个或多个微处理器或其他控制设备的控制执行不同的功能。因为元件可执行为软件编程或软件元件,所以本实施方式可包括通过数据结构、进程、全程或其他编程元件的组合来实现的不同算法,并且可实现为编程语言或脚本语言,诸如C、C++、Java、汇编程序等。功能性方面可实现为在一个或多个处理器中执行的算法。此外,本实施方式可使用针对电子配置、信号处理和/或数据处理的相关技术。术语“机构”、“元件”、“装置”和“组件”可广义地解释,而不限于机械的和物理的组件。结合处理器等,所述术语可包括软件(例程)的一系列处理操作的含义。
本实施方式中描述的特定性能仅仅是示例,而不在任何方面限制本公开的技术范围。为了说明书的简明,可能省略关于相关领域中的电子组件、控制系统、软件和系统的其他功能方面的描述。此外,在附图中所示的各元件之间连接线及它们的连接构件用于举例说明功能性连接和/或物理或电路连接。在实际装置中,所述连接或连接构件可通过多种可替换的或附加的功能连接、物理连接或电路连接来表示。
在本公开中(特别是在权利要求中),术语“该”或“所述”和其他相似的参考术语既可适用于单数形式又可适用于复数形式。说明书中的范围包括属于该范围的各个值(除非另有限定),因此,将理解,具体描述中公开了该范围中的各个值。除非方法的操作的顺序被明确地指定或者存在任意相反的描述,否则方法的操作可以适当的顺序执行,而不限于本文所描述的操作的顺序。在本公开中,示例或示例性术语(例如,“等”)用于具体地描述技术构思,因此,除非权利要求限定技术范围,否则本公开的技术范围不受所述示例或示例性术语的限制。此外,本领域技术人员应理解,本公开可符合应用了各种修改、组合和改变的权利要求范围及其等同范围内的设计条件和要素。
虽然本公开已经参照它的各实施方式被示出和描述,但是本领域技术人员应理解,在不脱离本公开如所附权利要求及其等同限定的精神和范围的情况下,可在形式和细节方面进行各种改变。

Claims (15)

1.一种电子装置,包括:
通信器,配置为从触摸笔接收信号;
显示器,配置为显示图形对象;
传感器,配置为感测所述触摸笔的输入并且输出与所述触摸笔的输入对应的信号;以及
控制器,配置为:
响应于接收到从所述传感器输出的信号,控制所述显示器在显示所述图形对象的同时显示与所述触摸笔的输入对应的手写图像,
确定在所述显示器中显示的图形对象的显示方向,
基于所述传感器输出的信号,确定所述手写图像的显示方向,
基于确定的所述图形对象的显示方向与确定的所述手写图像的显示方向不一致,改变所述图形对象的显示方向,以及
控制所述显示器基于改变后的所述图形对象的显示方向显示旋转的所述图形对象,并保持所确定的所述手写图像的显示方向。
2.如权利要求1所述的电子装置,其中所述控制器基于所述传感器输出的信号确定所述触摸笔的倾斜信息。
3.如权利要求1所述的电子装置,其中所述控制器通过所述通信器接收所述触摸笔输出的信号,并且基于所述触摸笔输出的信号确定所述触摸笔的倾斜信息。
4.如权利要求1所述的电子装置,其中,所述控制器基于所述触摸笔的倾斜信息确定所述触摸笔的倾斜方向;并且基于所述触摸笔的倾斜方向改变所述图形对象的显示方向。
5.如权利要求4所述的电子装置,其中,所述控制器控制所述显示器改变所述图形对象的显示方向,以使得所述触摸笔的倾斜方向和所述图形对象的显示方向变成彼此相反。
6.如权利要求5所述的电子装置,其中,所述控制器控制所述显示器在第一层中显示所述图形对象,并且在第二层中显示基于所述触摸笔的输入所显示的手写图像。
7.如权利要求6所述的电子装置,其中,所述控制器控制所述显示器使所述第二层固定,并且基于所述触摸笔的倾斜方向改变所述第一层中的图形对象的显示方向。
8.一种电子装置,包括:
传感器,配置为感测触摸笔的输入,并且输出与所述触摸笔的输入对应的信号;
显示器,配置为包括第一层和第二层,在所述第一层中显示图形对象,并且在所述第二层中显示基于所述触摸笔的输入所显示的手写图像;以及
控制器,配置为:
确定在所述显示器中显示的所述图形对象的显示方向,
基于所述传感器输出的信号,确定所述手写图像的显示方向,
基于确定的所述图形对象的显示方向与确定的所述手写图像的显示方向不一致,改变所述图形对象的显示方向;以及
控制所述显示器基于改变后的所述图形对象的显示方向旋转地显示在所述第一层中显示的图形对象,并保持在所述第二层中显示的所确定的所述手写图像的显示方向。
9.如权利要求8所述的电子装置,其中,所述控制器基于所述传感器输出的信号,确定所述触摸笔的倾斜方向;并且根据所述触摸笔的倾斜方向,控制所述显示器改变在所述第一层中显示的图形对象的显示方向。
10.如权利要求9所述的电子装置,其中,所述控制器控制所述显示器:即使所述第一层的方向改变,也保持所述第二层的方向不改变。
11.用于显示电子装置的图形对象的方法,所述方法包括:
感测触摸笔的输入;
在显示器中显示图形对象和对应于所述触摸笔的输入的手写图像;
确定所述显示器中显示的所述图形对象的显示方向;
基于从传感器输出的信号确定所述手写图像的显示方向;
基于确定的所述图形对象的显示方向与确定的所述手写图像的显示方向不一致,改变所述图形对象的显示方向;以及
基于改变后的所述图形对象的显示方向显示旋转的所述图形对象,并保持所确定的所述手写图像的显示方向。
12.如权利要求11所述的方法,其中,改变所述图形对象的显示方向包括:基于从传感器输出的信号,确定所述触摸笔的倾斜信息。
13.如权利要求11所述的方法,所述方法还包括:接收所述触摸笔输出的信号,其中基于从所述触摸笔输出的信号来确定所述触摸笔的倾斜信息。
14.如权利要求11所述的方法,其中改变所述图形对象的显示方向包括:基于所述触摸笔的倾斜信息,确定所述触摸笔的倾斜方向;以及基于所述触摸笔的倾斜方向,改变所述图形对象的显示方向。
15.如权利要求14所述的方法,其中改变所述图形对象的显示方向包括:改变所述图形对象的显示方向,使得所述触摸笔的倾斜方向和图形对象的显示方向变成彼此相反。
CN201580065515.2A 2014-11-28 2015-11-18 电子装置及显示它的图形对象的方法 Active CN107003807B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140168323A KR102411868B1 (ko) 2014-11-28 2014-11-28 전자장치 및 그래픽 오브젝트 표시 방법
KR10-2014-0168323 2014-11-28
PCT/KR2015/012374 WO2016085186A1 (en) 2014-11-28 2015-11-18 Electronic apparatus and method for displaying graphical object thereof

Publications (2)

Publication Number Publication Date
CN107003807A CN107003807A (zh) 2017-08-01
CN107003807B true CN107003807B (zh) 2021-06-04

Family

ID=56074658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580065515.2A Active CN107003807B (zh) 2014-11-28 2015-11-18 电子装置及显示它的图形对象的方法

Country Status (5)

Country Link
US (1) US10146341B2 (zh)
EP (1) EP3224703B1 (zh)
KR (1) KR102411868B1 (zh)
CN (1) CN107003807B (zh)
WO (1) WO2016085186A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10191460B2 (en) * 2014-06-19 2019-01-29 Makino Milling Machine Co., Ltd. Control device for machine tool
JP6557300B2 (ja) * 2017-08-15 2019-08-07 ファナック株式会社 タッチパネルの検査装置、及びタッチパネルの検査方法
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
CN109614178A (zh) * 2018-09-04 2019-04-12 广州视源电子科技股份有限公司 批注显示方法、装置、设备和存储介质
KR20220086896A (ko) 2020-12-17 2022-06-24 삼성전자주식회사 필기 입력을 처리하는 전자 장치 및 그 작동 방법
US11797173B2 (en) * 2020-12-28 2023-10-24 Microsoft Technology Licensing, Llc System and method of providing digital ink optimized user interface elements
JP2023044182A (ja) * 2021-09-17 2023-03-30 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250090A (ja) * 1992-03-05 1993-09-28 Matsushita Electric Ind Co Ltd ペン入力装置
CN102402360A (zh) * 2011-11-23 2012-04-04 段西京 手写显示屏、手写输入笔及手写输入方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237836A (ja) 2008-03-27 2009-10-15 Sanyo Electric Co Ltd 手書き入力パネルを備えた車載用電子装置
KR20100012701A (ko) * 2008-07-29 2010-02-08 엘지전자 주식회사 펜 타입 휴대용 입력 장치 및 그 궤적 보정 방법
EP2580645B1 (en) 2010-06-11 2019-11-27 Microsoft Technology Licensing, LLC Object orientation detection with a digitizer
KR101155349B1 (ko) 2011-02-11 2012-06-15 주식회사바이제로 필기이미지입력장치
US8638320B2 (en) 2011-06-22 2014-01-28 Apple Inc. Stylus orientation detection
US20140022218A1 (en) 2012-07-20 2014-01-23 Research In Motion Limited Orientation sensing stylus
KR20140014551A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 클라우드 서비스 기반의 메모 기능 제공 방법 및 시스템과 이를 지원하는 단말기
KR101997450B1 (ko) * 2013-02-04 2019-07-08 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법
US9075464B2 (en) * 2013-01-30 2015-07-07 Blackberry Limited Stylus based object modification on a touch-sensitive display
JP2014241005A (ja) * 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム
JP2015043159A (ja) * 2013-08-26 2015-03-05 シャープ株式会社 タッチパネル装置及び表示装置
US9400570B2 (en) * 2014-11-14 2016-07-26 Apple Inc. Stylus with inertial sensor
JP5939594B2 (ja) * 2014-11-25 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像の拡大又は縮小を行う装置並びに方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250090A (ja) * 1992-03-05 1993-09-28 Matsushita Electric Ind Co Ltd ペン入力装置
CN102402360A (zh) * 2011-11-23 2012-04-04 段西京 手写显示屏、手写输入笔及手写输入方法

Also Published As

Publication number Publication date
US10146341B2 (en) 2018-12-04
US20160154474A1 (en) 2016-06-02
CN107003807A (zh) 2017-08-01
WO2016085186A1 (en) 2016-06-02
EP3224703B1 (en) 2022-01-05
KR102411868B1 (ko) 2022-06-23
KR20160064560A (ko) 2016-06-08
EP3224703A1 (en) 2017-10-04
EP3224703A4 (en) 2017-10-04

Similar Documents

Publication Publication Date Title
CN107003807B (zh) 电子装置及显示它的图形对象的方法
US10222894B1 (en) System, method, and computer program product for a multi-pressure selection touch screen
US10698564B2 (en) User terminal device and displaying method thereof
CN105164714B (zh) 用户终端装置及其控制方法
US9411484B2 (en) Mobile device with memo function and method for controlling the device
US20150227173A1 (en) Electronic device and index display method thereof
KR102304178B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US9626096B2 (en) Electronic device and display method
US20120098772A1 (en) Method and apparatus for recognizing a gesture in a display
US10466862B2 (en) Input device, electronic apparatus for receiving signal from input device and controlling method thereof
JP6439266B2 (ja) タッチスクリーンを有する電子装置におけるテキスト入力方法及び装置
US10572148B2 (en) Electronic device for displaying keypad and keypad displaying method thereof
US20140123036A1 (en) Touch screen display process
US20150106706A1 (en) Electronic device and method for controlling object display
EP2965181B1 (en) Enhanced canvas environments
JP2015050755A (ja) 情報処理装置、制御方法、及びプログラム
US20160132478A1 (en) Method of displaying memo and device therefor
WO2016079994A1 (en) System and method for toggle interface
US20220397993A1 (en) Selecting a desired item from a set of items
KR20130074778A (ko) 정전식 터치스크린을 이용하는 스마트폰 및 스마트 기기의 키보드 확대 장치 및 입력 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant