CN106292859B - 电子装置及其操作方法 - Google Patents

电子装置及其操作方法 Download PDF

Info

Publication number
CN106292859B
CN106292859B CN201510300645.1A CN201510300645A CN106292859B CN 106292859 B CN106292859 B CN 106292859B CN 201510300645 A CN201510300645 A CN 201510300645A CN 106292859 B CN106292859 B CN 106292859B
Authority
CN
China
Prior art keywords
touch
display
area
trackpad
pedestal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510300645.1A
Other languages
English (en)
Other versions
CN106292859A (zh
Inventor
游凤怡
翁嘉信
蔡欣蓓
李季鸿
陈冠妤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Compal Electronics Inc
Original Assignee
Compal Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Compal Electronics Inc filed Critical Compal Electronics Inc
Publication of CN106292859A publication Critical patent/CN106292859A/zh
Application granted granted Critical
Publication of CN106292859B publication Critical patent/CN106292859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种电子装置及其操作方法。电子装置包括:显示单元、底座、触控板、以及处理单元。底座耦接于显示单元。触控板配置于底座。触控板具有多个触控区域,并且接收使用者在任一触控区域上所执行的触碰动作。处理单元耦接至触控板。处理单元依据各触控区域的位置,将显示单元的画面定义为多个显示区域,使得各触控区域在显示单元的对应位置中具有对应的显示区域。在触控板接收到第一触碰事件之后,处理单元获得第一触碰事件所在的第一触控区域,并且处理单元在第一触控区域对应的第一显示区域中显示第一使用者界面。

Description

电子装置及其操作方法
技术领域
本发明是有关于一种电子装置及其操作方法,且特别是有关于一种使用触控技术的电子装置及其操作方法。
背景技术
近年来,随着科技产业日益发达,电子装置例如笔记型计算机(NotebookComputer,NB)、平板计算机(Tablet Computer)与智能型手机(Smart Phone)等产品已频繁地出现在日常生活中。此外,为了提高电子装置的便利性与实用性,许多电子装置已由传统的键盘或鼠标等输入装置,转变为搭配使用触控模块(touch module)作为输入装置。并且,触碰面板的使用也愈加普及,如何整合触碰面板以及触控模块两者间的使用经验,以使电子装置的操作更为便利,成为本领域技术人员思索的课题。
发明内容
本发明提供一种电子装置及其操作方法,使用者得以通过多个触控区域控制对应的显示区域中的不同使用者界面,以得到一致的使用者经验。
本发明的一种电子装置,包括:显示单元、底座、触控板、以及处理单元。底座耦接于显示单元。触控板配置于底座,且触控板自底座的第一侧边延伸至第二侧边之间。触控板具有多个触控区域,并且接收使用者在任一上述触控区域上所执行的触碰动作。处理单元耦接至触控板。处理单元依据各触控区域位于底座的第一侧边至第二侧边之间的长边方向的位置,将显示单元的画面定义为多个显示区域,使得各触控区域在显示单元的对应位置中具有对应的显示区域。在触控板接收到第一触碰事件之后,处理单元获得第一触碰事件所在的上述触控区域中的第一触控区域,并且处理单元在第一触控区域对应的上述显示区域中的第一显示区域中显示第一使用者界面。
本发明的一种电子装置的操作方法,其中电子装置具有显示单元、底座以及触控板。电子装置的操作方法包括:通过触控板接收使用者所执行的触碰动作;其中触控板配置于底座并具有多个触控区域,触控板自底座的第一侧边延伸至第二侧边之间。依据各触控区域位于底座的第一侧边至第二侧边之间的长边方向的位置,将显示单元的画面定义为多个显示区域,使得各触控区域在显示单元的对应位置中具有对应的显示区域。以及,在触控板接收到第一触碰事件之后,获得第一触碰事件所在的上述触控区域中的第一触控区域,并且在第一触控区域对应的上述显示区域中的第一显示区域中显示第一使用者界面。
基于上述,本发明的电子装置可以将触控板分为多个触控区域,每个触控区域各自对应显示单元中的显示区域,每个显示区域各自显示使用者界面,通过操作触控区域来控制对应的使用者界面功能,藉此获得一致的使用者经验。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
附图说明
图1是依照本发明第一实施例所绘示的电子装置的方块图;
图2是依照本发明第一实施例所绘示的电子装置的示意图;
图3A及图3B是依照本发明第一实施例所绘示的电子装置的触控区域的示意图;
图4是依照本发明第一实施例所绘示的显示区域与触控区域之间对应关系的示意图;
图5是依照本发明第一实施例所绘示的电子装置的操作方法的流程图;
图6是依照本发明第二实施例所绘示的电子装置的操作方法的示意图;
图7是依照本发明第三实施例所绘示的电子装置的操作方法的示意图;
图8A及图8B是依照本发明第四实施例所绘示的电子装置的操作方法的示意图;
图9是依照本发明第五实施例所绘示的电子装置的方块图;
图10是依照本发明第五实施例的电子装置的外观示意图;
图11A-图11C是依照本发明第五实施例的感测组件配置位置的示意图;
图12A-图12C是依照本发明第五实施例的对应于感测组件配置位置的显示区域的示意图。
图13A-图13F是依照本发明第五实施例的电子装置的操作方法的示意图。
符号说明
10、100:电子装置 11:感测组件
110:显示单元 115、B:底座
120:触控板 130:处理单元
140:键盘 205、A:上盖
215_1、215_2:侧边 215_L:长边
240:键盘 245:空格键
305:线路
310、320、330、422、424、426、622、624、624_1-624_6、722、724、726、726_1-726_5、822、824:触控区域
414、416、614、714、716、814:显示区域
650:多媒体功能接口 651-656:操作功能
760:手写功能接口 761-765:手写功能
870:多媒体播放器 824a:作动范围
872a:时间轴 F301:上边框
F302:下边框 F303:左边框
F304:右边框 F311:第一区域
F312:第二区域 F313:第三区域
D401:显示画面的上方边缘区域 D402:显示画面的下方边缘区域
D403:显示画面靠左侧的区域 D404:显示画面靠右侧的区域
T:目标物
S501-S507:电子装置的操作方法各步骤
具体实施方式
第一实施例
图1是依照本发明第一实施例所绘示的电子装置的方块图。请参照图1,电子装置100包括显示单元110、底座115、触控板120以及处理单元130。电子装置100可以为笔记型计算机(Notebook Computer,NB)、或平板计算机(Tablet Computer)与底座的组合。
显示单元110可以为液晶显示模块(liquid crystal display module,LCM),或者为有机发光二极管显示模块(organic light emitting diode display module,OLEDdisplay module),但并不限制于此。底座115耦接于显示单元110。
触控板120配置在底座115上用以作为电子装置100的输入接口(inputinterface)。触控板120例如是电阻式触控版、电容式触控版、感压式触控版、光学触控、超音波触控,或由其它种类的感测组件所构成。进一步来说,触控板120可支援多点触控。
处理单元130耦接至触控板120,用以判断来自触控板120的触控信号,并且根据触控信号来控制对应于显示单元110的显示画面。一般而言,触控信号可以是使用者的触碰动作,例如单击触碰、双击触碰、长按触碰、特定位置的触碰、或是特定的手势轨迹对触控板120的任意触控区域产生的触碰动作。
图2是依照本发明第一实施例所绘示的电子装置的示意图。在本实施例中,电子装置100例如为笔记型计算机,其更包括上盖205以及键盘240。在本实施例中,电子装置100的上盖205耦接于底座115。显示单元110配置于上盖205,且触控板120以及键盘240配置于底座115。
触控板120为大面积的触控装置。触控板120可以设置在自底座115的侧边215_1(第一侧边)延伸至侧边215_2(第二侧边)之间。触控板120为完整的触控装置,可以被划分为多个触控区域,并且触控板120可以接收使用者在任何一个触控区域上所执行的触碰动作。触控板120包括一环状线路,此环状线路环绕这些触控区域。值得一提的是,触控区域可以初始地在触控板120中以韧体规划的方式划分,也可以通过软件方式划分触控区域,并通过触控板120回报的触控点坐标来判断触控动作所发生的触控区域。
在此,处理单元130配置于底座115内部(以虚线表示)并且处理单元130耦接至触控板120与键盘240。在另一实施例中,处理单元130可以配置于上盖205内,且可以接收触控板120传送的触控信号,在此不限制处理单元130被配置的位置。处理单元130可以依据各触控区域位于底座115的第一侧边215_1至第二侧边215_2之间的长边方向的位置,将显示单元110的画面定义为多个显示区域,使得各触控区域在显示单元110的对应位置中具有对应的显示区域。上述第一侧边215_1至第二侧边215_2之间的长边方向也就是与底座115的长边215_L平行的方向。
键盘240具有空格键245。在一实施例中,触控板120可以设置在自底座115的第一侧边215_1延伸至第二侧边215_2之间,并且触控板120的长度大于空格键245的长度。
以下举一实施例说明触控区域的划分。
图3A及图3B是依照本发明第一实施例所绘示的电子装置的触控区域的示意图。在图3A中,触控板120可以被划分为两个触控区域310与触控区域320,并且在触控板120的基板上,通过环状线路305环绕触控区域310与触控区域320。
在图3B中,触控板120可以被划分为三个触控区域310、触控区域320与触控区域330,并且在触控板120的基板上,通过环状线路305环绕触控区域310、触控区域320与触控区域330。上述仅为举例说明,在此并不限制触控区域的数量、尺寸及形状。
以下举一实施例说明将显示单元110的画面定义为多个显示区域,使得各触控区域在显示单元110的对应位置中具有对应的显示区域。
图4是依照本发明第一实施例所绘示的显示区域与触控区域之间对应关系的示意图。请参照图4,电子装置100的触控板120被划分为三个触控区域422、触控区域424以及触控区域426。在本实施例中,位于触控板120中央的触控区域422用以控制显示单元110的完整显示范围。
处理单元130可以依据各触控区域位于底座115的第一侧边215_1至第二侧边215_2之间的长边方向的位置,在显示单元110的画面定义显示区域。详细来说,处理单元130可以依据触控区域424位于底座115的长边方向的位置,在显示单元110的画面定义显示区域414,使得触控区域424在显示单元110的对应位置中具有对应的显示区域414。并且处理单元130可以依据触控区域426位于底座115的长边方向的位置,在显示单元110的画面定义显示区域416,使得触控区域426在显示单元110的对应位置中具有对应的显示区域416。
具体来说,触控区域与其对应的显示区域两者于底座115的长边方向的长度为等比例或相同,且各触控区域互不重叠。例如,触控区域424与显示区域414两者在底座115的长边方向的长度为相同或等比例。此外,各触控区域的坐标映像至其对应的显示区域的坐标。例如,触控区域424的坐标映像至显示区域414的坐标,以及触控区域426的坐标映像至显示区域416的坐标。
特别说明的是,电子装置100的多区域触控功能是通过特定方式来致能。所述多区域触控功能指的是将触控板120划分为多个触控区域。而电子装置100的多区域触控功能初始设定为禁能状态,在处理单元130接收到第一触发信号之后,处理单元130才会致能多区域触控功能;并且,在多区域触控功能被致能的状态下接收到第二触发信号之后,处理单元130禁能多区域触控功能。
例如,由键盘240提供第一触发信号来致能多区域触控功能。第一触发信号例如是使用者按压键盘240上的实体按键所产生,或者为使用者按压键盘240上的特定组合按键所产生。当通过键盘240接收到第一触发信号时,处理单元130致能多区域触控功能。以图4为例,处理单元130依据一预设规则,将触控板120划分为触控区域422、424、426,并且依据触控区域422、426位于底座115第一侧边215_1至第二侧边215_2之间的长边方向的位置,在显示单元110的画面定义显示区域414、416,使得触控区域422、426分别在显示单元110的对应位置中具有对应的显示区域414、416。在多区域触控功能致能的状态下,通过键盘240接收到第二触发信号时,处理单元130禁能多区域触控功能。
上述第一触发信号例如是键盘240中的功能键F1,第二触发信号例如是键盘240中的功能键F2。或者,第一触发信号例如是键盘240中的组合功能键Fn+F1,第二触发信号例如是键盘240中的组合功能键Fn+F2。另外,上述第一触发信号与上述第二触发信号亦可设定为由相同的功能键(或组合功能键)来产生。例如,在多区域触控功能禁能的状态下,按压功能键F1所产生的信号为用以致能多区域触控功能的第一触发信号;而在多区域触控功能致能的状态下,按压功能键F1所产生的信号为用以禁能多区域触控功能的第二触发信号。
另外,多区域触控功能也可以通过应用程序的功能选项来致能或禁能。并且,在多区域触控功能被致能之前,以完整的触控板120的范围提供触碰功能,即,触控板120不划分区域。一般而言,在多区域触控功能被致能时,触控板120可以划分为多个触控区域,并且对应触控区域来定义显示区域。而在多区域触控功能被禁能时,所有被禁能的触控区域与其对应的显示区域之间的对应关系会被取消。此外,在多区域触控功能被致能时,可以显示所有触控区域可控制的使用者界面。
在另一实施例中,在多区域触控功能被致能时,所有触控区域控制的使用者界面并不会被显示,直到触控板120接收使用者在任一触控区域上执行特定的触碰动作,例如单击触碰、双击触碰、长按触碰、特定位置的触碰、或是特定的手势轨迹,或利用键盘240产生特定的触发信号,或利用应用程序的软件选项,来选择启用或唤醒触控区域以控制使用者界面时,使用者界面才会被显示在显示单元110中对应的显示区域。
具体来说,在触控板120接收使用者在任一上述触控区域上所执行的触碰动作(第一触碰事件)之后,处理单元130可以获得第一触碰事件所在的触控区域(第一触控区域),并且处理单元130可以在第一触控区域对应的显示区域(第一显示区域)中显示使用者界面(第一使用者界面)。并且,显示单元110在第一显示区域中显示第一使用者界面的情况下,处理单元130可以依据触控板120接收到使用者在第一触控区域中的触碰动作,来控制第一使用者界面所包括的功能的作动。在此,使用者界面可以是应用程序提供的功能接口以及功能选单,例如:手写功能接口、或多媒体接口选单。使用者接口也可以是运行于电子装置100的操作系统中的应用程序,例如:文书处理程序、或多媒体播放程序。
另外,使用者也可以关闭或暂停触控区域以停止或暂停控制使用者界面。例如在触控板120接收使用者在任一触控区域上执行不同于第一触碰事件的触碰动作,或利用键盘240产生特定的触发信号,或利用应用程序的软件选项,或等待预设时间之后,触控区域将被关闭或暂停,并且使用者界面以及对应的显示区域会消失在显示单元110中。
此外,使用者也可以通过在任一触控区域上执行特定的触碰动作,或利用键盘240产生特定的触发信号,或利用应用程序的软件选项,对触控区域进行切换来选择将显示区域显示在显示单元110的画面中的最上层以取得控制,或令显示区域消失在显示单元110中。
图5是依照本发明第一实施例所绘示的电子装置的操作方法的流程图。请参照图4与图5。首先,在步骤S501中,处理单元130通过触控板120接收使用者所执行的触碰动作。触碰动作例如是单击触碰、双击触碰、长按触碰、特定位置的触碰、或是特定的手势轨迹对触控板120的任意触控区域产生触碰动作(第一触碰事件)。
在步骤S503中,处理单元130可以根据触控区域的位置在显示单元110的画面定义多个显示区域,并使得各触控区域在显示单元110的对应位置中具有对应的显示区域。例如,以图4而言,处理单元130根据触控区域424定义显示区域414,且触控区域424对应显示区域414。并且,处理单元130根据触控区域426定义显示区域416,且触控区域426对应显示区域416。在图4中,位于触控板120中央的触控区域422用以控制显示单元110的完整显示范围。而在其它实施例中,处理单元130亦可依据触控区域422的位置而在位于显示区域414、416之间定义对应的显示区域。值得说明的是,步骤S501与步骤S503的顺序可以调换。
在步骤S505中,在触控板120接收到第一次触碰事件之后,处理单元130获得第一触碰事件所在的第一触控区域。一般而言,触控板120可以根据触碰事件发生的位置判断触碰事件所在的触碰区域,并将结果传送给处理单元130。此外,触控板120也可以传送触碰事件的位置例如坐标值给处理单元130,由处理单元130判断第一触碰事件发生的第一触碰区域。
最后,在步骤S507中,处理单元130在第一触控区域对应的第一显示区域显示第一使用者界面。在此,以第一触碰区域为触控区域424为例进行说明。处理单元130会在触控区域424对应的显示区域414中显示一使用者界面。
在此,触控区域424所控制的使用者界面可以由使用者或者电子装置100的供货商预先设定为多媒体功能播放接口或手写功能接口。另外,触控区域424所控制的使用者界面也可以预先定义为绘图软件中特定工具的功能接口。并且,触控区域424所控制的使用者界面也可以通过应用程序的让使用者自行设定。例如,以清单方式让使用者自行选择触控区域424可以控制的使用者界面,或触控区域424映像的使用者界面功能选项。而触控区域426亦以此类推。
具体来说,处理单元130可以依据触控板120接收到使用者在第一触控区域中的触碰动作来控制第一使用者界面的作动。以下举另一实施例来说明。
第二实施例
图6是依照本发明第二实施例所绘示的电子装置的操作方法的示意图。请参考图6,电子装置100的触控板120划分为触控区域622与触控区域624。在本实施例中,触控区域624对应的使用者界面为多媒体功能接口650。多媒体功能接口650包括多个操作651-656。例如,操作功能651为倒退功能、操作功能652为播放功能、操作功能653为快进功能、操作功能654为减低音量功能、操作功能655为静音功能以及操作功能656为增大音量功能。
在本实施例中,假设使用者欲开启多媒体功能接口650以执行其播放功能。首先,在触控板120接收使用者在触控区域624上所执行的触碰动作(第一触碰事件)之后,处理单元130可以得知第一触碰事件发生在触控区域624。接着,处理单元130可以在显示单元110中定义对应触控区域624的显示区域614,并且在显示区域614中显示多媒体功能接口650。在本实施例中,触控区域624还可进一步被划分为触控区域624_1-624_6,使得触控区域624_1-624_6分别对应至操作功能651-656。
底下以操作功能652为例。当使用者在触控区域624_2执行触碰动作时,处理单元130可以获得触碰事件发生在触控区域624_2,并以此对应至操作功能652,进而执行多媒体的播放。其它操作功能651、653-656亦以此类推。如此一来,使用者可以直觉的操作使用者界面。
另外,在第一显示区域显示有第一使用者界面的状态下,若处理单元130所获得的触碰事件(第二触碰事件)所在的触控区域(第二触控区域)是不同于第一触控区域,则处理单元130可以在第二触控区域对应的显示区域(第二显示区域)中显示第二使用者界面。并且,第二使用者界面不同于第一使用者界面。
具体来说,当触控板120被划分为多个触控区域,每个区域各自控制不同使用者界面,并且使用者界面可以对应显示于显示单元110的显示区域中。此些使用者界面可以同时被显示,以提供使用者进行控制。以下举一实施例来说明。
第三实施例
图7是依照本发明第三实施例所绘示的电子装置的操作方法的示意图。请参考图7,电子装置100的触控板120划分为触控区域722、触控区域724与触控区域726。在本实施例中,触控区域722控制显示单元110的完整范围;触控区域724、726分别控制对应显示于显示区域714、716中的使用者界面。
在本实施例中,假设显示区域714中已经显示有一使用者界面,例如图6所示的多媒体功能接口650。而触控区域726用以控制一手写功能接口760,但手写功能接口760尚未显示于显示单元110中。具体来说,在显示区域714显示有使用者界面的状态下,若处理单元130所获得的触碰事件所在为触控区域726,由于触控区域726不同于显示区域714对应的触控区域724,因此,处理单元130可以在触控区域726对应的显示区域716中显示手写功能接口760。而在本实施例中,显示区域714与716两者对应的使用者界面可以同时显示在显示单元110中,例如,依据触发先后顺序来显示。
另外,显示区域714与716两者对应的使用者界面亦可依据触发的先后顺序来在显示其中一使用者界面,并隐藏另一使用者界面。例如,在显示区域714显示有使用者界面(例如为图6所示的多媒体功能接口650)的状态下,若处理单元130获得的触碰事件所在为触控区域726,由于触控区域726不同于显示区域714对应的触控区域724,因此,处理单元130在显示区域716中显示手写功能接口760后,隐藏显示区域714中显示的使用者界面。
在本实施例中,手写功能接口760包括操作功能761-765。而触控区域726依据手写功能接口760的操作功能761-765,进一步被划分为触控区域726_1-726_5,使得触控区域726_1-726_5分别对应至操作功能761-765。在此,操作功能761为候选字呈现功能、操作功能762为删除与取消功能、操作功能763为确认功能、操作功能764为输入法切换功能以及操作功能765为文字辨识功能。使用者在触控区域726_1-726_5所分别执行的触碰动作,处理单元130会对应去执行操作功能761-765其中之一。
另外,可以由使用者自行定义或由电子装置100的供货商来设定以不同的手势轨迹触碰各位置来控制功能项。
例如,在图6中,触控区域624控制多媒体功能接口650。使用者可以在触控区域624_1及624_3执行手势单击动作,来分别对应控制多媒体功能接口650的操作功能651、653。在触控区域624_5中执行手势双击动作来对应控制多媒体功能接口650的操作功能655。并且,在触控区域624_4及624_6中执行手势长按动作来分别对应控制多媒体功能接口650的操作功能654、656。
又例如,在图7中,触控区域726控制手写功能接口760。使用者可以在触控区域726_1中执行滑动手势动作来对应控制手写功能接口760的操作功能761。在触控区域726_2、726_3中,执行单击手势动作来分别对应控制手写功能接口760的操作功能762、763。在触控区域726_4中执行手势单击动作来对应控制手写功能接口760的操作功能764。并且,在触控区域726_5中执行一连续手写轨迹来对应控制手写功能接口760的操作功能765。如此一来,使用者可以直觉的操作使用者界面。
特别说明的是,上述实施例中是以视觉相对位置,让使用者得以直觉的操作使用者界面。此外,在触控区域中还可以利用富含意义的图像指针的印刷,或在触控区域中以不同颜色标示,或使用不同的材质、表面凹凸的差异提供触觉变化,让使用者得以容易地判别触控区域对应使用者界面中的功能位置。
此外,触控区域也可以映像使用者界面中的其中一项功能,并且触控区域可以随着映像对象的尺寸改变,调整其映像的范围与方式。具体来说,使用者界面可以是多媒体播放器,而触控区域中的作动范围可以对应操控多媒体播放器的时间轴。当多媒体播放器的尺寸被改变时,对应改变触控区域的作动范围。以下举一实施例来说明。
第四实施例
图8A及图8B是依照本发明第四实施例所绘示的电子装置的操作方法的示意图。请参考图8A,电子装置100的触控板120划分为触控区域822与824。触控区域822控制完整的显示单元110的范围。
触控区域824对应控制多媒体播放器870。在触控板120接收使用者在触控区域824上所执行的触碰动作(第一触碰事件)之后,处理单元130可以得知第一触碰事件发生在触控区域824,并在触控区域824对应的显示区域814中显示多媒体播放器870。并且触控区域824中的作动范围824a可以对应操控多媒体播放器870的时间轴872a。
请参考图8B,当多媒体播放器870的尺寸被改变时,也对应改变多媒体播放器870的时间轴872a。处理单元130可以对应改变触控区域824的作动范围824a,如图8A更改为图8B。如此一来,使用者可以更直觉的操作使用者界面。
另外,还可进一步在电子装置上设置多个感测组件,通过依据感测组件的设置位置来对应设置欲进行控制的显示区域,例如,左对左、上对下、下对上等,让使用者能够更直觉地来完成手势操作的动作。底下列举实施例来进行说明。
第五实施例
图9是依照本发明第五实施例所绘示的电子装置的方块图。请参照图9,电子装置10例如为笔记型计算机。电子装置10包括上盖A、底座B以及感测组件11。上盖A配置有显示单元110。底座B枢接于上盖A,且配置有处理单元130。而感测组件11配置在上盖A及底座B至少其中之一的侧边,用以感测触碰动作。并且,感测组件11耦接至处理单元130。例如,感测组件11可以只配置在上盖A或底座B,另外感测组件11也可以同时配置在上盖A及底座B。感测组件11例如是电阻式触控板、电容式触控板、感压式触控板、光学触控板、超音波触控板等。
处理单元130依据感测组件11所感测到的触碰动作,控制显示单元110上对应的显示区域,其中显示区域的位置对应于感测组件11配置在上盖A及底座B至少其中之一的位置。
举例来说,图10是依照本发明第五实施例的电子装置的外观示意图。电子装置10的上盖A枢接于底座B。显示单元110配置于上盖A。而底座B的内部配置有处理单元130,且在底座B的外部配置有触控板120以及键盘140。处理单元130耦接至触控板120与键盘140。触控板120为大面积的触控装置,且为完整的触控装置。使用者能够利用触控板120来执行复杂度较高的触碰动作。而利用感测组件11来执行较简单的触碰动作。
底下举例来说明感测组件11的配置位置。图11A-图11C是依照本发明第五实施例的感测组件配置位置的示意图。请参照图11A-图11C,上盖A设置有上边框F301、下边框F302、左边框303以及右边框304。上边框F301、下边框F302、左边框303以及右边框304分别配置在显示单元110的上、下、左、右四个方向。
而在底座B中之除了配置有键盘140与触控板120以外的区域中,划分有第一区域F311、第二区域F312以及第三区域F313。图11B所示的第一区域F311位于键盘140的上方。图11B所示的第二区域F312位于键盘140与触控板120的左方。图11B所示的第三区域F313位于键盘140与触控板120的右方。
而感测组件11可以视情况而配置在上盖A的上边框F301、下边框F302、左边框303、右边框304与下盖B的第一区域F311、第二区域F312以及第三区域F313至少其中之一或其组合者。藉此,通过感测组件11所感测到的触碰动作来控制显示单元110上对应的显示区域。
图12A-图12C是依照本发明一实施例的对应于感测组件配置位置的显示区域的示意图。请同时参照图11A-图11C以及图12A-图12C,底下搭配上述感测组件11可配置的区域来说明其对应控制的显示区域。
在感测组件11配置于上盖A上、且位于显示单元110的上边框F301的情况下,对应所控制的显示区域位于显示画面的上方边缘区域D401(如图12B所示)。在感测组件11配置于上盖A上、且位于显示单元110的下边框F302的情况下,对应所控制的显示区域位于显示画面的下方边缘区域D402(如图12B所示)。
在感测组件11配置于上盖A上、且位于显示单元110的左边框F303的情况下,对应所控制的显示区域位于显示画面靠左侧的区域D403(如图12A所示)。在感测组件11配置于上盖A上、且位于显示单元110的右边框F304的情况下,对应所控制的显示区域位于显示画面靠右侧的区域D404(如图12C所示)。
在感测组件11配置于底座B上、且位于键盘140上方的第一区域F311的情况下,对应所控制的显示区域位于显示画面的上方边缘区域D401或下方边缘区域D402(如图12B所示)。
在感测组件11配置于底座B上、且位于键盘140与触控板120左方的第二区域F312的情况下,对应所控制的显示区域位于显示画面靠左侧的区域D403(如图12A所示)。在感测组件11配置于底座B上、且位于键盘140及触控板120右方的第三区域F313的情况下,对应所控制的显示区域位于显示画面靠右侧的区域D404(如图12C所示)。
上述显示画面的上方边缘区域D401、下方边缘区域D402、显示画面靠左侧的区域D403及显示画面靠右侧的区域D404的尺寸可视情况而决定。例如,以应用程序所提供的使用者界面的配置来决定上述对应控制的显示区域大小。
另外,电子装置10还可进一步设定如下:处理单元130在接收到互动触发信号之后,基于感测组件11的配置位置来决定所控制的显示区域。例如,倘若感测组件11配置在图11A所示的位置,则在接收到互动触发信号之后,处理单元130决定其控制的显示区域如图12A所示的显示画面靠左侧的区域D403。倘若感测组件11配置在图11B所示的位置,则在接收到互动触发信号之后,处理单元130决定其控制的显示区域如图12B所示的上方边缘区域D401及下方边缘区域D402。倘若感测组件11配置在图11C所示的位置,则在接收到互动触发信号之后,处理单元130决定其控制的显示区域如图12C所示的显示画面靠右侧的区域D404。
此外,在侦测到触控动作为滑动手势的情况下,处理单元130基于滑动手势的移动方向,在对应的显示区域中对目标物执行移动动作。在此,目标物例如为醒目提示对应的选项、图标(icon)或图标等对象。另外,目标物亦可以为光标、卷动轴(scroll bar)等。而目标物的初始位置可以根据触控动作被感测到的初始位置来决定,亦可以设定目标物的初始位置在一固定位置,在此并不限制。
图13A-图13F是依照本发明一实施例的电子装置的操作方法的示意图。
在图13A中,感测组件11配置在如图11A所示的第二区域F312,其对应控制的显示区域如图12A所示的显示画面靠左侧的区域D403。使用者在第二区域F312上利用手势来执行垂直方向或水平方向的滑动手势,藉此来控制显示画面靠左侧的区域D403中之目标物T在垂直方向或水平方向的移动。在图13A中,目标物T代表目前所选取的选项。
在图13B中,感测组件11配置在如图11A所示的左边框303,其对应控制的显示区域如图12A所示的显示画面靠左侧的区域D403。使用者在左边框303上利用手势来执行垂直方向的滑动手势,藉此来控制显示画面靠左侧的区域D403中的目标物T在垂直方向上的移动。在图13B中,目标物T代表目前所选取的选项。
在图13C中,感测组件11配置在如图11B所示的第一区域F311,其对应控制的显示区域如图12B所示的显示画面的下方边缘区域D402。使用者在第一区域F311上利用手势来执行水平方向的滑动手势,藉此来控制显示画面的下方边缘区域D402中的目标物T在水平方向上的移动。在图13C中,目标物T代表目前所选取的快捷方式图示。
在图13D中,感测组件11配置在如图11B所示的第一区域F311,其对应控制的显示区域如图12B所示的显示画面的上方边缘区域D401。使用者在第一区域F311上利用手势来执行水平方向的滑动手势,藉此来控制显示画面的上方边缘区域D401中的目标物T在水平方向上的移动。在图13D中,目标物T代表目前所选取的标签页。
在图13E中,感测组件11配置在如图11C所示的右边框304,其对应控制的显示区域如图12C所示的显示画面靠右侧的区域D404。使用者在右边框304上利用手势来执行垂直方向的滑动手势,藉此来控制显示画面靠右侧的区域D404中的目标物T在垂直方向上的移动。在图13E中,目标物T代表目前所选取的选项。
在图13F中,感测组件11配置在如图11C所示的第三区域F313,其对应控制的显示区域如图12C所示的显示画面靠右侧的区域D404。使用者在第三区域F313上利用手势来执行垂直方向的滑动手势,藉此来控制显示画面靠右侧的区域D404中的目标物T在垂直方向上的移动。在图13F中,目标物T代表目前所选取的选项。
综上所述,上述实施例中,电子装置可以将触控板分为多个触控区域以控制不同的使用者界面,每个触控区域各自对应显示单元中的显示区域,每个显示区域各自显示对应的使用者界面,通过操作触控区域来控制对应的使用者界面功能,藉此获得一致的使用者经验。并且,上述电子装置还可以通过触控板与键盘以及软件选项方式控制触控区域的启用与关闭,使得在使用上更为弹性化。另外,上述电子装置可以根据使用者界面的尺寸的改变,对应调整触控区域中的作动范围,使得在使用上更为直觉。
此外,依据感测组件的设置位置来对应设置欲进行控制的显示区域,例如,左对左、上对下、下对上等,让使用者能够更直觉地来完成手势操作的动作。以应用在笔记型计算机等具有触控板的装置而言,本发明的感测组件具有限定操作特定显示区域的特性,相较于可全画面操作的触控板,能更快速、有效率且更容易地进行手势操作。以应用于平板计算机等以触控面板作为主要输入方式的装置而言,可减少对触控面板的依赖,避免触控面板表面的脏污。以应用于数字相框、电视、监视器等无触控板、键盘或触控显示面板的装置而言,提供一种无需外接输入装置的方式,可节省使用者的使用环境的空间,并可简化原本外框的设计。
虽然本发明已以实施例公开如上,然其并非用以限定本发明,任何所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视权利要求所界定者为准。

Claims (18)

1.一种电子装置,其特征在于,包括:
一显示单元;
一底座,耦接于该显示单元;
一触控板,配置于该底座,且该触控板自该底座的一第一侧边延伸至一第二侧边之间,其中该触控板具有多个触控区域,并且接收一使用者在任一上述触控区域上所执行的触碰动作;以及
一处理单元,耦接至该触控板,其中该处理单元依据每一该些触控区域位于该底座的该第一侧边至该第二侧边之间的一长边方向的位置,将该显示单元的画面定义为多个显示区域,使得每一该些触控区域在该显示单元的对应位置中具有对应的该些显示区域之一,
其中,在该触控板接收到一第一触碰事件之后,该处理单元获得该第一触碰事件所在的该些触控区域中的一第一触控区域,并且该处理单元在该第一触控区域对应的该些显示区域中的一第一显示区域中显示一第一使用者界面;
在该触控板接收到一第二触碰事件之后,若该处理单元所获得的该第二触碰事件所在的该些触控区域中的一第二触控区域不同于该第一触控区域,则该处理单元在该第二触控区域对应的该些显示区域中的一第二显示区域中显示一第二使用者界面。
2.如权利要求1所述的电子装置,其特征在于,其中在该第一显示区域中显示该第一使用者界面的情况下,该处理单元依据该触控板接收到该使用者在该第一触控区域中的触碰动作,来控制该第一使用者接口所包括的功能的作动。
3.如权利要求1所述的电子装置,其特征在于,其中该处理单元在该第二触控区域对应的该些显示区域中的该第二显示区域中显示该第二使用者界面时,隐藏该第一使用者界面。
4.如权利要求1所述的电子装置,其特征在于,其中每一该些触控区域与其对应的该些显示区域之一,两者于该底座的该长边方向的长度为等比例或相同,且每一该些触控区域互不重叠,
每一该些触控区域的坐标映像至其对应的该些显示区域之一的坐标。
5.如权利要求1所述的电子装置,其特征在于,更包括:
一键盘,配置于该底座,该键盘具有一空格键,其中该触控板自该底座的该第一侧边延伸至该第二侧边之间的长度大于该空格键的长度,
其中,该键盘提供一第一触发信号,当通过该键盘接收到该第一触发信号时,该处理单元致能一多区域触控功能,以将该触控板划分为该些触控区域,并且依据每一该些触控区域位于该底座的该第一侧边至该第二侧边之间的该长边方向的位置,将该显示单元的画面定义为该些显示区域,使得每一该些触控区域在该显示单元的对应位置中具有对应的该些显示区域之一,
其中,该键盘提供一第二触发信号,当通过该键盘接收到该第二触发信号时,该处理单元禁能该多区域触控功能。
6.如权利要求1所述的电子装置,其特征在于,其中该第一使用者界面为一多媒体播放器,而该第一触控区域中的一作动范围对应操控该多媒体播放器的一时间轴;
当该多媒体播放器的尺寸被改变时,对应改变该第一触控区域的该作动范围。
7.如权利要求1所述的电子装置,其特征在于,其中该触控板包括一环状线路,该环状线路环绕该些触控区域。
8.一种电子装置,其特征在于,包括:
一显示单元;
一底座,耦接于该显示单元;
一触控板,配置于该底座,且该触控板自该底座的一第一侧边延伸至一第二侧边之间,其中该触控板具有多个触控区域,并且接收一使用者在任一上述触控区域上所执行的触碰动作;
一处理单元,耦接至该触控板,其中该处理单元依据每一该些触控区域位于该底座的该第一侧边至该第二侧边之间的一长边方向的位置,将该显示单元的画面定义为多个显示区域,使得每一该些触控区域在该显示单元的对应位置中具有对应的该些显示区域之一,
其中,在该触控板接收到一第一触碰事件之后,该处理单元获得该第一触碰事件所在的该些触控区域中的一第一触控区域,并且该处理单元在该第一触控区域对应的该些显示区域中的一第一显示区域中显示一第一使用者界面,
一上盖,枢接于该底座,其中该显示单元配置于该上盖,且该显示单元包括一显示画面;以及
一感测组件,配置在该上盖及该底座至少其中之一的侧边,用以感测该触碰动作,且该感测组件耦接至该处理单元;
其中,该处理单元依据该感测组件所感测到的该触碰动作,控制该显示单元上对应的该些显示区域其中之一,而上述对应的该些显示区域其中之一的位置对应于该感测组件配置在该上盖及该底座至少其中之一的位置。
9.如权利要求8所述的电子装置,其特征在于,其中该处理单元在接收到一互动触发信号之后,基于该感测组件的配置位置来决定所控制的该显示区域。
10.如权利要求8所述的电子装置,其特征在于,其中
在该感测组件配置于该上盖上、且位于该显示单元的上边框的情况下,对应所控制的该显示区域位于该显示画面的上方边缘区域;
在该感测组件配置于该上盖上、且位于该显示单元的下边框的情况下,对应所控制的该显示区域位于该显示画面的下方边缘区域;
在该感测组件配置于该上盖上、且位于该显示单元的左边框的情况下,对应所控制的该显示区域位于该显示画面靠左侧的区域;
在该感测组件配置于该上盖上、且位于该显示单元的右边框的情况下,对应所控制的该显示区域位于该显示画面靠右侧的区域。
11.如权利要求8所述的电子装置,其特征在于,更包括:
一键盘,配置于该底座,且该键盘耦接至该处理单元;
其中,
在该感测组件配置于该底座上、且位于该键盘上方的第一区域的情况下,对应所控制的该显示区域位于该显示画面的上方边缘区域或下方边缘区域;
在该感测组件配置于该底座上、且位于该键盘与该触控板左方的第二区域的情况下,对应所控制的该显示区域位于该显示画面靠左侧的区域;
在该感测组件配置于该底座上、且位于该键盘及该触控板右方的第三区域的情况下,对应所控制的该显示区域位于该显示画面靠右侧的区域。
12.如权利要求8所述的电子装置,其特征在于,其中在侦测到该触控动作为一滑动手势的情况下,该处理单元基于该滑动手势的移动方向,在对应的该显示区域中对一目标物执行一移动动作。
13.一种电子装置的操作方法,其特征在于,该电子装置具有一显示单元、一底座以及一触控板,该操作方法包括:
通过该触控板接收一使用者所执行的触碰动作,其中该触控板配置于该底座并具有多个触控区域,该触控板自该底座的一第一侧边延伸至一第二侧边之间;
依据每一该些触控区域位于该底座的该第一侧边至该第二侧边之间的一长边方向的位置,将该显示单元的画面定义为多个显示区域,使得每一该些触控区域在该显示单元的对应位置中具有对应的该些显示区域之一;以及
在该触控板接收到一第一触碰事件之后,获得该第一触碰事件所在的该些触控区域中的一第一触控区域,并且在该第一触控区域对应的该些显示区域中的一第一显示区域中显示一第一使用者界面;
在该触控板接收到一第二触碰事件之后,若所获得的该第二触碰事件所在的该些触控区域中的一第二触控区域不同于该第一触控区域,则在该第二触控区域对应的该些显示区域中的一第二显示区域中显示一第二使用者界面。
14.如权利要求13所述的操作方法,其特征在于,更包括:
在该第一显示区域中显示该第一使用者界面的情况下,依据该触控板接收到该使用者在该第一触控区域中的触碰动作,来控制该第一使用者界面所包括的功能的作动。
15.如权利要求13所述的操作方法,其特征在于,更包括:
在该第二触控区域对应的该些显示区域中的该第二显示区域中显示该第二使用者界面时,隐藏该第一使用者界面。
16.如权利要求13所述的操作方法,其特征在于,其中每一该些触控区域与其对应的该些显示区域之一,两者于该底座的该长边方向的长度为等比例或相同,且每一该些触控区域互不重叠,每一该些触控区域的坐标映像至其对应的该些显示区域之一的坐标。
17.如权利要求13所述的操作方法,其特征在于,其中该电子装置更包括一键盘,该键盘配置于该底座且具有一空格键,其中该触控板自该底座的该第一侧边延伸至该第二侧边之间的长度大于该空格键的长度;
其中该操作方法更包括:
当通过该键盘接收到一第一触发信号时,致能一多区域触控功能,以将该触控板划分为该些触控区域,并且依据每一该些触控区域位于该底座的该第一侧边至该第二侧边之间的该长边方向的位置,将该显示单元的画面定义为该些显示区域,使得每一该些触控区域在该显示单元的对应位置中具有对应的该些显示区域之一;以及
当通过该键盘接收到一第二触发信号时,禁能该多区域触控功能。
18.如权利要求13所述的操作方法,其特征在于,其中该第一使用者界面为一多媒体播放器,而该第一触控区域中的一作动范围对应操控该多媒体播放器的一时间轴;
其中该操作方法更包括:
当该多媒体播放器的尺寸被改变时,对应改变该第一触控区域的该作动范围。
CN201510300645.1A 2015-05-26 2015-06-04 电子装置及其操作方法 Active CN106292859B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW104116807 2015-05-26
TW104116807A TWI588734B (zh) 2015-05-26 2015-05-26 電子裝置及其操作方法

Publications (2)

Publication Number Publication Date
CN106292859A CN106292859A (zh) 2017-01-04
CN106292859B true CN106292859B (zh) 2019-09-03

Family

ID=57398539

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510300645.1A Active CN106292859B (zh) 2015-05-26 2015-06-04 电子装置及其操作方法

Country Status (3)

Country Link
US (1) US10437468B2 (zh)
CN (1) CN106292859B (zh)
TW (1) TWI588734B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108664158B (zh) * 2017-03-29 2023-10-20 宸美(厦门)光电有限公司 触控显示器
TWI638300B (zh) 2017-09-28 2018-10-11 義隆電子股份有限公司 電腦系統及其輸入方法
USD890163S1 (en) * 2017-12-14 2020-07-14 Compal Electronics, Inc. Notebook computer
USD920969S1 (en) * 2017-12-14 2021-06-01 Compal Electronics, Inc. Notebook computer
USD923617S1 (en) * 2017-12-20 2021-06-29 Compal Electronics, Inc. Notebook computer
USD895609S1 (en) * 2017-12-22 2020-09-08 Intel Corporation Electronic device
TWI705361B (zh) * 2018-10-29 2020-09-21 華碩電腦股份有限公司 控制方法、電子裝置及非暫態電腦可讀記錄媒體裝置
US11199901B2 (en) 2018-12-03 2021-12-14 Microsoft Technology Licensing, Llc Augmenting the functionality of non-digital objects using a digital glove
US11137905B2 (en) 2018-12-03 2021-10-05 Microsoft Technology Licensing, Llc Modeless augmentations to a virtual trackpad on a multiple screen computing device
US11294463B2 (en) 2018-12-03 2022-04-05 Microsoft Technology Licensing, Llc Augmenting the functionality of user input devices using a digital glove
US11314409B2 (en) * 2018-12-03 2022-04-26 Microsoft Technology Licensing, Llc Modeless augmentations to a virtual trackpad on a multiple screen computing device
CN113168251A (zh) * 2018-12-24 2021-07-23 深圳市柔宇科技股份有限公司 自助服务设备的控制方法及自助服务设备
TWI776013B (zh) * 2019-01-25 2022-09-01 佳世達科技股份有限公司 用於觸控顯示裝置的操作方法
JP2020119391A (ja) * 2019-01-25 2020-08-06 セイコーエプソン株式会社 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
TWI724416B (zh) * 2019-05-02 2021-04-11 神達數位股份有限公司 多媒體檔案管理方法及電腦可讀取儲存媒體
CN110632979A (zh) * 2019-08-09 2019-12-31 武汉华星光电半导体显示技术有限公司 显示装置及电子设备
CN113741713A (zh) * 2020-05-27 2021-12-03 华硕电脑股份有限公司 触控操作方法与其触控装置
CN114217727B (zh) * 2020-09-03 2024-04-16 华硕电脑股份有限公司 电子装置及其触控方法
TWI807251B (zh) * 2021-01-27 2023-07-01 華碩電腦股份有限公司 電子裝置
TWI821643B (zh) * 2021-03-17 2023-11-11 華碩電腦股份有限公司 電子裝置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201101103A (en) * 2009-06-29 2011-01-01 Wistron Corp Method for controlling a computer system and related computer system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910009A (en) * 1997-08-25 1999-06-08 Leff; Ruth B. Communication aid using multiple membrane switches
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7834855B2 (en) * 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US6697251B1 (en) * 2001-06-25 2004-02-24 Alain Aisenberg Modular computer user interface system
KR101053324B1 (ko) * 2005-03-14 2011-08-01 엘지전자 주식회사 휴대용 컴퓨터의 터치패드장치
KR100811160B1 (ko) * 2005-06-02 2008-03-07 삼성전자주식회사 사용자명령을 3차원적으로 입력가능한 전자장치
JP4366393B2 (ja) * 2006-11-06 2009-11-18 アルプス電気株式会社 入力装置
US8555185B2 (en) * 2009-06-08 2013-10-08 Apple Inc. User interface for multiple display regions
US20110113486A1 (en) * 2009-11-10 2011-05-12 James Anthony Hunt Credentialing User Interface for Gadget Application Access
US8711115B2 (en) * 2010-02-03 2014-04-29 Panasonic Corporation Display control device, display control method, and touchpad input system
JP5691464B2 (ja) * 2010-12-09 2015-04-01 ソニー株式会社 情報処理装置
US9213482B2 (en) 2011-11-11 2015-12-15 Elan Microelectronics Corporation Touch control device and method
JP5790578B2 (ja) * 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
TWI455011B (zh) * 2012-04-11 2014-10-01 Wistron Corp 觸控顯示裝置及條件式改變顯示範圍之方法
TWI485577B (zh) * 2012-05-03 2015-05-21 Compal Electronics Inc 電子裝置及其操作方法
US9423895B2 (en) * 2012-05-31 2016-08-23 Intel Corporation Dual touch surface multiple function input device
US10139868B2 (en) * 2012-09-21 2018-11-27 Apple Inc. Cover for electronic device
CN103926978A (zh) 2013-01-15 2014-07-16 识骅科技股份有限公司 便携式电脑
KR101515454B1 (ko) * 2013-08-23 2015-04-30 전자부품연구원 듀얼 터치패드를 구비하는 리모콘 및 그를 이용한 제어 방법
TWI585672B (zh) * 2013-10-25 2017-06-01 英華達股份有限公司 電子顯示裝置及圖標控制方法
TWM493107U (zh) * 2014-09-24 2015-01-01 Jtouch Corp 具多觸控面之觸控面板及可撓式觸控螢幕
US9727231B2 (en) * 2014-11-19 2017-08-08 Honda Motor Co., Ltd. System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201101103A (en) * 2009-06-29 2011-01-01 Wistron Corp Method for controlling a computer system and related computer system

Also Published As

Publication number Publication date
US20160349989A1 (en) 2016-12-01
TWI588734B (zh) 2017-06-21
CN106292859A (zh) 2017-01-04
US10437468B2 (en) 2019-10-08
TW201642114A (zh) 2016-12-01

Similar Documents

Publication Publication Date Title
CN106292859B (zh) 电子装置及其操作方法
US8638315B2 (en) Virtual touch screen system
US10228833B2 (en) Input device user interface enhancements
US20050162402A1 (en) Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
TWI552040B (zh) 多區域觸控板
JP5731466B2 (ja) タッチ表面の端部領域におけるタッチ接触の選択的拒否
EP3198391B1 (en) Multi-finger touchpad gestures
CA2846965C (en) Gesturing with a multipoint sensing device
JP5922598B2 (ja) マルチタッチ利用、ジェスチャ及び実装
US9285990B2 (en) System and method for displaying keypad via various types of gestures
US9335844B2 (en) Combined touchpad and keypad using force input
US20130154933A1 (en) Force touch mouse
US20110227947A1 (en) Multi-Touch User Interface Interaction
US20160103610A1 (en) Keyboard having touch screen mounted thereon, control method therefor, and method for controlling computing device using keyboard
US8723821B2 (en) Electronic apparatus and input control method
US8130198B2 (en) Electronic device and method for operating application programs in the same
US8970498B2 (en) Touch-enabled input device
US20130021367A1 (en) Methods of controlling window display on an electronic device using combinations of event generators
US20110119579A1 (en) Method of turning over three-dimensional graphic object by use of touch sensitive input device
US9727236B2 (en) Computer input device
AU2015271962B2 (en) Interpreting touch contacts on a touch surface

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant