CN101582008A - 信息处理装置和信息处理装置的显示信息编辑方法 - Google Patents

信息处理装置和信息处理装置的显示信息编辑方法 Download PDF

Info

Publication number
CN101582008A
CN101582008A CNA2009101391942A CN200910139194A CN101582008A CN 101582008 A CN101582008 A CN 101582008A CN A2009101391942 A CNA2009101391942 A CN A2009101391942A CN 200910139194 A CN200910139194 A CN 200910139194A CN 101582008 A CN101582008 A CN 101582008A
Authority
CN
China
Prior art keywords
operating
processing
contacts
display
menu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2009101391942A
Other languages
English (en)
Other versions
CN101582008B (zh
Inventor
大井纪子
村上圭一
远藤健太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of CN101582008A publication Critical patent/CN101582008A/zh
Application granted granted Critical
Publication of CN101582008B publication Critical patent/CN101582008B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

本发明提供一种信息处理装置和信息处理装置的显示信息编辑方法。信息处理装置(1)包括:具有显示区域的显示单元(10);具有接触区域,并且输出表示接触区域中的接触操作的位置的位置信号的操作单元(20);根据来自操作单元(20)的两点的位置信号,决定显示区域的对象范围的范围决定单元(31);在与显示区域的对象范围对应的位置处,使显示单元显示处理菜单的处理菜单显示单元(32);根据来自操作单元(20)的第3点的位置信号,决定与接触区域中的接触操作的位置对应的处理菜单的处理的处理决定单元(33);以及针对显示区域的对象范围执行处理的处理执行单元(34)。

Description

信息处理装置和信息处理装置的显示信息编辑方法
技术领域
本发明涉及信息处理装置和该信息处理装置的显示信息编辑方法。
背景技术
便携电话终端和PDA(Personal Digital Assistants:个人数字助理)等信息处理装置具有键盘和鼠标、操作按钮等操作部和显示器等显示部,能够根据操作部的信息输入进行在显示部上显示文字信息或者根据操作部的操作进行在显示部上显示预先存储的文字信息和图像信息等的文字/图像信息处理。
在下述专利文献1中,记载了这种信息处理装置。该信息处理装置例如通过用鼠标操作显示部上的光标来进行显示信息的范围指定,然后,在光标处于范围指定内的状态下点击操作鼠标时进行显示信息的复制编辑。根据该信息处理装置,只有范围指定操作和1次点击操作,用户在这两次操作之间仅使鼠标稍稍移动即可,因此能够提高显示信息的复制编辑的操作性。此外,在专利文献1中,记载了能够使用触摸面板作为信息处理装置的操作部。
【专利文献1】日本特开2000-311040号公报
另外,在信息处理装置中,作为显示信息的编辑处理,除了复制编辑处理之外,还要求具有放大/缩小编辑处理和颜色变更编辑处理等各种编辑处理。但是,在专利文献1中记载的信息处理装置中,只能进行复制编辑处理,不能满足上述要求。
发明内容
因此,本发明的目的在于提供一种能够提高针对多个显示信息编辑处理的操作性的信息处理装置和信息处理装置的显示信息编辑方法。
本发明的信息处理装置具有:(a)显示信息的显示单元;(b)操作单元,其具有与显示单元的显示区域对应的接触区域,检测对接触区域的接触操作,并且输出表示接触区域中的接触操作的位置的位置信号;(c)范围决定单元,其根据来自操作单元的两点的位置信号,决定显示区域的对象范围;(d)处理菜单显示单元,其在与范围决定单元所决定的显示区域的对象范围对应的位置处,使显示单元显示用于选择各种处理的处理菜单;(e)处理决定单元,其根据来自操作单元的第3点的位置信号,决定与接触区域中的接触操作的位置对应的处理菜单的处理;(f)处理执行单元,其针对范围决定单元所决定的显示区域的对象范围,执行由处理决定单元决定的处理。
本发明的信息处理装置的显示信息编辑方法是包括显示信息的显示单元和具有与显示单元的显示区域对应的接触区域的操作单元的信息处理装置的显示信息编辑方法,其中,(a)检测对接触区域的接触操作,生成表示接触区域中的接触操作的位置的位置信号,(b)根据两点的位置信号,决定显示区域的对象范围,(c)在与所决定的显示区域的对象范围对应的位置处,使显示单元显示用于选择各种处理的处理菜单,(d)根据第3点的位置信号,决定与接触区域中的接触操作的位置对应的处理菜单的处理,(e)针对所决定的显示区域的对象范围,执行所决定的处理。
根据该信息处理装置和信息处理装置的显示信息编辑方法,处理菜单显示单元在与范围决定单元所决定的显示区域的对象范围对应的位置上,使显示单元显示用于选择各种处理的处理菜单,因此用户仅进行两根手指的范围指定操作和第3根手指的处理指定操作即可。因此,能够提高针对多个显示信息编辑处理的操作性。
上述处理菜单显示单元优选在针对显示区域的对象范围预先设定的位置处,使显示单元显示处理菜单。
右手和左手的操作性不同。此外,随着范围指定的两根手指和处理指定的第3根手指的不同,操作性也不同。例如,在用左手的小指和食指进行范围指定,用左手的大拇指进行处理指定的情况下,优选在指定范围的下部中央或指定范围的下部中央的右侧显示处理菜单。此外,在用右手的小指和大拇指进行范围指定,用右手的食指进行处理指定的情况下,优选在指定范围的上部中央显示处理菜单M。由此,能够根据用户的喜好,预先设定处理菜单相对于显示区域的对象范围的显示位置,因此能够进一步提高操作性。此外,用户能够用一只手进行操作,能够进一步提高操作性。
上述信息处理装置还具有识别单元,其识别对接触区域的接触操作的手是右手还是左手,并且识别接触操作的两根手指,上述处理菜单显示单元根据识别单元所识别的手和两根手指,在相对于与该手和两根手指的组合对应的显示区域的对象范围的位置处,使所述显示单元显示处理菜单。
由此,通过识别单元识别是用右手还是左手进行了范围指定,并且识别范围指定的两根手指、例如在用左手的小指和食指进行了范围指定的情况下,通过在指定范围的下部右侧显示处理菜单,能够提高右手的大拇指的操作性。此外,例如在用右手的小指和大拇指进行范围指定的情况下,通过在指定范围的上部中央显示处理菜单,能够提高右手的食指的操作性。因此,能够不依赖于接触操作的手指而提高操作性。此外,用户能够用一只手进行操作,能够进一步提高操作性。
上述范围决定单元在由来自操作单元的两点的位置信号所示的所述接触操作的位置变化时,重新决定所述显示区域的对象范围。
由此,能够通过滑动移动范围指定的两根手指,调整指定范围,能够进一步提高操作性。
上述范围决定单元优选仅在从操作单元同时接收到两点的位置信号时,决定显示区域的对象范围。
由此,例如,能够区别1点接触的信息输入操作和两点同时接触的范围指定操作,因此即使在信息输入操作中也能够进行显示信息编辑处理。
根据本发明,能够提高针对多个显示信息编辑处理的信息处理装置的操作性。
附图说明
图1是表示本发明的第1实施方式涉及的信息处理装置的结构的立体图。
图2是表示本发明的第1实施方式涉及的信息处理装置的结构的框图。
图3是表示图2的范围决定部的范围决定处理的图。
图4是表示图2的处理菜单显示部的处理菜单显示处理、范围决定部的范围调整处理和处理决定部的编辑处理决定处理的图。
图5是表示图2的处理执行部的编辑处理执行处理的图。
图6是表示本发明的第1实施方式涉及的信息处理装置的显示信息编辑方法的流程图。
图7是表示本发明的第2实施方式涉及的信息处理装置的结构的框图。
图8是表示图2的范围决定部的范围决定处理的图。
图9是表示图2的处理菜单显示部的处理菜单显示处理、范围决定部的范围调整处理和处理决定部的编辑处理决定处理的图。
图10是表示图2的处理执行部的编辑处理执行处理的图。
图11是表示本发明的第2实施方式涉及的信息处理装置的显示信息编辑方法的流程图。
图12是表示本发明的变形例涉及的信息处理装置的结构的框图。
图13是表示分解本发明的变形例涉及的信息处理装置的结构的一部分的立体图。
图14是表示将左右手手指的压力强度和接触面积与手指对应起来的表格的图。
图15是表示接触操作的位置关系的图。
图16是表示接触操作的接触面积和压力强度的分布的图。
图17是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图18是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图19是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图20是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图21是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图22是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图23是表示本发明的变形例中的手指识别处理和处理菜单显示处理的一例的图。
图24是表示本发明的变形例涉及的信息处理装置的结构的框图。
图25是表示分解本发明的变形例涉及的信息处理装置的结构的一部分的立体图。
具体实施方式
以下,参照附图对本发明的优选实施方式进行详细说明。另外,在各图中对相同或相对应的部分标以相同的标号。
【第1实施方式】
图1是表示本发明的第1实施方式涉及的信息处理装置的结构的立体图。图2是表示本发明的第1实施方式涉及的信息处理装置的结构的框图。在图1和图2中,示出了便携电话终端作为信息处理装置的一例。图1和图2所示的信息处理装置1具有显示部10、操作部20和控制部30。另外,在图1中,控制部30收纳在用于收纳显示部10的壳体或用于收纳操作部20的壳体的内部。
显示部10例如是液晶显示器。在显示部10上,在行列方向上排列有多个像素,排列这些像素的区域是显示区域10a。显示部10从控制部30接收文字数据和图像数据等信息,并将这些信息显示在显示区域10a上。例如,显示部10根据来自控制部30的信息,用这些信息表示的颜色使与这些信息表示的行列坐标(地址)对应的像素发光。
操作部20例如是静电衬垫(pad),具有列电极层、行电极层以及配置在这些列电极层和行电极层之间的电介质层。在列电极层上,在行方向上排列配置有在列方向上延伸的多个列电极,在行电极层上,在列方向上排列配置有在行方向上延伸的多个行电极。排列这些列电极和行电极的区域是接触区域20a。操作部20检测用户对接触区域20a的接触操作,将表示接触区域20a中的接触操作的位置的位置信号输出到控制部30。
具体而言,在操作部20中,列电极和行电极交叉的部分分别构成电容器,电容器的静电电容分别根据用户的接触操作而变化,由此构成该电容器的列电极和行电极的电位变化。这样,操作部20检测电容器的静电电容的变化、即列电极和行电极的电位变化,并检测用户对接触区域20a的接触操作。此外,操作部20向控制部30输出电位变化后的列电极和行电极交叉部分的行列坐标作为位置信号。
操作部20的接触区域20a中的列电极和行电极的交叉位置与显示部10的显示区域10a中的像素位置对应。另外,列电极和行电极的交叉位置和像素位置也可以不一定是1对1地对应。
控制部30具有存储各种程序和各种信息(收发邮件历史文字信息、图像信息、邮件地址信息等)的ROM(Read Only Memory:只读存储器);执行存储在ROM中的各种程序的CPU(Central Processing Unit:中央处理器);以及临时保存信息并且成为执行各种程序的工作区域的RAM(Random Access Memory:随机存取存储器)。根据这种结构,控制部30作为范围决定部31、处理菜单显示部32、处理决定部33以及处理执行部34发挥功能。
以下,使用图3~图5对范围决定部31、处理菜单显示部32、处理决定部33以及处理执行部34进行说明。图3~图5是依次示出范围决定部31的范围决定处理和范围调整处理、处理菜单显示部32的处理菜单显示处理、处理决定部33的编辑处理决定处理以及处理执行部34的编辑处理执行处理的处理过程的图。
范围决定部31根据来自操作部20的两点的位置信号,决定显示区域10a的对象范围A1。在本实施方式中,范围决定部31决定显示区域10a的对象范围A1,对象范围A1将与接触区域20a中的接触操作的两个位置P2a、P2b分别对应的显示区域10a的两个位置P1a、P1b分别作为始点和终点。
例如,在ROM中,将操作部20的接触区域20a中的列电极和行电极的交叉位置与显示部10的显示区域10a中的像素对应起来预先存储为表格。范围决定部31根据该表格,求出与接触区域20a中的接触操作的两个位置P2a、P2b分别对应的显示区域10a的两个位置P1a、P1b。此外,范围决定部31将以下范围决定为显示区域10a的对象范围A1,所述范围将所求出的显示区域10a的两点位置P1a、P1b分别作为始点和终点。
此外,范围决定部31进行所决定的对象范围A1的调整。例如,如图4所示,范围决定部31在对象范围决定后使显示部10显示表示对象范围A1的框线B,操作部20检测对与该框线B对应的接触区域20a的部分的接触操作和滑动动作。范围决定部31接收与滑动动作对应的位置信号,并重新求出对象范围。此外,范围决定部31例如在进行了后述的处理指定操作时,将重新求出的范围重新决定为对象范围A2。具体而言,如后所述,范围决定部31在选择与显示区域10a的处理菜单M的处理N1的位置对应的接触区域20a的位置N2时,确定对象范围A2。
处理菜单显示部32使显示部10显示用于选择各种处理的处理菜单M。例如,在ROM中预先存储与显示区域10a的对象范围A1对应的处理菜单M的显示位置。处理菜单M的显示位置在例如初始设定时等能够由用户设定。在本实施方式中,为了用左手的小指和食指进行范围指定,用大拇指进行处理指定,在对象范围A1的下部右侧设定处理菜单M的显示位置。
处理决定部33根据来自操作部20的第3点的位置信号,决定与接触区域20a中的接触操作的位置P2c对应的处理菜单M中的处理N1。
处理执行部34针对由范围决定部31决定的显示区域10a的对象范围A2,执行由处理决定部33决定的处理N1。在本实施方式中,如图5所示,处理执行部34进行在对象范围A2内显示的文字的放大编辑处理。
接下来,对第1实施方式的信息处理装置1的动作进行说明,并且对本发明的第1实施方式涉及的信息处理装置的显示信息编辑方法进行说明。图6是表示本发明的第1实施方式涉及的信息处理装置的显示信息编辑处理方法的流程图。
首先,由用户设定相对于显示区域10a的对象范围的处理菜单M的显示位置。在本实施方式中,信息处理装置1根据用户的输入指令,在对象范围的下部右侧设定处理菜单M的显示位置,将所设定的处理菜单M的显示位置作为例如坐标数据存储到ROM中(步骤S01)。
然后,如图3所示,当用户用小指和食指接触两点P2a、P2b时,操作部20检测由于手指接触到接触区域20a而造成的列电极和行电极的电位的变化,将电位变化后的列电极和行电极的交叉部分的行列坐标作为位置信号输出到控制部30(步骤S02)。
接下来,范围决定部31根据预先存储在ROM中的表格,求出与接触区域20a中的接触操作的两个位置P2a、P2b分别对应的显示区域10a的两个位置P1a、P1b(步骤S03)。
接下来,范围决定部31决定将所求出的显示区域10a的两点位置P1a、P1b分别作为始点和终点的显示区域10a的对象范围A1(步骤S04)。
接下来,如图4所示,处理菜单显示部32使ROM中预先存储的与显示区域10a的对象范围A1对应的处理菜单M的显示位置显示处理菜单M。在本实施方式中,处理菜单显示部32使对象范围A1的下部右侧显示处理菜单M(步骤S05)。
接下来,范围决定部31使显示部10以框线B的形式显示显示区域10a的对象范围A1。用户接触与显示部10的显示区域10a的框线B对应的操作部20的接触区域20a的部分,并且在滑动该手指时,操作部20检测手指的滑动动作。范围决定部31接收与滑动动作对应的位置信号,重新求出显示区域10a的对象范围。由此,范围决定部31进行显示区域10a的对象范围A1的调整(步骤S06)。
然后,范围决定部31在接收到来自操作部20的第3点的位置信号时,将调整后的显示区域10a的范围重新决定为对象范围A2(步骤S07)。
此外,处理决定部33根据来自操作部20的第3点的位置信号,决定与接触区域20a中的接触操作的位置P2c对应的处理菜单M中的处理“大/小”N1(步骤S08)。
接下来,处理执行部34针对由范围决定部31决定的显示区域10a的对象范围A2,执行由处理决定部33决定的处理N1。在本实施方式中,如图5所示,处理执行部34进行在对象范围A2内显示的文字的放大编辑处理(步骤809)。
这样,根据第1实施方式的信息处理装置1和第1实施方式的信息处理装置的显示信息编辑方法,处理菜单显示部32在与范围决定部31所决定的显示区域10a的对象范围A1对应的位置上,使显示部10显示用于选择各种处理的处理菜单M,因此用户仅进行两根手指的范围指定操作和第3根手指的处理指定操作即可。由此,能够提高针对多个显示信息编辑处理的操作性。
但是,右手和左手的操作性不同。此外,随着范围指定的两根手指和处理指定的第3根手指的不同操作性也不同。如本实施方式那样,在用左手的小指和食指进行范围指定,用左手的大拇指进行处理指定的情况下,优选在指定范围的下部中央或指定范围的下部中央的右侧显示处理菜单。
根据第1实施方式的信息处理装置1和第1实施方式的信息处理装置的显示信息编辑方法,能够根据用户的喜好,预先设定处理菜单M的显示位置,因此能够进一步提高操作性。此外,用户能够用一只手进行操作,能够进一步提高操作性。
此外,根据第1实施方式的信息处理装置1和第1实施方式的信息处理装置的显示信息编辑方法,在由来自操作部20的两点的位置信号所示的接触操作的位置变化时,能够由范围决定部31重新决定显示区域10a的对象范围A2,因此能够通过滑动移动范围指定的两根手指,调整指定范围,能够进一步提高操作性。
【第2实施方式】
图7是表示本发明的第2实施方式涉及的信息处理装置的结构的框图。图7所示的信息处理装置1A与第1实施方式的不同结构是:在信息处理装置1中还具有摄像部40,取代控制部30而具有控制部30A。信息处理装置1A的其他结构与信息处理装置1相同。
摄像部40例如是照相机,对针对操作部20进行接触操作的用户的手指进行拍摄,将所拍摄的图像信号输出到控制部30A。
控制部30A与第1实施方式的不同结构是:在控制部30中还具有手指识别部35,取代范围决定部31和处理菜单显示部32而具有范围决定部31A、处理菜单显示部32A。控制部30A的其他结构与控制部30相同。
以下,使用图8~图10对手指识别部35、范围决定部31A和处理菜单显示部32A进行说明。图8~图10是依次示出范围决定部31A的范围决定处理和范围调整处理、处理菜单显示部32A的处理菜单显示处理、上述处理决定部33的编辑处理决定处理以及上述处理执行部34的编辑处理执行处理的处理过程的图。
手指识别部35识别对接触区域20a进行接触操作的手和两根手指。例如,手指识别部35通过对来自摄像部40的图像信号进行图像处理,识别接触操作的手是右手还是左手,并且识别接触操作的两根手指是大拇指、食指、中指、无名指和小指的哪两个。
如图8所示,范围决定部31A与范围决定部31在以下方面不同:根据来自操作部20的两点的位置信号,决定将接触操作的两个位置P2a、P2b分别设为始点和终点的接触区域20a的接触操作范围D,然后,决定与该接触区域20a中的接触操作范围D对应的显示区域10a的对象范围A1。
例如,在ROM中,预先存储在操作部20的接触区域20a中考虑的多个模式的接触操作范围D,并预先存储多个模式的与各个接触操作范围D对应的显示部10的显示区域10a中的对象范围A1。即,在ROM中,将多个模式的接触操作范围D和多个模式的对象范围A1对应起来预先存储为表格。范围决定部31A根据该表格,决定与接触操作范围D对应的对象范围A1。
此外,如图9所示,范围决定部31A与范围决定部31同样地,进行所决定的对象范围A1的调整,并重新决定调整后的对象范围A2。
处理菜单显示部32A根据由手指识别部35所识别的手和两根手指,在相对于与手和两根手指的组合对应的对象范围A1的位置处,显示处理菜单M。例如,在ROM中,预先存储所考虑的多个模式的手和两根手指的组合,并且存储多个模式的与手和两根手指的组合分别对应的处理菜单M的显示位置。即,在ROM中,将多个模式的手和两根手指的组合与多个模式的处理菜单M的显示位置对应存储为表格。处理菜单显示部32A根据该表格,在与所识别的手和两根手指的组合对应的显示位置显示处理菜单M。
这里,处理决定部33和处理执行部34与第1实施方式相同,因此省略说明。
接下来,对第2实施方式的信息处理装置1A的动作进行说明,并且对本发明的第2实施方式涉及的信息处理装置的显示控制方法进行说明。图11是表示本发明的第2实施方式涉及的信息处理装置的显示控制方法的流程图。
首先,如图8所示,当用户用右手的大拇指和小指接触两点P2a、P2b时,进行上述步骤S02的处理。此外,摄像部40对用户的手指进行拍摄并将图像信号输出到控制部30A。此外,手指识别部35通过对来自摄像部40的图像信号进行图像处理,来识别接触操作的手和两根手指(步骤S10)。
接下来,范围决定部31A根据来自操作部20的两点的位置信号,决定将接触操作的两个位置P2a、P2b分别设为始点和终点的接触区域20a的接触操作范围D(步骤S03A)。
接下来,范围决定部31A根据预先存储在ROM中的表格,决定与接触区域20a的接触操作范围D对应的显示区域10a的对象范围A1(步骤S04A)。
接下来,如图9所示,处理菜单显示部32A在相对于与手指识别部35所识别的手和两根手指的组合对应的对象范围A1的位置处,显示处理菜单M。在本实施方式中,处理菜单显示部32A在与右手的大拇指和小指的组合对应的对象范围A1的上部中央显示处理菜单M(步骤S05A)。然后,进行上述步骤S06~S09的处理,如图10所示,进行显示图像的放大编辑处理。
通过该第2实施方式的信息处理装置1A和第2实施方式的信息处理装置的显示控制方法也能够获得与第1实施方式的信息处理装置1和第1实施方式的信息处理装置的显示控制方法相同的优点。
此外,根据第2实施方式的信息处理装置1A和第2实施方式的信息处理装置的显示控制方法,由手指识别部35识别范围指定的手和两根手指,例如,在用右手的小指和大拇指进行范围指定的情况下,通过在指定范围的上部中央显示处理菜单,能够提高右手的食指的操作性。由此,能够提高操作性而不取决于接触操作的手指。此外,用户能够用一只手进行操作,能够进一步提高操作性。
这里,本发明不限于上述本实施方式,能够进行各种变形。例如,在本实施方式中,例示了便携电话终端作为信息处理装置,但是对于信息处理装置,能够广泛应用PDA等能够进行信息处理的装置。
此外,在本实施方式中,作为识别接触操作的手和两根手指的识别方法,例示了使用照相机的图像处理,但是识别方法不限于本实施方式。例如,也可以应用使用压敏传感器和触觉传感器等根据接触表面压力进行识别的识别方法。
图12表示使用了压力传感器作为压敏传感器的信息处理装置的框图,图13表示分解示出图12所示的信息处理装置的结构的一部分的立体图。图12和图13所示的信息处理装置1B与信息处理装置1A的不同结构是:在信息处理装置1A中取代摄像部40和控制部30A而具有压敏传感器40B、控制部30B。例如,压敏传感器40B是薄片状的压力传感器,并如图13所示配置在操作部20即静电衬垫的下方。压力传感器隔着静电衬垫检测进行接触操作的用户的手指的压力强度,并将所检测的压力强度输出给控制部30B。
控制部30B与控制部30A的不同点是:在控制部30A中取代手指识别部35而具有手指识别部35B。手指识别部35B通过来自压敏传感器40B的压力强度和来自操作部20中的静电传感器的接触面积,识别接触操作的手是右手还是左手,并且识别接触操作的两根手指是大拇指、食指、中指、无名指和小指的哪两个。
一般情况下,关于接触操作的手指的力的强度和接触面积,左右手中的好使的手的一方较大,并且按照大拇指、食指、中指、无名指、小指的顺序从大到小。由此,能够根据接触操作的手指的压力强度和接触面积,识别接触操作的手指。例如,图14所示,在ROM中预先存储有将左右手指的压力强度和接触面积与手指对应起来的表格。手指识别部35B根据该表格,将与来自压敏传感器40B的压力强度和来自操作部20中的静电传感器的接触面积对应的手指识别为接触操作的手指。
例如如下那样预先登记该表格。首先,使右手和左手的手指依次逐根地接触操作部20。接下来,分别使右手的5根手指同时接触操作部20,使左手的5根手指同时接触操作部20。接下来,分别使右手的5根手指和手掌整体同时接触操作部20,使左手的5根手指和手掌整体同时接触操作部20。例如,在各接触操作中,进行轻轻接触和用力按压的两种操作,将轻轻接触时的各接触操作中的压力强度和接触面积的平均值作为最小值与各个手指对应地登记在表格中,并且将用力按压时的各接触操作中的压力强度和接触面积的平均值作为最大值与各个手指对应地登记在表格中。此外,根据这些最小值和最大值求出平均值,并且求出误差校正值,将这些平均值和误差校正值与各个手指对应地登记在表格中。
另外,在特定的用户用特定的手指进行接触操作时,例如也可以如下那样预先登记表格。首先,仅使想登记的手指依次逐根地接触操作部20。接着,特定的用户用经常进行的接触操作的方法,使想登记的手指同时接触操作部20。例如,在各接触操作中,进行轻轻接触和用力按压的两种操作,将轻轻接触时的各接触操作中的压力强度和接触面积的平均值作为最小值与各个手指对应地登记在表格中,并且将用力按压时的各接触操作中的压力强度和接触面积的平均值作为最大值与各个手指对应地登记在表格中。此外,根据这些最小值和最大值求出平均值,并且求出误差校正值,将这些平均值和误差校正值与各个手指对应地登记在表格中。
根据图14,例如如果接触面积在600mm2以上,则手指识别部35B将接触操作的手指识别为手掌,如果接触面积在150mm2以下,则手指识别部35B将接触操作的手指识别为小指。此外,关于除此以外的手指,手指识别部35B根据接触面积的平均值和压力强度的平均值识别接触操作的手指。
此外,在左右的压力强度的平均值相同的情况下,手指识别部35B也可以考虑手指的构造,根据来自操作部20的接触操作的位置,从接触操作的位置关系识别左右。例如,也可以如图15(a)所示,在压力强度55mmHg的接触操作的位置的左上具有压力强度48mmHg的接触操作的情况下,根据该位置关系识别为左手的大拇指和食指,如图15(b)所示,在压力强度55mmHg的接触操作的位置的右上具有压力强度48mmHg的接触操作的情况下,根据该位置关系识别为右手的食指和中指。此外,为了提高可靠性,手指识别部35B也可以进一步根据接触面积的平均值来识别左右。
此外,如图16所示,越接近按压静电衬垫和压力传感器的手指的中心,按压力越大,因此能够以按压力最大的位置为中心,通过绘制按压力在0以上的范围来掌握接触面积和压力强度的分布。
此后,范围决定部31A根据来自操作部20的两点的位置信号,决定将接触操作的两个位置P2a、P2b分别设为始点和终点的接触区域20a的接触操作范围D,此后,决定与该接触区域20a的接触操作范围D对应的显示区域10a的对象范围A1。接着,处理菜单显示部32A根据由手指识别部35所识别的手和两根手指,在相对于与手和两根手指的组合对应的对象范围A1的位置处,显示处理菜单M。
在本实施方式和本变形例中,处理菜单显示部32A根据预先在ROM中存储的将多个模式的手指的组合和多个模式的处理菜单M的显示位置对应的表格,在与所识别的手指的组合对应的显示位置显示处理菜单M,但是处理菜单显示部32A也可以对手指确定优先度,根据该优先度预测进行处理菜单选择的最佳的手指,并显示处理菜单M。例如,处理菜单显示部32A也可以根据按照大拇指、食指、中指、无名指、小指的顺序确定的优先度,在接触操作的手指以外即在不与接触区域20a的接触操作范围D重合的位置处存在的手指中,将优先度最高的手指预测为进行处理菜单选择的最佳的手指,在与所预测的手指的位置对应的显示区域10a的位置显示处理菜单M。
例如,如图17所示,在接触操作的两个位置P2a、P2b的手指分别是右手的大拇指和中指的情况下,食指与通过接触操作的两个位置P2a、P2b确定的接触区域20a的接触操作范围D重合,因此处理菜单显示部32A将进行处理菜单选择的最佳手指预测为无名指,在与该无名指的位置对应的显示区域10a的位置处显示处理菜单M。此外,例如,如图18所示,在接触操作的三个位置P2a、P2b、P2c的手指分别是右手的大拇指、食指和手掌的情况下,没有与通过接触操作的三个位置P2a、P2b、P2c确定的接触区域20a的接触操作范围D重合的手指,因此处理菜单显示部32A将进行处理菜单选择的最佳手指预测为中指,在与该中指的位置对应的显示区域10a的位置处显示处理菜单M。
此处,在接触操作的手指是两只手的情况下,处理菜单显示部32A也可以进一步根据好使的手和不好使的手的顺序的优先度,预测进行处理菜单选择的最佳手指。例如,如图19所示,在接触操作的两个位置P2a、P2b的手指分别是左手的大拇指和右手的大拇指的情况下,处理菜单显示部32A将进行处理菜单选择的最佳的手指预测为好使的手(例如右手)的食指,在与该食指的位置对应的显示区域10a的位置处显示处理菜单M。此时,处理菜单显示部32A在与不重合于接触区域20a的接触操作范围D的位置对应的显示区域10a的位置处显示处理菜单M。
另外,在所预测的最佳手指、即接触操作的手指以外的好使的手一侧优先度最高的手指与接触操作范围D重合的情况下,也可以将接触操作的手指以外的不好使的手一侧的优先度最高的手指预测为进行处理菜单选择的最佳手指。例如,如图20所示,在接触操作的两个位置P2a、P2b的手指分别是左手的食指、右手的食指,并且好使的手(例如右手)的大拇指与接触操作范围D重合的情况下,也可以将不好使的手(例如左手)的大拇指预测为进行处理菜单选择的最佳的手指。
此外,处理菜单显示部32A也可以根据接触操作的手指的位置关系、以及接触区域20a的接触操作范围D的位置预测进行处理菜单选择的最佳手指,并显示处理菜单M。例如,如图21所示,在接触操作的两个位置P2a、P2b的手指分别是右手的中指和大拇指,并且位置P2a、P2b分别是左侧中央附近、右侧中央附近的情况下,处理菜单显示部32A将进行处理菜单选择的最佳手指预测为位于位置P2a(中指)和位置P2b(大拇指)之间的食指,在与该食指的位置对应的显示区域10a的位置处显示处理菜单M。此时,处理菜单显示部32A在与不重合于接触区域20a的接触操作范围D的位置对应的显示区域10a的位置处显示处理菜单M。此外,图22所示,例如在接触操作的两个位置P2a、P2b的手指分别是右手的食指和无名指,并且位置P2a、P2b分别是左下、右下的情况下,处理菜单显示部32A将进行处理菜单选择的最佳手指预测为位于位置P2a(食指)和位置P2b(无名指)之间的中指,在与该中指的位置对应的显示区域10a的位置处显示处理菜单M。此时,处理菜单显示部32A在与不重合于接触区域20a的接触操作范围D的位置对应的显示区域10a的位置处显示处理菜单M。
此处,在接触操作的手指是3根以上时,例如,如图23所示,在接触操作的三个位置P2a、P2b、P2c的手指分别是右手的大拇指、食指和无名指,并且位置P2a、P2b、P2c分别是左中央、左上、右上的情况下,处理菜单显示部32A将进行处理菜单选择的最佳手指预测为位于位置P2b(食指)和位置P2c(无名指)之间的中指,在与该中指的位置对应的显示区域10a的位置处显示处理菜单M。此时,处理菜单显示部32A在与不重合于接触区域20a的接触操作范围D的位置对应的显示区域10a的位置处显示处理菜单M。
这样,在本变形例中,通过在作为操作部20的静电传感器中检测接触面积,在作为压敏传感器40B的压力传感器中检测压力强度,能够预测进行处理菜单选择的最佳手指,在最佳位置上显示处理菜单M,因此能够进一步提高用户的操作性。
在本变形例中,作为识别接触操作的手和2根手指的识别方法,也可以应用使用指纹传感器等来进行识别的识别方法。图24表示使用了指纹传感器的信息处理装置的框图,图25表示对图24所示的信息处理装置的结构进行示出的立体图。如图24和图25所示,信息处理装置1C在信息处理装置1B中代替压敏传感器40B和控制部30B而具有指纹传感器40C和控制部30C。例如,指纹传感器40C是薄片状的指纹传感器,并且如图25所示,配置在操作部20即静电衬垫的下方。指纹传感器隔着静电衬垫检测进行接触操作的用户的手指的指纹,并将所检测的指纹输出给控制部30C。
控制部30C与控制部30B的不同点是:在控制部30B中取代手指识别部35B而具有手指识别部35C。手指识别部35C通过来自指纹传感器40C的指纹,识别接触操作的手是右手还是左手,并且识别接触操作的两根手指是大拇指、食指、中指、无名指和小指的哪两个。例如,在ROM中预先存储有将左右手指的指纹和手指对应起来的表格。手指识别部35C根据该表格,将与来自指纹传感器40C的指纹对应的手指识别为接触操作的手指。该表格例如只要使用指纹传感器41预先测定并存储即可。
此外,在本实施方式中,固定了处理菜单的显示大小和位置,但是例如也可以通过用户的手指等的拖动操作,变更处理菜单的显示大小,也可以移动处理菜单。
此外,在本实施方式中,范围决定部31、31A进行了决定对象范围的范围决定处理,而不取决于两点的接触操作的定时,但是范围决定部31、31A也可以仅在从操作部20同时接收到两点的位置信号时,即同时进行了两点的接触操作时,决定对象范围。由此,例如能够区别1点接触的信息输入操作和两点同时接触的范围指定操作,因此即使在信息输入操作中也能够进行显示信息编辑处理。
此外,在本实施方式中,例示了静电衬垫作为操作部20,但是对于操作部20,能够广泛应用接触面板和光传感器等能够检测接触操作的装置。

Claims (6)

1、一种信息处理装置,该信息处理装置包括:
显示信息的显示单元;
操作单元,其具有与所述显示单元的显示区域对应的接触区域,检测对所述接触区域的接触操作,并且输出表示所述接触区域中的所述接触操作的位置的位置信号;
范围决定单元,其根据来自所述操作单元的两点的所述位置信号,决定所述显示区域的对象范围;
处理菜单显示单元,其在与所述范围决定单元所决定的所述显示区域的对象范围对应的位置处,使所述显示单元显示用于选择各种处理的处理菜单;
处理决定单元,其根据来自所述操作单元的第3点的所述位置信号,决定与所述接触区域中的所述接触操作的位置对应的所述处理菜单的处理;以及
处理执行单元,其针对所述范围决定单元所决定的所述显示区域的对象范围,执行由所述处理决定单元决定的处理。
2、根据权利要求1所述的信息处理装置,
所述处理菜单显示单元在针对所述显示区域的对象范围预先设定的位置处,使所述显示单元显示所述处理菜单。
3、根据权利要求1所述的信息处理装置,该信息处理装置还具有:
识别单元,其识别对所述接触区域的所述接触操作的手是右手还是左手,并且识别所述接触操作的两根手指,
所述处理菜单显示单元根据所述识别单元所识别的手和两根手指,在相对于与该手和两根手指的组合对应的所述显示区域的对象范围的位置处,使所述显示单元显示所述处理菜单。
4、根据权利要求1~3中的任意一项所述的信息处理装置,
所述范围决定单元在由来自所述操作单元的两点的所述位置信号所示的所述接触操作的位置变化时,重新决定所述显示区域的对象范围。
5、根据权利要求1~4中的任意一项所述的信息处理装置,
所述范围决定单元仅在从所述操作单元同时接收到两点的所述位置信号时,决定所述显示区域的对象范围。
6、一种信息处理装置的显示信息编辑方法,该信息处理装置包括显示信息的显示单元和操作单元,该操作单元具有与所述显示单元的显示区域对应的接触区域,其中,
检测对所述接触区域的接触操作,生成表示所述接触区域中的所述接触操作的位置的位置信号,
根据两点的所述位置信号,决定所述显示区域的对象范围,
在与所决定的所述显示区域的对象范围对应的位置处,使所述显示单元显示用于选择各种处理的处理菜单,
根据第3点的所述位置信号,决定与所述接触区域中的所述接触操作的位置对应的所述处理菜单的处理,
针对所决定的所述显示区域的对象范围,执行所决定的处理。
CN2009101391942A 2008-05-13 2009-05-13 信息处理装置和信息处理装置的显示信息编辑方法 Expired - Fee Related CN101582008B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008-126304 2008-05-13
JP2008126304 2008-05-13
JP2008126304A JP5203797B2 (ja) 2008-05-13 2008-05-13 情報処理装置及び情報処理装置の表示情報編集方法

Publications (2)

Publication Number Publication Date
CN101582008A true CN101582008A (zh) 2009-11-18
CN101582008B CN101582008B (zh) 2012-06-13

Family

ID=40718871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101391942A Expired - Fee Related CN101582008B (zh) 2008-05-13 2009-05-13 信息处理装置和信息处理装置的显示信息编辑方法

Country Status (5)

Country Link
US (1) US8266529B2 (zh)
EP (1) EP2120131B1 (zh)
JP (1) JP5203797B2 (zh)
KR (1) KR101150321B1 (zh)
CN (1) CN101582008B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102375652A (zh) * 2010-08-16 2012-03-14 中国移动通信集团公司 移动终端用户界面调整系统及其调整方法
WO2013044467A1 (zh) * 2011-09-28 2013-04-04 宇龙计算机通信科技(深圳)有限公司 终端和菜单显示方法
CN103164160A (zh) * 2013-03-20 2013-06-19 华为技术有限公司 一种左右手交互装置及方法
CN103282869A (zh) * 2010-08-12 2013-09-04 谷歌公司 触摸屏上的手指识别
CN103984495A (zh) * 2013-02-07 2014-08-13 纬创资通股份有限公司 操作方法以及电子装置

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
JP4719296B1 (ja) * 2009-12-25 2011-07-06 株式会社東芝 情報処理装置及び情報処理方法
JP2011227703A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd 2点検知可能なタッチパネル入力装置
JP5702546B2 (ja) * 2010-03-19 2015-04-15 ローム株式会社 タッチパネル入力装置
JP5702540B2 (ja) * 2010-02-18 2015-04-15 ローム株式会社 タッチパネル入力装置
WO2011102406A1 (ja) * 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置
JP5502584B2 (ja) * 2010-04-26 2014-05-28 ローム株式会社 デジタルカメラ
JP2011197848A (ja) * 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
JP5657269B2 (ja) * 2010-04-26 2015-01-21 シャープ株式会社 画像処理装置、表示装置、画像処理方法、画像処理プログラム、記録媒体
US20120030624A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Displaying Menus
KR102007023B1 (ko) * 2010-11-18 2019-10-01 구글 엘엘씨 오프-스크린 가시 객체들의 표면화
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
US8593421B2 (en) * 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices
JP5518009B2 (ja) * 2011-08-03 2014-06-11 シャープ株式会社 画像形成装置、画像編集方法、コンピュータプログラム及び記録媒体
JP2013041348A (ja) * 2011-08-12 2013-02-28 Kyocera Corp 携帯端末、補助情報表示プログラムおよび補助情報表示方法
KR101880653B1 (ko) * 2011-10-27 2018-08-20 삼성전자 주식회사 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
WO2013106300A1 (en) * 2012-01-09 2013-07-18 Google Inc. Intelligent touchscreen keyboard with finger differentiation
US9563295B2 (en) * 2012-03-06 2017-02-07 Lenovo (Beijing) Co., Ltd. Method of identifying a to-be-identified object and an electronic device of the same
JP5349642B2 (ja) 2012-04-27 2013-11-20 株式会社東芝 電子機器、制御方法およびプログラム
KR102040857B1 (ko) * 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
KR20140051719A (ko) * 2012-10-23 2014-05-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
USD753657S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD752048S1 (en) * 2013-01-29 2016-03-22 Aquifi, Inc. Display device with cameras
USD753658S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD753656S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc. Display device with cameras
USD753655S1 (en) * 2013-01-29 2016-04-12 Aquifi, Inc Display device with cameras
USD752585S1 (en) * 2013-01-29 2016-03-29 Aquifi, Inc. Display device with cameras
JP6029638B2 (ja) * 2014-02-12 2016-11-24 ソフトバンク株式会社 文字入力装置、及び、文字入力プログラム
KR101901234B1 (ko) * 2018-01-18 2018-09-27 삼성전자 주식회사 휴대 단말기의 펜 입력 방법 및 장치
KR102257614B1 (ko) * 2020-03-31 2021-05-28 김은아 접촉감지식 입력장치로부터의 입력신호를 가변 촉각효과로 변환하는 시스템 및 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3075882B2 (ja) * 1993-03-31 2000-08-14 株式会社東芝 文書作成編集装置
DE69430967T2 (de) 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP4626783B2 (ja) 1998-10-19 2011-02-09 俊彦 岡部 情報検索装置、方法、記録媒体及び情報検索システム
JP4542637B2 (ja) * 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
JP2003296015A (ja) * 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
US7158123B2 (en) 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
US7218313B2 (en) * 2003-10-31 2007-05-15 Zeetoo, Inc. Human interface system
WO2005094664A1 (ja) * 2004-04-02 2005-10-13 Olympus Corporation 内視鏡
US7255503B2 (en) * 2004-05-17 2007-08-14 Charlene H. Grafton Dual numerical keyboard based on dominance
JP2005346244A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報表示装置及びその操作方法
US7810050B2 (en) * 2005-03-28 2010-10-05 Panasonic Corporation User interface system
JP5194374B2 (ja) * 2006-03-29 2013-05-08 ヤマハ株式会社 パラメータ編集装置及び信号処理装置
KR100672605B1 (ko) 2006-03-30 2007-01-24 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
US8279180B2 (en) * 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
KR100783553B1 (ko) 2007-01-22 2007-12-07 삼성전자주식회사 이동통신 단말기와, 그의 전화번호부의 그룹사진 생성 방법및 그를 이용한 통신 이벤트 수행 방법
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US20090138800A1 (en) * 2007-11-23 2009-05-28 Mckesson Financial Holdings Limited Apparatus, method and computer-readable storage medium for directing operation of a software application via a touch-sensitive surface
US20110055703A1 (en) * 2009-09-03 2011-03-03 Niklas Lundback Spatial Apportioning of Audio in a Large Scale Multi-User, Multi-Touch System
KR101612283B1 (ko) * 2009-09-10 2016-04-15 삼성전자주식회사 휴대용 단말기에서 사용자의 입력 패턴을 판단하기 위한 장치 및 방법
TW201109994A (en) * 2009-09-10 2011-03-16 Acer Inc Method for controlling the display of a touch screen, user interface of the touch screen, and electronics using the same
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103282869A (zh) * 2010-08-12 2013-09-04 谷歌公司 触摸屏上的手指识别
CN107665089A (zh) * 2010-08-12 2018-02-06 谷歌公司 触摸屏上的手指识别
CN107665089B (zh) * 2010-08-12 2021-01-22 谷歌有限责任公司 触摸屏上的手指识别
CN102375652A (zh) * 2010-08-16 2012-03-14 中国移动通信集团公司 移动终端用户界面调整系统及其调整方法
WO2013044467A1 (zh) * 2011-09-28 2013-04-04 宇龙计算机通信科技(深圳)有限公司 终端和菜单显示方法
CN103984495A (zh) * 2013-02-07 2014-08-13 纬创资通股份有限公司 操作方法以及电子装置
CN103984495B (zh) * 2013-02-07 2016-12-28 纬创资通股份有限公司 操作方法以及电子装置
CN103164160A (zh) * 2013-03-20 2013-06-19 华为技术有限公司 一种左右手交互装置及方法

Also Published As

Publication number Publication date
US8266529B2 (en) 2012-09-11
EP2120131B1 (en) 2015-10-21
KR101150321B1 (ko) 2012-06-08
EP2120131A3 (en) 2012-07-04
US20090287999A1 (en) 2009-11-19
EP2120131A2 (en) 2009-11-18
KR20090118872A (ko) 2009-11-18
CN101582008B (zh) 2012-06-13
JP2009276926A (ja) 2009-11-26
JP5203797B2 (ja) 2013-06-05

Similar Documents

Publication Publication Date Title
CN101582008B (zh) 信息处理装置和信息处理装置的显示信息编辑方法
US10671280B2 (en) User input apparatus, computer connected to user input apparatus, and control method for computer connected to user input apparatus, and storage medium
CN101563666B (zh) 用户界面装置
US9552095B2 (en) Touch screen controller and method for controlling thereof
KR102385759B1 (ko) 컨텍스트 정보에 기초한 터치 표면에 대한 비활성 영역
US9552068B2 (en) Input device with hand posture control
US20100302177A1 (en) Method and apparatus for providing user interface based on contact position and intensity of contact force on touch screen
JP6039343B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
KR100928902B1 (ko) 터칭 도구 또는 손가락의 사용에 따라 제공 정보를 적합화하는 터치 스크린
JP6000797B2 (ja) タッチパネル式入力装置、その制御方法、および、プログラム
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US20100123678A1 (en) Touch input device and method of acquiring contact location and intensity of force using the same
US20120212440A1 (en) Input motion analysis method and information processing device
CN107231814A (zh) 用于错误边界触摸输入检测的动态触摸传感器扫描
CN109478108B (zh) 触控笔通信信道
US8884930B2 (en) Graphical display with optical pen input
CN110597414B (zh) 触摸屏的触控检测方法及相关设备
JPWO2009031213A1 (ja) 携帯端末装置及び表示制御方法
JP2008165575A (ja) タッチパネル装置
US10474354B2 (en) Writing gesture notification method and electronic system using the same
JP6011114B2 (ja) 文字入力装置、文字入力方法、及び文字入力プログラム
JP2010231480A (ja) 筆跡処理装置、プログラム、及び方法
WO2023079921A1 (ja) タッチスクリーン
EP2669766B1 (en) Graphical display with optical pen input
JP6840402B2 (ja) 制御システム、制御方法、プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120613

Termination date: 20190513