CN110249298A - 显示装置 - Google Patents
显示装置 Download PDFInfo
- Publication number
- CN110249298A CN110249298A CN201780085627.3A CN201780085627A CN110249298A CN 110249298 A CN110249298 A CN 110249298A CN 201780085627 A CN201780085627 A CN 201780085627A CN 110249298 A CN110249298 A CN 110249298A
- Authority
- CN
- China
- Prior art keywords
- contact position
- control unit
- datum mark
- display device
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
显示装置(10)具备显示部(20)、检测部(30)和控制部(50)。显示部(20)具有显示面(22)。显示部(20)对图像(G)进行显示。检测部(30)能够基于被检物对显示面(22)的接触来检测出若干个接触位置。若干个接触位置含有第一接触位置(P1)、第二接触位置(P2)和第三接触位置(P3)。在检测部(30)检测出第一接触位置(P1)之后,再检测出第二接触位置(P2)和第三接触位置(P3)的情况下,控制部(50)移动图像(G),使第一接触位置(P1)位于规定的基准点(BP)。控制部(50)根据第二接触位置(P2)与第三接触位置(P3)的距离变化判断出进行了捏合缩放操作后,相对于规定的基准点(BP)进行图像(G)的放大处理或缩小处理。
Description
技术领域
本发明涉及一种显示装置。
背景技术
现有技术中,已知一种显示装置,使用者通过捏合缩放操作来放大或缩小所显示的图像(例如,专利文献1)。专利文献1所述的便携终端中,使用者通过撑开放大操作来放大图像。还有,专利文献1所述的便携终端中,使用者通过捏合缩小操作来缩小图像。
〔专利文献〕
专利文献1:日本特开2015-49621号公报
发明内容
然而,专利文献1所述的便携终端中,使用者进行捏合缩放操作的手指可能与想要放大或缩小的图像重叠,可操作性差。
本发明是鉴于上述课题而作出的,其目的在于提供一种能够提高可操作性的显示装置。
本发明所涉及的显示装置具备显示部、检测部和控制部。所述显示部具有显示面。所述显示部对图像进行显示。所述检测部能够基于被检物对所述显示面的接触来检测出若干个接触位置。所述控制部对所述显示部和所述检测部进行控制。所述若干个接触位置含有第一接触位置、第二接触位置和第三接触位置。在所述检测部检测出所述第一接触位置之后,再检测出所述第二接触位置和所述第三接触位置的情况下,所述控制部移动所述图像,使所述第一接触位置位于规定的基准点。所述控制部根据所述第二接触位置与所述第三接触位置的距离变化判断出进行了捏合缩放操作后,相对于所述规定的基准点进行所述图像的放大处理或缩小处理。
〔发明效果〕
根据本发明,能够提高可操作性。
附图说明
图1是本发明实施方式所涉及的显示装置的框图。
图2A是本发明实施方式所涉及的显示装置的示意图。
图2B是本发明实施方式所涉及的显示装置的示意图。
图2C是本发明实施方式所涉及的显示装置的示意图。
图3是本发明实施方式所涉及的显示装置的图像的放大处理或缩小处理的设定方法流程图。
图4A是本发明实施方式所涉及的显示装置的示意图。
图4B是本发明实施方式所涉及的显示装置的示意图。
图4C是本发明实施方式所涉及的显示装置的示意图。
图5是本发明实施方式所涉及的显示装置的图像的放大处理或缩小处理的设定方法流程图。
图6A是本发明实施方式所涉及的显示装置的示意图。
图6B是本发明实施方式所涉及的显示装置的示意图。
图6C是本发明实施方式所涉及的显示装置的示意图。
图7A是本发明实施方式所涉及的显示装置的示意图。
图7B是本发明实施方式所涉及的显示装置的示意图。
图7C是本发明实施方式所涉及的显示装置的示意图。
图8是本发明实施方式所涉及的显示装置的图像的放大处理或缩小处理的设定方法流程图。
图9是本发明实施方式所涉及的显示装置的图像的放大处理或缩小处理的设定方法流程图。
图10是本发明实施方式所涉及的显示装置的图像的放大处理或缩小处理的设定方法流程图。
具体实施方式
以下,参照附图,对本发明实施方式进行说明。另外,在图中对相同或者相应的部分标上相同的附图标记,不再重复说明。
参照图1和图2A~图2C,对本发明所涉及的显示装置10的实施方式进行说明。图1是本发明实施方式所涉及的显示装置10的框图。图2A~图2C是本发明实施方式所涉及的显示装置10的示意图。图2A中,左手H1表示操作显示装置10的使用者的左手。图2B和图2C中,右手H2表示操作显示装置10的使用者的右手。第一接触位置P1、第二接触位置P2、第三接触位置P3a和第三接触位置P3b是由检测部30检测出的接触位置。距离d1表示第二接触位置P2与第三接触位置P3a的距离。距离d2表示第二接触位置P2与第三接触位置P3b的距离。另外,本说明书中,第一接触位置P1、第二接触位置P2、第三接触位置P3a和第三接触位置P3b有时统称为接触位置P。
如图1所示,显示装置10具备显示部20、检测部30、存储部40和控制部50。显示装置10例如是智能手机或平板电脑。
如图2A~图2C所示,显示部20具有显示面22。显示部20对图像G进行显示。本实施方式中,图像G中含有表示文字A的图像。显示部20例如是液晶面板。
检测部30基于被检物对显示面22的接触来检测接触位置P。检测部30能够检测若干个接触位置P。若干个接触位置P含有第一接触位置P1、第二接触位置P2和第三接触位置P3。检测部30例如是触摸传感器。被检物例如是操作显示装置10的使用者的手指或触摸笔。以下,本说明书中,以操作显示装置10的使用者的手指作为被检物的例子进行说明。
存储部40例如是ROM(Read Only Memory)和RAM(Random Access Memory)。ROM中存储了控制程序。
控制部50对显示部20、检测部30和存储部40进行控制。控制部50例如是CPU(Central Processing Unit)。如图2B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3的情况下,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。然后,如图2C所示,控制部50根据第二接触位置P2与第三接触位置P3的距离变化判断出进行了捏合缩放操作后,相对于规定的基准点BP进行图像G的放大处理或缩小处理。以这种方式,在使用者进行捏合缩放操作时,控制部50移动了图像G再进行图像G的放大处理或缩小处理。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大的图像(例如,表示文字A的图像)发生重叠。其结果,能够提高可操作性。
参照图1~图3,对本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的方法进行说明。图3是本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的设定方法流程图。通过执行图3中的步骤S102~步骤S112的处理,进行图像G的放大处理或缩小处理。本实施方式中,对图像G的放大处理进行说明。
步骤S102:使用者接触第一接触位置P1。具体来说,如图2A所示,使用者的左手H1的食指触摸第一接触位置P1。通过触摸第一接触位置P1,使检测部30检测出第一接触位置P1。处理前进到步骤S104。
步骤S104:使用者接触第二接触位置P2。具体来说,如图2B所示,使用者的右手H2的大拇指触摸第二接触位置P2。通过触摸第二接触位置P2,使检测部30检测出第二接触位置P2。处理前进到步骤S106。
步骤S106:使用者接触第三接触位置P3a。具体来说,如图2B所示,使用者的右手H2的食指触摸第三接触位置P3a。通过触摸第三接触位置P3a,使检测部30检测出第三接触位置P3a。处理前进到步骤S108。
步骤S108:控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。具体来说,如图2B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。本实施方式中,规定的基准点BP位于显示面22的左上侧。因此,图像G移动到左上侧。也就是说,表示文字A的图像移动到左上侧。处理前进到步骤S110。
步骤S110:控制部50判断第二接触位置P2和第三接触位置P3a中是否有至少一个发生了移动。具体来说,控制部50判断使用者的右手H2的大拇指和使用者的右手H2的食指中是否有至少一个发生了移动。更具体来说,控制部50判断第二接触位置P2与第三接触位置P3a的距离是否发生了变化。控制部50在判断为第二接触位置P2和第三接触位置P3a都没有发生移动的情况下(步骤S110:No),也就是说,控制部50判断为使用者没有进行捏合缩放操作的情况下,处理返回步骤S110。控制部50在判断为第二接触位置P2和第三接触位置P3a中至少一个发生了移动的情况下(步骤S110:Yes),也就是说,控制部50判断为使用者进行了捏合缩放操作的情况下,处理前进到步骤S112。例如,如图2C所示,在使用者的右手H2的食指从第三接触位置P3a移动到了第三接触位置P3b的情况下,第二接触位置P2与第三接触位置P3b的距离从距离d1变为距离d2。因此,控制部50判断为使用者进行了捏合缩放操作(步骤S110:Yes),处理前进到步骤S112。
步骤S112:控制部50相对于规定的基准点BP进行图像G的放大处理或缩小处理。具体来说,控制部50以基准点BP为起点进行图像G的放大处理或缩小处理。本实施方式中,如图2C所示,控制部50以基准点BP为起点进行图像G的放大处理。处理结束。
如上述参照图1~图3进行的说明,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a的情况下,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。控制部50根据第二接触位置P2与第三接触位置P3a的距离变化判断出进行了捏合缩放操作后,相对于规定的基准点BP进行图像G的放大处理或缩小处理。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大的图像(例如,表示文字A的图像)发生重叠。其结果,能够提高可操作性。
还有,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。因此,在进行捏合缩放操作之前,移动图像G使第一接触位置P1位于规定的基准点BP。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大的图像(例如,表示文字A的图像)发生重叠。其结果,能够提高可操作性。
另外,在使用者进行捏合缩放操作之前,可以使接触的手指离开第一接触位置P1,也可以按压着第一接触位置P1进行捏合缩放操作。
参照图1~图3说明了的显示装置10中,规定的基准点BP位于显示面22的左上侧,但规定的基准点BP也可以位于显示面22的中央。
参照图1和图4A~图4C,对本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的方法进行说明。图4A~图4C是本发明实施方式所涉及的显示装置10的示意图。
如图4A所示,通过触摸第一接触位置P1,使检测部30检测出第一接触位置P1。
如图4B所示,通过触摸第二接触位置P2,使检测部30检测出第二接触位置P2。还有,通过触摸第三接触位置P3a,使检测部30检测出第三接触位置P3a。在检测部30检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。本实施方式中,规定的基准点BP位于显示面22的中央。因此,表示文字A的图像移动到中央。
如图4C所示,使用者的右手H2的食指从第三接触位置P3a移动到了第三接触位置P3b的情况下,第二接触位置P2与第三接触位置P3b的距离从距离d1变为距离d2。其结果,控制部50判断为使用者进行了捏合缩放操作。然后,控制部50相对于规定的基准点BP进行图像G的放大处理或缩小处理。具体来说,控制部50以基准点BP为起点进行图像G的放大处理或缩小处理。本实施方式中,如图4C所示,控制部50以基准点BP为起点进行图像G的缩小处理。
如上述参照图1和图4A~图4C进行的说明,规定的基准点BP位于显示面22的中央。因此,在进行捏合缩放操作的情况下,想要放大或缩小的图像(例如,表示文字A的图像)显示在中央。其结果,移动第一接触位置P1,想要放大或缩小的图像移动到容易看到的位置。其结果,能够提高可操作性。
显示装置10也可以基于第一接触位置P1与操作位置MP的位置关系来切换基准点BP。操作位置MP由第二接触位置P2和第三接触位置P3a来规定。
参照图1和图5~图7C,对本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的方法进行说明。图5是本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的设定方法流程图。图6A~图6C和图7A~图7C是本发明实施方式所涉及的显示装置10的示意图。
图6A~图6C和图7A~图7C中,端部Ea、端部Eb、端部Ec和端部Ed分别表示显示面22的上侧的端部、显示面22的右侧的端部、显示面22的下侧的端部和显示面22的左侧的端部。图6A~图6C和图7A~图7C中,角落部Ca、角落部Cb、角落部Cc和角落部Cd分别表示显示面22的左上侧的角落部、显示面22的右上侧的角落部、显示面22的右下侧的角落部、显示面22的左下侧的角落部。图6A~图6C和图7A~图7C中,边界线BL表示通过第一接触位置P1的边界线。第一区域R1和第二区域R2是由边界线BL分割的区域。图6A~图6C和图7A~图7C中,第一区域R1位于第一接触位置P1的左侧,第二区域R2位于第一接触位置P1的右侧。
通过执行图5中的步骤S202~步骤S220的处理,进行图像G的放大处理或缩小处理。本实施方式中,对图像G的放大处理进行说明。省略了与图3的流程图中的图像G的放大处理或缩小处理的方法的重复说明。
步骤S202:使用者接触第一接触位置P1。具体来说,如图6A和图7A所示,使用者的左手H1的食指触摸第一接触位置P1。通过触摸第一接触位置P1,使检测部30检测出第一接触位置P1。检测部30检测到第一接触位置P1后,控制部50确定出边界线BL,使其通过第一接触位置P1。然后,控制部50将边界线BL分割的2个区域确定为第一区域R1和第二区域R2。处理前进到步骤S204。
步骤S204:使用者接触第二接触位置P2。具体来说,如图6B和图7B所示,使用者的右手H2的大拇指触摸第二接触位置P2。通过触摸第二接触位置P2,使检测部30检测出第二接触位置P2。处理前进到步骤S206。
步骤S206:使用者接触第三接触位置P3a。具体来说,如图6B和图7B所示,使用者的右手H2的食指触摸第三接触位置P3a。通过触摸第三接触位置P3a,使检测部30检测出第三接触位置P3a。处理前进到步骤S208。
步骤S208:控制部50对第一接触位置P1与操作位置MP的位置关系进行识别。如图6B和图7B所示,操作位置MP由第二接触位置P2和第三接触位置P3a来规定。本实施方式中,操作位置MP是第二接触位置P2和第三接触位置P3a的中间点。另外,操作位置MP也可以是第二接触位置P2和第三接触位置P3a中的任意一个位置。处理前进到步骤S210。
步骤S210:控制部50对操作位置MP相对于第一接触位置P1的位置关系进行判断。控制部50在判断为操作位置MP位于第一接触位置P1的左侧的情况下(步骤S210:左侧),处理前进到步骤S214。控制部50在判断为操作位置MP位于第一接触位置P1的右侧的情况下(步骤S210:右侧),处理前进到步骤S212。例如,如图7B所示,在操作位置MP位于第一接触位置P1的左侧的情况下,控制部50判断为操作位置MP位于第一接触位置P1的左侧,处理前进到步骤S214。另一方面,如图6B所示,在操作位置MP位于第一接触位置P1的右侧的情况下,控制部50判断为操作位置MP位于第一接触位置P1的右侧,处理前进到步骤S212。
步骤S212:控制部50将规定的基准点BP确定在显示面22的左上侧。也就是说,如图6B所示,控制部50将规定的基准点BP确定在与操作位置MP所在的第二区域R2不同的第一区域R1。本实施方式中,规定的基准点BP位于端部Ea。具体来说,规定的基准点BP位于角落部Ca。处理前进到步骤S216。
步骤S214:控制部50将规定的基准点BP确定在显示面22的右上侧。也就是说,如图7B所示,控制部50将规定的基准点BP确定在与操作位置MP所在的第一区域R1不同的第二区域R2。本实施方式中,规定的基准点BP位于端部Ea。具体来说,规定的基准点BP位于角落部Cb。处理前进到步骤S216。
步骤S216:控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。具体来说,步骤S210中,控制部50在判断为操作位置MP位于第一接触位置P1的右侧的情况下(步骤S210:右侧),如图6B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于由控制部50确定出的规定的基准点BP,也就是位于显示面22的左上侧。因此,图像G移动到显示面22的左上侧。也就是说,表示文字A的图像移动到显示面22的左上侧。另一方面,步骤S210中,控制部50在判断为操作位置MP位于第一接触位置P1的左侧的情况下(步骤S210:左侧),如图7B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于由控制部50确定出的规定的基准点BP,也就是位于显示面22的右上侧。也就是说,控制部50移动图像G,使第一接触位置P1位于显示面22的右上侧。因此,图像G移动到显示面22的右上侧。也就是说,表示文字B的图像移动到显示面22的右上侧。处理前进到步骤S218。
步骤S218:控制部50判断第二接触位置P2和第三接触位置P3a中是否有至少一个发生了移动。具体来说,控制部50判断使用者的右手H2的大拇指和使用者的右手H2的食指中是否有至少一个发生了移动。更具体来说,控制部50判断第二接触位置P2与第三接触位置P3a的距离是否发生了变化。控制部50在判断为第二接触位置P2和第三接触位置P3a都没有发生移动的情况下(步骤S218:No),也就是说,控制部50判断为使用者没有进行捏合缩放操作的情况下,处理返回步骤S218。控制部50在判断为第二接触位置P2和第三接触位置P3a中至少一个发生了移动的情况下(步骤S218:Yes),也就是说,控制部50判断为使用者进行了捏合缩放操作的情况下,处理前进到步骤S220。例如,如图6C和图7C所示,使用者的右手H2的食指从第三接触位置P3a移动到了第三接触位置P3b的情况下,第二接触位置P2与第三接触位置P3b的距离从距离d1变为距离d2。因此,控制部50判断为使用者进行了捏合缩放操作(步骤S218:Yes),处理前进到步骤S220。
步骤S220:控制部50相对于规定的基准点BP进行图像G的放大处理或缩小处理。具体来说,控制部50以基准点BP为起点进行图像G的放大处理或缩小处理。例如,如图6C所示,控制部50以基准点BP(也就是说,显示面22的左上侧)为起点进行图像G的放大处理。或者,如图7C所示,控制部50以基准点BP(也就是说,显示面22的右上侧)为起点进行图像G的放大处理。处理结束。
如上述参照图1和图5~图7C进行的说明,控制部50对第一接触位置P1与由第二接触位置P2和第三接触位置P3a规定的操作位置MP之间的位置关系进行识别,基于位置关系确定出规定的基准点BP。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大的图像(例如,表示文字A或文字B的图像)发生重叠。其结果,能够提高可操作性。
还有,显示面22含有由通过第一接触位置P1的边界线BL分割的2个区域。控制部50在判断为操作位置MP位于2个区域(第一区域R1和第二区域R2)中的一个区域的情况下,将规定的基准点BP确定为位于2个区域中的另一个区域。例如,控制部50在判断为操作位置MP位于第一区域R1的情况下,将规定的基准点BP确定为位于第二区域R2。另一方面,控制部50在判断为操作位置MP位于第二区域R2的情况下,将规定的基准点BP确定为位于第一区域R1。因此,进行捏合缩放操作时,图像G已移动到了与进行捏合缩放操作的位置不同的另一侧区域。其结果,能够抑制进行捏合缩放操作的使用者的手指与想要放大或缩小的图像(例如,表示文字A或文字B的图像)发生重叠。其结果,能够提高可操作性。
控制部50在判断为操作位置MP位于第一接触位置P1的右侧的情况下,将规定的基准点BP确定为位于显示面22的左上侧,在判断为操作位置MP位于第一接触位置P1的左侧的情况下,将规定的基准点BP确定为位于显示面22的右上侧。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大或缩小的图像(例如,表示文字A或文字B的图像)发生重叠。其结果,能够提高可操作性。
也可以根据检测到第三接触位置P3的时间,来改变放大处理或缩小处理的起点位置设定。参照图1、图6A~图6C和图8,对本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的方法进行说明。图8是本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的设定方法流程图。通过执行图8中的步骤S302~步骤S322的处理,进行图像G的放大处理或缩小处理。本实施方式中,对图像G的放大处理进行说明。图8的流程图的图像G的放大处理或缩小处理的方法中,根据检测到第三接触位置P3的时间,改变放大处理或缩小处理的起点位置设定。省略了与图3的流程图中的图像G的放大处理或缩小处理的方法的重复说明。
步骤S302:使用者在时刻t1接触第一接触位置P1。具体来说,如图6A所示,使用者的左手H1的食指触摸第一接触位置P1。通过触摸第一接触位置P1,使检测部30检测出第一接触位置P1。处理前进到步骤S304。
步骤S304:控制部50将时刻t1存储在存储部40中。处理前进到步骤S306。
步骤S306:使用者接触第二接触位置P2。具体来说,如图6B所示,使用者的右手H2的大拇指触摸第二接触位置P2。通过触摸第二接触位置P2,使检测部30检测出第二接触位置P2。处理前进到步骤S308。
步骤S308:使用者在时刻t2接触第三接触位置P3a。具体来说,如图6B所示,使用者的右手H2的食指触摸第三接触位置P3a。通过触摸第三接触位置P3a,使检测部30检测出第三接触位置P3a。处理前进到步骤S310。
步骤S310:控制部50将时刻t2存储在存储部40中。处理前进到步骤S312。
步骤S312:控制部50判断时刻t2-时刻t1(第一期间)是否是基准点位置判定期间(阈值)以下。基准点位置判定期间存储在存储部40中。基准点位置判定期间例如是5秒。控制部50在时刻t2-时刻t1比基准点位置判定期间长的情况下(步骤S312:No),处理前进到步骤S320。控制部50在时刻t2-时刻t1是基准点位置判定期间以下的情况下(步骤S312:Yes),处理前进到步骤S314。
步骤S314:控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。具体来说,如图6B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。本实施方式中,规定的基准点BP位于显示面22的左上侧。因此,图像G移动到左上侧。也就是说,表示文字A的图像移动到左上侧。处理前进到步骤S316。
步骤S316:控制部50判断第二接触位置P2和第三接触位置P3a中是否有至少一个发生了移动。具体来说,控制部50判断使用者的右手H2的大拇指和使用者的右手H2的食指中是否有至少一个发生了移动。更具体来说,控制部50判断第二接触位置P2与第三接触位置P3a的距离是否发生了变化。控制部50在判断为第二接触位置P2和第三接触位置P3a都没有发生移动的情况下(步骤S316:No),也就是说,控制部50判断为使用者没有进行捏合缩放操作的情况下,处理返回步骤S316。控制部50在判断为第二接触位置P2和第三接触位置P3a中至少一个发生了移动的情况下(步骤S316:Yes),也就是说,控制部50判断为使用者进行了捏合缩放操作的情况下,处理前进到步骤S318。例如,如图6C所示,使用者的右手H2的食指从第三接触位置P3a移动到了第三接触位置P3b的情况下,第二接触位置P2与第三接触位置P3b的距离从距离d1变为距离d2。因此,控制部50判断为使用者进行了捏合缩放操作(步骤S316:Yes),处理前进到步骤S318。
步骤S318:控制部50相对于规定的基准点BP进行图像G的放大处理或缩小处理。具体来说,控制部50以基准点BP为起点进行图像G的放大处理或缩小处理。本实施方式中,如图6C所示,控制部50以基准点BP为起点进行图像G的放大处理。处理结束。
步骤S320:控制部50判断第二接触位置P2和第三接触位置P3a中是否有至少一个发生了移动。具体来说,控制部50判断使用者的右手H2的大拇指和使用者的右手H2的食指中是否有至少一个发生了移动。更具体来说,控制部50判断第二接触位置P2与第三接触位置P3a的距离是否发生了变化。控制部50在判断为第二接触位置P2和第三接触位置P3a都没有发生移动的情况下(步骤S320:No),也就是说,控制部50判断为使用者没有进行捏合缩放操作的情况下,处理返回步骤S320。控制部50在判断为第二接触位置P2和第三接触位置P3a中至少一个发生了移动的情况下(步骤S320:Yes),也就是说,控制部50判断为使用者进行了捏合缩放操作的情况下,处理前进到步骤S322。例如,如图6C所示,使用者的右手H2的食指从第三接触位置P3a移动到了第三接触位置P3b的情况下,第二接触位置P2与第三接触位置P3b的距离从距离d1变为距离d2。因此,控制部50判断为使用者进行了捏合缩放操作(步骤S320:Yes),处理前进到步骤S322。
步骤S322:控制部50相对于操作位置MP进行图像G的放大处理或缩小处理。具体来说,控制部50以操作位置MP为起点进行图像G的放大处理或缩小处理。本实施方式中,控制部50以操作位置MP为起点进行图像G的放大处理。处理结束。
如参照图1、图2A~图2C和图8进行的说明,显示装置10中,控制部50判断检测到第一接触位置P1的时刻t1与检测到第三接触位置P3的时刻t2之间的期间(即第一期间,时刻t2-时刻t1)是否是阈值(基准点位置判定期间)以下。控制部50基于判断结果移动图像G,使第一接触位置P1位于规定的基准点BP。
具体来说,控制部50在判断为第一期间(时刻t2-时刻t1)是阈值(基准点位置判定期间)以下的情况下,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。然后,控制部50相对于基准点BP进行图像G的放大处理或缩小处理。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大或缩小的图像(例如,表示文字A或文字B的图像)发生重叠。其结果,能够提高可操作性。
另一方面,控制部50在判断为第一期间(时刻t2-时刻t1)比阈值(基准点位置判定期间)长的情况下,控制部50不移动图像G,就相对于操作位置MP进行图像G的放大处理或缩小处理。因此,使用者不通过触摸操作指定图像G的移动目的地,直接进行捏合缩放操作时,能够不移动图像G,而直接相对于捏合缩放操作的位置进行图像G的放大处理或缩小处理。
以这种方式,显示装置10中,根据接触第三接触位置P3a的时间,能够改变进行捏合缩放操作时是否移动图像G。因此,使用者能够根据实际需要改变想要放大或缩小的图像G的位置设定。
参照图1~图8说明了的显示装置10中,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。不过,控制部50也可以在判断为进行了捏合缩放操作时移动图像G,使第一接触位置P1位于规定的基准点BP。
参照图1和图9,对本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的方法进行说明。图9是本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的设定方法流程图。通过执行图9中的步骤S402~步骤S412的处理,进行图像G的放大处理或缩小处理。图9的流程图的图像G的放大处理或缩小处理的方法中,除了控制部50移动图像G的时机不同这点以外,与图3的流程图的图像G的放大处理或缩小处理的方法相同,因此省略重复部分的说明。
步骤S402~步骤S406:使用者接触第一接触位置P1、第二接触位置P2和第三接触位置P3a。执行步骤S402~步骤S406的处理后,处理前进到步骤S408。
步骤S408:控制部50判断第二接触位置P2和第三接触位置P3a中是否有至少一个发生了移动。具体来说,控制部50判断使用者的右手H2的大拇指和使用者的右手H2的食指中是否有至少一个发生了移动。更具体来说,控制部50判断第二接触位置P2与第三接触位置P3a的距离是否发生了变化。控制部50在判断为第二接触位置P2和第三接触位置P3a都没有发生移动的情况下(步骤S408:No),也就是说,控制部50判断为使用者没有进行捏合缩放操作的情况下,处理返回步骤S408。控制部50在判断为第二接触位置P2和第三接触位置P3a中至少一个发生了移动的情况下(步骤S408:Yes),也就是说,控制部50判断为使用者进行了捏合缩放操作的情况下,处理前进到步骤S410。
步骤S410:控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。具体来说,控制部50在判断为进行了捏合缩放操作时移动图像G,使第一接触位置P1位于规定的基准点BP。处理前进到步骤S412。
步骤S412:控制部50相对于规定的基准点BP进行图像G的放大处理或缩小处理。具体来说,控制部50以基准点BP为起点进行图像G的放大处理或缩小处理。本实施方式中,控制部50以基准点BP为起点进行图像G的放大处理。处理结束。
如上述参照图1和图9进行的说明,控制部50在判断为进行了捏合缩放操作时移动图像G,使第一接触位置P1位于规定的基准点BP。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大的图像(例如,表示文字A的图像)发生重叠。其结果,能够提高可操作性。
也可以根据进行了捏合缩小操作还是撑开放大操作,来改变放大处理或缩小处理的起点位置设定。参照图1、图2A~图2C、图4A~图4C和图10,对本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的方法进行说明。图10是本发明实施方式所涉及的显示装置10的图像G的放大处理或缩小处理的设定方法流程图。通过执行图10中的步骤S502~步骤S522的处理,进行图像G的放大处理或缩小处理。省略了与图3的流程图中的图像G的放大处理或缩小处理的方法的重复说明。
步骤S502:使用者接触第一接触位置P1。具体来说,如图2A和图4A所示,使用者的左手H1的食指触摸第一接触位置P1。通过触摸第一接触位置P1,使检测部30检测出第一接触位置P1。处理前进到步骤S504。
步骤S504:使用者接触第二接触位置P2。具体来说,如图2B和图4B所示,使用者的右手H2的大拇指触摸第二接触位置P2。通过触摸第二接触位置P2,使检测部30检测出第二接触位置P2。处理前进到步骤S506。
步骤S506:使用者接触第三接触位置P3a。具体来说,如图2B和图4B所示,使用者的右手H2的食指触摸第三接触位置P3a。通过触摸第三接触位置P3a,使检测部30检测出第三接触位置P3a。处理前进到步骤S508。
步骤S508:控制部50判断第二接触位置P2和第三接触位置P3a中是否有至少一个发生了移动。具体来说,控制部50判断使用者的右手H2的大拇指和使用者的右手H2的食指中是否有至少一个发生了移动。更具体来说,控制部50判断第二接触位置P2与第三接触位置P3a的距离是否发生了变化。控制部50在判断为第二接触位置P2和第三接触位置P3a都没有发生移动的情况下(步骤S508:No),也就是说,控制部50判断为使用者没有进行捏合缩放操作的情况下,处理返回步骤S508。控制部50在判断为第二接触位置P2和第三接触位置P3a中至少一个发生了移动的情况下(步骤S508:Yes),也就是说,控制部50判断为使用者进行了捏合缩放操作的情况下,处理前进到步骤S510。
步骤S510:控制部50判断第二接触位置P2与第三接触位置P3a的距离发生了什么样的变化。具体来说,相对于步骤S506中由检测部30检测到第三接触位置P3a时第二接触位置P2与第三接触位置P3a的距离d1,控制部50判断第二接触位置P2与第三接触位置P3a的距离是变长了还是变短了。控制部50在判断为相对于距离d1变短了的情况下(步骤S510:变短了),也就是说,控制部50判断为进行了捏合缩小操作的情况下,处理前进到步骤S518。控制部50在判断为相对于距离d1变长了的情况下(步骤S510:变长了),也就是说,控制部50判断为进行了撑开放大操作的情况下,处理前进到步骤S512。
步骤S512:控制部50将规定的基准点BP确定在显示面22的端部。例如,控制部50将规定的基准点BP确定在显示面22的左上侧。处理前进到步骤S514。
步骤S514:控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。具体来说,如图2B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。本实施方式中,规定的基准点BP位于显示面22的左上侧。因此,图像G移动到左上侧。也就是说,表示文字A的图像移动到左上侧。处理前进到步骤S516。
步骤S516:控制部50相对于规定的基准点BP进行图像G的放大处理。具体来说,如图2C所示,控制部50以基准点BP为起点进行图像G的放大处理。处理结束。
步骤S518:控制部50将规定的基准点BP确定在显示面22的中央。处理前进到步骤S520。
步骤S520:控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。具体来说,如图4B所示,在检测部30检测出第一接触位置P1之后,再检测出第二接触位置P2和第三接触位置P3a时,控制部50移动图像G,使第一接触位置P1位于规定的基准点BP。本实施方式中,规定的基准点BP位于显示面22的中央。因此,表示文字A的图像移动到中央。处理前进到步骤S522。
步骤S522:控制部50相对于规定的基准点BP进行图像G的缩小处理。具体来说,如图4C所示,控制部50以基准点BP为起点进行图像G的缩小处理。处理结束。
如上述参照图1、图2A~图2C、图4A~图4C和图10进行的说明,在控制部50判断为进行了撑开放大操作的情况下,控制部50将规定的基准点BP确定在显示面22的端部。还有,在控制部50判断为进行了捏合缩小操作的情况下,控制部50将规定的基准点BP确定在显示面22的中央。因此,在捏合缩放操作时,对应于捏合缩放操作的种类,图像G移动到容易看到的位置。因此,能够抑制进行捏合缩放操作的使用者的手指与想要放大的图像(例如,表示文字A的图像)发生重叠。其结果,能够提高可操作性。
如上所述,参照附图(图1~图10)说明了本发明实施方式。但是,本发明不限于上述的实施方式,可以在不脱离其要旨的范围内以各种方式进行实施(例如,下列(1)~(2))。为了便于理解,附图中主要对各结构要素进行了示意性地表示,为了方便作图,图示各结构要素的长度、个数等可能与实际有出入。还有,上述实施方式所示的各结构要素的形状、尺寸等只是一个例子,不是特别限定,可以在实质上不脱离本发明效果的范围内进行各种变更。
(1)如参照图6A~图6C和图7A~图7C进行的说明,显示装置10中,显示面22由边界线BL分割为左右2个区域,但本发明不限于此。例如,显示面22也可以由边界线BL分割为上下2个区域。
(2)如参照图1~图10进行的说明,显示装置10是智能手机或平板电脑,但本发明不限于此。例如,显示装置10也可以设置在图像形成装置中。
Claims (14)
1.一种显示装置,具备:
显示部,具有显示面,并对图像进行显示;
检测部,能够基于被检物对所述显示面的接触来检测出若干个接触位置;以及
控制部,对所述显示部和所述检测部进行控制,
所述若干个接触位置含有第一接触位置、第二接触位置和第三接触位置,
在所述检测部检测出所述第一接触位置之后,再检测出所述第二接触位置和所述第三接触位置的情况下,所述控制部移动所述图像,使所述第一接触位置位于规定的基准点,所述控制部根据所述第二接触位置与所述第三接触位置的距离变化判断出进行了捏合缩放操作后,相对于所述规定的基准点进行所述图像的放大处理或缩小处理。
2.根据权利要求1所述的显示装置,其特征在于,
所述规定的基准点位于所述显示面的端部。
3.根据权利要求2所述的显示装置,其特征在于,
所述规定的基准点位于所述显示面的角落部。
4.根据权利要求3所述的显示装置,其特征在于,
所述规定的基准点位于所述显示面的左上侧。
5.根据权利要求1所述的显示装置,其特征在于,
所述控制部对所述第一接触位置与操作位置之间的位置关系进行识别,基于所述位置关系确定出所述规定的基准点,所述操作位置由所述第二接触位置和所述第三接触位置进行规定。
6.根据权利要求5所述的显示装置,其特征在于,
所述显示面含有由通过所述第一接触位置的边界线分割的2个区域,
所述控制部在判断为所述操作位置位于所述2个区域中的一个区域的情况下,将所述规定的基准点确定为位于所述2个区域中的另一个区域。
7.根据权利要求6所述的显示装置,其特征在于,
所述控制部在判断为所述操作位置位于所述第一接触位置的右侧的情况下,将所述规定的基准点确定为位于所述显示面的左上侧,在判断为所述操作位置位于所述第一接触位置的左侧的情况下,将所述规定的基准点确定为位于所述显示面的右上侧。
8.根据权利要求5所述的显示装置,其特征在于,
所述操作位置是所述第二接触位置和所述第三接触位置的中间点。
9.根据权利要求5所述的显示装置,其特征在于,
所述操作位置是所述第二接触位置和所述第三接触位置中的任意一个位置。
10.根据权利要求1所述的显示装置,其特征在于,
所述规定的基准点位于所述显示面的中央。
11.根据权利要求1所述的显示装置,其特征在于,
在所述检测部检测出所述第一接触位置之后,再检测出所述第二接触位置和所述第三接触位置时,所述控制部移动所述图像,使所述第一接触位置位于所述规定的基准点。
12.根据权利要求1所述的显示装置,其特征在于,
所述控制部在判断为进行了所述捏合缩放操作时移动所述图像,使所述第一接触位置位于所述规定的基准点。
13.根据权利要求1所述的显示装置,其特征在于,
所述控制部判断第一期间是否是阈值以下,所述第一期间表示检测到所述第一接触位置的时刻与检测到所述第三接触位置的时刻之间的期间,
基于判断结果移动所述图像,使所述第一接触位置位于所述规定的基准点。
14.根据权利要求1所述的显示装置,其特征在于,
所述控制部在所述第二接触位置与所述第三接触位置的距离变长了的情况下判断为进行了撑开放大操作,在所述第二接触位置与所述第三接触位置的距离变短了的情况下判断为进行了捏合缩小操作,在判断为进行了所述撑开放大操作的情况下,将所述规定的基准点确定在所述显示面的端部,在判断为进行了所述捏合缩小操作的情况下,将所述规定的基准点确定在所述显示面的中央。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017019424 | 2017-02-06 | ||
JP2017-019424 | 2017-02-06 | ||
PCT/JP2017/044917 WO2018142783A1 (ja) | 2017-02-06 | 2017-12-14 | 表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110249298A true CN110249298A (zh) | 2019-09-17 |
CN110249298B CN110249298B (zh) | 2022-09-27 |
Family
ID=63040381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780085627.3A Active CN110249298B (zh) | 2017-02-06 | 2017-12-14 | 显示装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10976902B2 (zh) |
EP (1) | EP3579094B1 (zh) |
JP (1) | JP6791272B2 (zh) |
CN (1) | CN110249298B (zh) |
WO (1) | WO2018142783A1 (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110012848A1 (en) * | 2008-04-03 | 2011-01-20 | Dong Li | Methods and apparatus for operating a multi-object touch handheld device with touch sensitive display |
US20130093727A1 (en) * | 2002-11-04 | 2013-04-18 | Neonode, Inc. | Light-based finger gesture user interface |
US20130104076A1 (en) * | 2010-06-30 | 2013-04-25 | Koninklijke Philips Electronics N.V. | Zooming-in a displayed image |
US20140089828A1 (en) * | 2012-09-25 | 2014-03-27 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling the same, and storage medium |
CN103853492A (zh) * | 2012-11-29 | 2014-06-11 | 柯尼卡美能达株式会社 | 搭载触摸面板作为用户界面的信息处理装置 |
CN105068751A (zh) * | 2009-07-28 | 2015-11-18 | 索尼公司 | 显示控制设备、显示控制方法和计算机程序 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8578292B2 (en) * | 2006-12-14 | 2013-11-05 | Microsoft Corporation | Simultaneous document zoom and centering adjustment |
US20140071171A1 (en) * | 2012-09-12 | 2014-03-13 | Alcatel-Lucent Usa Inc. | Pinch-and-zoom, zoom-and-pinch gesture control |
JP5414134B1 (ja) * | 2013-02-08 | 2014-02-12 | 島根県 | タッチ式入力システムおよび入力制御方法 |
JP6244655B2 (ja) * | 2013-05-16 | 2017-12-13 | ソニー株式会社 | 画像処理装置および画像処理方法 |
KR20150000278A (ko) * | 2013-06-24 | 2015-01-02 | 삼성전자주식회사 | 디스플레이 장치 및 제어 방법 |
JP2015007844A (ja) * | 2013-06-24 | 2015-01-15 | キヤノンマーケティングジャパン株式会社 | ユーザインタフェース装置、ユーザインタフェース方法およびプログラム |
JP2015049621A (ja) | 2013-08-30 | 2015-03-16 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JP6351971B2 (ja) * | 2013-12-25 | 2018-07-04 | シャープ株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20170177204A1 (en) * | 2015-12-18 | 2017-06-22 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Centering gesture to enhance pinch-to-zoom gesture on touchscreens |
US20170220241A1 (en) * | 2016-01-29 | 2017-08-03 | Onshape Inc. | Force touch zoom selection |
US10416777B2 (en) * | 2016-08-16 | 2019-09-17 | Microsoft Technology Licensing, Llc | Device manipulation using hover |
-
2017
- 2017-12-14 EP EP17895375.8A patent/EP3579094B1/en active Active
- 2017-12-14 WO PCT/JP2017/044917 patent/WO2018142783A1/ja active Application Filing
- 2017-12-14 CN CN201780085627.3A patent/CN110249298B/zh active Active
- 2017-12-14 US US16/483,179 patent/US10976902B2/en active Active
- 2017-12-14 JP JP2018565978A patent/JP6791272B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130093727A1 (en) * | 2002-11-04 | 2013-04-18 | Neonode, Inc. | Light-based finger gesture user interface |
US20110012848A1 (en) * | 2008-04-03 | 2011-01-20 | Dong Li | Methods and apparatus for operating a multi-object touch handheld device with touch sensitive display |
CN105068751A (zh) * | 2009-07-28 | 2015-11-18 | 索尼公司 | 显示控制设备、显示控制方法和计算机程序 |
US20130104076A1 (en) * | 2010-06-30 | 2013-04-25 | Koninklijke Philips Electronics N.V. | Zooming-in a displayed image |
CN103946766A (zh) * | 2011-11-30 | 2014-07-23 | 内奥诺德公司 | 基于光的手指姿势用户接口 |
US20140089828A1 (en) * | 2012-09-25 | 2014-03-27 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling the same, and storage medium |
CN103853492A (zh) * | 2012-11-29 | 2014-06-11 | 柯尼卡美能达株式会社 | 搭载触摸面板作为用户界面的信息处理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200233549A1 (en) | 2020-07-23 |
EP3579094A1 (en) | 2019-12-11 |
EP3579094A4 (en) | 2020-12-16 |
EP3579094B1 (en) | 2023-06-07 |
US10976902B2 (en) | 2021-04-13 |
JP6791272B2 (ja) | 2020-11-25 |
JPWO2018142783A1 (ja) | 2019-11-21 |
WO2018142783A1 (ja) | 2018-08-09 |
CN110249298B (zh) | 2022-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11086412B2 (en) | Method for determining display orientation and electronic apparatus using the same and computer readable recording medium | |
JP4899334B2 (ja) | 情報出力装置 | |
JP5999830B2 (ja) | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 | |
CN104238768A (zh) | 手写输入装置以及控制方法 | |
JP2004280836A (ja) | 筆記モーションの画区分認識システムおよびその認識方法 | |
JP2014075053A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
CN104781769A (zh) | 携带式装置 | |
KR20100020389A (ko) | 접촉 지점의 크기를 이용한 입력 방법 및 장치 | |
US20150355797A1 (en) | Electronic equipment, display control method and storage medium | |
KR102448803B1 (ko) | 수중 상태에서 압력 센서를 이용하여 사용자 입력을 획득하는 전자 장치 및 상기 전자 장치를 제어하는 방법 | |
JP6202874B2 (ja) | 電子機器、キャリブレーション方法およびプログラム | |
KR101180865B1 (ko) | 터치펜 좌표 인식 방법 및 이를 수행하기 위한 시스템 | |
CN105045471B (zh) | 触摸操作输入装置、触摸操作输入方法和记录介质 | |
CN105930070B (zh) | 穿戴式电子装置以及手势检测方法 | |
JP6000035B2 (ja) | 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体 | |
KR20140077000A (ko) | 터치 패널 및 이에 대한 디지타이저 펜의 위치 감지 방법 | |
JP5172889B2 (ja) | 手書き入力装置、手書き入力方法、及び手書き入力プログラム | |
CN110249298A (zh) | 显示装置 | |
EP2876540A1 (en) | Information processing device | |
JP2014186401A (ja) | 情報表示装置 | |
CN103885697A (zh) | 页面操作系统及方法 | |
JP6294597B2 (ja) | 情報表示装置、プログラム、記録媒体、および情報表示方法 | |
JP6112506B2 (ja) | 携帯型電子機器 | |
EP2871559A1 (en) | Image display device, image enlargement method, and image enlargement program | |
JP7225638B2 (ja) | 情報処理システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |