CN103914161B - 输入显示装置和输入显示装置的控制装置 - Google Patents

输入显示装置和输入显示装置的控制装置 Download PDF

Info

Publication number
CN103914161B
CN103914161B CN201410003427.7A CN201410003427A CN103914161B CN 103914161 B CN103914161 B CN 103914161B CN 201410003427 A CN201410003427 A CN 201410003427A CN 103914161 B CN103914161 B CN 103914161B
Authority
CN
China
Prior art keywords
input
region
handss
nib
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410003427.7A
Other languages
English (en)
Other versions
CN103914161A (zh
Inventor
芳野大树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of CN103914161A publication Critical patent/CN103914161A/zh
Application granted granted Critical
Publication of CN103914161B publication Critical patent/CN103914161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Abstract

本发明提供即使用户不进行只用于指示信息的显示方向的特别的操作,也能够基于用户对画面的输入操作来确定该用户相对于画面的位置,并向适合用户的方向显示信息的输入显示装置以及输入显示装置的控制装置,该输入显示装置具备显示信息的显示画面和检测对该显示画面的输入的传感器,能够使用笔进行输入操作,控制部针对由所述传感器检测到的输入区域,根据该输入区域的大小,来判定是基于笔尖的输入区域还是基于持有笔的手的输入区域,根据判定为基于笔尖的笔尖区域和判定为基于手姿势的手姿势区域的相互位置关系,来切换所述显示画面中信息的显示方向。

Description

输入显示装置和输入显示装置的控制装置
技术领域
本发明涉及具备了触摸面板等输入装置的能够由笔进行手写输入的输入显示装置,尤其是涉及使画面成为水平或接近水平的状态来进行使用的输入显示装置。
背景技术
以往,较多地使用在显示装置上叠加了触摸面板等输入装置的输入显示装置。作为触摸面板,具有电阻膜方式、静电电容方式以及在显示部的像素中具备光传感器的光传感器内置LCD方式等。
即使在这种输入显示装置中,例如也存在如在桌子上设置画面的桌型输入显示装置那样的、使画面成为水平状态来进行使用的输入显示装置。在水平状态下使用画面的输入显示装置中,根据用户相对于输入显示装置的位置来转换显示方向(所显示的图像的朝向)。以往,作为确定用户位置来控制显示方向的技术,提出了各种方案。
例如,在专利文献1中提出了在桌型输入显示装置中设置红外线传感器,利用该红外线传感器来检测用户,按照从检测到的用户观察时图像被正面显示的方式来控制显示方向的方案。
此外,在专利文献2中提出了在信息终端装置的画面周围的四个角设置传感器,根据用笔接触该传感器来决定显示方向的方案。此外,在专利文献2中,还提出了以下方案,即在接通电源时,显示根据图像的方向而被分成了四份的画面,当任意画面由于被笔接触而被选择了时,决定与所选择的画面对应的显示方向。
在专利文献3中,提出了以下方案,即在设置了画面的桌子周围设置传感器,利用该传感器来检测用户的位置,在检测到的用户的位置和笔输入位置处将用户视线的方向作为显示方向。
另一方面,尽管不是确定用户位置来控制显示方向的技术,但是在专利文献4、5中还提出了以下技术,即在除了基于笔尖或指尖接触画面的原本的输入之外,还有由于手掌等接触画面的手姿势而导致的误输入从而检测到多个输入的情况下,排除基于手姿势的输入。具体而言,根据由手姿势输入的面积与由笔尖或指尖接触输入的面积的不同,将最小面积的输入设为有效,并将基于手姿势的输入设为无效。
专利文献1:日本专利公报“日本特开2001-350588号公报(2001年12月21日公开)”
专利文献2:日本专利公报“日本特开平11-175228号公报(1999年7月2日公开)”
专利文献3:日本专利公报“日本特开2000-163179号公报(2000年6月16日公开)”
专利文献4:日本专利公报“日本特开平7-306752号公报(1995年11月21日公开)”
专利文献5:日本专利公报“日本特开2006-39686号公报(2006年2月9日公开)”
发明内容
然而,在上述以往的控制显示方向的技术中,存在以下那样的问题。
例如,在专利文献1所提出的技术中,当在桌型输入显示装置的周围存在多个用户的情况下,无法检测到其中的哪个用户进行了输入。因此,无法对应于多个用户的使用。
在专利文献2所提出的技术中,通过使笔接触设置于画面周围的四个角的传感器,能够对应于多个用户。此外,不只是在接通电源时,还能够通过用户的指示来显示被分成四份的画面,通过使笔接触任意一个的画面,能够对应于多个用户。然而,进行输入的用户在每次输入时,都需要进行使笔接触传感器或者显示被分成四份的画面而使笔接触画面的用于指定显示方向的操作。
在专利文献3所提出的技术中,当使用装置时,需要将电子笔和使用者的就座位置一一建立对应。因此,在多个用户使用的情况下,需要分别对多个用户登记电子笔和利用者之间的对应关系。
另一方面,在专利文献4、5所提出的技术中,虽然能够区分基于手姿势的输入和基于笔尖或指尖的输入,但是无法得知用户从画面中的哪个方向进行输入。
本发明鉴于上述技术问题而完成,其目的在于,提供即使用户不进行只用于指示信息显示方向的特别的操作,也能够基于用户对画面的输入操作来确定该用户相对于画面的位置,并向适合用户的方向显示信息的输入显示装置、输入显示装置的控制装置以及记录介质。
为了解决上述的技术问题,本发明的一个方式所涉及的输入显示装置和输入显示装置的控制装置是具备显示信息的显示画面和检测对该显示画面的输入的传感器,并能够使用笔进行输入操作的输入显示装置及其控制装置,该输入显示装置及其控制装置的特征在于,具备:第1判定部,其针对由上述传感器检测到的输入区域,根据该输入区域的大小,来判定是基于笔尖的输入区域还是基于持有笔的手的输入区域;第2判定部,其判定由上述第1判定部判定为基于笔尖的笔尖区域以及判定为基于手姿势的手姿势区域是否是基于同一用户的输入操作的笔尖区域以及手姿势区域;以及显示切换部,其根据由上述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换上述显示画面中信息的显示方向。
根据本发明的一个方式,起到即使用户不进行只用于指示信息显示方向的特别的操作,也能够根据用户对画面的输入操作来确定该用户相对于画面的位置,并向适合用户的方向显示信息这样的效果。
附图说明
图1是表示作为本发明的实施方式1的输入显示装置的构成的块图。
图2是表示对实施方式1的输入显示装置进行写入(输入)的用户的位置与显示于输入显示画面的图像的显示方向之间的关系的说明图。
图3是表示由实施方式1的输入显示装置所具备的静电电容传感器检测出的连续的范围的说明图。
图4是表示实施方式1的输入显示装置中的显示方向控制的步骤的流程图。
图5是表示对作为本发明的实施方式2的输入显示装置进行写入(输入)的用户的位置与显示于输入显示画面的图像的显示方向之间的关系的说明图。
图6是表示与使用输入笔向实施方式2的输入显示装置的画面进行输入的用户的位置对应的菜单显示的一例的工具栏的说明图。
图7是表示实施方式2的输入显示装置中的显示方向控制的步骤的流程图。
图8是对判断实施方式3的输入显示装置中的输入用户的位置和输入用户的惯用手的方法进行说明的图。
图9是对判断实施方式3的输入显示装置中的输入用户的位置和输入用户的惯用手的方法进行说明的图。
图10是表示实施方式3的输入显示装置中的显示方向控制的步骤的流程图。
图11是表示切换实施方式2、3的变形例的输入显示装置的显示方向的说明图。
图12是表示实施方式4的输入显示装置中的显示方向控制的步骤的流程图。
图13是表示实施方式4的输入显示装置中的显示方向控制的步骤的流程图。
附图标记说明:
1A~1D…输入显示装置;2…静电电容传感器(传感器);3…传感器驱动部/电容值接收部;4…形状/手姿势判定部(第1判定部、第2判定部、第3判定部);5…触摸识别处理部;6…用户位置判断部(显示切换部);7…显示方向判定部(显示切换部);8…描绘信息控制部(显示切换部、描绘部);9…显示驱动部;10…输入显示画面;11…显示部;12…控制部(控制装置、第1判定部、第2判定部、第3判定部、显示切换部);30…工具栏;31…输入笔(笔);40…笔尖区域;41…笔尖区域。
具体实施方式
通过以下的实施方式,对本发明详细地进行说明。另外,在以下说明中,对表示相同功能和作用的构件,标注相同的附图标记,并省略说明。
〔实施方式1〕
图2是表示对作为本发明的实施方式1的输入显示装置1A进行写入(输入)的用户的位置和显示于输入显示画面(以下,仅称为“画面”)10的图像的显示方向之间的关系的说明图。
图2的(a)表示出由用户A进行输入的状态。显示于画面10的图像从用户A观察时朝向正向。相对于此,图2的(b)表示与用户A隔着画面10对置的用户B代替用户A而开始了输入的状态。在(b)中,画面10的显示从当用户A进行了输入时的方向旋转180°,从用户B观察时朝向正向。以下,将对画面10进行输入的用户称为“输入用户”。
如图2的例子所示,在输入显示装置1A中,将隔着画面10对置的第1侧和第2侧作为用户对画面10进行输入操作的位置。然后,根据用户的输入操作,来判别输入用户的位置是第1侧还是第2侧,并控制画面10中信息的显示方向,以使得从输入用户观察时朝向正向。
图1是表示输入显示装置1A的构成的块图。输入显示装置1A具备:静电电容传感器2、传感器驱动部/电容值接收部3、显示部11、显示驱动部9以及控制部12。控制部(控制装置)12由未图示的CPU、ROM、RAM构成,构筑形状/手姿势判定部4、触摸识别处理部5、用户位置判断部6、显示方向判定部7以及描绘信息控制部8。
静电电容传感器(传感器)2是触摸面板,是能够根据被配置为平面状且多条矩阵状的线,来检测与接近的物体之间的静电电容,从而检测物体形状的传感器。静电电容传感器2例如能够检测4096×2160的各位置的电容。这里,如图2所示,将从位于第1侧的用户观察时画面10的左上角作为(0、0)、右下角作为(4095,2159)来设定坐标,并对各个坐标检测电容。另外,触摸面板并不局限于静电电容方式,无论接触/非接触,只要能够获得接近的物体的形状即可,也可以是其他方式的触摸面板。
传感器驱动部/电容值接收部3驱动静电电容传感器2,并根据其结果来检测静电电容值。传感器驱动部/电容值接收部3将检测到的静电电容值输送至控制部12。
控制部(第1判定部、第2判定部、第3判定部以及显示切换部)12中的形状/手姿势判定部4根据由传感器驱动部/电容值接收部3检测到的静电电容值,来判定接近画面10的物体的形状。接近画面的物体的形状相当于具有表示物体接近的静电电容的连续范围的形状。图3表示由静电电容传感器2检测到的连续范围。
形状/手姿势判定部4(第1判定部)根据检测到的连续范围的大小,来判定检测到的物体是笔尖还是手姿势。另外,手姿势是指手掌等接触画面10的现象。具体而言,形状/手姿势判定部4将连续范围的面积与规定值A进行比较,当连续范围的面积在规定值A以下时判定为笔尖,当比规定值A大时判定为手姿势。这里,规定值A是指假定为笔尖的大小的上限值。
如图3所示,根据连续范围的X轴值的最小值(min_x)、最大值(max_x)、Y轴值的最小值(min_y)、最大值(max_y),在Y轴向的长度比X轴向的长度长的情况下判定为纵长,在Y轴向的长度比X轴向的长度短的情况下判定为横长。形状/手姿势判定部4将判定的结果输送至触摸识别处理部5和用户位置判断部6。
触摸识别处理部5根据形状/手姿势判定部4的判定结果来判定笔尖的位置,如果笔尖的位置为菜单位置则进行菜单处理,在不为菜单位置的情况下进行描绘处理。
用户位置判断部(显示切换部)6根据形状/手姿势判定部4的判定结果,来判断输入用户相对于画面10的位置。之后对用户位置判断部6详细地进行叙述。用户位置判断部6将判断的结果输送至描绘信息控制部8。
显示方向判定部(显示切换部)7根据用户位置判断部6的判断结果,来判定画面10中的显示方向。这里,判定显示方向的对象的显示是显示于画面10的显示内容的整体或者是菜单显示。菜单显示相当于画面中所显示的显示内容的一部分。
描绘信息控制部(显示切换部、描绘部)8在内部具备未图示的存储部,在该存储部中,通过在其他层保持手写信息、图表信息等描绘信息和暂时与描绘信息重叠显示的菜单信息。描绘信息控制部8进行控制,使得根据来自触摸识别处理部5的菜单处理或者描绘处理以及来自显示方向判定部7的显示方向的判定结果,对存储有显示部11所显示的内容的上述存储部的内容进行更新。
显示驱动部9根据描绘信息控制部8中具备的上述存储部所存储的信息来驱动显示部11,将信息显示于显示部11。
显示部11用于通过将信息显示于画面10来给与用户信息,由例如液晶显示、EL显示等的平面形状构成。在显示部11的上表面,重叠设置有上述静电电容传感器2。
图4是表示输入显示装置1A中的显示方向控制的步骤的流程图。控制部12根据由传感器驱动部/电容值接收部3检测到的静电电容值有无变化,来判断是否检测到用户向静电电容传感器2的输入(S1)。这里,在检测到用户输入的情况下进入S2,在没有检测到的情况下重复S1的判断,直到检测到输入为止。
在S2中,控制部12将通过S1检测出的输入内的连续范围作为一个输入来检测输入数。例如,在只检测到基于笔尖的输入的情况下或者只检测到基于手姿势的输入的情况下,分别检测为1,在存在基于笔尖的输入和基于手姿势的输入这二者的情况下,检测为2。
在S3中,控制部12检测在S2中作为输入而计数的各个连续范围的大小。在S4中,控制部12判断通过S2检测到的输入数是否为1,在输入数为1的情况下进入S12,在不为1的情况下进入S5。
在S12中,控制部12判断该输入是否是基于手姿势的输入,即判断所检测到的连续范围是否是由手姿势输入的手姿势区域。在检测到的连续范围是手姿势区域的情况下返回S1,在不是手姿势区域的情况下进入S13。
具体而言,将通过S3检测到的连续范围的大小与上述规定值A(假定为笔尖的大小的上限值)进行比较,在连续范围的大小比规定值A大的情况下,判断为检测到的连续范围是手姿势区域。此外,在连续范围的大小在规定值A以下的情况下,判断为由笔尖输入的笔尖区域。
在S13中,控制部12计算笔尖区域中心部分的坐标(中心坐标),并进行作为输入处理的描绘处理或者菜单处理。在笔尖区域的中心坐标与菜单显示的显示位置对应的情况下,执行该位置所示的菜单处理,在不是菜单显示的显示位置的情况下进行描绘处理。
在S14中,再次检测输入。S14中的输入的检测是指有无基于静电电容传感器2的输入和输入区域的检测。在S15中,控制部12判断是否通过S14检测不到笔尖,在笔尖从画面10离开而未检测笔尖的情况下,返回S1,等待下次的输入。另一方面,在没有从画面10抬起笔尖而检测到笔尖的情况下,返回S13,对通过S14检测的输入区域执行处理。
另一方面,如果通过S2检测到的输入数不为1而从S4进入S5,则控制部12判断输入数是否为2,在输入数为2的情况下进入S6,在不为2的情况下,作为无法处理而进入S1。输入数不为2的情况是指,除基于笔尖和手姿势的输入之外,还检测到其他输入的情况。
在S6中,控制部12判断通过S3检测到的两个输入是否是基于手姿势的输入和基于笔尖的输入,即判断检测到的两个连续范围是否是手姿势区域和笔尖区域。这里,在不是手姿势区域和笔尖区域的情况下返回S1,在是手姿势区域和笔尖区域的情况下进入S7。
具体而言,将通过S5检测到的两个连续范围各自的大小与上述规定值A进行比较,当任意一个连续范围的大小在规定值A以下的情况下,判断为是手姿势区域和笔尖区域,在无论哪个连续范围的大小均比规定值A大的情况下,判断为不是手姿势区域和笔尖区域。不是手姿势区域和笔尖区域的情况是指,两方均是手姿势区域的情况等。
在S7中,控制部12根据画面10上的笔尖区域的位置和手姿势区域的位置,来判断输入用户的位置。具体而言,分别计算笔尖区域的中心坐标和手姿势区域的中心坐标,并比较与第1侧和第2侧对置的方向平行的Y轴的坐标值。然后,在笔尖区域的中心坐标的Y轴值比手姿势区域的中心坐标的Y轴值大的情况下,判断为输入用户的位置在图2中的第2侧。如图2(b)所示,这是利用了在位于第2侧的用户B使用输入笔进行输入的情况下,笔尖区域的Y轴值必定为比持有笔的手掌接触的手姿势区域的Y轴值大的值这一现象。
另一方面,当笔尖区域的中心坐标的Y轴值在手姿势区域中心坐标的Y轴值以下的情况下,判断为输入用户的位置在图2中的第1侧。如图2(a)所示,这是利用了在位于第1侧的用户A使用输入笔进行输入的情况下,笔尖区域的Y轴值必定为比持有笔的手掌接触的手姿势区域的Y轴值小的值这一现象。
在S7中,如果判断为输入用户相对于画面10的位置在第1侧,则进入S9,如果判断为在第2侧,则经过S8而进入S9。在S8中,使画面10的显示方向旋转180度。在输入显示装置1A中,将相对于位于第1侧的用户朝向正向的方向作为缺省的显示方向,因此当输入用户的位置在第2侧的情况下,进入S8,设成使显示方向从缺省旋转180度的显示。
在S9中,控制部12判断是否变更了显示方向,在变更了的情况下进入S10,在没有变更的情况下进入S13。在S10中,控制部12检测基于静电电容传感器2的输入。在S11中,控制部12判断是否通过S10检测不到笔尖,在笔尖从画面10离开而检测不到笔尖的情况下,返回S1。另一方面,在判断为没有从画面10抬起笔尖而检测到笔尖的情况下返回S10。
这些S9~S11的处理是由于在通过S8进行显示方向的变更时,无法在变更前的显示状态下确定变更后的描绘位置。进行S9~S11的处理,以使得不使用在与变更后的显示对应地进行输入之前期间的描绘。由于变更显示方向,输入用户暂时抬起笔尖并将笔尖重新放置在与画面10变更后的显示相称的正确位置,因此在变更了显示方向的情况下,检测到笔尖被抬起,将处理返回S1。在将笔尖重新放置在与画面10变更后的显示相称的正确位置后,从S9进入S13,检测与变更后的显示对应的输入处理。
〔实施方式2〕
对本发明的其他实施方式进行说明。另外,为了方便说明,对和实施方式1具有相同功能的构件,赋予相同的附图标记标号并省略说明。
实施方式1的输入显示装置1A判断是来自隔着画面10对置的第1侧和第2侧中的哪一侧的输入。相对于此,在实施方式2中,判断是来自与画面10的四边相当的第1侧~第4侧中的哪一侧的输入。
图5是表示对作为本发明的实施方式2的输入显示装置1B进行写入(输入)的用户的位置和显示于输入显示画面(以下,仅称为“画面”)10的图像的显示方向之间的关系的说明图。
在本实施方式中,假定画面10是长方形来进行说明,显示方向的变更作为变更菜单显示的方向来进行说明。然而,在画面10是正方形的情况下或者在显示于画面10的信息也可以缺少一部分的情况下,也可以与第1实施方式相同地改变显示于画面10的显示内容整体的显示方向。此外,在图5中,描绘出位于第1侧和第3侧的两位用户进行输入的情况,但是用户也能够位于第1侧~第4侧的各位置,并且使四位用户进行输入。
图6使表示与使用输入笔31向输入显示装置的画面10进行输入的用户的位置对应的菜单显示的一例的工具栏30的说明图。
形状/手姿势判定部(第2判定部、第3判定部)4如果通过是手姿势区域还是笔尖区域的判定,判定为同时检测到笔尖和手姿势这双方,则判定手姿势相对于笔尖的位置是否存在于可假定为基于同一用户的笔尖和手姿势的规定范围内,并且进行手姿势的形状相对于规定方向是纵长还是横长的判定。另外,在判定为同时检测到笔尖和手姿势这二者时的“同时”是指,手姿势和笔尖对画面10的各接触同时发生的状态,并不是接触开始的定时是同时的这样的意思。
图7是表示输入显示装置1B中的显示方向控制的步骤的流程图。控制部12通过由传感器驱动部/电容值接收部3检测到的静电电容值有无变化,来判断是否检测到用户向静电电容传感器2的输入(S21)。这里,在检测到用户输入的情况下进入S22,在没有检测到的情况下,反复S21的判断,直到检测到输入为止。
在S22中,控制部12检测在S21中检测到输入的各个连续范围的大小。在S23中,控制部12根据通过S22检测到的各个连续范围的大小,来判断是否包括笔尖区域,在没有包括的情况下返回S21,在包括的情况下进入S24。
具体而言,将通过S22检测到的各个连续范围的大小与上述规定值A进行比较,当任意一个连续范围的大小在规定值A以下的情况下,判断为包括笔尖区域,在无论哪个连续范围的大小均比规定值A大的情况下,判断为不包括笔尖区域。
在S24中,控制部12根据通过S22检测到的各个连续范围的大小,来判断是否包括手姿势区域,在包括的情况下进入S25,在没有包括的情况下进入S31。
具体而言,将通过S22检测到的各个连续范围的大小与上述规定值A进行比较,在任意一个连续范围的大小比规定值A大的情况下,判断为包括手姿势,当无论哪个连续范围的大小均在规定值A以下的情况下,判断为不包括手姿势。
在S25中,控制部12判断通过S23判断为包含的笔尖区域和通过S24判断为包含的手姿势区域是否是同一用户的输入。具体而言,判断笔尖区域和手姿势区域是否存在于可假定为同一用户的输入的规定范围内,在存在时判断为是同一用户的输入,在不存在时判定为不是同一用户的输入。这里,如果判断为是同一用户的输入,则进入S26,如果判断为不是同一用户的输入,则进入S31。
在S26中,控制部12判断是否存在显示菜单的指示,在判断为存在指示的情况下进入S27,在不存在指示的情况下进入S31。对于显示菜单的指示方法,能够通过采用操作另外的开关等的方法来解决。
在S27中,对于通过S22检测的连续范围中的手姿势区域,根据X轴值的最小值(min_x)、最大值(max_x)、Y轴值的最小值(min_y)、最大值(max_y),来判断是纵长还是横长。如前述那样,在Y轴向的长度比X轴向的长度长的情况下,判定为纵长,在Y轴向的长度比X轴向的长度短的情况下,判定为横长。
在手姿势区域的形状为纵长(沿Y轴较长)的情况下,能够判断为来自图5中的对置的方向与Y轴平行的第1侧或者第3侧的输入,在手姿势区域的形状为横长(沿X轴较长)的情况下,能够判断为来自图5中的对置的方向与X轴平行的第2侧或者第4侧的输入。
在S27中,在判断为手姿势区域的形状为纵长的情况下进入S28,在判断为不是纵长的情况下进入S37。
在S28中,控制部12根据画面10上的笔尖区域的位置和手姿势区域的位置来判断输入用户的位置是第1侧或者第3侧的哪一侧。另外,判断的方法与实施方式1的输入显示装置1A在图4的流程图的S7中,判断输入用户的位置在第1侧和第2侧的哪一侧的方法相同。
具体而言,分别计算笔尖区域的中心坐标和手姿势区域的中心坐标,比较平行于第1侧和第3侧对置的方向的Y轴的坐标值。然后,在笔尖区域的中心坐标的Y轴值比手姿势区域的中心坐标的Y轴值大的情况下,判断为输入用户的位置是图5中的第3侧。另一方面,当笔尖区域的中心坐标的Y轴值在手姿势区域的中心坐标的Y轴值以下的情况下,判断为输入用户的位置是图5中的第1侧。
在S28中,如果判断为输入用户的位置是第1侧,则进入S30,如果判断为是第3侧,则进入S29。在S30中,以从位于第1侧的用户观察时朝向正向的方式进行菜单显示,在S29中,以从位于第3侧的用户观察时朝向正向的方式进行菜单显示。
在S37中,控制部12根据画面10上的笔尖区域的位置和手姿势区域的位置来判断输入用户的位置是第2侧或者第4侧的哪一侧。具体而言,分别计算笔尖区域的中心坐标和手姿势区域的中心坐标,比较平行于第2侧和第4侧对置的方向的X轴的坐标值。然后,在笔尖区域的中心坐标的X轴值比手姿势区域的中心坐标的X轴值大的情况下,判断为输入用户的位置是图5中的第4侧。另一方面,当笔尖区域的中心坐标的X轴值在手姿势区域的中心坐标的X轴值以下的情况下,判断为输入用户的位置是图5中的第2侧。
在S37中,如果判断为输入用户的位置是第2侧,则进入S39,如果判断为是第4侧,则进入S38。在S39中,以从位于第2侧的用户观察时朝向正向的方式进行菜单显示,在S38中,以从位于第4侧的用户观察时朝向正向的方式进行菜单显示。
上述S27~S30、S37~S39的处理是用于根据用户的输入操作,来判断输入用户的位置,并以从输入用户观察时朝向正向的方式显示菜单的处理。
另一方面,在S31中,控制部12计算笔尖区域的中心坐标,判断是否是菜单显示的位置。另外,通过S26判断为不存在菜单显示的指示而进入S31的前提是预先通过S28、S30、S38、S39显示有菜单。在S31中,当笔尖区域的中心坐标是菜单显示的位置的情况下进入S32,当不是菜单显示的显示位置的情况下进入S34。
在S32中,判断是否从画面10抬起笔尖,如果检测到笔尖被抬起,则进入S33,并执行在笔尖被抬起的位置的菜单项目。
在S34中,进行在菜单中选择的处理作为输入处理,通过S35检测笔尖的位置,通过S36判断是否抬起笔尖,并反复处理直到抬起笔尖为止。
〔实施方式3〕
对本发明的其他实施方式进行说明。另外,为了说明方便,对具有与实施方式1、2相同功能的构件赋予相同的构件标号,并省略说明。
实施方式2的输入显示装置1B判断是来自相当于画面10的四条边的第1侧~第4侧中的哪一侧的输入,并以从输入用户观察时朝向正向的方式显示菜单。相对于此,实施方式3的输入显示装置1C除了具有输入显示装置1B的功能之外,还对输入用户的惯用手进行检测,并在没被手遮挡的位置显示菜单。
图8、图9是对判断输入用户的位置以及进行输入用户的输入手是左手还是右手的惯用手的方法进行说明的图。如图8所示,通过进行输入,在静电电容传感器2中,产生如图9所示那样的电容变化,由此,能够取得笔尖区域40和手姿势区域41。
这时,如图8所示,以笔尖区域40为中心,假定四个象限。然后,判断手姿势区域41被包含在哪个象限中,并且判断手姿势区域41的形状是纵长还是横长。根据包含手姿势区域41的象限和手姿势区域41的形状的组合,能够判断从第1侧~第4侧中的哪一侧进行了输入,并且判断该输入用户是惯用右手还是惯用左手。在本实施方式中,将四个象限设定为相对于位于第1侧的用户成为正向。
图10是表示输入显示装置1C中的显示方向控制的步骤的流程图。另外,由于图10中的S21~S26、S31~S36的处理与图7的流程图中的S21~S26、S31~S36的处理相同,故省略说明。
在S41中,控制部12如图8、图9所示那样,判断是否在将笔尖区域41假定为中心的四个象限中的第4象限检测到手姿势区域41。在第4象限产生手姿势是位于第2侧的惯用左手的用户或者位于第1侧的惯用右手的用户的情况。
因此,当在第4象限检测到的情况下进入S45,与图7的流程图中的S27相同地,判断手姿势区域41的形状是纵长还是横长。手姿势区域的形状成为纵长(沿Y轴较长)是来自图5中的、对置的方向与Y轴平行的第1侧或者第3侧的输入,手姿势区域的形状成为横长(沿X轴较长)是来自图5中的、对置的方向与X轴平行的第2侧或者第4侧的输入。
因此,在S45中,当手姿势区域的形状为纵长时,能够判断为位于第1侧的惯用右手的用户,并进入S46,设定来自第1侧的惯用右手。另一方面,在S45中,当手姿势区域的形状为横长时,能够判断为位于第2侧的惯用左手的用户,并进入S47,设定来自第2侧的惯用左手。
另一方面,在S41中,当没有在第4象限检测到手姿势区域41时,进入S42,判断是否在第3象限检测到手姿势区域41。在第3象限产生手姿势是位于第1侧的惯用左手的用户或者位于第4侧的惯用右手的用户的情况。
因此,当在第3象限检测到的情况下进入S48,判断手姿势区域41的形状是纵长还是横长,在手姿势区域的形状是纵长的情况下,判断为位于第1侧的惯用左手的用户,并进入S49,设定来自第1侧的惯用左手。另一方面,在S48中,当手姿势区域的形状是横长时,判断为位于第4侧的惯用右手的用户,并进入S50,设定来自第4侧的惯用右手。
此外,在S42中,当在第3象限没有检测到手姿势区域41时,进入S43,判断是否在第2象限检测到手姿势区域41。在第2象限产生手姿势是位于第3侧的惯用右手的用户或者位于第4侧的惯用左手的用户的情况。
因此,当在第2象限检测到的情况下进入S51,判断手姿势区域41的形状是纵长还是横长,在手姿势区域的形状是纵长的情况下,判断为位于第3侧的惯用右手的用户,并进入S52,设定来自第3侧的惯用右手。另一方面,在S51中,当手姿势区域的形状是横长时,判断为位于第4侧的惯用左手的用户,并进入S53,设定来自第4侧的惯用左手。
在S43中,当在第2象限没有检测到手姿势区域41时,必然在第1象限检测到手姿势区域41,因此进入S44,判断手姿势区域41的形状是纵长还是横长。然后,在手姿势区域的形状是纵长的情况下,判断为位于第3侧的惯用左手的用户,并进入S54,设定来自第3侧的惯用左手。另一方面,在S44中,当手姿势区域的形状是横长时,判断为位于第2侧的惯用右手的用户,并进入S55,设定来自第2侧的惯用右手。
在S56中,根据在S46、S47、S49、S50、S52、S53、S54或者S55中设定的输入用户的位置和惯用手的信息,来显示菜单。
例如,在是来自第1侧的惯用右手的情况下,在第3象限的区域进行显示,以使得不被从第1侧输入的用户的右手遮挡。在是来自第2侧的惯用左手的情况下,在第1象限的区域进行显示,以使得不被从第2侧输入的用户的左手遮挡。
然而,在实施方式1~3中,例示了在变更显示方向后,维持显示方向直到从其他侧进行了输入为止的构成,但是并不局限于此。例如,如图11所示,也可以将第1侧~第4侧中的一侧设定成主(M),将剩余的三侧设定成从,在输入笔尖抬起后的规定时间内没有再次输入情况下或没有检测到手姿势的情况下,控制为向将显示方向设定成主的方向返回的状态。图11是表示实施方式2、3的变形例的输入显示装置的显示方向的切换的说明图。
〔实施方式4〕
以下,对本发明的其他实施方式进行说明。另外,为了说明方便,对具有与实施方式1~3相同功能的构件,赋予相同的构件标号并省略说明。
在实施方式1、2的输入显示装置1A、1B中,说明了位于第1侧~第4侧的任意一个用户进行输入的情况。相对于此,第4实施方式的输入显示装置1D对位于第1侧~第4侧的各用户同时输入的情况,以从各用户观察时成为正向的方式进行菜单显示。
图12、图13是表示实施方式4的输入显示装置中的显示方向控制的步骤的流程图。在S61中,控制部12根据由传感器驱动部/电容值接收部3检测到的静电电容值有无变化,来判断是否检测到用户对静电电容传感器2进行的输入。这里,在检测到用户输入的情况下进入S62,在未检测到用户输入的情况下结束处理。
在S62中,对在S61中检测到输入的各个连续范围的大小进行检测。在S63中,控制部12根据通过S62检测到的各个连续范围的大小,对笔尖区域的个数进行计数。如前述那样,将连续范围的大小分别与上述规定值A比较,并将连续范围的大小在规定值A以下的范围判断为笔尖区域。
在S64中,将通过S63计数的数值设定成变量i。在S65中,判断变量i是否为0,当变量i为0时,判断为没有要处理的大小的区域,结束处理。另一方面,当变量i不为0时进入S66。
在S66中,控制部12根据通过S62检测到的各个连续范围的大小,判断是否包含手姿势区域,在包含的情况下进入S67,在不包含的情况下进入S75。在S66中,如前述那样,将连续范围的大小比规定值A大的范围判断为手姿势区域。
在S67中,控制部12判断通过S63判断为包含的笔尖区域和通过S66判断为包含的手姿势区域是否是同一用户的输入。具体而言,判断笔尖区域和手姿势区域是否存在于可假定为同一用户的输入的规定范围内,在存在的情况下判断为同一用户的输入,在不存在的情况下判断为不是同一用户的输入。这里,如果判断为是同一用户的输入,则进入S68,如果判断为不是同一用户的输入,则进入S75。
在S68中,与图7的流程图中的S27相同地,判断手姿势区域的形状是纵长还是横长。手姿势区域的形状为纵长则是如前述那样,来自图5中的第1侧或者第3侧的输入,手姿势区域的形状为横长则是来自图5中的第2侧或者第4侧的输入。在S68中,当手姿势区域的形状为纵长时进入S69,为横长时进入S72。
在S69中,控制部12根据画面10上的笔尖区域的位置和手姿势区域的位置来判断变量i的输入用户的位置是第1侧或者第3侧的哪一侧。判断的方法与实施方式2的输入显示装置1B在图7的流程图的S28中判断输入用户的位置是第1侧和第3侧的哪一侧的方法相同。
在S68中,如果判断为变量i的输入用户的位置是第1侧,则进入S71,如果判断为是第3侧,则进入S70。在S71中,将变量i的输入用户的位置设定成第1侧,在S70中,将变量i的输入用户的位置设定成第3侧。
在S72中,控制部12根据画面10上的笔尖区域的位置和手姿势区域的位置来判断变量i的输入用户的位置是第2侧或者第4侧的哪一侧。判断的方法与实施方式2的输入显示装置1B在图7的流程图的S37中判断输入用户的位置是第2侧和第4侧的哪一侧的方法相同。
在S72中,如果判断为变量i的输入用户的位置是第2侧,则进入S74,如果判断为第4侧,则进入S73。在S74中,将变量i的输入用户的位置设定成第2侧,在S73中,将变量i的输入用户的位置设定成第4侧。
在通过S70、S71、S73、或者S74设定变量i的输入用户的位置后,进入S75。在S75,将变量i减去1,返回S65。由此,能够检测多个输入用户的位置。
当通过如图12所示的流程图的处理,设定了多个输入用户的位置后,对图13的流程图的处理并行实施设定了位置的输入用户的个数。
在S81中,判断是否存在菜单显示的指示,在存在菜单显示的指示的情况下进入S82,相对于通过图12的处理而设定的方向来显示菜单,并结束处理。
另一方面,在不存在菜单显示的指示的情况下进入S83。在S83中,控制部12计算笔尖区域的中心坐标,判断是否是菜单显示的位置,在是菜单显示的位置的情况下进入S84,在不是菜单显示的位置的情况下进入S86。
在S84中,判断是否从画面10抬起了笔尖,如果检测到笔尖被抬起,则进入S85,执行抬起笔尖的位置的菜单项目。
在S86中,进行在菜单中选择的处理作为输入处理,通过S87检测笔尖的位置,通过S88判断是否抬起了笔尖,并反复S86~S88的处理直到抬起笔尖为止。
由此,即使在多个输入用户分别请求了不同的处理的情况下,也可以分别并行进行处理,其结果是,针对多人用户输入,能够将菜单显示在合适的方向。
〔基于软件的实现例〕
输入显示装置1A~1D的控制部12可以通过形成于集成电路(IC芯片)等的逻辑电路(硬件)来实现,也可以使用CPU(Central Processing Unit:中央处理单元),并通过软件来实现。
在后者的情况下,输入显示装置1A~1D具备:执行实现各功能的软件即程序的命令的CPU、以能够通过计算机(或者CPU)读取的方式记录上述程序和各种数据的ROM(ReadOnly Memory:只读存储器)或者存储装置(将它们称为“记录介质”)、以及展开上述程序的RAM(Random Access Memory:随机存取存储器)等。然后,通过计算机(或者CPU)从上述记录介质读取上述程序并执行,而达到本发明的目的。作为上述记录介质,能够使用“非暂时的有形介质”,例如磁带、光盘、卡、半导体存储器、以及可编程的逻辑电路等。此外,也可以将上述程序经由能够传输程序的任意传输介质(通信网络或广播电波等),而供给到上述计算机。另外,即使以上述程序由电子传输而被具体化的且埋入到输送波的数据信号的方式也能够实现本发明。
〔总结〕
本发明的方式1所涉及的输入显示装置(1A、1B、1C、1D)是,具备显示信息的显示画面(显示部11、输入显示画面10)和检测对该显示画面的输入的传感器(静电电容传感器2),并且能够使用笔(输入笔31)进行输入操作的输入显示装置,其特征在于,具备:第1判定部(控制部12、形状/手姿势判定部4),其针对由上述传感器检测到的输入区域,根据该输入区域的大小,来判定是基于笔尖的输入区域还是基于持有笔的手的输入区域;和显示切换部(控制部12、用户位置判断部6、以及显示方向判定部7),其根据上述第1判定部中笔尖区域和手姿势区域的相互位置关系,来切换上述显示画面中信息的显示方向。
根据上述的构成,第1判定部针对由传感器检测到的输入区域,根据其大小,判定是基于笔尖的笔尖区域还是基于持有笔的手的手姿势区域。笔尖区域是可假定为笔尖的区域,由于相比手姿势区域足够小,因此能够根据大小来区分两者。
显示切换部根据判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换显示画面中的信息的显示方向。由于在基于同一用户的输入操作的情况下,笔尖区域必定位于比手姿势区域离用户位置远的位置,因此,根据笔尖区域和手姿势区域的相互位置关系,能够确定用户的位置。
由此,即使用户不进行只用于指示信息的显示方向的特别的操作,也能够根据用户对画面的输入操作,来确定该用户相对于画面的位置,并向适合用户的方向显示信息。
本发明的方式2所涉及的输入显示装置也可以构成为,在上述方式1中还具备第2判定部,上述第2判定部根据由上述第1判定部判定为基于笔尖的笔尖区域和判定为基于手姿势的手姿势区域的相互距离,来判定是否是基于同一用户的输入操作的笔尖区域和手姿势区域,上述显示切换部根据由上述第2判定部判定为同一用户的输入的笔尖区域和手姿势区域的相互位置关系,来切换上述显示画面中的信息的显示方向。
根据上述构成,第2判定部判定由第1判定部判定的笔尖区域和手姿势区域是否是基于同一用户的输入操作。该判定例如能够通过同时检测到的笔尖区域和手姿势区域是否处于假定为基于同一用户的输入的距离关系(范围内)来进行判定。
显示切换部根据判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换显示画面中信息的显示方向。
由此,不是基于同一用户的输入操作但偶然同时检测到可假定为笔尖的输入区域和可假定为手姿势的输入区域的结果是,能够排除错误地切换显示的不良情形。
本发明的方式3所涉及的输入显示装置也可以构成为,在上述方式2中具备第3判定部,上述第3判定部判定由上述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域中的手姿势区域的形状是纵长的还是横长的,上述显示切换部根据由上述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系以及由上述第3判定部判定的上述手姿势区域是纵长还是横长的信息,来切换上述显示画面中信息的显示方向。
通过观察手姿势区域的形状是纵长还是横长,能够确定进行输入操作的用户相对于画面的位置。
根据上述的构成,第3判定部对判定为基于同一用户的输入操作的笔尖区域和手姿势区域中的手姿势区域的形状是纵长还是横长进行判定,显示切换部根据由上述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系以及由第3判定部判定的上述手姿势区域是纵长还是横长的信息,来切换显示画面中信息的显示方向。
在两位用户从形成角的两边分别进行了输入操作的情况下,两位用户的手姿势区域的形状中的一人为纵长,另一人为横长。因此,通过判定手姿势区域的形状是纵长的还是横长的,能够判断是来自画面四边中的哪一侧的输入。
本发明的方式4所涉及的输入显示装置也可以构成为,在上述方式1至3中还具备描绘部,上述描绘部根据由上述传感器检测到的输入来进行描绘显示,上述描绘部不将上述显示切换部用于切换信息的显示方向的笔尖区域用作描绘的输入。
根据上述的构成,可使得不使用在与切换后的显示对应地进行输入之前期间的描绘。这是由于,显示切换部在切换信息的显示方向时,无法在切换前的显示状态下确定切换后的描绘位置。
本发明的方式5所涉及的输入显示装置也可以构成为,当在上述方式1至4中,由上述第1判定部判定的笔尖区域具有多个的情况下,上述第2判定部针对多个笔尖区域分别根据笔尖区域和手姿势区域的相互位置关系,来确定可判定为基于同一用户的输入操作的手姿势区域,上述显示切换部根据由上述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系来切换上述显示画面中的与多个笔尖区域分别对应的显示区域的信息的显示方向。
根据上述的构成,第2判定部分别针对由第1判定部判定的笔尖区域,根据笔尖区域和手姿势区域的相互位置关系,来确定可判定为基于同一用户的输入操作的手姿势区域,显示切换部根据判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换显示画面中的与多个笔尖区域分别对应的显示区域的信息的显示方向。
由此,即使在用户分别从画面的四边同时进行输入操作的状态下,也能够根据各用户的位置,来切换信息的显示方向。
本发明的方式6所涉及的输入显示装置在上述方式1至5中,上述显示切换部也可以是切换用于选择功能的菜单的显示方向的构成。
本发明的各方式所涉及的输入显示装置的控制装置(控制部12)也可以通过计算机来实现。在该情况下,通过使计算机作为上述输入显示装置的控制装置所具备的各部来进行动作,从而由计算机实现上述控制装置的输入显示装置的控制程序、以及记录了该控制程序的计算机可读取的记录介质也包含在本发明的范畴内。
本发明并不局限于上述各实施方式,在权利要求所示的范围内能够进行各种变更,针对将分别在不同的实施方式中公开的技术的方法适当地组合而得到的实施方式,也包含在本发明的技术范围内。另外,通过使分别在各实施方式中公开的技术方法的手段组合,能够形成新的技术特征。
产业上的可利用性
本发明具备触摸面板等输入装置,尤其是能够用于使画面成为水平或者接近的状态来进行使用的手写输入显示装置。

Claims (8)

1.一种输入显示装置,具备显示信息的显示画面和检测对该显示画面的输入的传感器,并且能够使用笔进行输入操作,其特征在于,具备:
第1判定部,其针对由所述传感器检测到的输入区域,根据该输入区域的大小,来判定是基于笔尖的输入区域还是基于持有笔的手的输入区域;和
显示切换部,其根据由所述第1判定部判定为基于笔尖的笔尖区域和判定为基于手姿势的手姿势区域的相互位置关系,来切换所述显示画面中信息的显示方向,
还具备第2判定部,所述第2判定部根据由所述第1判定部判定为基于笔尖的笔尖区域和判定为基于手姿势的手姿势区域的相互距离,来判定是否是基于同一用户的输入操作的笔尖区域和手姿势区域,
所述显示切换部根据由所述第2判定部判定为是同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换所述显示画面中信息的显示方向。
2.根据权利要求1所述的输入显示装置,其特征在于,
具备第3判定部,所述第3判定部判定由所述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域中的手姿势区域的形状是纵长的还是横长的,
所述显示切换部根据由所述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系、以及由所述第3判定部判定出的所述手姿势区域是纵长的还是横长的信息,来切换所述显示画面中信息的显示方向。
3.根据权利要求1或2所述的输入显示装置,其特征在于,
还具备描绘部,所述描绘部根据由所述传感器检测到的输入来进行描绘显示,
所述描绘部不将所述显示切换部用于切换信息显示方向的笔尖区域用作描绘的输入。
4.根据权利要求1或2所述的输入显示装置,其特征在于,
在由所述第1判定部判定出的笔尖区域具有多个的情况下,
所述第2判定部针对多个笔尖区域,分别根据笔尖区域和手姿势区域的相互位置关系来确定能够判定为基于同一用户的输入操作的手姿势区域,
所述显示切换部根据由所述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换所述显示画面中与多个笔尖区域分别对应的显示区域的信息的显示方向。
5.一种输入显示装置的控制装置,该输入显示装置具备显示信息的显示画面和检测对该显示画面的输入的传感器,并且能够使用笔进行输入操作,所述输入显示装置的控制装置的特征在于,具备:
第1判定部,其针对由所述传感器检测到的输入区域,根据该输入区域的大小,来判定是基于笔尖的输入区域还是基于持有笔的手的输入区域;和
显示切换部,其根据由所述第1判定部判定为基于笔尖的笔尖区域和判定为基于手姿势的手姿势区域的相互位置关系,来切换所述显示画面中的信息的显示方向,
还具备第2判定部,所述第2判定部根据由所述第1判定部判定为基于笔尖的笔尖区域和判定为基于手姿势的手姿势区域的相互距离,来判定是否是基于同一用户的输入操作的笔尖区域和手姿势区域,
所述显示切换部根据由所述第2判定部判定为是同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换所述显示画面中信息的显示方向。
6.根据权利要求5所述的输入显示装置的控制装置,其特征在于,
具备第3判定部,所述第3判定部判定由所述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域中的手姿势区域的形状是纵长的还是横长的,
所述显示切换部根据由所述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系、以及由所述第3判定部判定的所述手姿势区域是纵长的还是横长的信息,来切换所述显示画面中信息的显示方向。
7.根据权利要求5或6所述的输入显示装置的控制装置,其特征在于,
还具备描绘部,所述描绘部根据由所述传感器检测到的输入来进行描绘显示,
所述描绘部不将所述显示切换部用于切换信息显示方向的笔尖区域用作描绘的输入。
8.根据权利要求5所述的输入显示装置的控制装置,其特征在于,
在由所述第1判定部判定的笔尖区域具有多个的情况下,
所述第2判定部针对多个笔尖区域,分别根据笔尖区域和手姿势区域的相互位置关系,来确定能够判定为基于同一用户的输入操作的手姿势区域,
所述显示切换部根据由所述第2判定部判定为基于同一用户的输入操作的笔尖区域和手姿势区域的相互位置关系,来切换所述显示画面中与多个笔尖区域分别对应的显示区域的信息的显示方向。
CN201410003427.7A 2013-01-09 2014-01-03 输入显示装置和输入显示装置的控制装置 Active CN103914161B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-002147 2013-01-09
JP2013002147A JP5705885B2 (ja) 2013-01-09 2013-01-09 入力表示装置

Publications (2)

Publication Number Publication Date
CN103914161A CN103914161A (zh) 2014-07-09
CN103914161B true CN103914161B (zh) 2017-03-01

Family

ID=51039902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410003427.7A Active CN103914161B (zh) 2013-01-09 2014-01-03 输入显示装置和输入显示装置的控制装置

Country Status (3)

Country Link
US (1) US9141205B2 (zh)
JP (1) JP5705885B2 (zh)
CN (1) CN103914161B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5599741B2 (ja) * 2011-02-21 2014-10-01 シャープ株式会社 電子機器、コンテンツ表示方法、およびコンテンツ表示プログラム
CN104102404B (zh) * 2014-07-11 2017-02-22 北京智谷睿拓技术服务有限公司 相对方位确定方法及装置
US9430085B2 (en) * 2014-09-12 2016-08-30 Microsoft Technology Licensing, Llc Classification of touch input as being unintended or intended
FR3029656B1 (fr) * 2014-12-09 2017-01-13 ISKn Procede de detection continue d'un etat de contact ou de non contact entre une pointe d'un ustensile et un support d'ecriture d'epaisseur variable, et systeme associe
CN104657106B (zh) * 2015-03-23 2020-07-24 联想(北京)有限公司 一种信息处理方法和电子设备
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
DK3190065T4 (da) * 2016-01-08 2022-05-30 Reemtsma Cigarettenfabriken Gmbh Emballage med et mønster med indkodet information som er detekterbart af en kapacitivt berøringsfølsom skærm
CN107402736A (zh) * 2017-07-21 2017-11-28 驭势(上海)汽车科技有限公司 一种信息显示方法与设备
CN111095186A (zh) * 2017-09-19 2020-05-01 索尼公司 信息处理装置、信息处理方法和程序
JP6809618B2 (ja) * 2018-05-15 2021-01-06 住友電気工業株式会社 管理装置、管理方法および管理プログラム
JP7342485B2 (ja) * 2019-07-23 2023-09-12 株式会社リコー 制御装置、方法、プログラム、および情報処理システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224635A (ja) * 2009-03-19 2010-10-07 Sharp Corp 表示装置、表示方法、および表示プログラム
CN101901072A (zh) * 2009-05-26 2010-12-01 索尼公司 信息处理设备、信息处理方法和程序
JP2011113128A (ja) * 2009-11-24 2011-06-09 Sharp Corp ペンタブレット入力装置及びそれを用いた入力方法
CN102257457A (zh) * 2008-12-25 2011-11-23 富士通株式会社 计算机程序、输入装置以及输入方法
CN102693000A (zh) * 2011-01-13 2012-09-26 义隆电子股份有限公司 用以执行多手指手势功能的计算装置及方法
CN102736845A (zh) * 2011-03-22 2012-10-17 奥多比公司 针对支持多点触摸的设备提供局部坐标系用户界面的方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3154614B2 (ja) 1994-05-10 2001-04-09 船井テクノシステム株式会社 タッチパネル入力装置
JPH11175228A (ja) 1997-12-17 1999-07-02 Hitachi Ltd 情報端末装置
JP2000163179A (ja) 1998-11-30 2000-06-16 Canon Inc 情報処理装置及び方法並びに記憶媒体
JP2001350588A (ja) 2000-06-07 2001-12-21 Totoku Electric Co Ltd テーブル型表示装置
JP2006039686A (ja) 2004-07-22 2006-02-09 Pioneer Electronic Corp タッチパネル装置、タッチ領域検出方法およびタッチ領域検出プログラム
JP5161690B2 (ja) * 2008-07-31 2013-03-13 キヤノン株式会社 情報処理装置及びその制御方法
KR101813028B1 (ko) * 2010-12-17 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 디스플레이 제어 방법
KR20130127146A (ko) * 2012-05-14 2013-11-22 삼성전자주식회사 다중 터치에 대응하는 기능을 처리하기 위한 방법 및 그 전자 장치
US9483146B2 (en) * 2012-10-17 2016-11-01 Perceptive Pixel, Inc. Input classification for multi-touch systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102257457A (zh) * 2008-12-25 2011-11-23 富士通株式会社 计算机程序、输入装置以及输入方法
JP2010224635A (ja) * 2009-03-19 2010-10-07 Sharp Corp 表示装置、表示方法、および表示プログラム
CN101901072A (zh) * 2009-05-26 2010-12-01 索尼公司 信息处理设备、信息处理方法和程序
JP2011113128A (ja) * 2009-11-24 2011-06-09 Sharp Corp ペンタブレット入力装置及びそれを用いた入力方法
CN102693000A (zh) * 2011-01-13 2012-09-26 义隆电子股份有限公司 用以执行多手指手势功能的计算装置及方法
CN102736845A (zh) * 2011-03-22 2012-10-17 奥多比公司 针对支持多点触摸的设备提供局部坐标系用户界面的方法和装置

Also Published As

Publication number Publication date
US20140192016A1 (en) 2014-07-10
CN103914161A (zh) 2014-07-09
JP2014134938A (ja) 2014-07-24
US9141205B2 (en) 2015-09-22
JP5705885B2 (ja) 2015-04-22

Similar Documents

Publication Publication Date Title
CN103914161B (zh) 输入显示装置和输入显示装置的控制装置
CN202976122U (zh) 图像处理设备
JP4630744B2 (ja) 表示装置
CN105593787B (zh) 用于与数字设备交互的直接指向检测的系统和方法
CN104866225B (zh) 一种具有触摸显示屏的电子设备及其控制方法
CN203178852U (zh) 保护盖和附件设备
CN100465867C (zh) 手写信息输入设备及手写信息输入方法
CN103168281B (zh) 检测传导体的存在的方法和装置
CN105320275B (zh) 可穿戴设备和操作可穿戴设备的方法
CN107741824B (zh) 对可重定位触摸表面上的姿态朝向的检测
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US20130154999A1 (en) Multi-Surface Touch Sensor Device With User Action Detection
EP2713251A2 (en) Method and electronic device for virtual handwritten input
US20130154955A1 (en) Multi-Surface Touch Sensor Device With Mode of Operation Selection
CN108229277A (zh) 手势识别、控制及神经网络训练方法、装置及电子设备
CN103678184A (zh) 附件和电子设备之间的检测系统及方法
CN102906671A (zh) 手势输入装置及手势输入方法
Orlosky et al. Dynamic text management for see-through wearable and heads-up display systems
US20120319977A1 (en) Display device with touch panel, control method therefor, control program, and recording medium
CN105893955A (zh) 指纹识别装置及方法
CN101714046B (zh) 物体位置检测装置与方法及应用该装置的图像显示系统
CN102981644A (zh) 信息处理装置及信息处理方法
CN106406708A (zh) 一种显示方法及移动终端
CN107111393A (zh) 用于局部化的力感测的装置和方法
CN103535019A (zh) 图像的感兴趣区域

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant