CN103793074A - 输入设备及其输入控制方法 - Google Patents

输入设备及其输入控制方法 Download PDF

Info

Publication number
CN103793074A
CN103793074A CN201310512380.2A CN201310512380A CN103793074A CN 103793074 A CN103793074 A CN 103793074A CN 201310512380 A CN201310512380 A CN 201310512380A CN 103793074 A CN103793074 A CN 103793074A
Authority
CN
China
Prior art keywords
input
virtual
display device
region
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310512380.2A
Other languages
English (en)
Other versions
CN103793074B (zh
Inventor
郑昊成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103793074A publication Critical patent/CN103793074A/zh
Application granted granted Critical
Publication of CN103793074B publication Critical patent/CN103793074B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种用于控制显示设备的输入设备,包括:通信单元;感测单元,所述感测单元感测输入设备的移动;第一输入单元,所述第一输入单元接收用户输入,所述用户输入用于设置要用作输入设备的输入区域的虚拟输入区域;以及控制单元,当将根据用户输入设置的虚拟输入区域映射到显示设备的屏幕区域、并且输入设备位于映射的虚拟输入区域中时,所述控制单元控制通信单元将与输入设备的位置相对应的位置信息发送到显示设备。

Description

输入设备及其输入控制方法
相关申请的交叉引用
本申请要求2012年10月30日向韩国知识产权局递交的韩国专利申请No.10-2012-0121595的优先权,将其公开通过引用全部合并在此。
技术领域
以下描述涉及输入设备及其输入控制方法,更具体地,涉及一种控制显示设备的输入设备及其输入控制方法。
背景技术
随着电子技术的发展,已经研发了各种类型的输入设备,并且已经开始被广泛使用。具体地,基于先进信息技术(IT)的输入设备(例如有线鼠标、无线鼠标和陀螺仪无线鼠标)已经被广泛地使用。
有线鼠标指的是经由电线与显示设备(例如个人计算机(PC))相连的鼠标。无线鼠标指的是基于无线通信技术无线连接的鼠标,作为显示设备的有线鼠标的替代。陀螺仪无线鼠标指的是使用陀螺仪传感器的鼠标。
然而,无线鼠标与现有的有线鼠标实质上相同,不同之处在于所述无线鼠标与显示设备无线连接。因此,无线鼠标使用鼠标垫。
因为陀螺仪无线鼠标使用陀螺仪传感器,陀螺仪无线鼠标不使用鼠标垫。然而,为了在较宽的范围内移动鼠标指针,应该连续地移动陀螺仪无线鼠标以将鼠标指针移动到所需的点。
因此,当使用如上所述的传统输入设备时,用户将不方便。
发明内容
本公开的示例实施例可以克服上述缺点和以上没有描述的其他缺点。然而,并不要求本公开克服上述缺点,并且本公开的示例实施例可以不克服上述问题的任一个。
以下描述涉及一种控制显示设备的输入的方法。用户使用输入设备将虚拟输入区域设置为由三维空间中选择的点所产生的形状。然后将输入设备在虚拟空间中的移动映射到显示设备。因此,可以将虚拟输入空间定位于对于用户方便的位置和朝向,缩放至对于用户方便的尺寸,设置为针对用户方便的分辨率,并且配置用于具有不同几何形状和尺寸的多种不同显示设备。
以下描述涉及一种通过将虚拟输入区域映射到显示设备的屏幕区域来使用虚拟输入区域控制显示设备的输入设备及其输入控制方法。
根据本公开的实施例,用于控制显示设备的输入设备包括:通信单元;感测单元,所述感测单元感测输入设备的移动;第一输入单元,所述第一输入单元接收用户输入,所述用户输入用于设置要用作输入设备的输入区域的虚拟输入区域;以及控制单元,当将根据用户输入设置的虚拟输入区域映射到显示设备的屏幕区域、并且输入设备位于映射的虚拟输入区域中时,所述控制单元控制通信单元将与输入设备的位置相对应的位置信息发送到显示设备。
所述虚拟输入区域可以允许指针在显示设备上的位置与输入设备在虚拟输入区域中的位置相对应。
当经由第一输入单元在输入设备上的第一点处接收到第一用户输入、并且在输入设备上与第一点对角相对的第二点处接收到第二用户输入时,所述控制单元可以设置以第一点和第二点作为顶点的矩形虚拟输入区域。
当经由第一输入单元接收第一用户输入时,所述控制单元可以将输入设备的模式改变为虚拟输入区域设置模式,并且当将输入设备从第一点移动到与第一点对角相对的第二点、然后经由第一输入单元在第二点处再次接收第一用户输入时,所述控制单元在虚拟输入区域设置模式下设置以第一点和第二点作为顶点的矩形虚拟输入区域。
所述控制单元可以控制通信单元将与设置的虚拟输入区域的分辨率有关的信息发送至显示设备。可以通过显示设备基于与分辨率有关的信息来执行从虚拟输入区域到显示设备的屏幕区域的映射。
所述位置信息可以与输入设备所处的所述映射的虚拟输入区域中的位置信息相同。
所述通信单元可以从显示设备接收与显示设备的分辨率有关的信息。所述控制单元可以将与显示设备的分辨率有关的信息和与设置的虚拟输入区域的分辨率有关的信息进行比较,计算显示设备的分辨率和设置的虚拟输入区域的分辨率之间的比率,并且基于所计算的比率来执行虚拟输入区域到显示设备的屏幕区域的映射。
所述位置信息可以与显示设备的屏幕区域中的位置信息相同,所述显示设备的屏幕区域中的位置信息被映射到与输入设备的位置有关的位置信息。
所设置的虚拟输入区域可以是三维空间中的平面。
所述输入设备还可以包括第二输入单元,经由所述第二输入单元接收用户输入指令,以调节设置的虚拟输入区域的分辨率。
根据本公开的一个方面,一种显示设备的输入设备的输入控制方法包括:接收用户输入指令,所述用户输入指令用于设置要用作输入设备的输入区域的虚拟输入区域;以及当将根据用户输入设置的虚拟输入区域映射到显示设备的屏幕区域、并且所述输入设备随后位于映射的虚拟输入区域中时,将与输入设备的位置相对应的位置信息发送到显示设备。
所述虚拟输入区域可以允许指针在显示设备上的位置与输入设备在虚拟输入区域中的位置相对应。
接收用户输入可以包括:在输入设备的第一点处接收第一用户输入;以及在输入设备上与第一点对角相对的第二点处接收第二用户输入。所述方法还可以包括:当接收第一和第二用户输入时,设置以第一点和第二点作为顶点的矩形虚拟输入区域。
接收用户输入可以包括:接收第一用户输入指令,所述第一用户输入指令用于将输入设备设置的模式改变为虚拟输入区域设置模式;以及在虚拟输入区域设置模式中,在将输入设备从第一点移动到与第一点对角相对的第二点之后,经由输入单元在第二点处再次接收第一用户输入。所述方法还可以包括:当经由输入单元在第二点处再次接收第一用户输入时,设置以第一和第二点作为顶点的矩形虚拟输入区域。
所述方法还可以包括:将与设置的虚拟输入区域的分辨率有关的信息发送至显示设备。可以通过显示设备基于与分辨率有关的信息来执行从虚拟输入区域到显示设备的屏幕区域的映射。
所述位置信息可以与输入设备所处的映射的虚拟输入区域中的位置信息相同。
所述方法还可以包括:从显示设备接收与显示设备的分辨率有关的信息;将与显示设备的分辨率有关的信息和与设置的虚拟输入区域的分辨率有关的信息进行比较;以及计算显示设备的分辨率和设置的虚拟输入区域的分辨率之间的比率。可以通过输入设备基于所计算的比率来执行虚拟输入区域到显示设备的屏幕区域的映射。
所述位置信息可以与显示设备的屏幕区域中的位置信息相同,所述显示设备的屏幕区域中的位置信息被映射到与输入设备的位置有关的位置信息。
所设置的虚拟输入区域可以是三维空间中的平面。
所述方法还可以包括接收用户输入指令,以调节设置的虚拟输入区域的分辨率。
根据本公开的一个方面,虚拟显示输入系统可以包括:显示设备;以及输入设备,包括:通信单元;感测单元,所述感测单元感测输入设备的移动;第一输入单元,所述第一输入单元接收用于设置虚拟输入区域的用户输入,所述虚拟输入区域用作输入设备的输入区域;以及控制单元,当将根据用户输入设置的虚拟输入区域映射到显示设备的屏幕区域、并且输入设备位于映射的虚拟输入区域中时,所述控制单元控制通信单元将与输入设备的位置相对应的位置信息发送到显示设备。
根据本公开的一个方面,一种用于控制在显示屏幕上显示的指针的位置的方法可以包括:使用输入设备选择第一坐标点;使用输入设备选择第二坐标点;基于第一坐标点和第二坐标点设置虚拟输入区域;跟踪输入设备在虚拟区域中的位置;将虚拟输入区域映射到显示屏幕的区域;以及基于输入设备在映射的虚拟区域中的跟踪位置来控制所显示的指针在显示屏幕上的位置。
根据本公开的一个方面,一种用于设置输入设备的虚拟输入区域的方法可以包括:使用输入设备选择第一坐标点;以及通过处理器至少基于所述第一坐标点来设置虚拟输入区域。
根据上述本公开的各种实施例,可以采用输入设备作为无线输入设备,从而增加输入设备的便携性。
此外,根据本公开的各种实施例,可以消除使用输入设备时对于鼠标垫的需求,从而增加了输入设备的便携性,并且消除了使用输入设备的环境限制。
此外,根据本公开的各种实施例,当在较宽的范围内移动鼠标指针时,输入设备可以位于虚拟输入区域中的特定位置,而不必连续地移动输入设备以便将鼠标指针移动到所需位置,从而增加了用户便利性。
此外,根据本公开的各种实施例,可以基于用户环境容易地调节虚拟输入区域的分辨率。
本发明的附加和/或其他方面和优势将部分地在以下描述中阐述,并且根据所述描述将部分地变得清楚,或者可以通过本发明的实践来学习。
附图说明
通过参考附图描述本发明的一些实例实施例,本发明的以上和/或其他方面将更加清楚明白,其中:
图1是说明了根据本公开实例实施例的输入系统的图;
图2是根据本公开的示例实施例的输入设备的方框图;
图3是说明了根据本公开示例实施例的输入设备的形状的图;
图4的部分(a)、(b)、(c)和(d)说明了根据本公开示例实施例的设置虚拟输入区域的方法;
图5的部分(a)和(b)说明了根据本公开示例实施例的使用虚拟输入区域的输入方法;
图6的部分(a)和(b)说明了根据本公开示例实施例的将位置信息投影到设置的虚拟输入区域上的过程;以及
图7是说明了根据本公开示例实施例的输入设备的输入控制方法的流程图。
具体实施方式
现在将参考附图更加详细地描述本公开的示例实施例。
在以下描述中,相同的附图参考数字在不同的附图中用于相同的元件。提供诸如详细结构和部件之类的特征以辅助对本公开的全面理解。因此清楚的是在没有这些具体限定的特征的情况下也可以执行本公开的示例实施例。此外,没有详细描述众所周知的功能或结构,因为它们可能通过不必要的细节混淆本公开。
图1是说明了根据本公开实施例的输入系统1000的图。参考图1,输入系统1000包括输入设备100和显示设备200.
输入设备100可以用于接收设置要用作输入设备100的输入区域的虚拟输入区域的用户输入指令。
此外,输入设备100可以设置与用户输入相对应的虚拟输入区域。所设置的虚拟输入区域可以是三维(3D)空间中的平面,其中当移动输入设备100时,可以移动在显示设备200上标记的鼠标指针以与输入设备100的移动相对应。
此外,当将设置的虚拟输入区域映射到显示设备200的屏幕区域、并且输入设备100位于映射的虚拟输入区域中时,输入设备100可以将与输入设备100的位置相对应的位置信息发送到显示设备200。
这里,将设置的输入区域映射到屏幕区域指的是将设置的虚拟输入区域中的位置信息映射到显示设备200的屏幕区域中与输入设备100的位置相对应的位置信息。可以通过使用输入设备100或显示设备200将与设置的虚拟束区域的分辨率有关的信息和与显示设备200的分辨率有关的信息进行比较,来执行这种映射。
当显示设备200接收位置信息时,显示设备200可以在与所接收的位置信息相对应的位置上标记鼠标指针。
可以将输入设备100实现为用于控制显示设备200的鼠标。在这种情况下,例如可以将鼠标实现为笔鼠标。
例如,可以将显示设备200实现为数字电视(TV)200-1、桌上个人计算机(PC)200-2、智能电话200-3或者平板PC200-4。然而,本公开不限于此,并且可以将显示设备200实现为包括显示器在内的各种其他设备的任一个,例如笔记本计算机、个人数字助手(PDA)、便携多媒体播放器(PMP)或者导航系统。
附加地,尽管图1说明了具有矩形显示器的显示设备,本公开不限于此。例如,显示设备可以包括显示屏幕,所述显示屏幕具有菱形形状、圆形形状、三角形形状或其他多边形形状。显示设备可以按照人像模式或风景模式操作。因此,虚拟输入区域的形状可以与显示屏幕的形状相对应,可以与显示屏幕的一部分相对应,或者可以与比显示屏幕大的区域相对应。
另外,显示设备可以是三维屏幕或者利用三维显示器的二维屏幕。因此,可以将虚拟输入区域设置为映射到三维显示器的三维形状。
输入设备100可以按照用于设置虚拟输入区域的虚拟输入区域设置模式、用于控制在显示设备200上标记的鼠标指针的移动的鼠标指针模式以及用于发射激光束的激光束发射模式之一操作。
图2是根据本公开实施例的输入设备100的方框图。参考图2,输入设备100可以包括感测单元110、输入单元120、通信单元130和控制单元140的中至少一些。
感测单元110可以感测输入设备100的移动。此外,感测单元110可以向控制单元140输出与输入设备100的移动的感测结果相对应的信号。
可以将感测单元110实现为感测角向加速度的陀螺仪传感器和感测加速度的加速度传感器,或者其组合。
陀螺仪传感器可以感测沿x轴、y轴和z轴的角向加速度,并且向控制单元140输出与角向加速度的感测结果相对应的信号。在这种情况下,所述信号可以包含与沿x轴、y轴和z轴的角向加速度有关的信息。控制单元140可以执行对于与角向加速度有关的信息的二重积分,以计算与输入设备100相对于参考点沿x轴、y轴和z轴有关的当前位置信息。
加速度传感器可以感测沿x轴、y轴和z轴的加速度,并且向控制单元140输出与加速度的感测结果相对应的信号。在这种情况下,所述信号可以包含与加速度有关的信息。控制单元140可以执行与加速度有关的信息的双重积分,以计算与输入设备100相对于参考点沿x轴、y轴和z轴有关的当前位置信息。
输入单元120接收对于输入设备100的用户输入。输入单元120可以包括:第一输入单元,用于接收用于设置虚拟输入区域的用户输入指令;以及第二输入单元,用于调节所设置的虚拟输入区域的分辨率。输入单元120还可以包括用于接收用户输入指令以执行“向前翻页”功能的输入单元、用于接收用户输入指令以执行“向后翻页”功能的输入单元、用于接收用户输入指令以激活激光束指针的输入单元、用于接收用户输入指令以执行鼠标的左键功能的输入单元、用于接收用户输入指令以执行鼠标的右键功能的输入单元以及用于接收用户输入指令以执行卷屏功能的输入单元。
可以将输入单元120实现为触摸传感器。例如,触摸传感器可以是静电型触摸传感器或者压感性触摸传感器。
因此,当从用户接收触摸输入时,输入单元120可以将与触摸的位置相对应的电信号递送到控制单元140,并且控制单元140可以通过使用递送电信号的坐标来识别触摸的位置。
此外,可以将输入单元120实现为麦克风。将来自用户的语音命令输入至麦克风。输入单元120将输入语音转换为电信号,并且将电信号递送至控制单元140。在这种情况下,控制单元140可以基于所述电信号识别与输入语音相对应的用户输入。
此外,可以将输入单元120实现为按钮或压力传感器。压力传感器可以包括压电膜,用于输出与压力相对应的电信号。因此,当使用作为按钮的输入单元120接收用户输入时,输入单元120将与施加至输入单元120上的位置的压力相对应的电信号递送至控制单元140,经由所述输入单元120接收用户输入。控制单元140可以基于所述电信号识别选择了所述按钮。
这里,输入单元120可以包括能够接收用户输入的上述设备中的至少一个。因此,输入单元120可以接收输入至输入设备100的用户输入。
为了便于解释,现在将参考图3详细描述根据本公开实施例的输入单元。
图3是说明了根据本公开实施例的输入设备100的形状的图。参考图3,可以将输入设备100实现为笔鼠标。
输入设备100的输入单元120包括:用于接收用户输入指令以执行鼠标的左键功能的输入单元121、用于接收用户输入指令以执行卷屏功能的输入单元122、用于接收用户输入指令以设置虚拟输入区域的第一输入单元123、用于接收用户输入指令以调节所设置的虚拟输入区域的分辨率的第二输入单元124、用于接收用户输入指令以激活激光束指针的输入单元125、用于接收用户输入指令以执行“向后翻页”功能的输入单元126、用于接收用户输入指令以执行“向前翻页”功能的输入单元127、以及用于接收用户输入指令以执行鼠标的右键功能的输入单元128。
这里,可以将输入单元121实现为笔尖,并且例如当施加力以按压输入设备100抵靠在表面上时,可以执行与鼠标左键功能实质上相同的功能。
可以将输入单元122实现为滚轮,并且可以执行与鼠标的滚轮键实质上相同的功能。
可以将输入单元123至128实现为按钮。在这种情况下,当按压或者释放按钮时,可以执行与按压或释放按钮相对应的功能。具体地,第二输入单元124可以包括用于接收用户输入指令以增加分辨率的(+)区域以及用于接收用户输入指令以降低分辨率的(-)区域。
尽管图3说明了输入单元121至128是按钮类型的输入单元,本公开不限于此,并且可以根据其他多种方法的任一个来实现输入单元121至128,例如基于触摸的方法或语音识别方法。
此外,输入单元121至128的结构不限于图3所示的,并且可以根据用户的便利性以多种方式中的任意方式设置输入单元121至128。
通信单元130允许输入设备100与显示设备200建立通信。
具体地,当显示设备200执行映射功能时,通信单元130可以将与设置的虚拟输入区域的分辨率有关的信息发送至显示设备200。在这种情况下,显示设备200可以基于与设置的虚拟输入区域的分辨率有关的信息,将设置的虚拟输入区域映射到显示设备的屏幕区域。在已完成显示设备200的映射操作的状态下,当输入设备100位于映射的虚拟输入区域中时,通信单元130可以将与输入设备100在映射的虚拟输入区域中的位置相对应的位置信息发送至显示设备200。
如果显示设备100能够接收与显示设备200的分辨率有关的信息,输入设备100可以执行这种映射功能。在这种情况下,输入设备100可以基于与显示设备200的分辨率有关的信息,将设置的虚拟输入区域映射到显示设备200的屏幕区域。在已完成输入设备100的映射操作的状态下,当输入设备100位于映射的虚拟输入区域中时,通信单元130可以将映射到与输入设备100在映射的虚拟输入区域中的位置有关的位置信息的、与显示设备200的屏幕区域有关的位置信息发送至显示设备200。
通信单元130可以通过通用串行总线(USB)端口、串行端口或鼠标端口、根据2.4Ghz数字无线方法或者根据近场通信方法(例如红外数据组织(IrDA)、蓝牙、近场通信(NFC)、射频识别(RFID)或者Zigbee)经由引线与没备相连。
具体地,当将输入设备100实现为无线输入设备时,可以增加输入设备100的便携性。
控制单元140控制输入设备100的总体操作。具体地,控制单元140可以控制感测单元110、输入单元120和通信单元中的至少一些。
具体地,控制单元140可以基于从感测单元110接收的信号来计算输入设备100的当前位置信息。在这种情况下,控制单元140可以考虑附接至输入设备100的感测单元110的位置来对计算的当前位置信息进行校正。例如,当将输入设备100实现为笔鼠标时,用户将对于所述笔鼠标的书写部分的位置感兴趣,即笔尖,而不是附接至输入设备100的感测单元110的位置。例如,如果感测单元110相距笔鼠标的书写部分沿z轴方向间隔开+1cm并且沿x轴方向间隔开-0.5cm,控制单元140可以对计算的当前位置信息进行处理,以沿z轴方向校正-1cm并且沿x轴方向校正+0.5cm。
此外,控制单元140可以根据经由第一输入单元123接收的用户输入来设置虚拟输入区域。
具体地,当控制单元140经由第一输入单元123在输入设备100上的第一点处接收第一用户输入并且在输入设备100上与第一点对角相对的第二点处接收第二用户输入时,控制单元140可以以第一点和第二点作为顶点来设置矩形虚拟输入区域。这里,第一和第二用户输入可以根据第一输入单元123的形状而变化。例如,当将第一输入单元123实现为按钮时,第一用户输入可以是维持按钮的按压,并且第二用户输入可以是释放按钮。当将第一输入单元123实现为触摸传感器时,第一用户输入可以是维持按钮的触摸,并且第二用户输入可以是取消按钮的触摸。当将输入单元120实现为麦克风时,第一用户输入可以是发出词语“开始”,并且第二用户输入可以是发出词语“结束”。
另外,当经由第一输入单元123接收第一用户输入时,控制单元140可以将输入设备100的模式改变为虚拟输入区域设置模式。在虚拟输入区域设置模式中,当将输入设备100从第一点移动到与第一点对角相对的第二点、并且经由第一输入单元123在第二点处再次接收第一用户输入时,控制单元140可以以第一和第二点作为顶点设置矩形虚拟输入区域。这里,第一用户输入可以根据第一输入单元123的形状而改变。例如,如果将第一输入单元123实现为按钮,第一用户输入可以是按压按钮、然后释放按钮。当将第一输入单元123实现为触摸传感器时,第一用户输入可以是触摸按钮、然后释放按钮的触摸。当将输入单元120实现为麦克风时,第一用户输入可以是发出词语“虚拟输入区域设置模式”。
如下面将参考图4详细描述的,控制单元140可以基于在第一点处计算的第一位置信息以及在与第一点对角相对的第二点处计算的第二位置信息来以第一和第二点作为顶点设置矩形虚拟输入区域。
图4说明了根据本公开实施例的设置虚拟输入区域300的方法。参考图4的部分(a),当用户将输入设备100放置于所设置的虚拟输入区域上的第一点处时,控制单元140可以计算输入设备100上的第一点处的第一位置信息(x1,y1,0)301。参考图4的部分(b),当用户通过沿行进路径303移动输入设备100将输入设备100放置于所设置的虚拟输入区域上的、与第一点对角相对的第二点处时,控制单元140可以计算在输入设备100的第二点处的第二位置信息(x2,y2,0)302。在这种情况下,计算矩形的彼此对角相对的两个顶点的位置信息。因此,控制单元140可以自动地计算矩形的其他顶点的第三位置信息(x1,y2,0)307和第四位置信息(x2,y1,0)308。然后,控制单元140可以设置矩形虚拟输入区域,其顶点是第一位置信息(x1,y1,0)301、第二位置信息(x2,y2,0)302、第三位置信息(x1,y2,0)307和第四位置信息(x2,y1,0)308。尽管将行进路径303示为是直线路径,本公开不限于此。例如,行进路径可以是弯曲的路径。
参考图4的部分(c),当用户将输入设备100放置于所设置的虚拟输入区域上的第一点处时,控制单元140可以计算输入设备100上的第一点处的第一位置信息(x1,y1,z1)。然后参考图4的部分(d),当通过沿行进路径303移动输入设备100,用户将输入设备100放置于所设置的虚拟输入区域上的第二点处时,控制单元140可以计算输入设备100上的与第一点对角相对的第二点处的第二位置信息(x2,y2,z2)302。
在这种情况下,控制单元140可以自动地计算第三位置信息(x3,y3,z2)307,其中沿z轴的位置信息与第二位置信息(x2,y2,z2)302相同、而沿x轴的位置信息和沿y轴的位置信息与第二位置信息(x2,y2,z2)的位置信息302不同。此外,控制单元140可以自动地计算第四位置信息(x4,y4,z1)308,其中沿z轴的位置信息与第一位置信息(x1,y1,z1)301的位置信息相同,并且沿x轴的位置信息和沿y轴的位置信息与第一位置信息(x1,y1,z1)301的位置信息不同。然后,控制单元140可以设置矩形虚拟输入区域,所述矩形虚拟输入区域的顶点是第一位置信息(x1,y1,z1)301、第二位置信息(x2,y2,z2)302、第三位置信息(x3,y3,z2)307和第四位置信息(x4,y4,z1)308。
换句话说,如图4所示,控制单元140可以通过使用计算的第一位置信息和第二位置信息,基于矩形的特性来设置矩形虚拟输入区域。
然而,本公开不限于此,可以由用户确定第一点、第二点、第三点和第四点。在这种情况下,控制单元140可以以第一至第四点作为顶点设置矩形虚拟输入区域。也就是说,可以将虚拟输入区域设置为3D空间中的矩形平面。此外,控制单元130可以使用第一位置信息作为矩形虚拟输入区域的左侧中点、并且使用第二位置信息作为矩形虚拟输入区域的右侧中点来设置矩形虚拟输入区域。
另外,可以通过用户选择的单一点和预定的虚拟输入区域尺寸来设置虚拟输入区域。例如,可以将虚拟输入区域设置为具有沿相对于输入设备的轴的正交方向朝向的预定尺寸、并且具有由用户利用输入设备选择的点作为中心点的矩形。例如,预定的尺寸可以等于显示器的尺寸,或者显示器尺寸的一半。因此,可以利用单一的点来设置虚拟输入区域。
控制单元140可以将设置的虚拟输入区域设置为具有预设的分辨率或者具有根据经由第二输入单元接收的用户输入而设置的分辨率。
这里,术语“分辨率”指的是设置的虚拟输入区域中的位置信息的密度。为了便于解释,将描述设置的虚拟输入区域是矩形、矩形的顶点是第一位置信息(0,0,0)、第二位置信息(10,10,0)、第三位置信息(0,10,0)和第四位置信息(10,0,0)的情况。在这利情况下,因为设置的虚拟输入区域具有100×100的分辨率,在虚拟输入区域的矩形形状中包括一万个位置信息,其中包括第一位置信息(0,0,0)、第二位置信息(10,10,0)、第三位置信息(0,10,0)和第四位置信息(10,0,0)。
当设置虚拟输入区域时,输入设备100或显示设备200可以将设置的虚拟输入区域映射到显示设备200的屏幕区域。
可以通过如下所述的输入设备100执行映射操作。
具体地,当输入设备100能够接收与显示设备200的分辨率有关的信息时,控制单元140可以将与显示设备200的分辨率有关的信息和与设置的虚拟输入区域的分辨率有关的信息进行比较,以便计算显示设备200的分辨率和设置的虚拟输入区域的分辨率之间的比率,然后基于所计算的比率执行映射。
为了便于解释,将描述具有100×100分辨率的设置虚拟输入区域和具有1000×1000分辨率的显示设备200的情况。在这种情况下,控制单元140可以计算显示设备200的分辨率和设置的虚拟输入区域的分辨率之间的比率,例如宽度:高度=1:10。然后,控制单元140可以基于所计算的比率,计算与设置的虚拟输入区域中的位置信息(x1,y1,z1)相对应的显示设备200的屏幕区域中的位置信息(x1’,y1’,z1’)。因此,控制单元140可以执行映射,使得设置的虚拟输入区域中的位置信息(x1,y1,z1)和显示设备200的屏幕区域中的位置信息(x1’,y1’,z1’)彼此相对应(一一对应)。
也可以由显示设备200来执行这种映射功能。在这种情况下,控制单元140可以控制通信单元130将与设置的虚拟输入区域的分辨率有关的信息发送至显示设备200。然后,显示设备200可以基于与设置的虚拟输入区域的分辨率有关的信息将设置的虚拟输入区域映射到显示设备200的屏幕区域。
当将设置的虚拟输入区域映射到显示设备200的屏幕区域、然后将输入设备100放置于映射的虚拟输入区域中时,控制单元140可以控制通信单元130将与输入设备100的位置相对应的位置信息发送到显示设备200。
具体地,当输入设备100执行映射操作时,控制单元140可以控制通信单元130将映射到放置于虚拟输入区域中的输入设备100的位置信息的、显示设备200的屏幕区域中的位置信息发送到显示设备200。在这种情况下,显示设备200可以在与显示设备200的屏幕区域中的位置信息相对应的屏幕区域的位置上标记鼠标指针。
当显示设备200执行映射操作时,控制单元140可以控制通信单元130将在虚拟输入区域中放置的输入设备100的位置信息发送到显示设备200。在这种情况下,显示设备200可以检测映射到虚拟输入区域中的位置信息的、屏幕区域中的位置信息,并且在屏幕区域中在与检测的位置信息相对应的、屏幕区域上的位置上标记鼠标指针。
现在将参考图5详细描述映射操作。图5说明了根据本公开实施例的使用虚拟输入区域的输入方法。参考图5的部分(a),当将输入设备100放置于映射的虚拟输入区域300中时,可以在显示设备200的屏幕区域上的位置201处标记鼠标指针,位置201映射到映射的虚拟输入区域300中的输入设备100的位置。当如图5的部分(b)所示的在映射的虚拟输入区域300中移动输入设备100时,可以在显示设备200的屏幕区域上的位置201上标记鼠标指针,所述位置201映射到输入设备100的位置。
根据如上所述的本公开各种实施例,将虚拟输入区域和显示设备的屏幕区域彼此映射,使得可以不使用用于输入设备的鼠标垫,从而增加了输入设备的便携性,并且消除了对于使用显示设备的环境的限制。此外,当在较宽的范围内移动鼠标指针时,可以将输入设备连续地移动至虚拟输入区域上的特定位置,而不必移动鼠标指针,从而增加了用户的便利性。
此外,根据如上所述的本公开的各种实施例,可以根据用户的环境容易地调节虚拟输入区域的分辨率。例如,为了选择在显示设备上显示的菜单,不需要精确地移动输入设备。因此,降低虚拟输入区域的分辨率以利用输入设备容易地选择菜单。当使用输入设备绘制详细的图画时,需要精确地移动输入设备。因此,增加虚拟输入区域的分辨率,以利用输入设备精确地绘制所需的图画。
虚拟输入区域的尺寸可以与显示屏幕的尺寸直接相对应,可以小于显示屏幕,或者可以大于显示屏幕。作为示例,42英寸的宽屏幕电视显示屏幕可以具有39.3英寸的宽度和29.7英寸的高度。可以将虚拟输入区域设置为具有13.1英寸宽度和9.9英寸高度的矩形。可以将虚拟输入区域映射到显示屏幕,使得输入设备在虚拟输入区域上1英寸的移动与在显示屏幕上显示的鼠标指针3英寸的移动相关联。
作为示例,可以设置虚拟输入区域的分辨率,使得将输入设备移动的跟踪精度设置为0.1英寸。因此,可以将输入设备在虚拟输入区域中实际4.36英寸的移动跟踪为虚拟输入区域中4.4英寸的移动。如果将分辨率改变为1.0英寸分辨率,可以将虚拟输入区域中4.36英寸的移动跟踪为虚拟输入区域中4英寸的移动。
当在输入设备100的当前位置处计算的位置信息与虚拟输入区域中的位置信息不相同时,控制单元140可以计算通过将在输入设备100的当前位置处计算的位置信息投影到虚拟输入区域上时获得的位置信息。在这种情况下,显示设备200可以在与所投影的位置信息相对应的屏幕区域上的位置上标记鼠标指针,如下面将参考图6详细描述的。
图6说明了根据本公开实施例的将输入设备的位置信息投影到设置的虚拟输入区域上的过程。参考图6的部分(a),在输入设备100的当前位置处计算的位置信息(x1,y1,z1)304与虚拟输入区域300中的位置信息不相同。在这种情况下,图2的控制单元140可以基于在输入设备100的当前位置处计算的位置信息(x1,y1,z1)304,计算虚拟输入区域300中的位置信息的z坐标,其x和y坐标是“x1”和“y1”,如图6的部分(a)所示。因此,控制单元140可以通过将在输入设备100的当前位置处计算的位置信息(x1,y1,z1)304投影到虚拟输入区域300上来计算位置信息(x1,y1,z2)305.
参考图6的部分(b),在输入设备100的当前位置处计算的位置信息(x1,y1,z1)304与虚拟输入区域300中的位置信息不相同。在这种情况下,控制单元140可以计算虚拟输入区域300中的位置信息(x2,y2,z2),当在输入设备100的当前位置处计算的位置信息(x1,y1,z1)304与虚拟输入区域300垂直时获得所述位置信息,如图6的部分(b)所示。
当使用虚拟输入区域执行输入时可能发生如图6所示的情况。例如,当在具有固定支撑物的空间中(例如桌子上)产生虚拟输入区域时,不太可能发生这些情况。
然而,当在不具有固定支撑物(例如在空旷的空间中)产生虚拟输入区域时,更可能发生这些情况。在这种情况下,用户可能难以将输入设备精确地定位于虚拟输入设备中。在这种情况下,控制单元140可以将在输入设备100的当前位置处计算的位置信息投影到虚拟输入区域上来计算位置信息。
显示设备200可以在与如以上参考图6所述计算的位置信息相对应的屏幕区域上标记鼠标指针。
控制单元140可以包括中央处理单元(CPU)、存储控制程序的只读存储器(ROM)以及用于记忆输入数据并且用作工作相关存储区域的随机存取存储器(RAM)。CPU、ROM和RAM可以经由内部总线彼此相连。
图7是说明了根据本公开实施例的输入设备的输入控制方法的流程图。参考图7,接收用于设置虚拟输入区域的用户输入指令(操作S701),所述虚拟输入区域用作输入设备的输入区域。这里,虚拟输入区域可以允许指针位于显示设备上,以与输入设备在虚拟输入区域中的位置相对应。此外,设置的虚拟输入区域可以是3D空间中的平面。
然后,根据用户输入将设置的虚拟输入区域和显示设备的屏幕区域彼此相映射(操作S702)。
这里,可以通过显示设备基于从输入设备发送至显示设备的分辨率信息来执行设置的虚拟输入区域和显示设备的屏幕区域的映射。
或者,可以通过输入设备执行这种映射。在这种情况下,输入设备可以将与从显示设备接收的显示设备的分辨率有关的信息和与设置的虚拟输入区域的分辨率有关的信息进行比较,计算显示设备的分辨率和设置的虚拟输入区域的分辨率之间的比率,并且基于所计算的比率执行映射。
然后,当输入设备位于映射的虚拟输入区域中时,将与输入设备的位置相对应的位置信息发送至显示设备(S703)。
在根据本公开实施例的图7的输入控制方法中,用户输入的接收(操作S701)可以包括接收输入设备上第一点处的第一用户输入,并且接收输入设备上与第一点对角相对的第二点处的第二用户输入。在这种情况下的,当接收第一和第二用户输入时,输入控制方法还可以包括设置以第一点和第二点作为顶点的矩形虚拟输入区域。
替代地,在根据本公开实施例的图7的输入控制方法中,用户输入的接收还可以包括:接收将输入设备的模式改变为虚拟输入区域设置模式的第一用户输入指令,在虚拟输入区域设置模式下将输入设备从第一点移动到与第一点对角相对的第二点,以及再次在第二点处接收第一用户输入。在这种情况下,当再次在第二点处接收第一用户输入时,输入控制方法还可以包括设置以第一点和第二点作为顶点的矩形虚拟输入区域。
此外,根据本公开实施例的图7的输入控制方法还可以包括接收用于控制设置的虚拟输入区域的分辨率的用户输入。
可以将根据本公开的各种实施例的输入设备的输入控制方法实现为在各种非临时计算机可读介质中的任一个中存储、并且经由各种非临时计算机可读介质的任一个提供到服务器或设备的程序代码。
与只能够短时间存储数据的介质(例如寄存器、高速缓存和内存)不同,非暂时计算机可读介质能够半永久地存储数据,并且可以通过设备从其读取数据。详细地,可以经由非暂时计算机可读介质存储和提供如上所述的各种程序,例如紧凑盘(CD)、数字通用盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、记忆卡或者只读存储器(ROM)。
可以将上述实施例记录在计算机可读介质中,所述计算机可读介质包括用于实现计算机实施的各种操作的程序指令。所述介质可以单独地或者与程序指令组合地包括数据文件、数据结构等。在介质中记录的程序指令可以是为了实施例的目的而专门设计或构建的程序指令,或者可以是在计算机软件领域的普通技术人员公知并且可用的。计算机可读介质的示例包括:磁性介质,例如硬盘、软盘和磁带;光学介质,例如CD ROM盘和DVD;磁光介质,例如光盘;以及专门配置用于存储和执行程序指令的硬盘设备,例如只读存储器(ROM)、随机存取存储器(RAM)、闪速存储器等。计算机可读介质也可以是分布式网络,使得可以按照分布的方式存储和执行程序指令。可以通过一个或多个处理器执行程序指令。可以在执行程序指令(像处理器那样进行处理)的至少一个专用集成电路(ASIC)或现场可编程门阵列(FPGA)中实现计算机可读介质。程序指令的示例包括例如由编译器产生的机器码以及包含高级代码的文件两者,计算机可以通过使用解释程序执行所述高级代码。上述设备可以配置为用作一个或多个软件模块以便执行上述实施例的操作,反之亦然。
前述示例实施例和优势只是示例性的,并非解释为限制本公开。本公开的教导易于应用于其他类型的设备。此外,本公开示例实施例的描述倾向于是说明性的,而并非限制权利要求的范围,并且许多替代、改进和变化对于本领域普通技术人员将是清楚明白的。

Claims (15)

1.一种输入设备,用作显示设备的输入装置,所述输入设备包括:
通信单元;
感测单元,所述感测单元感测输入设备的移动;
第一输入单元,所述第一输入单元接收用户输入,所述用户输入用于设置要用作输入设备的输入区域的虚拟输入区域;以及
控制单元,当将根据用户输入设置的虚拟输入区域映射到显示设备的屏幕区域、并且输入设备位于映射的虚拟输入区域中时,所述控制单元控制通信单元将与输入设备的位置相对应的位置信息发送到显示设备。
2.根据权利要求1所述的输入设备,其中所述虚拟输入区域允许指针在显示设备上的位置与输入设备在虚拟输入区域中的位置相对应。
3.根据权利要求1所述的输入设备,其中当经由第一输入单元在输入设备上的第一点处接收到第一用户输入、并且在输入设备上与第一点对角相对的第二点处接收到第二用户输入时,所述控制单元设置以第一点和第二点作为顶点的矩形虚拟输入区域。
4.根据权利要求1所述的输入设备,其中当经由第一输入单元接收第一用户输入时,所述控制单元将输入设备设置为虚拟输入区域设置模式,并且当将输入设备从第一点移动到与第一点对角相对的第二点、然后经由第一输入单元在第二点处再次接收第一用户输入时,所述控制单元在虚拟输入区域设置模式下设置以第一点和第二点作为顶点的矩形虚拟输入区域。
5.根据权利要求1所述的输入设备,其中所述控制单元控制通信单元将与设置的虚拟输入区域的分辨率有关的信息发送至显示设备;并且
通过显示设备基于与分辨率有关的信息来执行从虚拟输入区域到显示设备的屏幕区域的映射。
6.根据权利要求5所述的输入设备,其中所述位置信息与输入设备所处的所述映射的虚拟输入区域中的位置信息相同。
7.根据权利要求1所述的输入设备,其中所述通信单元从显示设备接收与显示设备的分辨率有关的信息,以及
所述控制单元将与显示设备的分辨率有关的信息和与设置的虚拟输入区域的分辨率有关的信息进行比较,计算显示设备的分辨率和设置的虚拟输入区域的分辨率之间的比率,并且基于所计算的比率来执行虚拟输入区域到显示设备的屏幕区域的映射。
8.根据权利要求7所述的输入设备,其中所述位置信息与显示设备的屏幕区域中的位置信息相同,所述显示设备的屏幕区域中的位置信息被映射到与输入设备的位置有关的位置信息。
9.根据权利要求1所述的输入设备,其中所设置的虚拟输入区域是三维空间中的平面。
10.根据权利要求1所述的输入设备,还包括第二输入单元,经由所述第二输入单元接收指示调节设置的虚拟输入区域的分辨率的用户输入。
11.一种用作显示设备的输入装置的输入设备的输入控制方法,所述方法包括:
接收用户输入,所述用户输入指示设置要用作输入设备的输入区域的虚拟输入区域;以及
当将根据用户输入设置的虚拟输入区域映射到显示设备的屏幕区域、并且所述输入设备随后位于映射的虚拟输入区域中时,将与输入设备的位置相对应的位置信息发送到显示设备。
12.根据权利要求11所述的方法,其中所述虚拟输入区域允许指针在显示设备上的位置与输入设备在虚拟输入区域中的位置相对应。
13.根据权利要求11所述的方法,其中接收用户输入包括:
在输入设备的第一点处接收第一用户输入;以及
在输入设备上与第一点对角相对的第二点处接收第二用户输入,
所述方法还包括:当接收第一和第二用户输入时,设置以第一点和第二点作为顶点的矩形虚拟输入区域。
14.根据权利要求11所述的方法,其中接收用户输入包括:
接收第一用户输入,所述第一用户输入指示将输入设备设置为虚拟输入区域设置模式;以及
在虚拟输入区域设置模式中,在将输入设备从第一点移动到与第一点对角相对的第二点之后,经由输入单元在第二点处再次接收第一用户输入;以及
所述方法还包括:当经由输入单元在第二点处再次接收第一用户输入时,设置以第一和第二点作为顶点的矩形虚拟输入区域。
15.根据权利要求11所述的方法,还包括:接收指示调节设置的虚拟输入区域的分辨率的用户输入。
CN201310512380.2A 2012-10-30 2013-10-25 输入设备及其输入控制方法 Active CN103793074B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0121595 2012-10-30
KR1020120121595A KR20140055173A (ko) 2012-10-30 2012-10-30 입력 장치 및 그의 입력 제어 방법

Publications (2)

Publication Number Publication Date
CN103793074A true CN103793074A (zh) 2014-05-14
CN103793074B CN103793074B (zh) 2019-02-05

Family

ID=49518730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310512380.2A Active CN103793074B (zh) 2012-10-30 2013-10-25 输入设备及其输入控制方法

Country Status (6)

Country Link
US (1) US9195322B2 (zh)
EP (1) EP2728448B1 (zh)
JP (1) JP6267926B2 (zh)
KR (1) KR20140055173A (zh)
CN (1) CN103793074B (zh)
WO (1) WO2014069901A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103257727A (zh) * 2013-05-14 2013-08-21 京东方科技集团股份有限公司 一种手写输入方法及装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2946266B1 (en) 2014-03-21 2023-06-21 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
CN107960124B (zh) * 2016-05-16 2021-02-26 深圳维盛半导体科技有限公司 一种dpi自动调节的鼠标及方法
CN105975103B (zh) * 2016-05-22 2018-11-06 重庆工业职业技术学院 一种带激光教鞭的多功能指环式无线鼠标
JP7409770B2 (ja) 2018-12-28 2024-01-09 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及び端末装置
KR102287654B1 (ko) * 2019-01-10 2021-08-10 (주)초이스테크놀로지 포인팅 장치
KR102184255B1 (ko) * 2019-01-10 2020-11-30 (주)초이스테크놀로지 포인팅 장치 및 그의 제어방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100093435A1 (en) * 2008-10-14 2010-04-15 Microsoft Corporation Virtual space mapping of a variable activity region

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347624A (en) 1987-03-05 1994-09-13 Hitachi, Ltd. Method and apparatus for display control
US5981883A (en) * 1992-07-08 1999-11-09 Lci Technology Group, N.V. Systems for imaging written information
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
AU765063B2 (en) * 1999-09-17 2003-09-04 Silverbrook Research Pty Ltd Method and system for instruction of a computer
US6906703B2 (en) * 2001-03-28 2005-06-14 Microsoft Corporation Electronic module for sensing pen motion
EP1315120A1 (de) * 2001-11-26 2003-05-28 Siemens Aktiengesellschaft Stifteingabesystem
WO2004044664A1 (en) 2002-11-06 2004-05-27 Julius Lin Virtual workstation
US7557774B2 (en) * 2004-08-13 2009-07-07 Microsoft Corporation Displaying visually correct pointer movements on a multi-monitor display system
US9317108B2 (en) * 2004-11-02 2016-04-19 Pierre A. Touma Hand-held wireless electronic device with accelerometer for interacting with a display
JP2006164049A (ja) * 2004-12-09 2006-06-22 Hitachi Ltd Guiプログラム、データ処理装置及びオブジェクトの操作方法
JP2007194958A (ja) * 2006-01-19 2007-08-02 Matsushita Electric Ind Co Ltd 入力装置および携帯端末装置
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US7889178B2 (en) * 2006-09-08 2011-02-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Programmable resolution for optical pointing device
KR20100086931A (ko) 2007-12-07 2010-08-02 소니 가부시끼가이샤 제어 장치, 입력 장치, 제어 시스템, 제어 방법 및 핸드헬드 장치
TW200928905A (en) * 2007-12-26 2009-07-01 E Lead Electronic Co Ltd A method for controlling touch pad cursor
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
US8231465B2 (en) * 2008-02-21 2012-07-31 Palo Alto Research Center Incorporated Location-aware mixed-reality gaming platform
EP2228711A3 (en) * 2009-03-12 2014-06-04 Lg Electronics Inc. Mobile terminal and method for providing user interface thereof
KR101585460B1 (ko) 2009-03-12 2016-01-15 엘지전자 주식회사 이동 단말기 및 이동 단말기의 입력 방법
TWI402506B (zh) * 2009-09-03 2013-07-21 Ind Tech Res Inst 運動追蹤方法與系統
US8817017B2 (en) * 2010-06-01 2014-08-26 Vladimir Vaganov 3D digital painting
US10133411B2 (en) * 2010-06-11 2018-11-20 Qualcomm Incorporated Auto-correction for mobile receiver with pointing technology
JP2012093951A (ja) * 2010-10-27 2012-05-17 Sony Corp 画像処理装置、画像処理システム、画像処理方法及びプログラム
US8907931B2 (en) * 2011-06-20 2014-12-09 Sony Corporation Electronic terminal, input correction method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100093435A1 (en) * 2008-10-14 2010-04-15 Microsoft Corporation Virtual space mapping of a variable activity region

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103257727A (zh) * 2013-05-14 2013-08-21 京东方科技集团股份有限公司 一种手写输入方法及装置
US9652071B2 (en) 2013-05-14 2017-05-16 Boe Technology Group Co., Ltd. Method and apparatus for handwriting input

Also Published As

Publication number Publication date
EP2728448A3 (en) 2015-11-11
JP2014089713A (ja) 2014-05-15
KR20140055173A (ko) 2014-05-09
CN103793074B (zh) 2019-02-05
EP2728448B1 (en) 2017-07-26
EP2728448A2 (en) 2014-05-07
US20140118253A1 (en) 2014-05-01
JP6267926B2 (ja) 2018-01-24
US9195322B2 (en) 2015-11-24
WO2014069901A1 (en) 2014-05-08

Similar Documents

Publication Publication Date Title
CN103793074A (zh) 输入设备及其输入控制方法
KR100465241B1 (ko) 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
KR102042461B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
US20060159344A1 (en) Method and system for three-dimensional handwriting recognition
US10275038B2 (en) Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product
JP2004227563A (ja) 慣性センサの積分
US10649615B2 (en) Control interface for a three-dimensional graphical object
KR20140071035A (ko) 복수 스크린을 표시하는 디스플레이 장치 및 그 제어 방법
EP2806342A1 (en) Electronic device
US20140204038A1 (en) Information apparatus and information processing method
WO2014112132A1 (ja) 情報機器及び情報処理方法
CN103034440A (zh) 一种识别手势指令的方法及装置
US20140125636A1 (en) Electronic pen data input system and electronic pen data input method using the same
CN111610869A (zh) 触控笔、电子设备和控制方法
EP2703978B1 (en) Apparatus for measuring coordinates and control method thereof
CN101807126A (zh) 触摸笔及实现触摸功能的方法
KR102123406B1 (ko) 멀티 터치 입력을 지원하는 터치스크린을 구비한 모바일 단말기 및 그의 제어 방법
US20150172871A1 (en) Techniques for improving location accuracy for virtual maps
CN103984407A (zh) 使用运动传感器融合来进行运动识别的方法及装置
KR20140115656A (ko) 전자장치에서 터치 입력을 이용한 동작 제어 방법 및 장치
JP5896167B2 (ja) 移動軌跡表示装置並びにプログラム、及び移動軌跡表示方法
KR102084161B1 (ko) 이미지를 보정하는 전자 장치 및 그 제어 방법
AU2020230251A1 (en) Method for relocating a mobile vehicle in a slam map and mobile vehicle
CN104808792A (zh) 一种信息处理方法及电子设备
CN103529994B (zh) 虚拟触摸输入方法及定位采集设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant