CN103562840A - 定位系统、定位设备和定位控制方法 - Google Patents

定位系统、定位设备和定位控制方法 Download PDF

Info

Publication number
CN103562840A
CN103562840A CN201280025026.0A CN201280025026A CN103562840A CN 103562840 A CN103562840 A CN 103562840A CN 201280025026 A CN201280025026 A CN 201280025026A CN 103562840 A CN103562840 A CN 103562840A
Authority
CN
China
Prior art keywords
sense
touch
pointer
area
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201280025026.0A
Other languages
English (en)
Inventor
伊藤镇
川部英雄
前田毅
关晃辅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103562840A publication Critical patent/CN103562840A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及向用户呈现直观操作感的定位系统。定位设备具有壳体、触觉呈现部和传感器部。所述传感器部检测对所述壳体的操作且输出用于控制屏幕上的指针的移动的操作信号。控制装置具有区域设置部和信号产生部。所述区域设置部设置属于屏幕上的物体显示区域内部的第一区域、属于物体显示区域外部的第二区域以及属于所述第一区域与所述第二区域之间的边界部分的第三区域。所述信号产生部基于所述操作信号计算出所述指针的位置,并且当所述指针位于所述第一区域中时,所述信号产生部产生在第一驱动模式下驱动所述触觉呈现部的控制信号,而当所述指针位于所述第三区域中时,所述信号产生部产生在第二驱动模式下驱动所述触觉呈现部的控制信号。

Description

定位系统、定位设备和定位控制方法
技术领域
本发明涉及用于移动在屏幕上显示的指针的定位系统(pointingsystem)、定位设备和定位控制方法。
背景技术
鼠标被广泛地用作用于操作以二维方式显示于显示器上的GUI(Graphical User Interface,图形用户界面)的输入装置。近年来,已经提出了各种各样的空间操作型输入装置,而不限于以鼠标为代表的平面操作型输入装置。
例如,专利文件1说明了一种空间操作型输入装置,其包括:用来检测第一方向上的加速度的加速度检测部;用来检测绕着与所述第一方向正交的第二方向上的轴的角速度的角速度检测部;以及基于所述加速度和所述角速度来计算壳体在第一方向上的速度值的计算部件。据认为,利用这种空间操作型输入装置,该输入装置的移动能够获得屏幕上所显示的指针的自然移动,因此提高了可操作性。
现有技术文献
专利文献
专利文件1:  WO 2009/035005
发明内容
本发明所要解决的问题
近年来,人们需要定位系统在可操作性方面的进一步改善。例如,在传统的定位系统中,用于移动指针的操作主要依靠用户的视觉识别,而且在某些依赖于操作环境的情况下,会给用户造成巨大的负担。出于此原因,需要对可操作性进行如下的改善:通过这样的改善,用户能够获得更直观的操作感。
鉴于如上所述的情况,本发明的目的是提供能够向用户呈现直观的操作感的定位系统、定位设备和定位控制方法。
解决问题所采取的技术方案
本发明的一个实施例提供了一种包括定位设备和控制装置的定位系统。
所述定位设备包括壳体、触觉呈现部(tactile sense presentationsection)和传感器部。所述触觉呈现部被构造成能够在所述壳体上呈现触觉。所述传感器部检测对所述壳体的操作,且输出用于控制屏幕上的指针的移动的操作信号。
所述控制装置包括区域设置部和信号产生部。
所述区域设置部设置:属于屏幕上的物体的显示区域内部的第一区域、属于所述物体的显示区域外部的第二区域、以及属于所述第一区域与所述第二区域之间的边界部分的第三区域。
所述信号产生部基于所述操作信号计算出所述屏幕上的所述指针的位置。于是,当所述指针位于所述第一区域中时,所述信号产生部产生用于在第一驱动模式下驱动所述触觉呈现部的第一控制信号。当所述指针位于所述第三区域中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动所述触觉呈现部的第二控制信号。
根据上述定位系统,由于在对物体做出定位操作时,触觉经由所述壳体而被反馈给用户,所以能够降低对用户的视觉识别的依赖程度且能够提供更直观的定位操作感。此外,当所述指针位于所述物体的显示区域的内部与外部之间的所述边界部分中时,呈现出与当所述指针位于所述显示区域的内部时的触觉不同的触觉。因此,能够诱导对物体做出适当的定位操作且能够实现操作感的改善。
由所述触觉呈现部呈现出的触觉除了可以是包括触压(tactilepressure)感、振动感和移动感等的机械刺激之外,还可以包括温热刺激(hyperthermic stimulation)、电刺激等。作为一个实施形式的所述触觉呈现部由单个或多个产生振动的振动体形成。所述振动体的示例包括:音圈电机(voice coil motor),其沿一个轴方向产生振动;和振动电机,其通过利用旋转的偏心锤(eccentric weight)的离心力沿多个轴方向产生振动。
基于触觉的强度、周期、节奏及其组合等,适当地设置所述第一驱动模式和所述第二驱动模式。只要这些模式处在能够让用户识别出触觉之间的差别的形式下,那么所述第一驱动模式和所述第二驱动模式并没有受到特别的限制。在所述触觉呈现部由所述振动体形成的情况下,能够以用户可辨别的例如振动强度(幅度)、振动周期(频率)和振动方向等形式改变触觉。
所述定位设备的类型没有受到特别的限制,并且可以是空间操作型输入装置或平面操作型输入装置。典型地,所述平面操作型输入装置是在书桌上被操作的鼠标。此外,能够通过检测用户的手和手指的移动来执行定位操作的各种类型的输入装置(例如,触控面板和触摸板)也是可应用的。
屏幕上所显示的物体的示例包括用于象征性地表示要被执行的程序和指令的内容的图形和图像(例如图标)。除此之外,所述物体还可包括屏幕上所显示的二维视频或三维视频。在这种情况下,所述区域设置部可以依照所显示的物体将所述第一区域至所述第三区域设置为二维坐标或三维坐标。
在所述定位设备是空间操作型输入装置的情况下,所述触觉呈现部可以包括多个振动体,各所述振动体均能够通过被单独驱动而沿任意轴方向产生振动。
因此,能够呈现与用户使所述壳体移动的操作对应的各种触觉,还能够提供用于协助用户的定位操作的功能。
例如,作为一个实施形式,当判定通过所述壳体的操作使所述指针正接近所述物体时,所述信号产生部产生用于朝着所述壳体的移动方向驱动所述触觉呈现部的第三控制信号。
另一方面,当判定通过所述壳体的操作使所述指针正远离所述物体时,所述信号产生部产生用于朝着与所述壳体的所述移动方向相反的方向驱动所述触觉呈现部的第四控制信号。
因此,能够实现将所述指针带向所述物体的触觉呈现,且能够改善可操作性。
本发明的一个实施例提供了一种定位设备,其包括壳体、触觉呈现部、传感器部和信号产生部。
所述触觉呈现部被构造成能够向所述壳体赋予触觉。
所述传感器部检测所述壳体在空间内的移动,并且输出用于控制屏幕上的指针的移动的操作信号。
当所述指针位于所述屏幕上的物体的显示区域的内部中时,所述信号产生部产生用于在第一驱动模式下驱动所述触觉呈现部的第一控制信号。当所述指针位于所述物体周围的预定区域中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动所述触觉呈现部的第二控制信号。
本发明的一个实施例提供了一种定位控制方法,其包括:设置属于屏幕上的物体的显示区域内部的第一区域、属于所述物体的显示区域外部的第二区域、以及属于所述第一区域与所述第二区域之间的边界部分的第三区域。
基于从用于使指针在所述屏幕上移动的定位设备输出的操作信号,计算出所述屏幕上的所述指针的位置。
当所述指针位于所述第一区域中时,在第一驱动模式下使所述定位设备呈现触觉,而当所述指针位于所述第三区域中时,在不同于所述第一驱动模式的第二驱动模式下使所述定位设备呈现触觉。
本发明的效果
如上所述,根据本发明,能够提供直观的定位操作感。
附图说明
图1是示出了本发明的一个实施例的定位系统的框图。
图2是示出了本发明的一个实施例的定位设备的内部构造的框图。
图3是示出了定位设备中所包含的触觉呈现部的构造示例的示意性平面图。
图4是示出了定位设备中所包含的触觉呈现部的构造示例的示意性侧视图。
图5是示出了在定位系统中在屏幕上显示的图像的示例的示意图。
图6是用于说明定位系统的一个操作示例的图。
图7是用于说明定位系统的一个操作示例的图。
图8是用于说明定位系统的一个操作示例的图。
图9是用于说明定位系统的一个控制示例的流程图。
图10是用于说明定位系统的一个操作示例的图。
图11是示出了本发明的另一实施例的定位设备的内部构造的框图。
具体实施方式
以下,将参照附图来说明本发明的实施例。
第一实施例
定位系统
图1是示出了本发明的一个实施例的定位系统的框图。本实施例的定位系统100包括输入装置1(定位设备)、控制装置2和显示装置3。
定位系统100接收控制装置2中的操作信号(该操作信号是从输入装置1传输过来的),并且依照所接收的操作信号,控制在显示装置3的屏幕31上显示的图像。显示装置3的屏幕31具有沿图形的X轴方向的水平方向、沿图形的Y轴方向的垂直方向和沿图形的Z轴方向的深度方向。
例如,显示装置3是液晶显示器或EL(电致发光)显示器,但是显示装置3并不限于此。显示装置3可以是这样的装置:其与显示器一体化地形成,且能够接收电视广播等。例如,显示装置3可以由能够在屏幕31上显示三维视频的3D电视组成。
以下,将说明输入装置1和控制装置2。
输入装置
输入装置1包括壳体10,该壳体10的大小使得用户U能够抓握住该壳体10。例如,壳体10大体上是柱状体,该柱状体具有沿y轴方向的高度方向以及沿x轴方向、z轴方向的径向方向。一些操作键等被布置在壳体10的一个表面上。
在本实施例中,输入装置1主要被形成为用于移动在屏幕31上显示的指针P的空间操作型定位设备。当用户U将壳体10在空间内沿x轴方向移动时,输入装置1产生用于使指针P沿X轴方向移动的操作信号,且将该操作信号传输给控制装置2。同样地,当用户U将壳体10沿y轴方向移动时,输入装置1产生用于使指针P沿Y轴方向移动的操作信号,且将该操作信号传输给控制装置2。此外,在指针P显示于屏幕31上以在三维视频上移动的情况下,当用户U将壳体10沿z轴方向移动时,输入装置1产生用于使指针P沿Z轴方向移动的操作信号,且将该操作信号传输给控制装置2。
图2是示出了输入装置1的内部构造的框图。输入装置1包括壳体10、触觉呈现部11、移动检测部12(传感器部)、键输入部13、信息显示部14、控制部15、通信部16和电源部17。
触觉呈现部11包括在壳体10上呈现触觉的致动器(actuator)。具体地,触觉呈现部11具有通过驱动该致动器而将触觉经由壳体10呈现给用户U的功能。通过从控制部15输出的驱动信号,触觉呈现部11在预定驱动模式下被驱动。
图3和图4分别是示出了触觉呈现部11的构造示例的示意性平面图和示意性侧视图。触觉呈现部11包括多个振动体,各振动体均能够通过被单独地驱动而沿任意轴方向产生振动。在本实施例中,触觉呈现部11包括:第一组振动体111a和111b,它们两者在x轴方向上彼此相对;第二组振动体111c和111d,它们两者在y轴方向上彼此相对;以及第三组振动体111e和111f,它们两者在z轴方向上彼此相对。例如,各振动体由音圈电机形成。
图3和图4中所示的箭头的方向表示振动体111a至111f产生振动的主方向。此外,箭头的厚度相对地表示振动的强度。随着箭头变厚,产生更强的振动。具体地,在本实施例中,各组中的振动体被布置成能够沿彼此远离的方向产生强振动。通过调整驱动电流的大小等,能够任意地改变振动幅度等。
利用上述构造,通过驱动任意的振动体,壳体10能够在各种振动模式下振动。例如,通过驱动任意一个振动体,就能够在沿x轴、y轴和z轴的六个方向上产生预定的振动。此外,通过驱动任意的多个振动体以产生各振动方向上的合成矢量,就能够在与各轴相交的任意方向上产生预定的振动。此外,通过控制各振动体的驱动力和驱动时序,就能够绕任意轴产生预定的振动。
移动检测部12包括用于检测在空间内被操作的壳体10的移动的惯性传感器。作为该惯性传感器,典型地有例如加速度传感器、角速度传感器等。移动检测部12被形成为能够检测壳体10的在x轴、y轴和z轴方向中的每一方向上的移动,但是其构造不限于此。例如,加速度传感器可以沿各轴方向布置着,或者移动检测部12可以由单个角速度传感器形成或可以由多个角速度传感器的组合形成。此外,可以一起使用地磁传感器、压力传感器等。
键输入部13包括布置于壳体10的表面上的适当位置处的各种开关,例如按压型开关、滑动型开关和操纵杆型开关。键输入部13不限于机械式键开关,且可以包括静电开关、或光学开关、或静电传感器、或光学传感器。此外,在预定情况下,任意开关都可以被构造成能够通过来自控制部15的信号而导通。
信息显示部14由包含于壳体10的表面中的适当大小的显示器形成。基于控制部15的输出,信息显示部14显示例如定位系统100或输入装置1的操作状态及电池剩余量等各种类型的信息。
控制部15由包括ROM、RAM和CPU(MPU)的计算机形成,且向输入装置1的各部供电,并且还控制输入装置1的操作。基于移动检测部12和键输入部13的输出,控制部15产生操作信号S1,并且将该操作信号S1经由通信部16传输给控制装置2。移动检测部12的输出包括与壳体10的移动有关的信息,例如壳体10的移动方向、移动速度等。键输入部13的输出除了包括例如点击操作和使用数字小键盘的操作等各种操作之外,还包括与例如输入装置1的动作设置和显示装置3的显示设置等各种设置操作有关的信息。
控制部15向触觉呈现部11输出预定的驱动信号S2。在本实施例中,基于经由通信部16接收到的来自控制装置2的控制信号S3,产生了驱动信号S2。驱动信号S2包括振动模式,该振动模式包括与振动的产生方向、强度、振动周期等有关的信息。依照控制信号S3的内容,控制部15产生与各种振动模式中的各者对应的驱动信号S2。
通信部16由能够与控制装置2的通信部28执行双向通信的无线通信模块形成,但是有线通信也是可以实施的。通信系统没有特别地限制,且可以是例如“ZigBee(注册商标)”和“Bluetooth(注册商标)”等设备间通信(inter-device communication),或者可以是经由因特网的通信。
电源部17形成输入装置1的电源,且向壳体10内的各部提供所需电力。典型地,电源部17由电池形成。该电池可以是一次电池或二次电池。此外,电源部17可以由太阳能电池形成。需要注意的是,在有线或无线馈电(power feeding)的情况下,电源部17不是必要的。
控制装置
如图1所示,控制装置2包括视频RAM23、显示控制部24、MPU25、RAM26、ROM27和通信部28。
通信部28接收从输入装置1传输过来的操作信号S1。MPU25分析该操作信号,且利用存储在RAM26和ROM27中的各种设置值和程序来执行各种类型的算术处理。作为该算术处理的示例,MPU25基于从输入装置1传输过来的操作信号S1,计算出在屏幕31上显示的指针的位置(坐标)。根据MPU25的控制,显示控制部24产生主要会在显示装置3的屏幕31上显示的屏幕数据。屏幕数据包括指针P、图标、通过图标的执行而显示出来的视频数据,等等。视频RAM23是显示控制部24的工作区,且临时地存储所产生的屏幕数据。
控制装置2可以是只为输入装置1设置的设备,或者是通常使用的例如PC(个人计算机)等信息处理装置。此外,控制装置2可以是与显示装置3一体化的计算机。由控制装置2控制的设备可以是视听设备、投影仪、游戏机、或汽车导航仪等。
以下,将详细地说明控制装置2。
控制装置2包括区域设置部和信号产生部。
图5是示出了在屏幕31上显示的图像V的示例的示意图。所述区域设置部设置了:属于屏幕31上的图像V(物体)的显示区域内部的第一区域C1、属于图像V的显示区域外部的第二区域C2、以及属于第一区域C1与第二区域C2之间的边界部分的第三区域C3。所述区域设置部可以由MPU25形成、可以由显示控制部24形成、或者可以由它们两者形成。
第一区域C1被设置在图像V的显示区域的内部,即,屏幕31的整个区域中的由图像V所占用的显示区域的内部。第一区域C1和图像V的显示区域不一定彼此一致,且第一区域C1只需要设置在图像V的显示区域的内部。图5示出了这样的示例:其中,第一区域C1的外边缘(虚线)被设置于从由实线表示的图像V的外边缘(实线)向内。
第三区域C3被设置成与第一区域C1的外边缘相邻接,且在本实施例中,第三区域C3由包含图像V的外边缘的环状区域形成。根据图像V的形状、大小和类型以及指针P的位置检测灵敏度等,能适当地设置该环状区域中的环的宽度。此外,第三区域C3的设置宽度可以被构造成能够通过用户U的操作而改变。
典型地,图像V是图标,但是它也可以是除了图标之外的二维视频或三维视频。在图像V是三维视频的情况下,区域C1至区域C3之中的至少区域C1是由与该三维视频相关联的空间区域(空间坐标系)形成的。
基于操作信号S1,所述信号产生部计算出屏幕31上的指针P的位置,并且当指针P位于第一区域C1中时,所述信号产生部产生用于在第一驱动模式下驱动触觉呈现部11的第一控制信号(S31)。此外,当指针P位于第三区域C3中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动触觉呈现部11的第二控制信号(S32)。例如,所述信号产生部由MPU25形成。MPU25将所产生的控制信号输出到通信部28,且通信部28将该控制信号传输给输入装置1的通信部16。
基于触觉的强度、周期、节奏及其组合等,适当地设置第一驱动模式和第二驱动模式。只要这些模式处于能够让用户识别出触觉之间的差别的形式中,那么第一驱动模式和第二驱动模式并不受到特别的限制。在其中触觉呈现部由振动体形成的本实施例中,能够以用户可辨别的例如振动力、振动周期和振动方向等形式改变触觉。
此外,充当信号产生部的MPU25被构造成:当判定通过用户U对壳体10的操作使指针P正接近图标(物体)时,该MPU25输出用于在壳体10的移动方向上驱动触觉呈现部11的第三控制信号(S33)。另一方面,充当信号产生部的MPU25还被构造成:当判定通过用户U对壳体10的操作使指针P正远离图标时,该MPU25输出用于在与壳体10的移动方向相反的方向上驱动触觉呈现部11的第四控制信号(S34)。因此,由于能够实现将指针P引导向图标的触觉呈现,所以获得了协助用户的定位操作的功能,且能改善操作感。
此外,充当信号产生部的MPU25还被构造成能够计算壳体10的移动速度,并且根据所计算的指针P的移动速度来改变触觉呈现部11的驱动力。例如,触觉呈现部11可以被这样驱动:随着壳体10的移动速度越快,呈现出越强的触觉。此外,可以与壳体10的移动方向相关联地调整触觉呈现部11的驱动方向。上述这样的处理除了可以通过MPU25来执行之外,还可以通过输入装置1的控制部15来执行。
定位系统的操作示例
接下来,将说明定位系统100的一些操作示例。
操作示例1
图6的(A)示出了其上间隔地布置有多个图标V1至V4的屏幕31的显示示例。在该图所示的示例中,图标V1至V4均具有相同大小的矩形形状,并且以两行两列的布局显示在屏幕31上。图标V1至V4中的每一者是这样的GUI:它通过用户U的使指针P移动的操作而被选择、且通过对设置于输入装置1的壳体10上的操作键的输入而被执行。
控制装置2在图标V1至V4的各显示区域的内部中设置第一区域C1、在图标V1至V4的各显示区域的外部中设置第二区域C2、并且在图标V1至V4的各边界的预定区域中设置第三区域C3。因此,彼此相邻的图标V1至V4之间的区域被设置为第三区域C3。
通过用户U的在空间内移动输入装置1的操作来控制屏幕31上的指针P1的移动。具体地,通过输入装置1的移动检测部12来检测壳体10的移动,而且通过输入装置1的控制部15来产生包含与壳体10的移动有关的信息的操作信号S1。控制装置2接收从输入装置1传输过来的操作信号S1,且基于该操作信号S1,通过预定的算术处理来计算指针P1的位置。然后,控制装置2控制指针P1沿与壳体10的移动方向对应的方向且以与壳体10的移动速度对应的速度在屏幕31上的移动显示。
例如,假设为了选择图标V3,用户U将指针P1从图6的(A)所示的用点划线表示的位置朝着用实线表示的图标V3上的位置线性地移动。当指针P1进入设置在图标V3周围的第三区域C3时,控制装置2产生用于在第二驱动模式下驱动触觉呈现部11的控制信号S3(S32),且将该控制信号S3传输到输入装置1。因此,输入装置1产生对应于控制信号S3(S32)的驱动信号S2,且通过触觉呈现部11产生第二驱动模式下的触觉。因此,用户U能够识别出指针P1在接近图标V2。
然后,当指针P1进入设置在图标V3的显示区域内部的第一区域C1时,控制装置2产生用于在第一驱动模式下驱动触觉呈现部11的控制信号S3(S31),且将该控制信号S3传输到输入装置1。因此,输入装置1产生对应于控制信号S3(S31)的驱动信号S2,且通过触觉呈现部11产生第一驱动模式下的触觉(例如,比第二驱动模式下的触觉更强的触觉)。由于第一驱动模式使得触觉呈现部11在与第二驱动模式下的振动模式不同的振动模式下被驱动,所以用户U能够确实地识别出指针P1已到达图标V3,并且能够适当地进行对图标V2的执行操作。
如上所述,根据本实施例,由于在图标V3上做出定位操作时,触觉经由壳体10被反馈给用户U,所以能够降低对用户U的视觉识别的依赖程度且能够提供更为直观的定位操作感。此外,当指针P1位于图标V3周围的区域(第三区域C3)中时,呈现出与当指针P1位于图标V3的显示区域内部(第一区域C1)中时的触觉不同的触觉。因此,能够诱导在图标V3上做出适当的定位操作,且能够实现操作感的改善。
另一方面,如图6的(B)所示,假设指针P1从该图所示的用点划线表示的图标V3上的位置朝着用实线表示的图标V2上的位置线性地移动。在这种情况下,指针P1穿过第三区域C3。因而,当指针P1从图标V3移动到图标V2时,在第二驱动模式下的触觉再次被呈现给用户U之后,表明指针P1到达图标V2的第一驱动模式下的触觉被呈现给用户U。因此,用户U能够识别出指针P1作为来自原先图标V3的目标确实到达了图标V2。
如上所述,根据本实施例,即使当多个图标排列在屏幕上时,指针横穿各图标的这种感觉也能够被呈现给用户。因此,利用用户的视觉和触觉,能够适当地将指针引导向所希望的图标。此外,只使用触觉而不依赖视觉,就能够识别在图标之间的往来。此外,第一驱动模式下的触觉呈现模式对于不同图标可以有所变化。因此,只使用触觉就能够将多个图标单独地区别开。
操作示例2
图7和图8是示出了当用指针P1在图标V5上执行定位操作时的状态的屏幕的显示示例。图7均示出了指针P1以相对低的速度移动的状态,而图8均示出了指针P1以相对高的速度移动的状态。此外,在图7和图8每一者中,(A)示出了指针P1朝着图标V5移动的状态,而(B)示出了指针P1到达图标V5的状态。
在这里,图中的箭头均表明了呈现给用户U的触觉的方向和强度,且箭头的较粗线表示更强的触觉。此外,P0表示指针P1的一组残像。在移动速度低的情况下,这些图像以叠加的方式被图示出来(图7),而在移动速度高的情况下,这些图像以分开的方式被图示出来(图8)。此外,在形成该组残像的图像之中,更浅颜色的图像表示指针P1的更早图像。
如图7的(A)和图8的(A)所示,在指针P1朝着图标V5移动的情况下,控制装置2产生用于朝着壳体10的移动方向产生触觉的控制信号(S33),且将该控制信号输出到输入装置1。输入装置1接收该控制信号,并且控制部15向触觉呈现部11输出用于沿壳体10的操作方向产生振动的驱动信号。在这些图所示的示例中,通过驱动触觉呈现部11的振动体111b(见图3和图4),沿壳体10的移动方向(-X方向)的触觉经由壳体10呈现给用户U。因此,实现了将指针P1引导向图标V5的触觉呈现。
然后,如图7的(B)和图8的(B)所示,当指针P1到达图标V5时,控制装置2产生用于沿与壳体10的移动方向相反的方向产生触觉的控制信号,且将该控制信号输出到输入装置1。响应于这点,输入装置1的控制部15将用于沿与壳体10的操作方向相反的方向产生振动的驱动信号输出到触觉呈现部11。在这些图所示的示例中,通过驱动触觉呈现部11的振动体111a(见图3和4),沿与壳体10的移动方向相反的方向(+X方向)的触觉经由壳体10呈现给用户U。因此,用来促使指针P1的移动停止的信息能够呈现给用户U,且能够进一步增强将指针P1诱导向图标V5的效果。
此外,通过控制触觉的强度使其与指针P1的移动速度同步,对用户U而言能够增强移动指针P1的操作感。在图7和图8的示例中,进行设置以使得:随着指针P1的移动速度变高,呈现出更弱的触觉,且随着指针P1的移动速度变高,在到达图标V5时所呈现的朝着与移动方向相反的方向的触觉变大。然而,理所当然地,本发明并不限于此。
此外,在指针P1沿远离图标V5的方向移动的情况下,可以进行控制以使得在壳体10中沿与壳体10的移动方向相反的方向产生触觉。因此,使指针P1返回图标V5的显示位置的触觉能够呈现给用户U。
如上所述,通过将与指针P1的移动速度同步的触觉呈现给用户U,能增强指针P1的操作感。此外,通过将与指针P1和图标V5二者的相对位置相关的触觉呈现给用户U,就能够促进定位操作,并且能够实现用户U负担的减轻。
图9是示出了基于上述操作示例的控制装置2的处理过程的控制流程。该图所示的流程只不过是示例,且能依据规格和设置而适当地改变。
在图9中,S10是用于判定输入装置1的移动存在或不存在(相对于虚拟物体的相对位置的移动存在或不存在)的步骤,并且S11是用于判定图标(信息)存在或不存在的步骤。S12是用于判定指针与图标之间的位置关系的步骤,以及S13和S14是用于判定指针相对于图标的移动方向的步骤。S15至S18是用于判定指针的移动速度的步骤,以及S19至S26是用于执行关于要被呈现的触觉的判定结果的步骤。
在S10中,如果输入装置1未移动,那么状态一直保持着直到检测到输入装置1的移动为止。当检测到输入装置1的移动时,状态转移到S11。在S11中,控制装置2判定在指针P1的附近是否存在有需要触觉呈现的图标V5。如果没有图标V5,那么状态转移到S10。如果有图标V5,那么状态转移到S12。在S12中,控制装置2判定指针P1与图标V5之间的位置关系。在该判定中,参照了指针P1的位置以及与图标V5的显示区域对应的第一区域C1各者。
在指针P1位于图标V5的显示区域内部的情况下,状态转移到S13;而在指针P1位于图标V5的显示区域外部(例如,在附近)的情况下,状态转移到S14。在S13和S14中,控制装置2判定指针P1相对于图标V5的移动方向。在指针P1向图标V5的内部移动的情况下,状态转移到S15和S17。在指针P1向图标V5的外部移动的情况下,状态转移到S16和S18。在S15至S18中,控制装置2判定指针P1的移动速度,且将该速度分为比预定值慢的速度和比预定值快的速度以产生与预设触觉的呈现内容对应的控制信号(S19至S26)。
在S19至S26中,触觉的强度表明相对关系并且不规定绝对值。此外,在本示例中,两级式评估(“慢”和“快”)被用于移动速度的判定,但是该判定不限于此。可以设定多级式评估,或者可以不使用阶梯式评估而是使用连续评估。此外,那些判定结果只不过是示例,并且根据所需的效果(例如,对用户赋予怎样的躯体感觉)能够适当地改变力的呈现方向或强度。
操作示例3
图10示出了用于说明定位系统100的另一操作示例的屏幕的显示示例。在图10中,图像V6表示例如狗或猫等小动物。虽然该图中未示出,但是第一区域C1设置在图像V6的显示区域内部,而第三区域C3设置在图像V6的外围中。
在本示例中,当使指针P2沿着第三区域C3移动时,控制装置2产生如下的控制信号:通过该控制信号,触觉呈现部11在例如呈现出提供了抚摸动物的毛的质感(texture)的触觉的驱动模式下被驱动。另一方面,当使指针P2在第一区域C1内移动时,控制装置2产生如下的控制信号:通过该控制信号,触觉呈现部11在例如呈现出提供了与动物玩耍的质感的触觉的驱动模式下被驱动。因此,通过刺激用户的视觉、听觉、还有触觉,能够对用户U提供更真实的躯体感觉。
在这里,图像V6可以是二维视频或三维视频。例如,在三维视频的情况下,能够以与该视频相关联的三维坐标来设定第一区域C1。然后,区域C1可以进一步地划分为多个区域,使得触觉呈现部11的驱动模式(第一驱动模式)可以改变以对于各划分区域呈现不同的触觉。因此,不仅能在屏幕31的平面方向上呈现不同的触觉,还能在屏幕的深度方向上呈现不同的触觉。
第二实施例
图11是示出了本发明的第二实施例的输入装置(定位设备)的构造的框图。在这里,将主要说明与第一实施例中的构造不同的构造,并且用相同的附图标记表示与上述实施例中的构造相同的构造,且省略或简化对其的说明。
本实施例的输入装置101包括壳体10、触觉呈现部11、移动检测部12(传感器部)、键输入部13、信息显示部14、控制部15、通信部16和电源部17。控制部15包括信号产生部18。
当指针位于屏幕上的图标(物体)的显示区域内部(第一区域C1)中时,信号产生部18产生用于在第一驱动模式下驱动触觉呈现部11的第一控制信号。另一方面,当指针位于图标周围的预定区域(第三区域C3)中时,信号产生部18产生用于在不同于第一驱动模式的第二驱动模式下驱动触觉呈现部11的第二控制信号。
特别地,本实施例与第一实施例的不同之处在于:通过输入装置101而不是通过控制装置2来产生与触觉呈现部11的驱动模式对应的控制信号。利用这样的构造,同样能够获得与第一实施例的作用相同的作用。
在本实施例中,基于从控制装置2传输过来的控制信号,确定与指针的位置、图标的区域等有关的信息(例如,坐标信息)。或者,输入装置101可以从除了控制装置2之外的另一设备获得坐标信息。
在上文中,已经说明了本发明的各实施例,但是本发明不限于上述各实施例,并且理所当然地,在不背离本发明的主旨的前提下能够做各种修改。
例如,在上述各实施例中,定位系统100被构造成使得:触觉呈现部11在其中指针导致了对于第一区域C1与第三区域C3而言不同的触觉被呈现出来的驱动模式下被驱动。然而,当指针位于设置在图标的显示区域外部的第二区域C2中时,也可以设置呈现出特殊触觉的驱动模式。
此外,在上述各实施例中,已经说明了其中把与指针的移动(方向、速度)相关联的触觉呈现给用户U的构造,但是除此之外,还可以设置能够让用户识别出指针的停止(静止)状态的另一触觉呈现模式。这样,能够向用户提供包括指针的停止和移动的操作感。
此外,在上述各实施例中,已经说明了利用惯性传感器来检测输入装置1在空间内的移动的示例。代替此或除此之外,也可以利用图像传感器直接地判定输入装置1的移动,且可以控制指针的移动。
此外,触觉呈现部11不限于其中通过振动体的振动作用向壳体10赋予触觉的构造。例如,能够采用对壳体10的表面进行部分地变型、在壳体10内部产生力矩、产生用于向壳体10的表面赋予电气刺激的电压等各种机制。
应当注意的是,本发明能采取下列方案。
(1)一种定位系统,其包括定位设备和控制装置,
所述定位设备包括:
壳体;
触觉呈现部,它能够在所述壳体上呈现触觉;以及
传感器部,它检测对所述壳体的操作,且输出用于控制屏幕上的指针的移动的操作信号,
并且所述控制装置包括:
区域设置部,它设置属于所述屏幕上的物体的显示区域内部的第一区域、属于所述物体的显示区域外部的第二区域和属于所述第一区域与所述第二区域之间的边界部分的第三区域;以及
信号产生部,它基于所述操作信号计算出所述屏幕上的所述指针的位置,并且当所述指针位于所述第一区域中时,所述信号产生部产生用于在第一驱动模式下驱动所述触觉呈现部的第一控制信号,而当所述指针位于所述第三区域中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动所述触觉呈现部的第二控制信号。
(2)根据上面(1)所述的定位系统,其中
所述定位设备是空间操作型输入装置,并且
所述触觉呈现部包括多个振动体,各所述振动体均能通过被单独驱动而沿任意轴方向产生振动。
(3)根据上面(1)或(2)所述的定位系统,其中
当判定通过所述壳体的操作使所述指针正接近所述物体时,所述信号产生部产生用于朝着所述壳体的移动方向驱动所述触觉呈现部的第三控制信号。
(4)根据上面(1)至(3)中任一者所述的定位系统,其中
当判定通过所述壳体的操作使所述指针正远离所述物体时,所述信号产生部产生用于朝着与所述壳体的所述移动方向相反的方向驱动所述触觉呈现部的第四控制信号。
(5)根据上面(1)至(4)中任一者所述的定位系统,其中
所述信号产生部计算出所述壳体的移动速度,并且根据所计算出的移动速度来改变所述触角呈现部的驱动力。
(6)根据上面(1)至(5)中任一者所述的定位系统,其中,
所述物体是图标。
(7)根据上面(1)至(6)中任一者所述的定位系统,其中
所述物体是三维视频,并且
所述第一区域是与所述三维视频相关联的三维区域。
(8)根据上面(1)至(7)中任一者所述的定位系统,其中
所述传感器部包括惯性传感器,所述惯性传感器用于检测所述壳体的移动且产生与所述移动相关联的信号。
(9)一种定位设备,其包括:
壳体;
触觉呈现部,它能够在所述壳体上呈现触觉;
传感器部,它检测所述壳体在空间内的移动,且输出用于控制屏幕上的指针的移动的操作信号;以及
信号产生部,当所述指针位于所述屏幕上的物体的显示区域内部中时,所述信号产生部产生用于在第一驱动模式下驱动所述触觉呈现部的第一控制信号,而当所述指针位于所述物体周围的预定区域中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动所述触觉呈现部的第二控制信号。
(10)一种定位控制方法,其包括:
设置属于屏幕上的物体的显示区域内部的第一区域、属于所述物体的显示区域外部的第二区域、以及属于所述第一区域与所述第二区域之间的边界部分的第三区域;
基于从用于使指针在所述屏幕上移动的定位设备输出的操作信号,计算出所述屏幕上的所述指针的位置;以及
当所述指针位于所述第一区域中时,在第一驱动模式下使所述定位设备呈现触觉,而当所述指针位于所述第三区域中时,在不同于所述第一驱动模式的第二驱动模式下使所述定位设备呈现触觉。
附图标记的说明:
1、101 输入装置
2      控制装置
3      显示装置
10     壳体
11    触觉呈现部
12    移动检测部
15    控制部
18    信号产生部
24    显示控制部
25    MPU
31    屏幕
100   定位系统
111a至111f  振动体
C1    第一区域
C2    第二区域
C3    第三区域
P、P1、P2  指针
U     用户
V、V6 图像
V1至V5  图标

Claims (10)

1.一种定位系统,其包括定位设备和控制装置,
所述定位设备包括:
壳体;
触觉呈现部,它能够在所述壳体上呈现触觉;以及
传感器部,它检测对所述壳体的操作,且输出用于控制屏幕上的指针的移动的操作信号,
并且所述控制装置包括:
区域设置部,它设置属于所述屏幕上的物体的显示区域内部的第一区域、属于所述物体的显示区域外部的第二区域以及属于所述第一区域与所述第二区域之间的边界部分的第三区域;以及
信号产生部,它基于所述操作信号计算出所述屏幕上的所述指针的位置,并且当所述指针位于所述第一区域中时,所述信号产生部产生用于在第一驱动模式下驱动所述触觉呈现部的第一控制信号,而当所述指针位于所述第三区域中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动所述触觉呈现部的第二控制信号。
2.根据权利要求1所述的定位系统,其中,
所述定位设备是空间操作型输入装置,并且
所述触觉呈现部包括多个振动体,各所述振动体均能够通过被单独驱动而沿任意轴方向产生振动。
3.根据权利要求2所述的定位系统,其中,
当判定通过所述壳体的操作使所述指针正接近所述物体时,所述信号产生部产生用于朝着所述壳体的移动方向驱动所述触觉呈现部的第三控制信号。
4.根据权利要求2所述的定位系统,其中,
当判定通过所述壳体的操作使所述指针正远离所述物体时,所述信号产生部产生用于朝着与所述壳体的所述移动方向相反的方向驱动所述触觉呈现部的第四控制信号。
5.根据权利要求2所述的定位系统,其中,
所述信号产生部计算出所述壳体的移动速度,并且根据所计算出的移动速度来改变所述触角呈现部的驱动力。
6.根据权利要求1所述的定位系统,其中,
所述物体是图标。
7.根据权利要求1所述的定位系统,其中,
所述物体是三维视频,并且
所述第一区域是与所述三维视频相关联的三维区域。
8.根据权利要求1所述的定位系统,其中,
所述传感器部包括惯性传感器,所述惯性传感器用于检测所述壳体的移动且产生与该移动相关联的信号。
9.一种定位设备,其包括:
壳体;
触觉呈现部,它能够在所述壳体上呈现触觉;
传感器部,它检测所述壳体在空间内的移动,且输出用于控制屏幕上的指针的移动的操作信号;以及
信号产生部,当所述指针位于所述屏幕上的物体的显示区域内部中时,所述信号产生部产生用于在第一驱动模式下驱动所述触觉呈现部的第一控制信号,而当所述指针位于所述物体周围的预定区域中时,所述信号产生部产生用于在不同于所述第一驱动模式的第二驱动模式下驱动所述触觉呈现部的第二控制信号。
10.一种定位控制方法,其包括:
设置属于屏幕上的物体的显示区域内部的第一区域、属于所述物体的显示区域外部的第二区域以及属于所述第一区域与所述第二区域之间的边界部分的第三区域;
基于从用于使指针在所述屏幕上移动的定位设备输出的操作信号,计算出所述屏幕上的所述指针的位置;以及
当所述指针位于所述第一区域中时,在第一驱动模式下使所述定位设备呈现触觉,而当所述指针位于所述第三区域中时,在不同于所述第一驱动模式的第二驱动模式下使所述定位设备呈现触觉。
CN201280025026.0A 2011-05-31 2012-05-22 定位系统、定位设备和定位控制方法 Pending CN103562840A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-122494 2011-05-31
JP2011122494A JP5811597B2 (ja) 2011-05-31 2011-05-31 ポインティングシステム、ポインティングデバイス及びポインティング制御方法
PCT/JP2012/003335 WO2012164871A1 (ja) 2011-05-31 2012-05-22 ポインティングシステム、ポインティングデバイス及びポインティング制御方法

Publications (1)

Publication Number Publication Date
CN103562840A true CN103562840A (zh) 2014-02-05

Family

ID=47258748

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280025026.0A Pending CN103562840A (zh) 2011-05-31 2012-05-22 定位系统、定位设备和定位控制方法

Country Status (5)

Country Link
US (2) US9880639B2 (zh)
EP (1) EP2717117A4 (zh)
JP (1) JP5811597B2 (zh)
CN (1) CN103562840A (zh)
WO (1) WO2012164871A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107861653A (zh) * 2016-09-21 2018-03-30 富士通天株式会社 显示控制设备、显示控制系统和显示控制方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5811597B2 (ja) 2011-05-31 2015-11-11 ソニー株式会社 ポインティングシステム、ポインティングデバイス及びポインティング制御方法
JP6269480B2 (ja) * 2012-04-06 2018-01-31 株式会社ニコン データ処理装置、及びデータ処理プログラム
CN103810166A (zh) * 2012-11-06 2014-05-21 腾讯科技(深圳)有限公司 一种通讯录内查找联系人的方法及电子终端
US10725726B2 (en) * 2012-12-20 2020-07-28 Strubwerks, LLC Systems, methods, and apparatus for assigning three-dimensional spatial data to sounds and audio files
JP6384329B2 (ja) * 2012-12-28 2018-09-05 株式会社ニコン データ処理装置、およびデータ処理プログラム
JP6201824B2 (ja) * 2014-03-05 2017-09-27 株式会社デンソー 操作装置
CN106687905B (zh) * 2014-09-09 2021-02-26 三菱电机株式会社 触感控制系统及触感控制方法
USD796534S1 (en) * 2015-09-30 2017-09-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
JP6668980B2 (ja) * 2016-07-04 2020-03-18 富士通株式会社 送信制御プログラム、送信制御方法および情報処理装置
WO2018042716A1 (ja) * 2016-08-31 2018-03-08 アルプス電気株式会社 操作装置
JP2019010778A (ja) * 2017-06-29 2019-01-24 株式会社リコー 印刷装置及び印刷方法
JPWO2021220816A1 (zh) * 2020-04-27 2021-11-04
US11644907B2 (en) * 2021-02-26 2023-05-09 Logitech Europe S.A. Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020024501A1 (en) * 1996-02-23 2002-02-28 Thomer Shalit Mouse Device with Tactile Feedback Applied to Housing
US20020109668A1 (en) * 1995-12-13 2002-08-15 Rosenberg Louis B. Controlling haptic feedback for enhancing navigation in a graphical environment
CN101346686A (zh) * 2005-12-31 2009-01-14 博尔-It公司 诸如鼠标的用户可操作的定点设备
US20090307588A1 (en) * 2008-06-04 2009-12-10 Denso Corporation Apparatus for controlling pointer operation
US20100295667A1 (en) * 2009-05-22 2010-11-25 Electronics And Telecommunications Research Institute Motion based pointing apparatus providing haptic feedback and control method thereof
CN102057345A (zh) * 2008-06-05 2011-05-11 诺基亚公司 触觉用户接口

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263012B2 (ja) * 1996-10-01 2002-03-04 株式会社ソニー・コンピュータエンタテインメント ゲーム機用操作装置
US6252579B1 (en) * 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
US7084854B1 (en) * 2000-09-28 2006-08-01 Immersion Corporation Actuator for providing tactile sensations and device for directional tactile sensations
JP2002236550A (ja) * 2001-02-07 2002-08-23 Fujitsu Ten Ltd 画面位置入力方法および装置
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
JP2008257295A (ja) * 2007-03-30 2008-10-23 Tokyo Institute Of Technology 触覚刺激提示方法
CN101632056B (zh) 2007-09-12 2012-08-22 索尼株式会社 输入装置、控制装置、控制系统以及控制方法
US8209628B1 (en) * 2008-04-11 2012-06-26 Perceptive Pixel, Inc. Pressure-sensitive manipulation of displayed objects
US20110012838A1 (en) * 2009-07-14 2011-01-20 Apple Inc. Computer input device including a display device
US9436280B2 (en) * 2010-01-07 2016-09-06 Qualcomm Incorporated Simulation of three-dimensional touch sensation using haptics
US8334840B2 (en) * 2010-01-19 2012-12-18 Visteon Global Technologies, Inc. System and method of screen manipulation using haptic enable controller
JP5811597B2 (ja) 2011-05-31 2015-11-11 ソニー株式会社 ポインティングシステム、ポインティングデバイス及びポインティング制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020109668A1 (en) * 1995-12-13 2002-08-15 Rosenberg Louis B. Controlling haptic feedback for enhancing navigation in a graphical environment
US20020024501A1 (en) * 1996-02-23 2002-02-28 Thomer Shalit Mouse Device with Tactile Feedback Applied to Housing
CN101346686A (zh) * 2005-12-31 2009-01-14 博尔-It公司 诸如鼠标的用户可操作的定点设备
US20090307588A1 (en) * 2008-06-04 2009-12-10 Denso Corporation Apparatus for controlling pointer operation
CN102057345A (zh) * 2008-06-05 2011-05-11 诺基亚公司 触觉用户接口
US20100295667A1 (en) * 2009-05-22 2010-11-25 Electronics And Telecommunications Research Institute Motion based pointing apparatus providing haptic feedback and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107861653A (zh) * 2016-09-21 2018-03-30 富士通天株式会社 显示控制设备、显示控制系统和显示控制方法

Also Published As

Publication number Publication date
WO2012164871A1 (ja) 2012-12-06
EP2717117A1 (en) 2014-04-09
US20140085200A1 (en) 2014-03-27
JP5811597B2 (ja) 2015-11-11
EP2717117A4 (en) 2014-12-17
US20180120955A1 (en) 2018-05-03
JP2012252398A (ja) 2012-12-20
US9880639B2 (en) 2018-01-30
US10191562B2 (en) 2019-01-29

Similar Documents

Publication Publication Date Title
CN103562840A (zh) 定位系统、定位设备和定位控制方法
EP3299932B1 (en) Orientation adjustable multi-channel haptic device
CN109656354B (zh) 信息处理装置和信息处理方法
KR100744902B1 (ko) 휴대 무선 조작기
EP3343328A1 (en) Haptic effect generation for space-dependent content
US20180321798A1 (en) Information processing apparatus and operation reception method
EP2953006A1 (en) Systems and methods for induced electrostatic haptic effects
EP2963522A1 (en) Systems and methods for surface elements that provide electrostatic haptic effects
EP3398030B1 (en) Haptic feedback for non-touch surface interaction
JP5333397B2 (ja) 情報処理端末およびその制御方法
CN102426486B (zh) 一种立体交互方法及被操作设备
WO2015133390A1 (ja) ゲーム制御装置、ゲームシステム、プログラム、及び情報記憶媒体
JP2008257295A (ja) 触覚刺激提示方法
CN102508562B (zh) 一种立体交互系统
US10596459B2 (en) Systems, methods, and/or computer readable storage medium having program, for localized haptic feedback based on position of virtual object
CN107305432B (zh) 一种终端及在终端上实现触觉反馈的方法、装置
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
CN102508561B (zh) 一种操作棒
CN102508563B (zh) 一种立体交互方法以及被操作设备
CN102681713B (zh) 三维触摸显示系统和方法
JP2011243195A (ja) 入力装置及びその入力装置を備えたゲーム装置
JP2017068797A (ja) 入力支援システム、及び、電子機器

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140205