CN102084322A - 动作感应装置及方法 - Google Patents
动作感应装置及方法 Download PDFInfo
- Publication number
- CN102084322A CN102084322A CN2009801263105A CN200980126310A CN102084322A CN 102084322 A CN102084322 A CN 102084322A CN 2009801263105 A CN2009801263105 A CN 2009801263105A CN 200980126310 A CN200980126310 A CN 200980126310A CN 102084322 A CN102084322 A CN 102084322A
- Authority
- CN
- China
- Prior art keywords
- action
- input
- induction
- user
- osculating element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明涉及用于动作感应的装置和方法,其中,通过在按照由动作传感器感应的动作使指针移动的指点装置上具备接触传感器,因此仅在用户需要时,使指针移动。
Description
技术领域
本发明涉及一种动作感应装置以及方法,更详细地,涉及一种在根据通过动作传感器感应到的动作使指针移动的指点装置上具备接触传感器,从而仅在用户需要时,使指针移动的动作感应装置及方法。
最近上市的电视把储存照片、音乐、视频等的存储器装置直接连接到电视,从而具有用户可在电视屏幕上欣赏多媒体内容的构成。尤其,交互式网络电视(IPTV,Internet Protocol Television)除了提供现有的广播频道以外,还提供以互联网为基础的各种菜单(menu)以及内容(contents),于是逐渐增加在个人电脑PC(Personal Computer)上才使用的输入手段的键盘和鼠标的需要。为此,利用回转仪(gyro)的指点装置的空中鼠标从客厅型个人电脑用途至电视用途在扩大其使用范围。
背景技术
另一方面,有时指针与用户的意图无关地发生移动,例如,用户对放在地板上的指点装置无意识中施加动作的话,指针的位置将会改变,用户用指点装置选择屏幕上的特定地点后,使指针固定在对应的地点的状态下,要将指点装置放在地板时,因其动作,可变更指针的位置。
因此,需要一种并非将感应的动作适用于所有指针的动作,,而是仅将按照用户的意图的动作适用在指针的动作的指点装置。
发明内容
本发明的目的在于,通过在按照由动作传感器感应的动作使指针移动的指点装置上具备接触传感器,因此仅在用户需要时,使指针移动。
本发明的目的并不限定于以上所提及的目的,对于本领域技术人员来说未提及的其他目的可通过以下说明将会更加明确。
为了达成上述目的,根据本实施例的动作感应装置,包含有:动作感应部,其感应对本体施加的动作;接触感应部,其具备至少一个以上的接触单元而感应用户的接触;控制部,其参照所述感应到的用户的接触而判断所述输入的动作的有效性;通信部,其按照所述动作的有效性与否,发送对所述动作的信号。
根据本发明的另一实施例的动作感应装置,包含有:动作感应部,其感应对本体施加的动作;输入部,其具备至少一个以上的按钮而感应用户的输入;控制部,其参照从所述感应到的输入的发生时点起持续的时间,判断所述输入的动作的有效性;通信部,其按所述动作的有效性与否,发送对所述动作的信号。
根据本发明的实施例的动作感应方法,包含有如下几个步骤:感应对本体施加的动作的步骤;具备至少一个以上的接触单元而感应用户的接触的步骤;参照所述感应到的用户的接触,判断所述输入的动作的有效性的步骤;及按照所述动作的有效性与否,发送对所述动作的信号的步骤。
根据另一实施例的动作感应方法,包含有如下几个步骤:感应对本体施加的动作的步骤;具备至少一个以上的按钮而感应用户的输入的步骤;参照从所述感应到的输入的发生时点起持续的时间,判断所述输入的动作的有效性的步骤;及按照所述动作的有效性与否,发送对所述动作的信号的步骤。
其他实施例的具体的事项包含于具体实施方式以及附图上。
根据如上所述的本发明的动作感应装置及方法,通过在按照由动作传感器感应到的动作使指针移动的指点装置上具备接触传感器,因此仅在用户需要时,使指针移动,从而存在用户有可简便地控制屏幕上的指针的优点。
附图说明
图1是表示按照本发明的实施例的动作感应系统的图;
图2是表示按照本发明的实施例的动作感应装置的方块图;图3是表示设于图2的动作感应装置的接触单元的例示图;
图4是表示按照本发明的一实施例的输入部的结构的图;
图5是表示按照本发明的实施例的指针控制部的方块图;
图6是表示按照本发明的实施例的显示装置的方块图;
图7是表示按照本发明的实施例的感应动作的过程的流程图。
具体实施方式
本发明的优点、特征以及实现方法通过对附图和后述的实施例详细说明将会更加明确。然而,本发明并不限定于以下实施例,而可以以各种不同的形态实施。只是,本实施例会使本发明更加完整,这,供属于本发明的技术领域的技术人员提供完整的本发明的范畴,本发明仅由被权利要求范围所定义。在整个说明书中,相同的符号表示相同的元件。
在本实施例中使用的所谓“部”的术语表示软件、现场可编程门陈列(Field-Programmable Gate Array,简称为FPGA)或专用集成电路(Application Specific Integrated Circuit,简称为ASIC)等的硬件的构成要素,“部”执行某种作用。但,“部”的含义并不限定于软件或硬件。“部”可以构成在可寻址的存储媒体上,亦可构成为再生一个或一个以上的处理机(Processor)。因此,作为一例,“部”包括:软件的构成要素、面向对象软件的构成要素、权群构成要素及课题构成要素等的构成要素,以及程序、函数、属性、过程、子程序、程序代码的片断、改锥、固件、微码、电路、数据、数据库、数据结构、表格、数组及变数。在构成要素与“部”内所提供的功能可结合成更少数的构成要素及“部”或者再分开成附加构成要素与“部”。
以下,参照附图详细地说明本发明的优选实施例。
图1表示按照本发明的实施例的动作感应系统的图,动作感应系统,包括:动作感应装置(200)、指针控制装置(500)及显示装置(600)。
指针控制装置(500)建立图形客体(110)与指针(100),根据从动作感应装置(200)接收的信号,变更指针(100)的坐标。
在此,指针控制装置(500)可利用内装有中央处理机(Central ProcessingUnit)的个人电脑。于是,用户利用连接于指针控制装置(500)的鼠标(未 示出)而控制指针(100)的动作,能够利用包含于鼠标的按钮用拖放(Dragand Drop)控制图形客体(110)的动作。
用户利用动作感应装置(200),可指定设于显示装置(600)的显示部(620)的规定地点,此时,动作感应装置(200)通过无线或有线与指针控制装置(500)互相通信而发送为指针(100)的动作的控制信号,换而言之,当用户对动作感应装置(200)施加动作时,设在动作感应装置(200)的内部的动作传感器感应到此动作,发送包括对感应到的动作的信息的信号至指针控制装置(500)。在此,对动作的信息可以是感应到的动作或感应到的动作的轨迹。
在此,根据设于动作感应装置(200)的输入手段的控制信号发送到指针控制装置(500)时,在指针控制装置(500)发生鼠标的按钮选择事件(Button Down Event),可执行对图形客体(110)的拖放。
图2表示按照本发明的实施例的动作感应装置的方块图,动作感应装置(200),包含有:接触感应部(210)、动作感应部(220)、控制部(230)、输入部(240)、存储部(250)以及通信部(260)。
接触感应部(210)具备至少一个以上的接触单元,执行感应用户的接触的作用。在此,接触单元是感应用户的接触的另外领域。控制部(230)可根据通过用户所选择的接触单元的组合,判断通过用户施加的动作的有效与否。
在接触感应部(210)所具备的接触单元以电气式、磁性式、电磁式、压力感应式、器具式、温度感应式、超声波式、水分感应式、微波感应式、光学式、化学式、放射线式及形状感应式中的至少一个方式感应用户的接触的。
电气式接触单元感应电阻的位移或电流的流动而感应用户的接触,例如,通过具备欧姆计(ohm meter),利用根据接触的电阻的位移感应用户的接触或者感应流在人体的微细电流而感应用户的接触。
磁性式的接触单元通过具备霍尔传感器(hall sensor),可利用根据接触的磁性的大小或分布的变化而感应用户的接触。
电磁式的接触单元可包括电容方式接触单元,在接触单元不但可使用 导体的材料,而且还可使用橡胶、塑胶及玻璃等绝缘材料。并且,接触感应部(210)不但对电容的大小进行反应,而且还对电容的之差异进行反应,因此还可以使用少受对气温及湿度等的外部环境的影响的材料。
压力感应式接触单元通过具备压力传感器,比较根据接触的压力和已设定的压力而可感应用户的接触。
作为压力感应式的一种,在接触感应部(210)可以具备器具式接触单元,器具式的接触单元根据通过用户施加的压力,器具移动而感应用户的接触。例如,接触单元可包括通过施加压力而器具移动,从而构成电路,感应到是否有压力的与否的构成。另一方面,设在输入部(240)的器具式的接触单元皆可具备感应用户的接触的手段与感应用户的命令的手段,对此,通过图4将详细说明。
温度感应式的接触单元具备温度传感器,可利用根据接触的温度变化而感应用户的接触。
超声波式的接触单元具备声纳(Sound Navigation and ranging,简称为SONA)传感器、可利用超声波的反射,感应用户的接触。
水分感应式的接触单元,可利用根据接触的水分的变化,感应用户的接触。使用水分感应式的接触单元的话,可防止与非人体的一部分的其他物体接触而导致的误动作。
微波感应式的接触单元,可利用微波的反射而感应用户的接触。
光学式的接触单元,通过感应光流而感应用户的接触。例如,接触单元持续发散如红外线的光线,此时,用户接触到接触单元的话,因此会遮断光线的流动而把光线再次反射到接触单元。接触单元利用被反射的光线,感应用户的接触与否。或者,光学式的接触单元利用从外部流入的光量,感应用户的接触与否。
化学式的接触单元具备氧气传感器(oxygen sensor),可利用根据接触所感应到的氧气量的变化,感应用户的接触。例如,用户接触氧气传感器的话,通过氧气传感器所感应到的氧气量也会变少,化学式的接触单元利用此原理感应用户的接触。
放射线式的接触单元具备可感应如中子传感器(neutron detection sensor) 等放射线的传感器,可利用根据用户的接触所感应到的放射线量的变化,感应用户的接触。
形状感应式的接触单元,通过具备触觉传感器(tactile sensor),可感应用户的接触。在此,触觉传感器判断加压物体的形态,因此,形状感应式接触单元判断施加压力的物体的形态,仅接触人体的一部分时,感应用户的接触。
至少一个以上的接触单元可配置于用户输入命令的输入部(240)以及本体外侧中的至少一个。在此,接触单元配置于本体外侧是意味着接触单元紧贴在本体的壳体的外侧面或内侧面,还意味着隔间配备于内侧面。
动作感应部(220)具备感应对本体施加的动作的作用。本发明中,动作感应部(220)也可以是惯性传感器(Inertial Sensor),惯性传感器(InertialSensor)以依据加速度或角速度而发生的质量体的惯性力表示为连接到质量体的弹性构造物的变形后,利用适当的感应及信号处理技法,将构造物的变形表示为电信号而感应对动作感应装置(200)的本体施加的动作。即,本发明中的惯性传感器利用根据输入的动作发生的加速度与角速度中的至少一个感应通过用户输入的动作。
另一方面,根据本发明的实施例的动作感应部(220)不局限于惯性传感器,还可以包含红外线传感器、视觉(vision)传感器、超声波传感器或微波传感器等。在此,红外线传感器利用周围的红外线的变化,感应与物体的距离及动作,视觉(vision)传感器利用所输入的映像,感应物体的动作,超声波传感器利用如和声纳(Sound Navigation and ranging,简称为SONA)从物体反射的超声波,感应与物体的距离及动作,微波传感器通过从物体被反射的微波,可感应与物体的距离及动作。
并且,动作感应部(220)具备惯性传感器、红外线传感器、视觉传感器、超声波传感器及微波传感器中的至少一个,用单一传感器感应物体的动作或者组合多个传感器,用多个传感器来感应物体的动作。
通过动作感应部(220)感应到的动作不但可包括直线或曲线的二维的动作,而且还可包括直线与曲线组合而构成的三维的动作。换而言之,用户可以将二维或三维的一个基本动作组合成多个而产生所需的动作。
本发明中的动作感应部(220)为惯性传感器时,由于设在动作感应部(220)的加速度传感器(未示出)可感应重力加速度,因此对动作感应装置(200)的滚动(roll)动作及俯仰(pitch)动作的绝对坐标可以以重力加速度为基准算出来。另一方面,偏转(yaw)动作的情形显示与重力加速度无关的动作,于是能够以最初系统的动作时的姿势为基准,决定坐标。例如,以在动作感应装置(200)施加电源的时点的坐标为基准,决定根据偏转(yaw)动作的坐标,或者没有对动作感应装置(200)施加动作,将以经过预定时间后施加动作的时点的坐标为基准,可以决定根据偏转(yaw)动作的坐标。
输入部(240)执行输入用户的命令的作用。即,输入部(240)具备按钮、轮子、选速功能(Jog&shuttle)等,输入用户的命令,用户可操作输入部(240)输入文字、数字等,可对通过指针控制装置(500)或显示装置(600)实现的特殊功能输入控制命令。
并且,如上所述,控制部(230)可根据用户所选择的接触单元的组合,判断依用户的动作的有效性,输入部(240)执行输入通过用户选择的接触单元的组合的作用。
通过输入部(240)所输入的接触单元的组合存储于存储部(250),存储部(250)是硬盘、袖珍闪存卡(Compact Flash Card)、安全数码卡(SecureDigital Card)、SmartMedia卡(Smart Media Card)、多媒体卡(Multimedia Card)或记忆棒(Memory Stick)等可输入或输出信息的模块,可安装于动作感应装置(200)的内部,也可安装于其他的装置。在存储部(250)安装于其他的装置时,通信部(260)与其他装置通信,并将通过输入部(240)输入的接触单元的组合发送到其他装置或从设于其他装置的存储部接收接触单元的组合。
通信部(260)根据感应用户的接触与否,将对动作感应部(220)感应到的动作的信号或对通过输入部(240)输入的用户的命令的信号发送到指针控制装置(500)。通信部(260)利用如以太网(Ethernet)、优盘(USB)、IEEE1394、串行通信(serial communication)及并行通信(parallelcommunication)等有线通信方式或者如红外线通信、蓝牙、家庭射频(Home RF)及无线局域网等无线通信方式,可与指针控制装置(500)通信。
控制部(230)参照接触感应部(210)感应到的用户的接触的结果,判断通过用户施加的动作的有效性。即,判断现在施加的动作是否按照用户的意图。
在判断用户的动作的有效性时,控制部(230)可确认依配备于输入部(240)的接触单元是否感应到用户的接触的与否。一般,用户边移动显示在显示装置(600)中的指针(100),边通过输入部(240)输入用户的命令,用户把手或者把身体的一部分放在具备于输入部(240)的按钮中的特定的按钮或任意的按钮上移动动作感应装置(200),从而使控制部(230)感应现在的动作是有效的动作。
另一方面,用户无意识中碰到放在地板上的动作感应装置(200)或者拿起时,用户跟自己的意图无关,接触到输入部(240)的状态下,移动动作感应装置(200)的情况发生。此时,控制部(230)通过具备在动作感应装置(200)的底面的接触单元,确认是否感应到用户的接触而可判断动作的有效性。即,控制部(230)确认为对动作感应装置(230)施加有效的动作的用户的把持姿势,通过具备在底面的接触单元没有感应到用户的接触时,即使用户接触输入部(240)对动作感应装置(200)施加动作控制部(230)不会对此感应为有效的用户的接触。
图3是表示设于感应图2的动作感应装置的接触单元的例示图,显示接触单元(310)配备于设在本体的上侧的按钮,接触单元(320)配备于本体的底面。
如图3所示,配备有接触单元(310、320)时,用户把自己的手的一部分接触到底部,把另一部分接触到任意按钮,从而可通过控制部(230)感应到有效的接触的组合。例如,使从食指至小指中的一部分或整体位于底面,将大拇指接触在任意的按钮的状态下,对动作感应装置(200)施加动作,从而控制部(230)可使对有效的动作的信号通过通信部(260)发送至外部。
对图2再次进行说明,则控制部(230)可利用至少一个上的接触单元中的已设定的组合的接触单元感应到的结果,判断动作的有效性。即,按 照每个用户握持动作感应装置(200)的姿势可相不同,用户仅在通过设于动作感应装置(200)中自己所需的接触单元感应到接触时,才使控制部(230)对此感应为有效的用户的接触。
例如,在动作感应装置(200)的输入部(240)、两侧面与底面具备接触单元时,用户仅在通过输入部(240)及右侧面的接触单元感应到接触时,使控制部(230)对此可感应为有效的用户的接触,仅在通过输入部(240)、左侧面与底面所具备的接触单元感应到接触时,才使控制部(230)对此感应为用户的有效的接触。
并且,控制部(230)利用通过至少一个以上的接触单元中已设定的特定的组合的接触单元感应到的结果,限制动作的感应或者限制动作信号的发送。例如,用户要把放在地板上的动作感应装置(200)拿起时,用户会接触到动作感应装置(200)的两侧面,控制部(200)通过在动作感应装置的两侧面具备的接触单元感应到用户的接触的话,停止动作感应部(220)的运转或者防止对通过动作感应部(220)感应到的动作的信号通过通信部(260)发送。
并且,控制部(230)对接触感应部(210)、动作感应部(220)、输入部(240)、存储部(250)及通信部(260)进行全面控制,执行传感器信号处理及数据处理机等的工作。即,设在控制部(230)内部的模拟信号的处理部(未示出)可增大从动作感应部(220)传送的信号的幅度,为了抽取信号的特定的带宽可执行利用低通滤波器(low pass filter)或高通滤波器(high pass filter)的过滤。并且,设在控制部(230)的内部的数码信号处理部(未示出)可控制动作感应部(230)所具备的漂移(drift)现象或偏置(bias),可执行利用数码低通滤波器或数码高通滤波器的过滤。
而且,控制部(230)可通过数据处理机变更在三维空间的对各轴的标度(scale)或可排除因手抖而导致的动作的位移,由于这些超出本发明的范围因此省略对此的详细的说明。
以上对在输入部(240)具备接触单元为例而进行了说明,通过两个机械性感应手段,分为输入部(240)的接触与否以及用户的命令进行感应(请见图4)。输入部(240)包括接触部(410)、第一按钮部(411)、第二 按钮部(412)、第一按钮传感器(420)及第二按钮传感器(430)。
第一按钮部(411)及第二按钮部(412)设于通过用户直接接触的接触部(410)的下端,第二按钮部(412)配备在第一按钮部(411)的下端,其高度相不通。
第一按钮传感器(420)及第二按钮传感器(430)执行感应从外部施加的压力的作用。为此,第一按钮传感器(420)及第二按钮传感器具备凸起(421、431),当对凸起(421、431)施加压力时,凸起(421、431)被插入至第一按钮传感器(420)与第二按钮传感器(430)的内部,从而第一按钮传感器(420)与第二按钮传感器(430)可感应被施加的压力。
另一方面,根据对接触部(410)施加压力而第一按钮部(411)接触到第一按钮传感器(420)的凸起(以下简称为第一凸起)(421),第二按钮部(412)接触到第二按钮传感器(430)的凸起(以下简称为第二凸起)(431),由于第一按钮部(411)和第1凸起(421)之间的间隔小于第二按钮部(412)和第二凸起(431)之间的间隔,因此第一按钮传感器(420)比第二按钮传感器(430)先感应到压力。
因此,可分为依用户的输入部(240)的接触与否及用户的命令而感应。即,第一按钮传感器(420)感应到压力时,将此接触看作为存在依用户的接触,第二按钮传感器(430)感应到压力时,将此接触看作为存在依用户的用户命令。
总归,设在输入部(240)的接触单元可由第一按钮部(411)和第一按钮传感器(420)的组合构成。
另一方面,图4表示具备两个按钮部(411、412)和两个按钮传感器(420、430),但亦可具备一个按钮部与具有互不相同的高度的凸起的两个按钮传感器,理所当然也可具备一个按钮部和可感应两个阶段的压力的一个按钮传感器。
以上,说明了参照通过接触单元感应到的用户的接触判断所输入的动作的有效性的控制部(230),据本发明的实施例的控制部(230)参照从通过具备在输入部(240)的按钮输入的用户的输入的发生时点持续的时间,可判断输入的动作的有效性。
例如,从用户的输入的发生时点起已设定的持续时间内,控制部(230)把输入的动作判断为有效的动作。
此时,把用户通过输入部(240)的按钮的输入中,对第一输入称为第一持续时间,把设定在第一输入以后感应到的第二输入的持续时间称为第二持续时间,在第一持续时间内感应到第二输入时,控制部(230)把从第二输入的发生时点起到第二持续时间内输入的动作判断为有效的动作。
在此,第一持续时间与第二持续时间可相同或相异,持续时间的重叠与否也根据用户的设定与否不同,据持续的时间的相同与否及重叠的容许与否,多次的输入的整个持续时间也会不同。
例如,假设第一持续时间设定为10秒,第二持续时间设定为12秒,允许重叠持续时间话,此时,在第一输入发生后,经过6秒的时点时发生第二输入的话,由于控制部(230)结束第一持续时间的适用,并开始适用第二持续时间,因此判断所输入的动作为有效的整个持续时间为18秒。即,从第二持续时间的开始时点到第一持续时间结束的预定时点的时间的4秒是重叠的持续时间,不包含于第一持续时间及第二持续时间的整个时间的22秒。
另一方面,假设第一持续时间设定为10秒,第二持续时间设定为12秒,持续时间不容许重叠时,在第一输入发生后,经过6秒的时点时发生第二输入的话,控制部(230)等到第一持续时间到期的时点,即第一输入发生后到10秒的时点后开始适用第二持续时间,因此判断所述输入的动作有效的整个时间为22秒。即,第一持续时间的10秒与第二持续时间的12秒的总和为整个持续时间22秒。
图5是表示据本发明的实施例的指针控制装置的方框图,指针控制装置(500)包括接收部(510)、坐标决定部(520)、控制部(530)、指针动作部(540)以及发送部(550)。
接收部(510)执行从动作感应装置(200)接收对动作的信号或对用户的命令的信号的作用。
所接收的信号传送到控制部(530),所接收的信号是对用户命令的信号时,控制部(530)执行对应所接收信号的工作。例如,控制部(530) 执行指针控制装置(500)的电源的开关、屏幕控制或语音控制等工作。
所接收的信号是对动作的信号时,控制部(530)将此信号传送到坐标决定部(520)。坐标决定部(520)决定显示在显示装置(600)的显示(display)领域上的指针(100)的坐标。
坐标决定部(520)适用据在现在的指针(100)的位置接收的动作的信号的位移而可算出指针的绝对坐标。
根据已决定的指针(100)的坐标,指针动作部(540)使指针(100)移动至已决定的绝对坐标,则指针(100)在显示领域上映射,对此的视频信号通过发送部(550)传送到显示装置(600)。
另一方面,在指针控制装置(500)具备显示部(未示出)时,据通过坐标决定部(520)决定的指针(100)的坐标,指针可显示(display)在指针控制装置(500)的显示部的显示领域。
图6是表示根据本发明的实施例的显示装置的方框图,显示装置(600)包括接收部(610)及显示部而构成的。
接收部(610)执行从指针控制装置(500)接收映射在坐标上的指针(100)的视频或图形客体(110)的视频的工作。
而且,已接收到的视频传送到显示部(620),显示部(620)显示视频。显示部(620)是具备可显示所输入的视频信号的阴极射线管(CRT,Cathode Ray Tube)、液晶屏(Liquid Crystal Display,简称为LCD)、发光二极管(LED,Light-Emitting Diode)、有机发光二极管(,Organic Light-EmittingDiode,简称为OLED)或者等离子显示器(Plasma Display Panel,简称为PDP)等视频显示单元的模块,执行显示所接收的视频信息的作用。
另一方面,图5与图6所示,指针控制装置(500)与显示装置(600)是分离的,但两个装置也可以形成为一个装置。
图7是表示根据本发明的实施例的动作感应过程的流程图。
动作感应装置(200)的动作感应部(220)首先感应到对本体施加的动作(S710)。
依动作感应部(220)感应到的动作传送到控制部(230),控制部(230)据接触感应部(210)确认是否感应到有效的用户的输入(S720)。
例如,控制部(230)可以通过设在输入部(240)的接触单元或按钮传感器确认是否感应到用户的接触或通过设在本体的底面接触单元确认是否感应到用户的接触,通过根据所具备接触单元中的已设定的组合的接触单元确认是否感应到用户的接触。
并且,控制部(230)可以确认是否感应到用户对输入部(240)的有效的输入(S720)。此时,控制部(230)可以判断通过具备在输入部(240)的按钮输入的从用户的输入发生时点到持续一定的时间内感应到的动作为有效。
按照控制部(230)的确认结果,判断现在感应到的用户的输入有效时,控制部(230)判断现在感应到的动作是有效的,并通过通信部(260)将对此的信号发送至指针控制装置(500)(S730)。
但是,现在感应到的用户的输入判断为无效时,控制部(230)判断现在感应到的动作无效,而废弃对此的信号。
另一方面,图7表示比用户的输入的感应(通过接触感应部(210)的接触感应或通过输入部(240)的输入感应)优先执行动作感应部(220)的动作感应,但此只不过是本发明的一实施例,亦可以比通过动作感应部(220)的动作的感应优先执行用户的输入的感应若优先执行用户的输入的感应时,控制部(230)可参照用户的输入感应结果控制动作感应部(220)或通信部(260)的动作。
例如,若判断现在感应到的用户的输入为有效时,控制部(230)使动作感应部(220)感应输入的动作或者使通信部(260)发送对通过动作感应部(220)感应到的动作的信号。
但是,判断现在感应到的用户的输入无效时,控制部(230)停止动作感应部(220)或通信部(260)的运转。
以上参照附图说明了本发明的实施例,属于本发明技术领域的技术人员应理解为本发明在不改变其技术思想或必要的特征下,可以实施为其他的具体形态。因此应理解为所述实施例只是用来举例说明,而并不用于限制本发明。
根据如上所述的本发明的动作感应装置及方法,通过在按照由动作传 感器感应到动作使指针移动的指点装置上具备接触传感器,因此仅在用户需要时,使指针移动,从而存在用户有可简便地控制屏幕上的指针的优点。
Claims (26)
1.一种动作感应装置,其特征在于,包含有:
动作感应部,其感应对本体施加的动作;
接触感应部,其具备至少一个以上的接触单元接触单元而感应用户的接触;
控制部,其参照所述感应到的用户的接触而判断所述输入的动作的有效性;
通信部,其按所述动作的有效性与否,发送对所述动作的信号。
2.根据权利要求1所述的动作感应装置,其特征在于:
所述的动作感应部具备惯性传感器、红外线传感器、视觉(vision)、超声波传感器及微波传感器中的至少一个,从而感应对所述本体施加的动作。
3.根据权利要求1所述的动作感应装置,其特征在于:
所述接触单元以电气式、磁性式、电磁式、压力感应式、器具式、温度感应式、超声波式、水分感应式、微波感应式、光学式、化学式、放射线式及形状感应式中的至少一种方式感应所述用户接触的动作。
4.根据权利要求1所述的动作感应装置,其特征在于:
所述至少一个以上的接触单元是接受所述用户输入的命令的输入手段以及配备于所述本体的外侧中的至少一个。
5.根据权利要求4所述的动作感应装置,其特征在于:
所述的控制部通过所述配备于输入手段的接触单元感应到用户的接触时,判断所述输入的动作是有效的。
6.根据权利要求4所述的动作感应装置,其特征在于:
所述的控制部通过配备于所述输入手段的接触单元及配备于所述本体的外侧中的至少一个的接触单元感应到所述用户的接触时,判断所述输入的动作是有效的。
7.根据权利要求1所述的动作感应装置,其特征在于:
所述控制部通过所述至少一个以上的接触单元中已设定的组合的接触单元感应到所述用户的接触时,判断所述输入的动作是有效的。
8.根据权利要求1所述的动作感应装置,其特征在于:
所述控制部通过至少一个以上的接触单元中已设定的组合的接触单元,感应到所述用户的接触时,判断所述输入的动作是无效的。
9.一种动作感应装置,其特征在于,包含有:
动作感应部,其感应对本体施加的动作;
输入部,其具备至少一个以上的按钮而感应用户的输入;
控制部,其参照从所述感应到的输入的发生时点起持续的时间,判断所述输入的动作的有效性;
通信部,其按照所述动作的有效性与否,发送对所述动作的信号。
10.根据权利要求9所述的动作感应装置,其特征在于:
所述动作感应部具备惯性传感器、红外线传感器、视觉(vision)传感器、超声波传感器及微波传感器中的至少一个,感应对所述本体施加的动作。
11.根据权利要求9所述的动作感应装置,其特征在于:
所述控制部,在所述感应到的输入中,判断从第一输入的发生时点起持续的时间的所谓第一持续时间内所述输入的动作是有效的。
12.根据权利要求11所述的动作感应装置,其特征在:
所述控制部,在所述第一持续时间内感应到所述第一输入以后的输入的第二输入时,判断从所述第二输入的发生时点起在第二持续时间内所述输入的动作是有效的。
13.根据权利要求12所述的动作感应装置,其特征在于:
所述第一持续时间与所述第二持续时间相同或相异。
14.一种动作感应方法,其特征于,包含有:
感应对本体施加的动作的步骤;
具备至少一个以上的接触单元而感应用户的接触的步骤;
参照所述感应到的用户的接触,判断所述输入的动作的有效性的步骤;
按照所述动作的有效性,发送对所述动作的信号的步骤。
15.根据权利要求14所述的动作感应方法,其特征在于:
感应对所述本体施加的动作的步骤,包括利用惯性传感器、红外线传感器、视觉(vision)传感器、超声波传感器及微波传感器中的至少一个,感应对所述本体施加的动作的步骤。
16.根据权利要求14所述的动作感应方法,其特征在于:
所述的接触单元以电气式、磁性式、电磁式、压力感应式、器具式、温度感应式、超声波式、水分感应式、微波感应式、光学式、化学式、放射线式及形状感应式中的至少一种方式,感应所述用户的接触。
17.根据权利要求14所述的动作感应方法,其特征在于:
所述至少一个以上的接触单元是接受所述用户输入的命令的输入手段以及配备于所述本体的外侧中的至少一个。
18.根据权利要求17所述的动作感应方法,其特征在于:
判断所述输入的动作的有效性的步骤,包括通过配备于所述输入手段的接触单元感应到所述用户的接触时,判断所述输入的动作是有效的步骤。
19.根据权利要求17所述的动作感应方法,其特征在于:
判断所述输入的动作的有效性的步骤,包括:通过配备于所述输入手段的接触单元及配备于所述本体外侧中的至少一个的接触单元感应到所述用户的接触时,判断所述输入的动作是有效的步骤。
20.根据权利要求14所述的动作感应方法,其特征在于:
判断所述输入的动作的有效性的步骤,包括:通过所述至少一个以上的接触单元中已设定的组合的接触单元感应到所述用户的接触时,判断所述输入的动作是有效的步骤。
21.根据权利要求14所述的动作感应方法,其特征在于:
判断所述输入的动作的有效性的步骤,包括:通过所述至少一个以上的接触单元中已设定的组合的接触单元感应到所述用户的接触时,判断所述输入的动作是无效的步骤。
22.一种动作感应方法,其特征于,包含有:
感应对本体施加的动作的步骤;
具备至少一个以上的按钮而感应用户的输入的步骤;
参照从所述感应到的输入的发生时点起持续的时间,判断所述输入的动作的有效性的步骤;
按照所述动作的有效性与否,发送对所述动作的信号的步骤。
23.根据权利要求22所述的动作感应方法,其特征在于:
感应对所述本体施加的动作的步骤,包括:利用惯性传感器、红外线传感器、视觉(vision)传感器、超声波传感器及微波传感器中的至少一个感应对所述本体施加的动作的步骤。
24.根据权利要求22所述的动作感应方法,其特征在于:
判断所述输入的动作的有效性的步骤,包括:在所述感应到的输入中,判断从第一输入的发生时间起持续的时间的第一持续时间内所述输入的动作是有效的步骤。
25.根据权利要求24所述的动作感应方法,其特征在于:
判断所述输入的动作的有效性的步骤,包括:在第一持续时间内感应到第一输入以后的输入的第二输入时,判断从所述第二输入的发生时点起第二持续时间内所述输入的动作是有效的步骤。
26.根据权利要求25所述的动作感应方法,其特征在于:
所述第一持续时间及所述第二持续时间相同或相异。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080069693A KR20100009023A (ko) | 2008-07-17 | 2008-07-17 | 움직임을 인식하는 장치 및 방법 |
KR10-2008-0069693 | 2008-07-17 | ||
PCT/KR2009/003489 WO2010008148A2 (ko) | 2008-07-17 | 2009-06-26 | 움직임을 인식하는 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102084322A true CN102084322A (zh) | 2011-06-01 |
Family
ID=41550804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009801263105A Pending CN102084322A (zh) | 2008-07-17 | 2009-06-26 | 动作感应装置及方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20110122062A1 (zh) |
EP (1) | EP2320304A4 (zh) |
JP (1) | JP2011527795A (zh) |
KR (1) | KR20100009023A (zh) |
CN (1) | CN102084322A (zh) |
WO (1) | WO2010008148A2 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105830455A (zh) * | 2014-01-03 | 2016-08-03 | 三星电子株式会社 | 远程控制装置及其控制方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130081580A (ko) * | 2012-01-09 | 2013-07-17 | 삼성전자주식회사 | 표시 장치 및 그 제어 방법 |
KR101872272B1 (ko) * | 2012-02-10 | 2018-06-28 | 삼성전자주식회사 | 제어 기기를 이용한 전자기기의 제어 방법 및 장치 |
KR102224932B1 (ko) * | 2014-02-19 | 2021-03-08 | 삼성전자주식회사 | 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법 |
WO2017213380A1 (ko) * | 2016-06-07 | 2017-12-14 | 천태철 | 방향 인식 장치 |
CN110622113B (zh) * | 2017-05-12 | 2023-04-04 | 雷蛇(亚太)私人有限公司 | 提供用户输入给计算装置的指向装置和方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07191799A (ja) * | 1993-12-27 | 1995-07-28 | Toshiba Corp | ワイヤレス非接触式ポインティングデバイス |
US20070273658A1 (en) * | 2006-05-26 | 2007-11-29 | Nokia Corporation | Cursor actuation with fingerprint recognition |
CN101201720A (zh) * | 2006-12-13 | 2008-06-18 | 三星电子株式会社 | 为文件传输提供用户界面的设备、方法和介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0736142B2 (ja) * | 1991-10-10 | 1995-04-19 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動指示手段の運動停止を認識する方法および情報処理装置 |
US5638092A (en) * | 1994-12-20 | 1997-06-10 | Eng; Tommy K. | Cursor control system |
EP1717683A3 (en) * | 1998-01-26 | 2010-03-17 | Apple Inc. | Method and apparatus for integrating manual input |
US6411277B1 (en) * | 1998-10-30 | 2002-06-25 | Intel Corporation | Method and apparatus for controlling a pointer display based on the handling of a pointer device |
KR20020076592A (ko) * | 2001-03-29 | 2002-10-11 | 엘지전자 주식회사 | 마우스의 지능형 포인팅 장치 및 방법 |
US6943774B2 (en) * | 2001-04-02 | 2005-09-13 | Matsushita Electric Industrial Co., Ltd. | Portable communication terminal, information display device, control input device and control input method |
KR100465969B1 (ko) * | 2003-04-11 | 2005-01-13 | (주)모비솔 | 손가락 표면을 이용한 소형 포인팅 장치 |
KR100609346B1 (ko) * | 2004-03-12 | 2006-08-08 | (주)모비솔 | 터치센서가 부착된 포인팅 장치 |
TWI376520B (en) * | 2004-04-30 | 2012-11-11 | Hillcrest Lab Inc | Free space pointing devices and methods |
KR100987248B1 (ko) * | 2005-08-11 | 2010-10-12 | 삼성전자주식회사 | 이동 통신 단말의 사용자 입력 방법 및 장치 |
KR20070042858A (ko) * | 2005-10-19 | 2007-04-24 | (주)모비솔 | 펜 형태의 디지털 입력 장치 |
US20090213081A1 (en) * | 2007-01-10 | 2009-08-27 | Case Jr Charlie W | Portable Electronic Device Touchpad Input Controller |
US8063888B2 (en) * | 2007-02-20 | 2011-11-22 | Microsoft Corporation | Identification of devices on touch-sensitive surface |
US8446371B2 (en) * | 2007-12-19 | 2013-05-21 | Research In Motion Limited | Method and apparatus for launching activities |
US8558803B2 (en) * | 2008-11-28 | 2013-10-15 | Samsung Electronics Co., Ltd. | Input device for portable terminal and method thereof |
US8260883B2 (en) * | 2009-04-01 | 2012-09-04 | Wimm Labs, Inc. | File sharing between devices |
-
2008
- 2008-07-17 KR KR1020080069693A patent/KR20100009023A/ko active Search and Examination
-
2009
- 2009-06-26 EP EP09798051A patent/EP2320304A4/en not_active Withdrawn
- 2009-06-26 WO PCT/KR2009/003489 patent/WO2010008148A2/ko active Application Filing
- 2009-06-26 US US13/054,318 patent/US20110122062A1/en not_active Abandoned
- 2009-06-26 CN CN2009801263105A patent/CN102084322A/zh active Pending
- 2009-06-26 JP JP2011517335A patent/JP2011527795A/ja not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07191799A (ja) * | 1993-12-27 | 1995-07-28 | Toshiba Corp | ワイヤレス非接触式ポインティングデバイス |
US20070273658A1 (en) * | 2006-05-26 | 2007-11-29 | Nokia Corporation | Cursor actuation with fingerprint recognition |
CN101201720A (zh) * | 2006-12-13 | 2008-06-18 | 三星电子株式会社 | 为文件传输提供用户界面的设备、方法和介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105830455A (zh) * | 2014-01-03 | 2016-08-03 | 三星电子株式会社 | 远程控制装置及其控制方法 |
US10209790B2 (en) | 2014-01-03 | 2019-02-19 | Samsung Electronics Co., Ltd. | Remote control apparatus and control method therefor |
CN105830455B (zh) * | 2014-01-03 | 2020-03-27 | 三星电子株式会社 | 远程控制装置及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US20110122062A1 (en) | 2011-05-26 |
KR20100009023A (ko) | 2010-01-27 |
WO2010008148A3 (ko) | 2010-04-22 |
EP2320304A4 (en) | 2011-10-05 |
EP2320304A2 (en) | 2011-05-11 |
JP2011527795A (ja) | 2011-11-04 |
WO2010008148A2 (ko) | 2010-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10452174B2 (en) | Selective input signal rejection and modification | |
CN102111582B (zh) | 电视遥控装置、电视机及遥控方法 | |
US9110505B2 (en) | Wearable motion sensing computing interface | |
US10168775B2 (en) | Wearable motion sensing computing interface | |
KR101666995B1 (ko) | 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법 | |
CN101430614B (zh) | 平面和空间书写系统及其方法 | |
US20120019488A1 (en) | Stylus for a touchscreen display | |
CN103686283B (zh) | 一种智能电视遥控器人机交互方法 | |
CN102084322A (zh) | 动作感应装置及方法 | |
CN102346590A (zh) | 三维物件上的触摸感测 | |
US20150029402A1 (en) | Remote controller, system, and method for controlling remote controller | |
EP2538309A2 (en) | Remote control with motion sensitive devices | |
US20120256835A1 (en) | Motion control used as controlling device | |
US9298324B1 (en) | Capacitive touch with tactile feedback | |
KR100791102B1 (ko) | 터치패드형 리모콘 | |
US20130257809A1 (en) | Optical touch sensing apparatus | |
CN106933385B (zh) | 一种基于三维超声波定位的低功耗空鼠笔的实现方法 | |
CN103974113A (zh) | 具有手势识别功能的遥控装置 | |
WO2015153690A1 (en) | Wearable motion sensing computing interface | |
CN203233510U (zh) | 一种体感遥控器 | |
CN205050078U (zh) | 一种可穿戴设备 | |
US20140111478A1 (en) | Optical Touch Control Apparatus | |
CN103885707A (zh) | 基于多点触控技术的人机交互的方法及遥控器 | |
US20120062477A1 (en) | Virtual touch control apparatus and method thereof | |
KR101336289B1 (ko) | 전자기기 제어장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20110601 |