CN104423732A - Avn系统的远程控制装置及方法 - Google Patents

Avn系统的远程控制装置及方法 Download PDF

Info

Publication number
CN104423732A
CN104423732A CN201310581299.XA CN201310581299A CN104423732A CN 104423732 A CN104423732 A CN 104423732A CN 201310581299 A CN201310581299 A CN 201310581299A CN 104423732 A CN104423732 A CN 104423732A
Authority
CN
China
Prior art keywords
screen
pointer
avn system
setting
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310581299.XA
Other languages
English (en)
Other versions
CN104423732B (zh
Inventor
申昇熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Mobis Co Ltd
Original Assignee
Hyundai Mobis Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Mobis Co Ltd filed Critical Hyundai Mobis Co Ltd
Publication of CN104423732A publication Critical patent/CN104423732A/zh
Application granted granted Critical
Publication of CN104423732B publication Critical patent/CN104423732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN

Abstract

本发明作为涉及AVN系统的远程控制装置及方法,根据本发明AVN系统的远程控制装置的特征在于,利用安装在AVN系统的传感器与触控笔,可以远程触摸控制AVN系统的动作。根据本发明,通过在车辆内部形成的假想触摸屏,可远程控制AVN系统,具有使便利性提高的效果。

Description

AVN系统的远程控制装置及方法
技术领域
本发明作为涉及AVN系统的远程控制装置及方法,更详细的说是可以远程控制AVN系统的装置及方法。
背景技术
如图1所示,传统的AVN控制装置包括遥控应用程序110、控制部120、近距离通信模块130、表示部140及操作部150。作为具备如同蓝牙通信的近距离无线通信功能的智能手机,以蓝牙通信控制AVN200。
遥控应用程序110为了表示画面及动作状态,从AVN200下载遥控画面数据传达至表示部140,将此以数据库形态构成并保存。这时,下载只在AVN控制装置100保有的遥控画面数据,只在与AVN200保有的遥控画面数据的版本不同的情况下进行。
另外,遥控应用程序110接收从控制部120传达的触摸屏坐标值与按钮代码值,构成为了传送至AVN200的遥控控制信息。
在这里,遥控画面数据的数据库,由遥控画面识别者(ID)与分别对应识别者的AVN菜单模样的图片文件(如同JPG的压缩文件)的遥控画面构成。
控制部120,在表示部140表示遥控画面的状态下,若根据使用者操作包括在操作部150的触摸屏或按钮,将触摸屏坐标值或按钮值信息传达至遥控应用程序110,使AVN200与遥控应用程序110之间能蓝牙通信,控制近距离通信模块130。
近距离通信模块130,根据控制部120的控制,将在遥控应用程序110构成的遥控控制信息,以蓝牙通信传送至AVN200。
AVN(Audio Video Navigation,音频视频导航)200包括UI(UserInterface,用户界面)应用程序210、控制部220、近距离通信模块230及表示部240。
UI应用程序210,保有要传送至AVN控制装置100的遥控画面数据及该数据的版本,每次变更表示部240的画面时,传送应由AVN控制装置100表示的遥控画面识别者(ID)。
另外,UI应用程序210分析从AVN控制装置100接收的遥控控制信息与现在的遥控画面,导出AVN控制命令。
控制部220,根据在UI应用程序210导出的AVN控制命令,进行控制使AVN200执行相关动作。
近距离通信模块230,从AVN控制装置100以蓝牙通信接收遥控控制信息。
传统发明主要特征说明如下。
传统的AVN控制装置100,通过遥控应用程序110控制AVN200,通过近距离通信模块130以蓝牙通信收发为了控制AVN200的信息/命令。
遥控应用程序110,保存从AVN200下载相当于各种菜单的遥控画面数据。
在这里,遥控画面数据的下载,在驱动遥控应用程序110时进行,并且只有在遥控应用程序110与AVN200保有的相应数据的版本不同时进行。
另外,根据使用者的操作信息是由触摸屏输入(按压)坐标值构成,并且对于如同增加/减少、取消、终止的按钮,不仅是触摸屏输入坐标,也可由该按钮的代码值构成,在AVN200表示导航目的地搜索/输入、音频文件搜索/输入等的情况,在与此相同的画面使用者的操作信息可由键盘代码值构成。
触摸屏输入坐标值及按钮代码值传送至AVN200,与AVN200保有的遥控画面数据一起被分析后,变换为AVN控制命令。
如上所述,传统的AVN控制装置100为,从AVN200下载遥控应用程序,在车辆内控制AVN200。
发明内容
(要解决的技术问题)
本发明与如上所述的传统的技术不同,提供AVN系统的远程控制装置及方法的目的在于,通过利用安装在AVN系统的传感器与触控笔形成的假想触摸屏,远程控制AVN系统的动作。
(解决问题的手段)
为达成上述的目的,根据本发明一方面的AVN系统的远程控制装置,包括:触控笔;及中央处理部,根据使用者操作的所述触控笔,设定对于所述AVN系统的远程控制功能的情况,识别所述触控笔的位置设定为所述触控笔的开始点,从设定的开始点根据所述触控笔的位置移动获取的信息为基础,设定中心点、帮助点,并且以设定的中心点及帮助点为基础,形成要在远程控制使用的假想触摸屏,并且根据通过形成的所述假想触摸屏的所述使用者的输入,远程控制所述AVN系统。
根据本发明其他面的AVN系统的远程控制方法,若根据使用者操作的触控笔,操作为远程控制所述AVN系统,通过安装在所述AVN系统的超声波接收部,接收从所述触控笔发射的超声波信号,以接收的超声波信号为基础,识别所述触控笔的位置设定为开始点的阶段;从设定的所述开始点,根据所述触控笔的位置移动获取的信息为基础,计算所述触控笔的移动位置,设定中心点、帮助点的阶段;以设定的中心点及帮助点为基础,形成要在远程控制使用的假想触摸屏的阶段;及根据通过形成的所述假想触摸屏的使用者的输入,远程控制所述AVN系统的阶段。
(发明效果)
根据本发明,通过在车辆内部形成假想触摸屏,可远程控制AVN系统,具有可提高使用者便利性的效果。
附图说明
图1是为了说明传统技术的图面。
图2是为了说明根据本发明一实施例的AVN系统的远程控制装置的框图。
图3是为了说明触控笔的位置识别原理的图面。
图4是为了说明形成假想触摸屏的图面。
图5是为了说明根据本发明一实施例的AVN系统的远程控制方法的流程图。
(附图标记说明)
100:AVN系统         110:通信模块
120:中央处理部      130:超声波接收部
200:触控笔          210:加速度计
220:陀螺仪传感器    230:BT/WiFi通信部
240:超声波传感器    250:按钮
具体实施方式
与附图一起参照详细后述的实施例,可明确本发明的优点及特征,还有为达成此的方法。但是,本发明别非限定在以下公开的实施例,而是可以相互不同的多样的形态实现,并且本实施例只是使本发明的公开更加完整,并且使在本发明所属技术领域具有通常知识的技术人员更加容易理解本发明的范围所提供,且本发明是根据权利要求的记载被定义。另一方面,在本说明书使用的用语是为了说明实施例,并不是要限制本发明。在本说明书中,单数型在句子中没有特别谈及时,也包括复数形。在说明书使用的“包括(comprises)”或“包括的(comprising)”为,不排除谈及的构成要素、阶段、动作及/或元件以外的一个以上的其他构成要素、阶段、动作及/或元件的存在或追加。
以下参照图2至图4,说明根据本发明一实施例的AVN系统的远程控制装置。图2是为了说明根据本发明一实施例的AVN系统的远程控制装置的框图。图3是为了说明触控笔的位置识别原理的图面。图4是为了说明形成假想触摸屏的图面。
如图2所示,本发明AVN系统的远程控制装置,包括AVN系统100及触控笔200。根据通过触控笔200及形成的假想触摸屏的使用者的输入,远程控制AVN系统100,或根据通过触摸屏140的使用者的触摸输入,控制AVN系统100。
AVN系统100包括通信模块110、中央处理部120、超声波接收部130及触摸屏140。
超声波接收部130包括多个的感应超声波传感器,分别的感应超声波传感器相互分离间隔,安装在AVN系统100的特定位置。
中央处理部120,根据使用者的按钮250操作,若从触控笔200接收远程控制请求信号,将触控笔200的设定开始点请求信息,表示在AVN系统100画面上。
例如,AVN系统100与触控笔200,在能蓝牙(BT)/无线(WiFi)通信、超声波通信的状态,若根据使用者以使用远程控制功能操作按钮250,中央处理部110为了识别触控笔200的位置,使触控笔200位于能收发超声波的距离,通过AVN系统100的画面向使用者进行请求。
设定开始点请求信息表示在画面上后,根据使用者操作触控笔200位于能收发超声波的距离上,若根据超声波发射部240发射超声波信号,中央处理部120通过多个的感应超声波传感器接收超声波信号,以接收的超声波信号为基础,计算触控笔200的位置,识别触控笔200的位置,若完成触控笔200的位置识别后,将假想触摸屏的设定中心点请求信息表示在AVN系统100的画面上。
例如在图3所示,中央处理部120至少通过3个的感应超声波传感器131、132、133接收超声波信号,以分别接收的超声波信号为基础,计算触控笔200分别的感应超声波传感器131、132、133之间的距离,并且以分别的感应超声波传感器131、132、133的位置为中心值,以分别计算的距离值为半径形成园,将分别形成的园重叠的一点识别为触控笔200的位置(开始点)。
根据表示的设定中心点请求信息,根据使用者若触控笔200在识别的位置(开始点)移动至特定位置,BT/WiF230根据触控笔200的位置移动,输出从加速度计210与陀螺仪传感器220输出的信号。
中央处理部120,以通过通信模块110接收的加速度计210与陀螺仪传感器220的输出信号为基础,计算触控笔200的移动位置,将计算的移动位置识别为假想触摸屏的中心点,若完成假想触摸屏的中心点识别,将假想触摸屏的设定帮助点请求信息,表示在AVN系统100画面上。
根据表示的设定帮助点请求信息,根据使用者若触控笔200在识别的中心点从新移动至特定位置,BT/WiF230根据触控笔200的位置移动,输出从加速度计210与陀螺仪传感器220输出的信号。
中央处理部120,以通过通信模块110接收的加速度计210与陀螺仪传感器220的输出信号为基础,计算触控笔200的移动位置,将计算的移动位置识别为假想触摸屏的帮助点。
如图4所示,中央处理部120连接识别的中心点及帮助点,形成假想触摸屏的横方向轴,以识别的中心点的水平轴为基准,测量水平轴与形成的横方向轴之间的角度(θ),并且以识别的中心点与测量的角度(θ)为基础,形成大小在对应物理性触摸屏140大小的假想触摸屏。
中央处理部110,根据利用形成的假想触摸屏与触控笔200的使用者操作,控制AVN系统100。
另一方面,大小在对应物理性触摸屏140大小,形成的假想触摸屏无法被使用者用肉眼识别,因此中央处理部110通过形成的假想触摸屏的触控笔200的假想触摸输入,在AVN系统100的画面上表示为箭头或周期性波浪波形等。
例如,中央处理部120,在形成的假想触摸屏大小范围内,将触控笔200的假想触摸输入,在AVN系统100的画面上表示为箭头或周期性的波浪波形等,触控笔200在超出假想触摸屏的大小范围的情况,没有表示箭头或周期性的波浪波形,让使用者识别在空间上形成的假想触摸屏,在识别的假想触摸屏的大小范围内,以触控笔200的假想触摸输入可使AVN系统100操作,并且根据触控笔200的假想触摸输入控制AVN系统100的动作。
如上所述,根据本发明通过在车辆内部形成的假想触摸屏,可远程控制AVN系统,因此可使使用者的便利性提高。
在这里,说明了开始点与中心点为不同位置,但是并非限定于此,开始点与中心点可构成为相同位置。
另外,在这里说明了假想触摸屏形成为2维平面(横、竖),使其以2维动作进行了说明,但是并非现定于此,就算以形成的2维假想触摸屏为基准,触控笔以高度(竖)方向(+、—),定位至特定长度的范围,也识别为在2维假想触摸屏的位置移动,在AVN系统的画面上,使其位置表示为箭头或周期性的波浪波形等构成。另外,将形成的假想触摸屏扩张为3维直六面体,当然以触控笔的(+、—)高度方向的(3维)位置移动构成,使其表示在画面上。
以上,参照图2至图4,说明了根据本发明一实施例的AVN系统的远程控制装置,以下参照图5说明根据本发明一实施例的AVN系统的远程控制方法。图5是为了说明根据本发明一实施例的AVN系统的远程控制方法的流程图。
如图5所示,若操作附着在触控笔200的按钮250,根据此判断是否使用远程控制功能。(S500)
判断结果,设定为使用远程控制功能的情况,设定1号点。(S501)
设定1号点(point)的阶段,作为中央处理部120识别触控笔200位置的阶段,中央处理部120通过超声波接收部130,感应根据触控笔200发生的信号,以感应的信号为基础计算触控笔200的位置,识别触控笔200的位置,确定触控笔200的开始点。
所述开始点确定阶段,以通过感应超声波传感器或图像传感器等获取的信号为基础,测量触控笔200的位置,确定为假想触摸屏的开始点。设定在以下后述的2号、3号点(point)为,利用安装在触控笔200的陀螺仪传感器220与加速度计210,掌握触控笔200的位置,以掌握的位置为基础设定假想触摸屏的中心点、帮助点。
确认是否完成设定1号点(S502),确认结果,完成设定1号点的情况,设定2号点(S503),并且设定3号点(S504)。
2号点为假想触摸屏的中心点,并且3号点为假想触摸屏的帮助点,假想触摸屏的(横竖)大小对应物理性触摸屏140的大小。
为了提高对AVN系统100的远程控制的准确性,使大小对应触摸屏140的大小,形成假想触摸屏。
连接识别的中心点与帮助点,形成假想触摸屏的横方向轴,以识别的中心点的水平轴为基准,测量水平轴与形成的横方向轴之间的角度(θ),并且以识别的中心点与测量的角度(θ)为基础,形成大小在对应物理性触摸屏140大小的假想触摸屏(S505)。
形成假想触摸屏后,通过AVN系统100的画面,也可以询问使用者是否将假想触摸屏扩张为3维。
询问结果,根据使用者操作物理性触摸屏140或按钮250扩张为3维,为了将以2维平面(横x、竖y)形成的假想触摸屏扩张为3维,在2维平面的假想触摸屏反应高度(+z、-z),形成3维直六面体(横x、竖y、高z)的假想触摸屏。
在这里,考虑车辆的内部空间大小,可已设定高的长度(+z+|-z|),以2维平面形成的假想触摸屏的横x的长度比竖y的长度大的情况,使其预设定具有在横x的长度与竖y的长度之间的值。
但是,询问结果,根据使用者若没有操作扩张物理性触摸屏140或按钮250,不执行3维扩张过程。
根据利用形成的假想触摸屏与触控笔200的使用者的操作,控制AVN系统100。(S506)
例如,大小在对应物理性触摸屏140的大小,形成的假想触摸屏是无法被使用者用肉眼识别,因此若触控笔200位于形成的假想触摸屏的大小(横竖)范围内,将触控笔200的位置以箭头或周期性波浪波形等表示在AVN系统100的画面上。
即,在AVN系统100的画面上,表示箭头或周期性波浪波形等,使使用者可识别在空间上形成的假想触摸屏,在识别的假想触摸屏的大小内,如同无线鼠标等使触控笔200操作,并且根据通过识别的假想触摸屏的使用者的操作,控制AVN系统100的动作。
另外,若触控笔200位于超出形成的假想触摸屏的大小(横竖)的范围,不将触控笔200的位置表示在AVN系统100的画面上。
即,触控笔200的位置超出假想触摸屏的大小范围的情况,不在AVN系统100的画面上表示箭头或周期性的波浪波形等,进而可使使用者识别触控笔200位于超出假想触摸屏的大小范围的位置,使触控笔200从新位于假想触摸屏的大小范围内。
另一方面,根据使用者设定为不使用触控笔200,或不使用远程控制功能的情况,根据通过触摸屏140的使用者的触摸输入,控制AVN系统100。
参照以上优选实施例与附图,详细说明了关于本发明的构成,但是这只不过是事例,在不超过本发明技术思想的范畴内,当然可进行多种多样的变形。因此奔放的范围不能局限在说明的实施例,不仅根据后续的权利要求的范围,也根据与此权利要求的范围均等被决定。

Claims (11)

1.一种AVN系统的远程控制装置,其特征在于,包括:
触控笔;及
中央处理部,根据使用者操作的所述触控笔,设定对所述AVN系统的远程控制功能的情况,识别所述触控笔的位置,设定为所述触控笔的开始点,从设定的开始点根据所述触控笔的位置移动获取的信息为基础,设定中心点、帮助点,并且以设定的中心点及帮助点为基础,形成要在远程控制中使用的假想触摸屏,根据通过形成的所述假想触摸屏的所述使用者的输入,远程控制所述AVN系统。
2.根据权利要求1所述的AVN系统的远程控制装置,其特征在于,还包括:
超声波接收部,接收从所述触控笔发生的超声波;及
通信模块,通过近距离通信,接收从所述触控笔传送的信息;
所述中央处理部,以通过所述超声波接收部接收的超声波信号为基础,识别所述触控笔的位置设定所述开始点,根据识别位置的所述触控笔到特定位置的两次移动,以通过所述通信模块接收的两个信息为基础,分别计算所述触控笔的移动位置,设定为所述中心点及所述帮助点,并且以设定的所述中心点及帮助点为基础,形成所述假想触摸屏。
3.根据权利要求2所述的AVN系统的远程控制装置,其特征在于,
所述超声波接收部,至少包括3个的感应超声波传感器,
所述中央处理部,通过所述至少3个的感应超声波传感器接收超声波信号,以分别接收的超声波信号为基础,计算所述触控笔与分别的感应超声波传感器之间的距离,并且以所述分别的感应超声波传感器的位置为中心值,以分别计算的距离值为半径形成圆,将各形成的圆重叠的一点识别为所述触控笔的位置。
4.根据权利要求2所述的AVN系统的远程控制装置,其特征在于,
所述中央处理部,
根据所述使用者的操作,若从所述触控笔接收远程控制请求信号,将所述触控笔的设定开始点请求信息,表示在所述AVN系统的画面上,
根据表示的设定开始点请求信息,若根据所述使用者所述触控笔位于能收发超声波的距离上,若通过所述超声波接收部,接收从所述触控笔的超声波信号,以通过所述至少3个的感应超声波传感器接收的超声波信号为基础,计算所述触控笔的位置,识别所述触控笔的位置后,将所述假想触摸屏的设定中心点请求信息表示在所述AVN系统画面上,
根据表示的设定中心点请求信息,若根据所述使用者所述触控笔的在识别位置移动至特定位置,根据所述触控笔的位置移动,以从所述触控笔的加速度计与陀螺仪传感器通过所述通信模块接收的信号为基础,计算所述触控笔的移动位置,并识别为假想触摸屏的中心点后,将假想触摸屏的设定帮助点请求信息,表示在所述AVN系统画面上,
根据表示的设定帮助点请求信息,若根据所述使用者所述触控笔在识别的中心点位置从新移动至特定位置,根据所述触控笔的位置移动,以通过通信模块接收的信号为基础,计算所述触控笔的位置移动,识别为假想触摸屏的帮助点,
以识别的所述中心点及帮助点为基础,形成所述假想触摸屏。
5.根据权利要求1所述的AVN系统的远程控制装置,其特征在于,
所述中央处理部,
连接设定的所述中心点及帮助点,形成假想触摸屏的横方向轴,以设定的所述中心点的水平轴为基准,测量所述水平轴与形成的横方向轴之间的角度(θ),并且以设定的所述中心点与测量的所述角度(θ)为基础,形成大小在对应所述AVN系统的物理性触摸屏大小的假想触摸屏,根据利用形成的假想触摸屏与所述触控笔的所述使用者的操作,控制所述AVN系统。
6.根据权利要求1所述的AVN系统的远程控制装置,其特征在于,
所述中央处理部,
若所述触控笔为,大小在对应所述AVN系统的物理性触摸屏大小,位于形成的假想触摸屏的大小范围内,将所述触控笔的位置以箭头或周期性波浪波形表示在所述AVN系统画面上,若所述触控笔位于超出形成的假想触摸屏的大小范围,不表示对应所述触控笔位置的箭头或周期性的波浪波形。
7.一种AVN系统的远程控制方法,其特征在于,
根据AVN系统的远程控制方法,包括:
根据使用者操作的触控笔,若操作为远程控制所述AVN系统,通过安装在所述AVN系统的超声波接收部,接收从所述触控笔发射的超声波信号,以接收的超声波信号为基础,识别所述触控笔的位置设定为开始点的阶段;
从设定的所述开始点,以根据所述触控笔的位置移动获取的信息为基础,计算所述触控笔的移动位置,设定中心点、帮助点的阶段;
以设定的中心点及帮助点为基础,形成在远程控制使用的假想触摸屏的阶段;及
根据通过形成的所述假想触摸屏的使用者的输入,远程控制所述AVN系统的阶段。
8.根据权利要求7所述的AVN系统的远程控制方法,其特征在于,
所述超声波接收部,至少包括3个的感应超声波传感器,
设定为所述开始点的阶段,包括:
通过所述至少3个的感应超声波传感器,接收超声波信号的阶段;
以分别接收的超声波信号为基础,计算所述触控笔与分别的感应超声波传感器之间的距离的阶段;
以所述分别的超声波传感器的位置为中心值,将分别计算的距离值为半径形成圆,重叠各形成圆的一点识别为所述触控笔的位置的阶段。
9.根据权利要求7所述的AVN系统的远程控制方法,其特征在于,
形成所述假想触摸屏的阶段,
根据所述使用者的操作,若从所述触控笔接收远程控制请求信号,将所述触控笔的设定开始点请求信息,表示在所述AVN系统画面上的阶段;
设定开始点请求信息在画面上表示后,若完成所述触控笔的位置识别,将所述假想触摸屏的设定中心点请求信息,表示在所述AVN系统的画面上的阶段;及
表示设定中心点请求信息后,若完成假想触摸屏的中心点设定,将假想触摸屏的设定帮助点请求信息,表示在所述AVN系统画面上的阶段。
10.根据权利要求7所述的AVN系统的远程控制方法,其特征在于,
形成所述假想触摸屏的阶段,包括:
连接设定的中心点与帮助点,形成假想触摸屏的横方向轴的阶段;
以设定的中心点的水平轴为基准,测量水平轴与形成的横方向轴之间角度(θ)的阶段;及
以设定的中心点与测量的角度(θ)为基础,形成大小在对应所述AVN系统的物理性触摸屏大小的假想触摸屏的阶段。
11.根据权利要求7所述的AVN系统的远程控制方法,其特征在于,
还包括:
假想触摸屏形成后,询问使用者是否将假想触摸屏扩张为3维的阶段;
询问结果,若根据使用者选择3维扩张,为了使以2维平面形成的假想触摸屏扩张为3维,在所述2维平面的假想触摸屏反映已设定长度的高,形成3维直六面体的假想触摸屏的阶段。
CN201310581299.XA 2013-09-05 2013-11-19 Avn系统的远程控制装置及方法 Active CN104423732B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0106645 2013-09-05
KR1020130106645A KR102089469B1 (ko) 2013-09-05 2013-09-05 Avn 시스템의 원격 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
CN104423732A true CN104423732A (zh) 2015-03-18
CN104423732B CN104423732B (zh) 2017-07-07

Family

ID=52582491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310581299.XA Active CN104423732B (zh) 2013-09-05 2013-11-19 Avn系统的远程控制装置及方法

Country Status (3)

Country Link
US (1) US9256305B2 (zh)
KR (1) KR102089469B1 (zh)
CN (1) CN104423732B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102627518B1 (ko) * 2016-09-02 2024-01-23 엘지전자 주식회사 싱크 디바이스 및 그 제어 방법
US10528159B2 (en) 2017-01-19 2020-01-07 Hewlett-Packard Development Company, L.P. Input pen gesture-based display control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101943983A (zh) * 2009-07-09 2011-01-12 纬创资通股份有限公司 计算机系统的控制方法及相关计算机系统
US20110085016A1 (en) * 2009-10-14 2011-04-14 Tandberg Telecom As Device, computer program product and method for providing touch control of a video conference
KR20110118325A (ko) * 2010-04-23 2011-10-31 (주)나노티에스 3차원 터치 위치 검출 장치 및 방법과, 이를 갖는 3차원 터치 스크린 시스템
CN103076918A (zh) * 2012-12-28 2013-05-01 深圳Tcl新技术有限公司 基于触摸终端的远程控制方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6335723B1 (en) * 1998-10-02 2002-01-01 Tidenet, Inc. Transmitter pen location system
KR100326756B1 (ko) * 1999-04-29 2002-03-12 이호균 초음파를 이용한 위치 및 제어신호 입력 시스템
KR20000006747A (ko) * 1999-10-29 2000-02-07 이주혁 휴대용 예취기 바퀴
US20030132950A1 (en) * 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US20050110778A1 (en) 2000-12-06 2005-05-26 Mourad Ben Ayed Wireless handwriting input device using grafitis and bluetooth
JP2002236546A (ja) * 2001-02-08 2002-08-23 Canon Inc 座標入力装置及びその制御方法、コンピュータ可読メモリ
US7489308B2 (en) 2003-02-14 2009-02-10 Microsoft Corporation Determining the location of the tip of an electronic stylus
US7961173B2 (en) 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
KR20110011832A (ko) * 2009-07-29 2011-02-09 주식회사 하이닉스반도체 센스앰프 장치 및 그 구동방법
US8593402B2 (en) * 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
DK2656181T3 (da) * 2010-12-22 2020-01-13 Zspace Inc Tredimensionel sporing af en brugerstyringsanordning i et volumen
US20130293683A1 (en) * 2012-05-03 2013-11-07 Harman International (Shanghai) Management Co., Ltd. System and method of interactively controlling a virtual camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101943983A (zh) * 2009-07-09 2011-01-12 纬创资通股份有限公司 计算机系统的控制方法及相关计算机系统
US20110085016A1 (en) * 2009-10-14 2011-04-14 Tandberg Telecom As Device, computer program product and method for providing touch control of a video conference
KR20110118325A (ko) * 2010-04-23 2011-10-31 (주)나노티에스 3차원 터치 위치 검출 장치 및 방법과, 이를 갖는 3차원 터치 스크린 시스템
CN103076918A (zh) * 2012-12-28 2013-05-01 深圳Tcl新技术有限公司 基于触摸终端的远程控制方法及系统

Also Published As

Publication number Publication date
KR20150028041A (ko) 2015-03-13
US20150062011A1 (en) 2015-03-05
CN104423732B (zh) 2017-07-07
KR102089469B1 (ko) 2020-03-16
US9256305B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
US8638190B1 (en) Gesture detection using an array of short-range communication devices
US10642376B2 (en) Multi-function stylus with sensor controller
CN106415443B (zh) 用于在装置上识别滚动手势的技术
US9681268B2 (en) Mobile device position detection
US9310896B2 (en) Input method and electronic device using pen input device
CN104246672A (zh) 多点触摸屏装置
JP7213923B2 (ja) ペアリング方法及び位置検出システム
CN103218059A (zh) 三维遥控装置及其定位方法
CN105260112A (zh) 终端间屏幕控制的方法和装置
KR20090052267A (ko) 터치 스크린 기반의 디바이스 인식 및 정보 제공 방법, 장치 및 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
CN101094024A (zh) 应用于无线通讯装置的无线信号功率强弱指向方法及其装置
KR101653878B1 (ko) 3차원 형상의 모델링을 위한 블록 및 사용자 단말기와 이를 이용한 3차원 형상의 모델링 방법
US20140125636A1 (en) Electronic pen data input system and electronic pen data input method using the same
CN104750410A (zh) 电子装置及其文件分享方法及计算机程序产品
CN104423732A (zh) Avn系统的远程控制装置及方法
CN103095341A (zh) 数据传输控制方法及电子设备
CN104598048A (zh) 数位笔书写控制方法及系统
WO2009104985A1 (ru) Способ определения координат манипулятора типа «мышь» или «элeктpoннoe пepo» и устройство для его осуществления
CN106445193B (zh) 一种基于手机操控的激光笔演示系统
CN107077280A (zh) 一种可移动设备的控制方法、控制设备及控制系统
US20110175599A1 (en) Input device with dual induction coils and rotation motion output method thereof
TW201435667A (zh) 電磁筆控制方法
CN102708672A (zh) 单控制3d遥控系统
KR101961786B1 (ko) 터치스크린을 포함하는 단말을 이용한 마우스 기능의 제공 방법 및 장치
JP6352774B2 (ja) デバイス選択方法、端末、コンピュータプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant