CN104035709A - 输入装置、显示装置及其控制方法 - Google Patents

输入装置、显示装置及其控制方法 Download PDF

Info

Publication number
CN104035709A
CN104035709A CN201410080781.XA CN201410080781A CN104035709A CN 104035709 A CN104035709 A CN 104035709A CN 201410080781 A CN201410080781 A CN 201410080781A CN 104035709 A CN104035709 A CN 104035709A
Authority
CN
China
Prior art keywords
track
character
display device
drags
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410080781.XA
Other languages
English (en)
Inventor
李明俊
尹贤奎
粱准铉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN104035709A publication Critical patent/CN104035709A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种显示装置。所述显示装置包括:通信单元,配置为执行与输入装置的通信,并接收与通过输入装置中设置的触摸板输入的拖动轨迹相对应坐标数据;显示单元,配置为基于所接收坐标数据,在屏幕上显示拖动轨迹;以及控制器,配置为基于所接收坐标数据识别与拖动轨迹相对应的数字或字符,并根据识别结果提供对所显示拖动轨迹的视觉反馈。

Description

输入装置、显示装置及其控制方法
相关申请的交叉引用
本申请要求2013年3月7日向韩国知识产权局提交的韩国专利申请10-2013-0024549的优先权,该申请的公开通过全文引用合并于此。
技术领域
根据示例实施例的装置和方法涉及输入装置、显示装置及其控制方法,更具体地,涉及一种使用触摸和拖动方法执行输入的输入装置、显示装置及其控制方法。
背景技术
近年来,随着电视(TV)和其他配件设计的简约趋势,在TV中启用窄边框(narrow bezel)以便提供没有多余的设计,同时,通过尽可能多地移除按钮来在遥控器中启用简单设计。
然而,当移除占用大量区域的并配置为提供功能的数字键时,不利于改变频道,尝试了用于移除该不利因素的多种方法。例如,存在通过示出屏上键以便点击对应数字来改变频道的方法。非常麻烦的是需要按压方向键若干次来点击屏幕上的数字键盘。
讨论了一种通过手写输入数字来改变频道的方法。在没有指示数字(或字符)输入完成的视觉效果的情况下,当输入两位或多位数时,对用户而言不易于预测下一数字输入定时。此外,习惯于通过平板个人计算机(PC)或触控笔等进行手写识别的用户可能缭乱地同时写入要输入的若干数字(或字符),而由此降低识别率。
相较于按钮类型输入而言,当用户通过手写输入数字(或字符)时,存在若干类型的错误输入概率。例如,存在由于输入速度差异而引起的错误输入,且当用户通过触摸板输入数字(或字符)而不观看示出输入轨迹和所识别数字(或字符)的屏幕时,用户无法得知是否正确识别了输入字符。
此外,当向遥控器的触摸板输入手写时,用户并未用一只手紧握遥控器并用该手的拇指手写字符,而是通常用一只手紧握遥控器并用另一只手的食指手写字符,大多情况下用户通过观看输入板而不是TV屏幕,随意想象用他/她的眼睛识别到的手指轨迹。此时,用户在输入完成之后主要观看屏幕以便检查输入。当输入了两个或更多相同数字(或字符)时或当特定数字(或字符)非常潦草从而错失时,用户无法得知该错失字符而造成不便。
发明内容
一个或多个示例实施例可以克服上述缺点和以上未描述的其它缺点。然而,应理解一个或多个示例实施例不需要克服上述缺点,并且可以不克服任何上述问题。
一个或多个示例实施例在于提供一种利用视觉反馈提供通过手写方法输入的数字或字符的识别结果的输入装置、显示装置及其控制方法。
根据示例实施例的方面,提供了一种显示装置。所述显示装置可以包括:通信单元,配置为执行与输入装置的通信,并接收与通过输入装置中设置的触摸板输入的拖动轨迹相对应坐标数据;显示单元,配置为基于所接收坐标数据,在屏幕上显示拖动轨迹;以及控制器,配置为基于所接收坐标数据识别与拖动轨迹相对应的数字或字符,并根据识别结果提供对所显示拖曳轨迹的视觉反馈。
当将拖动轨迹识别为字符或数字时,且当没有将拖动轨迹识别为字符或数字时,控制器可以提供不同视觉反馈。
当将拖动轨迹识别为字符或数字时,控制器可以显示所述拖动轨迹,与此同时,控制器逐渐缩小所显示拖动轨迹并同时顺序地向一侧移动所述拖动轨迹的显示位置。
控制器可以在最终位置处显示拖动轨迹,其中在所述最终位置处以预设字体形式显示拖动轨迹。
当没有将拖动轨迹识别为字符或数字时,控制器可以以令所显示拖动轨迹逐渐分散消失的形式提供图形效果。
当将拖动轨迹识别为字符或数字时,控制器可以基于所识别字符或数字执行预设功能。
预设功能可以包括频道改变、字符输入、菜单执行、模式改变和音量调整中的至少一个。
根据示例实施例的一个方面,提供了一种输入装置。所述输入装置可以包括:通信单元,配置为执行与显示装置的通信;感测单元,配置为感测触摸板上输入的触摸操作;以及控制器,配置为当拖动触摸板上触摸的位置时,计算对应于拖动轨迹的坐标数据,并控制将计算出的坐标数据发送给显示装置。
控制器可以计算对应于在预设时间内从做出第一触摸的点到完成触摸的点的拖动轨迹的坐标数据。
输入装置可以是遥控装置,配置为对显示装置进行遥控。
根据示例实施例的一个方面,提供了一种控制显示装置的方法。所述方法可以包括:执行与输入装置的通信,并接收与输入装置中设置的触摸板输入的拖动轨迹相对应的坐标数据;基于所接收坐标数据在屏幕上显示拖动轨迹;以及基于所接收坐标数据识别对应于拖动轨迹的字符或数字,并根据识别结果提供对所显示拖动轨迹的视觉反馈。
提供视觉反馈可以包括:当将拖动轨迹识别为字符或数字时,且当没有将拖动轨迹识别为字符或数字时,提供不同视觉反馈。
当将拖动轨迹识别为字符或数字时,提供视觉反馈可以包括:显示所述拖动轨迹,与此同时,逐渐缩小所显示拖动轨迹并同时顺序地向一侧移动显示位置。
提供视觉反馈可以包括在最终位置处显示拖动轨迹,其中在所述最终位置处以预设字体形式显示拖动轨迹。
当没有将拖动轨迹识别为字符或数字时,提供视觉反馈可以包括以令所显示拖动轨迹逐渐分散消失的形式提供图形效果。
当将拖动轨迹识别为字符或数字时,提供视觉反馈还可以包括基于所识别字符或数字执行预设功能。
预设功能可以包括频道改变、字符输入、菜单执行、模式改变和音量调整中的至少一个。
根据示例实施例的一个方面,提供了一种控制与显示装置执行通信的输入装置的方法。所述方法可以包括:感测触摸板上输入的触摸操作;当拖动触摸板上所触摸的位置时,计算对应于拖动轨迹的坐标数据;以及将计算出的坐标数据发送给显示装置。
计算坐标数据可以包括计算对应于在预设时间内从做出第一触摸的点到完成触摸的点的拖动轨迹的坐标数据。
输入装置可以是遥控装置,配置为对显示装置进行遥控。
根据上述多种示例实施例,可以在输入装置和显示装置分离的系统中,通过与经由触摸输入的手写有关的视觉反馈来提供用户便利性。
本示例实施例的其它方面和/或优点部分地将在详细描述中阐述,且部分地将通过详细描述而变得清楚明白,或者可以通过实践本示例实施例来获知。
附图说明
参考附图,通过详细描述示例实施例将更清楚以上和/或其它方面,附图中:
图1是示出了根据示例实施例的显示系统的示意图;
图2A是示出了根据示例实施例的输入装置的配置的框图;
图2B是示出了根据另一示例实施例的输入装置的配置的框图;
图3A是示出了根据示例实施例的显示装置的配置的框图;
图3B是示出了根据另一示例实施例的显示装置的配置的框图;
图4是示出了根据示例实施例的输入装置的示意图;
图5A和5B是示出了根据示例实施例的显示方法的视图;
图6A和6B是示出了根据另一示例实施例的显示方法的视图;
图7A至7C是示出了根据另一示例实施例的显示方法的视图;
图8是示出了根据另一示例实施例的显示方法的视图;
图9是示出了根据示例实施例的输入装置的控制方法的流程图;以及
图10是示出了根据示例实施例的显示装置的控制方法的流程图。
具体实施方式
下文中,将参考附图更详细地描述示例实施例。
以下描述中,即便在不同的附图中,相同附图标记用于表示相同元件。提供在描述中定义的内容(例如具体构造和元件)以帮助对本示例实施例的全面理解。因此,应清楚的是在没有那些具体限定的内容时也能够实施示例实施例。此外,因为公知的功能或元件可能以不必要的细节混淆本应用,所以并不对这些公知功能或元件进行详细描述。
图1是示出了根据示例实施例的显示系统的配置的示意图。
输入装置100包括感测用户触摸的触摸面板,并向显示装置200发送对应于所感测触摸的信息。
这里,可以将输入装置100应用到使用各类触摸传感器的全部产品上,例如,配置为控制显示装置200的遥控装置、以有线方式连接到显示装置200的控制装置、便携式电话、个人数字助理(PDA)或电子笔记本。
显示装置200用于在屏幕上显示对应于从输入装置100接收的用户触摸的信息。这里,用户触摸可以是由多种可触摸对象(例如,用户指尖和笔)进行的触摸。
显示装置200可以实现为数字TV、个人计算机(PC)监视器等,但不限于此。可以应用配置为执行显示功能的任何装置,例如,数字信息显示器(DID)面板。
下文将参考附图描述输入装置100和显示装置200的详细操作。
图2A是示出了根据示例实施例的输入装置的配置的框图。
参考图2A,输入装置100包括通信单元110、感测单元120和控制器130。
通信单元110执行与显示装置(参照图1的200)的通信。
具体地,通信单元110可以向显示装置200发送通过下文所述感测单元120感测到的触摸的信息。
通信单元110可以使用通信方法(例如,蓝牙(BT)、互联网、局域网(LAN)、无线保真(WiFi)、近场通信(NFC)、射频(RF)、以太网、传输控制协议/互联网协议(TCP/IP)、互联网分组交换(IPX)、防火墙、电气电子工程协会(IEEE)1394、iLink、码分多址(CDMA)、时分多址(TDMA)、高清晰度多媒体接口-消费电子控制(HDMI-CEC)、无线HDMI-CEC、射频识别(RFID)标签来与显示装置200通信。
感测单元120包括感测触摸的触摸板。
此时,触摸面板可以包括触摸传感器(未示出)和信号转换器(未示出)。触摸传感器根据物理量(例如,电阻、电容等)的改变,感测触摸、拖动和释放的产生。
具体地,触摸板可以包括多个层,即,手指或笔直接触摸的层、以网格形式形成水平电极棒和垂直电极棒的层和连接电路板层。记录手指或笔首次触摸的位置以便连续识别手指或笔的运动,用特定交流(AC)来对形成电极棒的层进行充电,并当手指或笔到达电极棒网格时,断开电流,且电路板感测到电流断开。
触摸板可以实现为电容型或电阻型。电容型触摸板是指如下形式的触摸面板:当用户身体的一部分在触摸面板表面上进行触摸时,使用触摸面板表面上涂覆的电介质感测由用户身体激发的精细电力,并计算触摸坐标。电阻型触摸面板是指如下形式的触摸面板:包括两个嵌入式电极板,且当用户对触摸面板表面进行触摸时,在触摸点处感测流经上板和下板之间的接触的电流,并计算触摸坐标。可以将红外感测方法、表面声波方法、积分应变仪法、压电效应法等用于感测触摸操作。
一些情况下,感测单元120可以包括接近传感器,并感测不与板表面直接接触而是接近所述板表面的运动。
控制器130用于控制输入装置100的整体操作。控制器130可以包括配置为控制中央处理单元(CPU)和输入装置100的模块、配置为存储数据的只读存储器(ROM)和随机访问存储器(RAM)。
具体地,当拖动触摸板上触摸的位置时,控制器130可以根据拖动轨迹计算坐标数据。这里,术语“拖动”意味着在触摸被触摸点的状态下通过拖动触摸点来移动位置的操作。“拖动轨迹”可以是根据用户的任意路径允许用户误差的多种类型形状,例如,线形、自由曲线形、抛物线形、圆形、四方形或菱形。
具体地,控制器130可以根据在预设时间内从做出第一触摸的点到完成触摸的点的拖动轨迹计算坐标数据。也就是说,在连续做出由拖动进行的触摸的情况下,以及即使不是连续做出由拖动进行的触摸,但在预设时间内输入了由拖动进行的触摸的情况下。
控制器130可以不将多个拖动轨迹识别为一个拖动轨迹,而可以针对多个拖动轨迹中的每个计算坐标数据。此时,可以将其应用于在显示装置200中通过多个拖动轨迹识别一个字符。例如,当在预设时间内输入了多个拖动轨迹时,显示装置可以将多个拖动轨迹应用于识别一个字符。
具体地,当发生触摸时,控制器130计算触摸面板触摸位置处的触摸坐标值。例如,控制器130根据多个临时坐标值计算算术平均值,并将计算出的算术平均值存储为触摸坐标值。此外,当发生从触摸位置的拖动时,控制器130可以在拖动路径触摸区域中的多个临时坐标值中,提取最靠近该触摸坐标值的位置处的临时坐标值。这里,控制器130在触摸区域检测多个临时坐标值,并接着根据从该触摸坐标值检测到的多个临时坐标值中的每个计算坐标改变值。控制器130提取具有最小坐标改变值的临时坐标值,并将该触摸坐标值更新为所提取临时坐标值。此时,当从确定触摸坐标值的触摸位置或拖动路径的触摸位置发生拖动时,控制器130初始化该触摸坐标值。然而,该方法仅是示例性的,且当可以计算根据触摸操作的坐标值时,不限于该方法并可以应用该方法。
此时,控制器130向显示装置200发送根据触摸操作计算出的坐标数据。一些情况下,触摸面板可以实现为与显示器(未示出)集成实现的触摸屏。此时,触摸屏可以显示根据用户的触摸操作输入的拖动轨迹。
图2B是示出了根据另一示例实施例的输入装置的配置的框图。参考图2B,输入装置100’包括通信单元110、感测单元120、控制器130、输入单元140和存储单元150。
将省略对与图2A组件重复的图2B所示的部分组件的详细描述。
控制器130包括RAM131、ROM132、主CPU133、图形处理器134、第一到第n接口135-1到135-n和总线136。组件的操作类似于图3B所示控制器230组件的操作,因此将用图3B控制器230的描述代替对其的详细描述。
控制器130可以执行上述字符识别功能。也就是说,可以在显示装置200中执行对输入触摸轨迹的字符识别。一些情况下,通过输入装置100执行对输入触摸轨迹的字符识别。此时,当针对输入触摸轨迹的字符识别为可能时,控制器130可以向显示装置200发送所识别字符的信息,并当针对输入轨迹的字符识别不可能时,控制器130可以向显示装置200发送错误信息。当接收到指示字符识别不可能的错误信息时,显示装置200可以显示指导对应内容的消息或输出音频,并允许用户识别该内容。
输入单元140用于接收多种用户命令。
具体地,输入单元140可以配备硬按钮和软按钮中的至少一个按钮类型,例如,输入单元140可以包括电源按钮、上/下按钮等。
具体地,输入单元140可以包括:模式改变按钮,配置为将操作模式从按钮输入模式改变为手写识别模式。例如,当输入了模式改变按钮时,控制器130可以向显示装置200发送指示模式改变的信息(例如,标志信息),且接收该信息的显示装置200可以显示要在其上显示通过该输入装置100输入的触摸轨迹的屏幕,例如,屏上显示(OSD)屏幕。一些情况下,仅当输入了模式改变按钮以便进入手写识别模式时,触摸板可以实现为接收用户的触摸输入。也就是说,模式改变按钮可以执行对触摸板输入的锁定功能。
然而,这仅是示例性地,在输入装置100中改变输入模式的实施例可以实现为多种类型。例如,当通过触摸板输入特定拖动轨迹时,控制器可以将该拖动轨迹识别为模式改变输入,并向显示装置200发送指示模式改变的信息(例如,标志信息)。
存储单元150驱动输入装置100,并存储用于控制的多种程序和数据。
具体地,存储单元150可以存储提取输入触摸轨迹的坐标数据所需的模块。此外,当输入装置100执行字符识别时,存储单元还可以包括字符识别模块。
图3A是示出了根据示例实施例的显示装置的配置的框图。
参考图3A,显示装置200包括通信单元210、显示单元220和控制器230。
通信单元210执行与输入装置100的通信。
具体地,通信单元210接收根据通过输入装置100中设置的触摸板输入的拖动轨迹的坐标数据。
显示单元220根据稍后描述的控制器230的控制,基于所接收坐标数据,在屏幕上显示拖动轨迹。
具体地,显示单元220可以在屏幕上显示根据输入装置100的触摸面板上输入的触摸操作的触摸轨迹,或校正该触摸轨迹并显示校正后的触摸轨迹。例如,显示单元220可以将触摸轨迹校正为平滑曲线,并显示校正后的触摸轨迹。
此时,显示单元220可以在预设显示区域内显示触摸轨迹。例如,显示单元220可以在屏幕右下区域的预设区域内显示该触摸轨迹,且不仅限于此。此外,显示区域可以实现为OSD或弹出型,且不仅限于此。
显示单元220可以用液晶显示器(LCD)、有机发光显示器(OLED)、等离子体显示面板(PDP)等来实现。
控制器230用于控制显示装置200的整体操作。控制器230可以包括配置为控制CPU和显示装置200的模块、配置为存储数据的ROM和RAM。
<触摸轨迹显示>
控制器230可以在屏幕预设区域内显示触摸轨迹。
具体地,控制器230可以基于从输入装置100或100’接收的坐标数据显示对应轨迹。
例如,控制器230可以基于所接收坐标数据,在屏幕上显示根据触摸操作的触摸轨迹,或校正该触摸轨迹并显示校正后的触摸轨迹。例如,控制器230可以将触摸轨迹校正为平滑曲线,并显示校正后的触摸轨迹。
当就在从输入装置100接收到与根据第一触摸操作的拖动轨迹相对应的坐标数据之后,接收到与根据第二触摸操作的拖动轨迹相对应的坐标数据时,控制器230可以显示拖动轨迹,使得将根据在前接收的坐标数据的拖动轨迹和根据在后接收的坐标数据的拖动轨迹相交叠。也就是说,控制器可以显示具有差异的拖动轨迹,该差异对应于根据拖动轨迹的触摸操作的输入时间差,且当该时间差非常短时,根据该触摸轨迹的视觉反馈可以交叠应用。一些情况下,在完成根据在前接收的坐标数据的视觉反馈之后,控制器230可以显示根据在后接收的坐标数据的视觉反馈。例如,当用户输入两位或更多位字符时,一旦从输入装置100输入了一个拖动轨迹,就可以输入另一拖动轨迹。此时,显示装置200可以在预设时间内接收根据两个拖动轨迹的坐标数据。
<字符识别>
控制器230基于通过通信单元210从输入装置100接收的坐标数据,识别与拖动轨迹相对应的数字或字符。备选地,控制器203可以校正所接收坐标数据,并基于校正后的坐标数据识别与拖动轨迹相对应的数字或字符。例如,控制器230可以从所接收坐标数据移除在预设容限之外的坐标数据等,并使用在预设容限之内的坐标数据识别数字或字符。这里,字符可以是用于人类通信的视觉符号系统,并可以用作包括全部约定文本(例如,图形、韩语、字母、中文字符、标点、符号等)的含义。为了清楚,下文将数字或字符共同称作字符,并进行描述。
具体地,控制器230可以通过多种字符识别方法,例如,图案匹配、结构分析、特征匹配和笔画分析,来识别对应于所接收坐标数据的字符。
例如,图案匹配配置为特征提取和图案匹配部分,特征提取分析预设字符数据,并提取字符数据的唯一特征(图案)。系统将识别目标图案定为标准图案,并将标准图案与输入图案进行比较(图案匹配),将最类似于标准图案的输入图案确定为识别结果值。
<根据字符识别结果的视觉反馈>
控制器230可以控制将视觉反馈提供给所显示拖动轨迹。
控制器230可以根据字符识别结果(也就是说,拖动轨迹的字符识别结果)提供不同类型的视觉反馈。一些情况下,控制器230可以与字符识别无关地提供视觉反馈。
具体地,在控制器230根据所显示拖动轨迹的字符识别结果改变所显示拖动轨迹的尺寸、形状、位置等,并显示改变后结果,控制器230可以将该拖动轨迹最终显示为预设字体形式。这里,预设字体意味着在显示装置200中预存的并在显示装置200中易辨认的书写风格。
作为一个示例,当将拖动轨迹识别为预设字符时,控制器230可以显示所显示拖动轨迹,与此同时控制器230逐渐缩小所显示拖动轨迹的尺寸,且最终显示形式可以是预设字体形式。因此,用户可以直接识别到是否将对应拖动轨迹识别为字符。
当将该拖动轨迹识别为预设字符时,控制器230可以显示该拖动轨迹,与此同时逐渐缩小所显示拖动轨迹并顺序地向一侧移动显示位置。例如,控制器230可以显示拖动轨迹,与此同时逐渐向上移动拖动轨迹的显示位置。最终,控制器230可以通过将该拖动轨迹改变为特定字体形式并将拖动轨迹显示为该字体形式,来表示将对应拖动轨迹正确识别为字符。这里,控制器230可以将首次显示拖动轨迹的时间点和最终以特定字体形式显示该拖动轨迹的时间点控制在预设时间内。对应时间间隔可以设为在制造产品时的默认设置,或可以由用户通过单独设置菜单直接改变并设置。例如,时间间隔可以是0.5到1秒,且不限于此。
作为另一示例,当没有将拖动轨迹识别为预设字符时,控制器230可以以令所显示拖动轨迹在经过特定时间之后分散消失或直接消失的形式提供图形效果。
作为另一示例,当没有将拖动轨迹识别为预设字符时,控制器230可以提供留下所显示拖动轨迹的残差图像的视觉反馈。因此,用户可以识别到没有将该拖动轨迹识别为字符。
作为另一示例,控制器230可以提供多种类型的反馈,其中根据字符识别结果改变所显示拖动轨迹的颜色或字符,或显示字符识别结果的消息。
也就是说,控制器230可以提供多种类型的视觉反馈,足以使用户识别字符识别结果。
然而,这仅是示例性的,且一些情况下,控制器230可以与字符识别结果无关地提供相同视觉反馈。例如,控制器230可以提供视觉反馈,其中令所显示拖动轨迹在经过预设时间之后分散消失或直接消失。此时,可以在单独区域以预设字体形式显示识别为字符的拖动轨迹,以便向用户反馈将该拖动轨迹识别为字符。
上述多种视觉反馈类型可以由用户直接设置,或可以实现为由用户在预存储的多种视觉反馈类型中进行改变。
一些情况下,控制器230可以在字符书写区域附加显示识别为字符的拖动轨迹,该字符书写区域不同于以预设字体形式显示拖动轨迹的区域,且可以不在字符书写区域显示没有将其识别为字符的拖动轨迹。因此,用户可以间接识别是否将拖动轨迹识别为字符。
在一些情况下,即使执行了字符识别,可以实现为当没有直接输入字符并存在来自输入装置100的预设反馈时输入对应字符。也就是说,控制器可以识别当从输入装置100输入例如“0(零)”等特定触摸轨迹时识别的字符,或当接收到根据输入装置100中设置的特定按钮输入的信号时识别的字符,作为用户所需字符,并完成字符输入。因此,即使当执行了字符识别,当所识别字符不是用户所需字符时,控制器230仍可以阻止输入所识别字符。
备选地,即使当执行了字符识别,可以实现为不直接输入而是在经过预设时间之后输入对应字符。此时,输入装置100可以实现为接收用于删除在预设时间过去之前识别的字符的操作。例如,当所识别字符不是用户所需字符时,输入装置100可以实现为接收用户的“X”或操作。
当控制器230在提供视觉反馈期间从输入装置100接收新坐标数据,与此同时基于当前所接收坐标数据执行字符识别时,控制器230可以允许交叠并提供两个坐标数据的视觉反馈。例如,在改变对应于每个坐标数据的拖动轨迹的视觉反馈中,可以交叠并显示该拖动轨迹。此时,首先顺序地改变并显示在前所显示拖动轨迹,并将在后显示的拖动轨迹延迟在输入、改变和消失拖动轨迹时之间的时间差。一些情况下,在完成在前所接受坐标数据的视觉反馈之后,控制器可以提供对在后所接收坐标数据的视觉反馈。
<根据所识别字符的功能性能>
当正常执行字符识别时,控制器230可以使用识别结果值来执行多种功能,例如,频道改变、音量调整、搜索词输入、字符输入、菜单执行、站点移动和特定模式进入。具体地,控制器230可以在自字符识别时间点过去了预设时间(例如,1到2秒)之后执行对应功能。这里,字符识别时间点可以是在上述示例中当以预设字体形式显示所显示拖动轨迹时的时间点,且不限于此。也就是说,控制器230可以在自用户能够识别到执行了字符识别时的时间点(也就是说,以预设字体形式显示该拖动轨迹时的时间点)过去了预设等待时间之后,执行对应功能。然而,这仅是示例性的,在另一示例实施例中,等待时间可以实现为通过对特定轨迹或特定按钮等的输入来将其强制移除,或实现为通过用户设置进行调整。
此时,控制器230可以基于在字符识别之前显示的屏幕信息、当前执行功能等,执行对应于所识别字符的功能。作为一个示例,当在屏幕上选择并显示特定广播频道的状态下识别到数字时,控制器230可以执行到对应于该数字的广播频道的频道改变。作为另一示例,当在接收到根据触摸轨迹的信号之前在屏幕上显示字符输入窗口(例如,社交网络服务器(SNS)屏幕)的状态下识别到字符时,控制器230可以向字符输入窗口输入所识别字符。作为另一示例,当在接收到根据触摸轨迹的信号之前在屏幕上显示包括将数字用作标识符的多个菜单项目的OSC菜单的状态下识别到数字时,控制器230可以执行对应于所识别数字的菜单项目。
备选地,控制器230可以基于在字符识别之前接收的预设信号,执行对应于所识别字符的功能。具体地,控制器230可以基于在接收到根据触摸轨迹的信号之前从输入装置100接收的信号,确定要执行的功能类型。例如,当在从输入装置100接收到对应于频道改变的信号之后识别到数字时,控制器230可以执行到对应于所识别数字的广播频道的频道改变。
当正常执行字符识别时,控制器230可以在预设时间过去之后执行对应功能。作为一个示例,当在选择并显示特定广播频道的状态下识别到特定数字时,控制器230可以在预设时间过去之后,将广播频道改变为对应于所识别数字的频道。
备选地,当在正常执行字符识别之后接收到预设确认信号时,控制器230可以执行对应功能。作为一个示例,当在选择并显示特定广播信号的状态下识别到数字“7”,并接收到用于确认字符识别的确认信号时,控制器230可以执行到对应于所识别数字“7”的广播频道的频道改变。
当在预设时间内连续识别到两个或更多字符时,控制器230可以将字符识别为字符集合,并执行对应功能。作为一个示例,当在选择并显示特定广播信号的状态下识别到数字“7”,并接着在预设时间内连续识别到数字“2”时,控制器230可以将数字识别为字符集合,并执行到对应于所识别数字“72”的广播频道的频道改变。图3B是示出了根据示例实施例的显示装置200’的配置的框图。参考图3B,显示装置200’包括通信单元210、显示单元220、控制器230、存储单元240、广播接收单元250、外部装置输入单元260、运动输入单元270、声音输入单元280和音频输出单元290。
将省略对与如图3A所示组件重复的图3B所示部分组件的详细描述。
控制器230可以包括RAM231、ROM232、主CPU233、图形处理器234、第一到第n接口235-1到235-n和总线236。
ROM231、RAM232、主CPU、图形处理器234、第一到第n接口235-1到235-n等可以通过总线236相互连接。
将第一到第n接口235-1到235-n连接到上述组件。接口之一可以是通过网络连接到外部装置的网络接口。
主CPU233访问存储单元240,并使用存储单元240中存储的操作系统(O/S)执行引导。主CPU233使用存储单元240中存储的多种程序、内容、数据等执行多种操作。
将用于系统引导等的命令集存储在ROM232中。当输入开启命令并供电时,主CPU233根据ROM232中存储的命令向RAM231拷贝存储单元240中存储的O/S,并执行该O/S以便引导该系统。当完成引导时,主CPU143可以向RAM231拷贝存储单元240中存储的多种应用程序,并执行向RAM231拷贝的应用程序,以便执行多种操作。
图形处理器234使用操作单元(未示出)和绘制(rendering)单元(未示出)产生包括多种对象(例如,图标、图像或文本)的屏幕。操作单元(未示出)计算属性值,例如,坐标值,其中根据屏幕布局、形状、尺寸和颜色显示对象。绘制单元(未示出)基于操作单元所计算的属性值,产生具有包括所述对象的多种布局的屏幕。在显示单元220的显示区域显示绘制单元中产生的屏幕。例如,图形处理器234可以基于从输入装置100或100’接收的坐标数据,产生包括拖动轨迹的用户界面(UI)屏幕。
存储单元240存储用于驱动显示装置200’的多种数据和程序。
具体地,存储单元240可以存储配置为执行字符识别的字符识别模块。具体地,存储单元240可以存储字符识别模块和软件,该字符识别模块包括用于字符识别的多种字符数据、多种数据,例如,字符数据的特征或字符数据的坐标数据,且该软件包括用于使用对应数据执行字符识别的算法等。
广播接收单元250以有线或无线方式从外部接收广播信号。广播信号包括视频、音频和附加数据(例如,电子节目指南(EPG))。广播接收单元250可以从多种源(例如,地面广播、有线广播、卫星广播或互联网广播)接收广播信号。
外部端子输入单元260从显示装置200外部接收视频数据(例如,运动图像画面等)、音频数据(例如,音乐等)等。外部端子输入单元260可以包括高清多媒体接口(HDMI)输入端子、分量输入端子、个人计算机(PC)输入端子或通用串行总线(USB)输入端子中的至少一个。
运动输入单元270可以接收成像了用户运动的视频信号(例如,连续帧),并向控制器230提供该视频信号。例如,运动输入单元270可以用配置有镜头和图像传感器的摄像机单元来实现。
声音输入单元280接收用户发出的声音。声音输入单元280将输入的声音信号转换为电信号并向控制器230输出该电信号。声音输入单元280可以用麦克风来实现。
运动输入单元270和声音输入单元280可以实现为集成在显示装置200’内或实现为与显示装置200’分离的形式。分离的运动输入单元270或声音输入单元280可以通过有线或无线网络连接到该显示装置200’。
此时,当从运动输入单元270和声音输入单元280输入用户运动或用户声音时,控制器230使用运动识别模块和存储单元240中存储的运动数据库,或使用声音识别模块和存储单元240中存储的声音数据库来识别运动或声音。
音频输出单元290在控制器230的控制下输出对应于广播信号的声音。音频输出单元290可以包括扬声器291、头戴式耳机输出端子292和Sonly/Philips数字接口(S/PDIF)输出端子293中的任何一个。
图4是示出了根据示例实施例的输入装置的示意图。
如图4所示,输入装置100可以包括配置为接收多种触摸操作的触摸板121和配置为接收其它多种用户命令的多个按钮141到147。
如图4所示,可以将触摸板121设置在输入装置100的中心区域,但不限于此。
可以将多个按钮141到147排列在触摸板121的两侧,但不限于此,多个按钮141到147的位置也可以根据触摸板121的位置而改变。
多个按钮141到147可以包括多种功能按钮,例如,电源按钮、频道上调/下调按钮、音量按钮和菜单按钮。
具体地,多个按钮141到147可以包括配置为将按钮输入模式改变为手写识别模式的模式改变按钮。具体地,通过对模式改变按钮的按压操作,输入装置100可以控制在显示装置200中显示轨迹显示窗口,或输入装置可以进入用于向显示装置200发送触摸板121上输入的触摸轨迹的手写识别模式。上文已描述了模式改变按钮,因此将不再进行赘述。然而,这仅是示例性地,可以不通过单独模式改变按钮而是通过输入预设触摸轨迹来执行手写识别模式。
图5A和5B是示出了根据示例实施例的显示方法的视图。
如图5A所示,当在输入装置100中设置的触摸板121上输入通过触摸和拖动进行的用户操作时,输入装置100计算对应于根据用户操作的拖动轨迹的坐标数据,并向显示装置200发送计算出的坐标数据。
在显示装置200中显示对应于所接收坐标数据的拖动轨迹511。此时,显示装置200可以基于所接收坐标数据显示拖动轨迹511,或将该拖动轨迹校正为平滑曲线形式,并显示校正后的拖动轨迹。
随后,显示装置200可以根据对所显示拖动轨迹511的字符识别结果,提供对所显示拖动轨迹511的多种视觉反馈。
例如,如图5A所示,当将拖动轨迹511识别为预设字符时,显示装置200可以显示拖动轨迹511或514,与此同时显示装置200逐渐缩小该拖动轨迹的尺寸并顺序地向上移动该拖动轨迹。此时,显示装置200可以在最终显示位置处以预设字体形式而不是以手写风格显示该拖动轨迹514。
如图5A所示,除了触摸板之外,输入装置100可以包括菜单按钮140。例如,输入装置可以包括电源按钮、上/下按钮等。
如图5B所示,当在输入装置100上输入连续触摸和拖动操作时,输入装置100可以计算对应于输入拖动轨迹的坐标数据,并向显示装置200发送计算出的坐标数据。此时,显示装置200可以显示对应于所接收坐标数据的拖动轨迹521。
随后,当将所显示拖动轨迹521识别为字符时,如图5A所示,显示装置200可以显示拖动轨迹521到524,与此同时显示装置200逐渐缩小该拖动轨迹的尺寸并顺序地向上移动拖动轨迹,并以预设字体形式将拖动轨迹524显示为图5A中输入的下一字符511。
图6A和6B是示出了根据另一示例实施例的显示方法的视图。
如图6A所示,当没有将对应于通过输入装置100中设置的触摸板121输入的拖动轨迹610的坐标数据识别为预设字符时,显示装置200可以以令所显示拖动轨迹610在预设时间过去之后令分散消失或直接消失的形式提供视觉反馈。
如图6A所示,显示拖动轨迹的区域620是屏幕上的预设部分区域,且可以以与其它区域不同的形式显示区域620。例如,可以以OSC形式显示区域620。
尽管图6A未示出,然而当没有将拖动轨迹识别为预设字符时,显示装置可以以留下所显示拖动轨迹的残差图像的形式提供视觉反馈,且在预设时问过去之后或就在显示残差图像时,令残差图像消失。
一些情况下,可以与字符识别无关地提供上述显示视觉反馈。
如图6B所示,显示装置可以以在预设时间过去之后或就在显示该拖动轨迹时令所显示拖动轨迹消失的形式提供视觉反馈,而与拖动轨迹的识别结果是否是预设字符无关。当将所显示拖动轨迹识别为字符时,可以以预设字体形式在分离的字符写入区域630中输入所识别字符。
此时,可以根据是否如图6B所示在分离度字符写入区域630中显示字符,来识别字符识别结果。
图7A至7C是示出了根据多种示例实施例的根据字符识别来执行功能的方法的视图。
图7A是示出了根据示例实施例的频道改变方法的视图。
如图7A所示,当在显示装置200选择预设广播频道并显示对应广播图像的状态下将通过输入装置100中设置的触摸板121输入的触摸轨迹识别为数字“2”,并将在预设时间内连续输入的拖动轨迹识别为数字“3”时,显示装置200可以执行到对应于所识别数字“23”的频道的频道改变。也就是说,显示装置200可以基于当前操作状态执行对应于所识别字符的功能。然而,这仅是示例性的,一些情况下,可以在通过输入装置100输入触摸轨迹之前,优先输入用于频道改变的用户命令(例如,对输入装置100的特定运动)。
图7B是示出了根据另一示例实施例的菜单执行方法的视图。
如图7B所示,当在显示装置200选择预设广播频道并显示对应广播图像的状态下将通过输入装置100中设置的触摸板121输入的触摸轨迹识别为字符“主页”720时,显示装置200可以显示对应于所识别字符的“主页”屏幕。也就是说,当没有显示特定字符输入窗口(例如,SNS输入屏幕)时,显示装置200可以执行对应于所识别字符“主页”的菜单。显示装置可以显示主页屏幕520。
图7C是示出了根据另一示例实施例的字符输入方法的视图。
如图7C所示,当在显示装置200中执行SNS输入屏幕的状态下将通过输入装置100中设置的触摸板121输入的触摸轨迹识别为字符“1i”时,显示装置200可以向SNS输入屏幕740输入所识别字符。
尽管图7C未示出,然而当在显示装置200操作在声音识别模式中的状态下将通过输入装置100中设置的触摸板121输入的触摸轨迹识别为字符“运动”时,显示装置200可以将字符“运动”识别为模式改变命令并将操作模式改变为运动识别模式。
可以基于所识别字符或数字执行其它多种功能,且可以基于显示装置200的当前操作状态或在上述拖动轨迹输入之前输入的功能类型来确定对应功能。
图8是示出了根据另一示例实施例的显示方法的视图。
如图8所示,当在输入装置100输入了根据第一触摸操作的拖动轨迹之后的预设时间(例如,紧在该输入之后)内输入了根据第二触摸操作的拖动轨迹时,显示装置200可以将对应于根据首先接收到的第一触摸操作坐标数据的视觉反馈和对应于根据在后接收到的第二触摸操作坐标数据的视觉反馈显示为交叠。
也就是说,如图8所示,在显示对应于拖动轨迹“2”的视觉反馈811到814的同时,可以显示对应于拖动轨迹“3”的视觉反馈821到824,使得视觉反馈821到824与视觉反馈811到814相交叠。
图9是示出了根据示例实施例的输入装置的控制方法的流程图。
根据如图9所示的输入装置的控制方法,输入装置感测触摸板上输入的触摸操作(S910)。
下一步,当拖动触摸板上触摸的位置时,输入装置100计算对应于拖动轨迹的坐标数据(S920)。
输入装置向显示装置发送计算出的坐标数据(S930)。
此时,在计算坐标数据的操作S920中,可以计算在预设时间内从做出第一触摸的点到完成触摸的点的坐标数据。例如,当在预设时间内输入多个拖动轨迹时,输入装置可以将多个拖动轨迹的坐标数据识别为一个字符或数字的坐标数据,并同时向显示装置发送该坐标数据。备选地,输入装置可以计算每个拖动轨迹的坐标数据,并向显示装置发送该坐标数据,而与是否在预设时间内输入了多个拖动轨迹无关。此时,显示装置可以基于接收到坐标数据的时间点,将多个拖动轨迹识别为一个字符或数字的拖动轨迹,并执行字符识别。
这里,输入装置可以是配置为远程控制显示装置的遥控装置。
一些情况下,输入装置可以基于计算出的坐标数据识别字符或数字,并向显示装置发送识别结果。示例实施例进行了详细描述,因此将不再进行赘述。
图10是示出了根据示例实施例的显示装置的控制方法的流程图。
根据如图10所示显示装置的控制方法,显示装置首先执行与输入装置的通信,并接收根据输入装置中设置的触摸板输入的拖动轨迹的坐标数据(Si0i0)。
下一步,显示装置基于所接收坐标数据在屏幕上显示拖动轨迹(S1020)。
显示装置基于所接收坐标数据识别对应于该拖动轨迹的字符或数字,并根据识别结果提供对所显示拖动轨迹的视觉反馈(S1030)。
具体地,在提供视觉反馈的操作S1030中,当将拖动轨迹识别为字符或数字时并且当没有将拖动轨迹识别为字符或数字时,显示装置可以提供不同视觉反馈。
具体地,在提供视觉反馈的操作S1030中,当将拖动轨迹识别为字符时,显示装置可以通过逐渐缩小所显示拖动轨迹并同时通过顺序地向一侧移动显示位置来显示该拖动轨迹。例如,显示装置可以通过向上移动拖动轨迹的位置来显示该拖动轨迹。
在提供视觉反馈的操作S1030,显示装置可以在最终位置处显示拖动轨迹,在该最终位置处以预设字体形式显示该拖动轨迹。
此外,在提供视觉反馈的操作S1030中,当没有将该拖动轨迹识别为字符时,显示装置可以以令所显示拖动轨迹分散消失的形式提供图形效果。
在上述示例实施例中,假定并描述了利用分离装置实现了输入装置和配置为显示输入结果的显示装置。在一些情况下,本发明构思的技术特征可以应用于集成实现输入装置和显示装置的示例。
根据上述发明构思,可以向用户提供一种针对通过触摸输入的手写的学习效果。例如,当通过触摸输入手写时,视觉反馈提供适合的延迟,因此可以自然地提供对逐一输入字符的方法的学习效果。此外,用户可以通过拖动轨迹显示和视觉反馈提供来识别从识别开始时间点到识别停止时间点的时间周期,因此用户可以自然地学习输入定时。
根据上述示例实施例的输入装置和显示装置的控制方法可以用程序来实现,并将其提供给输入装置和显示装置。
例如,可以提供存储程序的非暂时性计算机可读介质,其中所述程序用于当拖动触摸板上触摸的位置时执行根据拖动轨迹计算坐标数据的方法,并向显示装置发送计算出的坐标数据。
非暂时计算机可读存储介质可以是指配置为半永久性地存储数据的装置可读介质,而不是临时存储数据的介质(例如,寄存器、缓存器以及内存)。具体地,可以将上述多种应用或程序存储并提供在非暂时性装置可读介质中,例如,压缩盘(CD)、数字万能盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)存储棒、存储卡、ROM等。
上述示例实施例和优点仅是示例性的,且不应理解为限制本发明构思。可以轻松地将本示例实施例应用到其他类型设备。此外,示例实施例的描述旨在说明,而不是为了限制权利要求的范围,且本领域技术人员应清楚可以进行多种改变、修改和变化。

Claims (15)

1.一种显示装置,包括:
通信单元,配置为执行与输入装置的通信,并接收与通过输入装置中设置的触摸板输入的拖动轨迹相对应的坐标数据;
显示单元,配置为基于所接收坐标数据,在屏幕上显示所述拖动轨迹;以及
控制器,配置为基于所接收坐标数据识别与所述拖动轨迹相对应的数字或字符,并根据识别结果提供对所显示拖动轨迹的视觉反馈。
2.根据权利要求1所述的显示装置,其中当将拖动轨迹识别为字符或数字时以及当没有将拖动轨迹识别为字符或数字时,所述控制器提供不同视觉反馈。
3.根据权利要求2所述的显示装置,其中当将拖动轨迹识别为字符或数字时,所述控制器显示所述拖动轨迹,与此同时,所述控制器逐渐缩小所显示拖动轨迹并同时顺序地向一侧移动所述拖动轨迹的显示位置。
4.根据权利要求3所述的显示装置,其中所述控制器在最终位置处显示拖动轨迹,其中在所述最终位置处以预设字体形式显示拖动轨迹。
5.根据权利要求2所述的显示装置,其中当没有将拖动轨迹识别为字符或数字时,所述控制器以令所显示拖动轨迹逐渐分散消失的形式提供图形效果。
6.根据权利要求1所述的显示装置,其中当将拖动轨迹识别为字符或数字时,所述控制器基于所识别字符或数字执行预设功能。
7.根据权利要求6所述的显示装置,其中所述预设功能包括频道改变、字符输入、菜单执行、模式改变和音量调整中的至少一个。
8.一种输入装置,包括:
通信单元,配置为执行与显示装置的通信;
感测单元,配置为感测触摸板上输入的触摸操作;以及
控制器,配置为当拖动触摸板上触摸的位置时,计算对应于拖动轨迹的坐标数据,并控制将计算出的坐标数据发送给显示装置。
9.根据权利要求8所述的输入装置,其中所述控制器计算对应于预设时间内从做出第一触摸的点到完成触摸的点的拖动轨迹的坐标数据。
10.根据权利要求8所述的输入装置,其中所述输入装置是遥控装置,配置为对显示装置进行遥控。
11.一种控制显示装置的方法,所述方法包括:
执行与输入装置的通信,并接收与输入装置中设置的触摸板输入的拖动轨迹相对应的坐标数据;
基于所接收坐标数据在屏幕上显示所述拖动轨迹;以及
基于所接收坐标数据识别对应于拖动轨迹的字符或数字,并根据识别结果提供对所显示拖动轨迹的视觉反馈。
12.根据权利要求11所述的方法,其中提供视觉反馈包括:当将拖动轨迹识别为字符或数字时以及当没有将拖动轨迹识别为字符或数字时,提供不同视觉反馈。
13.根据权利要求12所述的方法,其中当将拖动轨迹识别为字符或数字时,提供视觉反馈包括:显示所述拖动轨迹,与此同时,逐渐缩小所显示拖动轨迹并同时顺序地向一侧移动显示位置。
14.根据权利要求13所述的方法,其中所述提供视觉反馈包括在最终位置处显示拖动轨迹,其中在所述最终位置处以预设字体形式显示拖动轨迹。
15.一种控制与显示装置执行通信的输入装置的方法,所述方法包括:
感测触摸板上输入的触摸操作;
当拖动触摸板上触摸的位置时,计算对应于拖动轨迹的坐标数据;以及
将计算出的坐标数据发送给显示装置。
CN201410080781.XA 2013-03-07 2014-03-06 输入装置、显示装置及其控制方法 Pending CN104035709A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0024549 2013-03-07
KR1020130024549A KR20140110356A (ko) 2013-03-07 2013-03-07 입력 장치, 디스플레이 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
CN104035709A true CN104035709A (zh) 2014-09-10

Family

ID=50287865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410080781.XA Pending CN104035709A (zh) 2013-03-07 2014-03-06 输入装置、显示装置及其控制方法

Country Status (5)

Country Link
US (1) US9374547B2 (zh)
EP (1) EP2775389A3 (zh)
KR (1) KR20140110356A (zh)
CN (1) CN104035709A (zh)
WO (1) WO2014137176A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111108468A (zh) * 2017-06-02 2020-05-05 三星电子株式会社 基于滑动输入来确定输入字符的系统和方法
CN112650409A (zh) * 2019-10-09 2021-04-13 联咏科技股份有限公司 触摸驱动装置和触摸移动轨迹识别方法
WO2021164756A1 (zh) * 2020-02-20 2021-08-26 深圳市万普拉斯科技有限公司 用于智能电视的输入方法、装置、计算机设备和存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150018127A (ko) 2013-08-09 2015-02-23 삼성전자주식회사 디스플레이 장치 및 그 방법
US10747426B2 (en) * 2014-09-01 2020-08-18 Typyn, Inc. Software for keyboard-less typing based upon gestures
US20170195736A1 (en) * 2015-12-31 2017-07-06 Opentv, Inc. Systems and methods for enabling transitions between items of content
KR102655584B1 (ko) * 2017-01-02 2024-04-08 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
CN109992123A (zh) * 2018-01-02 2019-07-09 北京搜狗科技发展有限公司 输入方法、装置和机器可读介质
CN114201079B (zh) * 2021-12-06 2023-09-22 苏州长风航空电子有限公司 红外触摸屏的可靠性验证方法和验证系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080111710A1 (en) * 2006-11-09 2008-05-15 Marc Boillot Method and Device to Control Touchless Recognition
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
CN102460367A (zh) * 2009-05-01 2012-05-16 苹果公司 定向触摸遥控器

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02188818A (ja) * 1989-01-18 1990-07-24 Hitachi Ltd 手書き入出力装置並びにこの手書き入出力装置を用いた手書き入力システム
US5272470A (en) * 1991-10-10 1993-12-21 International Business Machines Corporation Apparatus and method for reducing system overhead while inking strokes in a finger or stylus-based input device of a data processing system
US5943044A (en) * 1996-08-05 1999-08-24 Interlink Electronics Force sensing semiconductive touchpad
WO2001015437A1 (en) * 1999-08-25 2001-03-01 Microsoft Corporation System and method for entry of complex characters into a television-based web browser
US7120275B2 (en) * 2003-01-16 2006-10-10 Microsoft Corporation Ink recognition for use in character-based applications
KR20090074656A (ko) 2008-01-02 2009-07-07 주식회사 대우일렉트로닉스 터치스크린이 내장된 리모컨을 이용한 tv의 제어방법
US20100169842A1 (en) * 2008-12-31 2010-07-01 Microsoft Corporation Control Function Gestures
WO2010095769A1 (ko) * 2009-02-23 2010-08-26 Kwak Hee Soo 터치센서를 이용한 문자입력장치
JP5487208B2 (ja) * 2009-08-27 2014-05-07 株式会社東芝 情報検索装置
US10430871B2 (en) * 2010-05-21 2019-10-01 Ncr Corporation Self-service terminal
KR20110138914A (ko) * 2010-06-22 2011-12-28 삼성전자주식회사 사용자 입력장치, 이를 포함하는 디스플레이장치 및 그 제어방법
KR20120012115A (ko) 2010-07-30 2012-02-09 삼성전자주식회사 유저 인터페이스 제공방법 및 이를 적용한 디스플레이 장치
KR101836403B1 (ko) * 2011-04-12 2018-04-19 엘지전자 주식회사 디스플레이 장치의 리모콘 기능을 수행하는 이동 단말기
US9001208B2 (en) 2011-06-17 2015-04-07 Primax Electronics Ltd. Imaging sensor based multi-dimensional remote controller with multiple input mode

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080111710A1 (en) * 2006-11-09 2008-05-15 Marc Boillot Method and Device to Control Touchless Recognition
CN102460367A (zh) * 2009-05-01 2012-05-16 苹果公司 定向触摸遥控器
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111108468A (zh) * 2017-06-02 2020-05-05 三星电子株式会社 基于滑动输入来确定输入字符的系统和方法
CN112650409A (zh) * 2019-10-09 2021-04-13 联咏科技股份有限公司 触摸驱动装置和触摸移动轨迹识别方法
CN112650409B (zh) * 2019-10-09 2024-04-12 联咏科技股份有限公司 触摸驱动装置和触摸移动轨迹识别方法
WO2021164756A1 (zh) * 2020-02-20 2021-08-26 深圳市万普拉斯科技有限公司 用于智能电视的输入方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
WO2014137176A1 (en) 2014-09-12
US9374547B2 (en) 2016-06-21
KR20140110356A (ko) 2014-09-17
EP2775389A2 (en) 2014-09-10
EP2775389A3 (en) 2016-04-20
US20140253815A1 (en) 2014-09-11

Similar Documents

Publication Publication Date Title
CN104035709A (zh) 输入装置、显示装置及其控制方法
CN104704453B (zh) 在触敏输入面板上使用形状书写来进行文本输入
CN104704451B (zh) 提供用于定位和数据输入的触觉反馈
CN105164616B (zh) 用于输出候选字符串的方法、计算设备及存储介质
US10268370B2 (en) Character input device and character input method with a plurality of keypads
CN104020943B (zh) 字符串替换
US20140139440A1 (en) Touch operation processing method and device
US20140198036A1 (en) Method for controlling a portable apparatus including a flexible display and the portable apparatus
JP6902234B2 (ja) 文字列に文字を挿入するための方法および対応するデジタルデバイス
US20130085743A1 (en) Method and apparatus for providing user interface in portable device
CN103813209A (zh) 用于显示用户输入的操作状态的显示装置和控制方法
KR20150068330A (ko) 터치 입력의 압력 상태에 따라 동작하는 전자 장치 및 그 방법
CN109614846A (zh) 管理实时手写识别
CN108121457A (zh) 提供字符输入界面的方法和设备
US10466862B2 (en) Input device, electronic apparatus for receiving signal from input device and controlling method thereof
CN103150093B (zh) 一种操作提示标识符移动的方法、装置及终端
EP2770443A2 (en) Method and apparatus for making contents through writing input on touch screen
CN107077296A (zh) 用户终端设备和用于控制用户终端设备的方法
EP3493039A1 (en) Electronic apparatus, control method thereof, and computer readable recording medium
CN104007925A (zh) 用于通过触摸屏上的书写输入产生内容的方法和设备
CN103425425A (zh) 手写输入选字系统及方法
CN103631434B (zh) 具有使用多点触摸的手写功能的移动设备及其控制方法
KR102350382B1 (ko) 디스플레이장치 및 그 제어방법
JP5977764B2 (ja) 拡張キーを利用した情報入力システム及び情報入力方法
KR20180103547A (ko) 휴대 장치 및 휴대 장치의 화면 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20190326

AD01 Patent right deemed abandoned