CN105988601A - 输入装置、显示装置及其控制方法 - Google Patents

输入装置、显示装置及其控制方法 Download PDF

Info

Publication number
CN105988601A
CN105988601A CN201610157002.0A CN201610157002A CN105988601A CN 105988601 A CN105988601 A CN 105988601A CN 201610157002 A CN201610157002 A CN 201610157002A CN 105988601 A CN105988601 A CN 105988601A
Authority
CN
China
Prior art keywords
input unit
user
input
display device
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610157002.0A
Other languages
English (en)
Inventor
赵恩林
林宇烈
张星国
车咏基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105988601A publication Critical patent/CN105988601A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03541Mouse/trackball convertible devices, in which the same ball is used to track the 2D relative movement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42225User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details characterized by types of remote control, e.g. universal remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

公开了输入装置、显示装置及其控制方法。用于显示装置的输入装置包括:输入设备,配置成接收用户输入;通信电路,配置成与显示装置通信;驱动器,配置成提供驱动力以驱使输入装置运动;以及至少一个处理器,配置成响应于预设事件控制驱动器使输入装置运动至与用户位置对应的预设位置,以使用户可拿取和使用输入装置。因此,可运动的输入装置通过自身到达用户并提供用户友好的交互,从而提高用户的便捷性。

Description

输入装置、显示装置及其控制方法
技术领域
本公开的装置和方法大体涉及输入装置、显示装置及其控制方法,例如涉及使用可运动的输入装置接收用户输入并显示与输入装置对应的用户界面的输入装置、显示装置及其控制方法。
背景技术
显示系统是这样的系统,其基于从外部接收的或自身生成的图像信号显示图像,并包括以显示装置为中心的与功能对应地进行分类的多个装置,其中,显示装置设有显示面板以显示图像。在显示系统中,各种装置可根据要实现的功能进行组合。例如,显示系统可包括显示装置和用于向显示装置发布各种命令的输入装置。
该输入装置可通过用于电视(TV)或类似显示装置的遥控器来实现。用户可操作设在遥控器上的各种按钮、触摸传感器等,从而控制显示装置的操作。
诸如遥控器的输入装置大多是小型的并与诸如电视的主体分隔开,并且可置于房间中的任何地方。因此,当用户需要观看电视等时通常很难找到输入装置,这对于用户而言较为不便。
另外,为了符合需要强调与用户通信的人机交互设备的当前趋势,在显示系统中,对于顺畅通信,即装置和用户之间的交互的需求日益增加。
发明内容
根据示例性实施方式的一方面,提供了一种用于显示装置的输入装置,包括:输入设备,配置成接收用户的输入;通信电路,配置成与显示装置通信;例如包括电机的驱动器,配置成施加驱动力从而驱使输入装置运动;以及至少一个处理器,配置成响应于预设事件控制驱动器,使输入装置运动至与用户的位置对应的预设位置,以使得用户可拿取和使用输入装置。因此,输入装置到达用户,无需寻找遥控器,从而改善了用户的满意度和便捷性。
输入装置可具有球形形状,由驱动器驱动以朝向预设位置滚动。由于输入装置的形状设计成类似适于滚动的球形,因此,输入装置可顺畅地运动至期望位置同时经过不平整地板并越过较小的突出部等。
预设事件可包括以下中的一个或多个:对设置在显示装置中的用户输入设备的用户操作、使用与显示装置和输入装置中的至少一个配对的另一终端装置的用户输入、用户的语音、用户的运动和位于显示装置前方的用户。因此,输入装置以多种方式开始运动,便于用户拿取和使用输入装置。
预设位置可包括相距显示装置的前部第一距离的第一位置、以及相距第一位置第二距离的第二位置。因此,两步式运动可使其能够运动至更精确的位置。
如果在预设位置中输入装置没有被用户拾取或者没有感测到障碍物,则至少一个处理器可配置成控制驱动器使输入装置从预设位置运动第三距离而到达第三位置。因此,即使先前运动到的位置和用户的实际位置之间存在差异,也可使输入装置再次运动至实际位置。
输入装置还可包括存储与预设位置对应的值的存储器,其中,至少一个处理器用与输入装置被用户拾取或感测到障碍物的位置对应的值来更新所存储的值。因此,可对用户的位置进行学习并通过更新后的信息提高用户的满意度。
用户输入设备包括用于感测用户的触摸输入的至少一个触摸传感器。因此,用户的操作能以触摸输入为基础。
触摸传感器可包括:第一区域,配置成感测由第一手指的触摸而引起的压力或运动;以及第二区域,配置成感测由第二手指的触摸而引起的压力或运动,,第一区域和第二区域分别定位成当球形的输入装置被保持在一只手中时与第一手指和第二手指对应。由于输入装置设计成适于用户的身体(即保持输入装置的手),因此输入装置便于用户进行操作。
至少一个处理器可配置成控制通信电路:响应于对第一区域的划动操作,向显示装置传输与频道变更和音量控制中的一个对应的命令;响应于对第二区域的划动操作,向显示装置传输与频道变更和音量控制中的另一个对应的命令。因此,“翻阅(flick through)”与频道切换对应,用户可直观地操作。
用户输入设备可包括至少部分地暴露于输入装置外部的多个箭头键和轨迹球。因此,允许各种用户输入。
输入装置还可包括配置成与输入装置的操作对应地进行操作的输出电路,其中,输出电路包括振动器、发光二极管和声音输出单元中的至少一个。因此,用户可容易地识别输入装置的操作状态。
输入装置还可包括传感器,该传感器包括以下中的一个或多个:指纹传感器、心跳传感器、温度/湿度传感器、振动传感器、重力传感器、陀螺仪传感器、地磁传感器、加速度传感器和方向传感器。通信电路配置成向显示装置以及与显示装置和输入装置中的至少一个配对的另一终端装置中的一个或多个传输由传感器感测的值,从而使得可基于被传输的值执行指纹识别、心率检查、运动量检查、温度和湿度检查以及睡眠时间检查中的一个或多个。因此,具有传感器的输入装置可在诸如用户认证、健康护理等各种领域中使用。
根据示例性实施方式的一方面,提供了一种显示装置,包括:显示器,配置成显示图像;通信电路,配置成与可运动的输入装置通信;以及至少一个处理器,配置成响应于对输入装置的用户输入而识别使用输入装置的至少一个用户,并配置成控制显示器显示与输入装置和所识别的用户对应的用户接口。因此,用户可感知与输入装置的直接通信,从而提高用户和输入装置之间的友好性或亲切感。
用户接口可包括配置成向用户提供至少一个服务的虚拟角色图标。因此,用户可对角色图标和输入装置更具有友好性或亲切感,并与输入装置联系起来。
角色图标可包括多个角色图标,该多个角色图标分别向多个用户提供定制服务。因此,用户可向角色图标附加信息并不同地使用角色图标,可利用角色图标实现用户之间的竞赛。
显示器可显示广播内容,至少一个处理器可通过角色图标提供与所显示的广播内容有关的信息。因此,用户不会厌烦,传送效果更好。
用户可通过角色图标参与任务,至少一个处理器可响应于任务中的参与而提高角色图标的级别。因此,用户可对使用角色图标产生兴趣。
角色图标可以是可购买的,至少一个处理器可响应于购买角色图标而提高角色图标的级别。因此,可通过内容的销售创造新的利润。
通信电路可配置成和与显示装置和输入装置中的至少一个配对的不同装置通信,至少一个处理器可配置成响应于对输入装置的用户输入,控制显示器显示用于控制不同装置的功能屏幕,并且控制通信电路传输用于控制不同装置的命令。因此,输入装置和显示装置可用于控制包括在智能家居系统中的另一装置。
根据示例性实施方式的一方面,提供了一种控制与显示装置通信的输入装置的方法,该方法包括:接收预设事件;以及响应于预设事件使输入装置运动至与用户的位置对应的预设位置,以使得用户可拿取和使用输入装置。因此,输入装置到达用户且无需寻找遥控器,从而改善了用户的满意度和便捷性。
输入装置可具有球形形状并包括用于提供驱动力的驱动器,使输入装置运动至预设位置可包括通过驱动器驱使输入装置朝向预设位置滚动。由于输入装置的形状设计成类似适于滚动的球形,因此,输入装置顺畅地运动至期望位置同时经过不平整的地板并越过较小的突出部等。
预设事件可包括以下中的一个或多个:对设置在显示装置中的用户输入设备的一个或多个用户操作、使用与显示装置和输入装置中的至少一个配对的另一终端装置的用户输入、用户的语音、用户的运动以及位于显示装置前方的用户。因此,输入装置以多种方式开始运动,便于用户拿取和使用输入装置。
预设位置可包括相距显示装置的前部第一距离的第一位置、以及相距第一位置第二距离的第二位置。因此,两步式运动可使其能够运动至更精确的位置。
该方法还可包括:如果在预设位置中输入装置没有被用户拾取或没有感测到障碍物,则使输入装置从预设位置运动第三距离到达第三位置。因此,即使先前运动到的位置和用户的实际位置之间存在差异,也可使输入装置再次运动至实际位置。
该方法还可包括:存储与预设位置对应的值;以及用与输入装置被用户拾取或感测到障碍物的位置对应的值来更新所存储的值。因此,可对用户的位置进行,并通过更新后的信息提高用户的满意度。
用户输入装置可包括用于感测用户的触摸输入的至少一个触摸传感器。因此,用户的操作能以触摸输入为基础。
触摸传感器可包括:第一区域,配置成感测由第一手指的触摸而引起的压力或运动;以及第二区域,配置成感测由第二手指的触摸而引起的压力或运动,第一区域和第二区域分别定位成当球形的输入装置被保持在一只手中时与第一手指和第二手指对应。由于输入装置设计成适于用户的身体(即保持输入装置的手),因此输入装置便于用户进行操作。
该方法还可包括:响应于对第一区域的划动操作,向显示装置传输与频道变更和音量控制中的一个对应的命令;以及响应于对第二区域的划动操作,向显示装置传输与频道变更和音量控制中的另一个对应的命令。因此,“翻阅”与频道切换对应,用户可直观地操作。
根据示例性实施方式的一方面,提供了一种控制显示装置的方法,该方法包括:接收对可运动的输入装置的用户输入;响应于所接收的用户输入,识别使用输入装置的至少一个用户;以及显示与输入装置和所识别的用户对应的用户接口。因此,用户可感知与输入装置的直接通信,从而提高用户和输入装置之间的友好性或亲切感。
用户接口可包括配置成向用户提供至少一个服务的虚拟角色图标。因此,用户可通过各种应用与输入装置联系起来。
角色图标可包括多个角色图标,该多个角色图标可分别向多个用户提供定制服务。因此,用户可向角色图标附加信息并不同地使用角色图标,可利用角色图标实现用户之间的竞赛。
该方法还可包括:在显示装置中显示广播内容;以及通过角色图标提供与所显示的广播内容有关的信息。因此,用户不会厌烦,传送效果变得更好。
该方法还可包括通过角色图标参与任务,以及响应于参与任务而提高角色图标的等级。因此,用户可能对使用角色图标产生兴趣。
该方法还可包括购买角色图标、以及响应于购买角色图标而提高角色图标的级别。因此,可通过内容的销售创造新的利润。
附图说明
通过结合附图的以下详细说明,上述方面和/或其它方面将变得显而易见并更易于理解。附图中,相同的参考标记表示相同的元件,并且附图中:
图1是示出了显示系统的示例的图;
图2是示出了示例性显示系统的框图;
图3是示例性输入装置的立体图;
图4至图6是示出了使用图3的输入装置的示例性用户输入的视图;
图7是从顶部观察的示例性输入装置的平面图,其为示出了由触摸传感器感测的示例性用户输入的视图;
图8是示出了示例性显示系统的框图;
图9是示出了示例性输入装置的立体图;
图10是从顶部观察的图9的示例性输入装置的平面图;
图11和图12是图9的示例性输入装置的剖视图;
图13是示出了示例性输入装置的立体图;
图14至图16是示出了输入装置的示例性运动的图;
图17至图19是示出了对输入装置进行充电的示例性方法的图;
图20和图21是示出了输入装置指示其操作状态的示例的图;
图22至图25和图27至图37是示出了显示于显示装置的显示器上的示例性图像的图;
图26是示出了显示于传统显示装置的显示器上的示例性图像的图;
图38至图43是示出了显示于显示装置的显示器上的示例性屏幕的图;
图44是示出了显示系统的示例性控制方法的流程图;以及
图45和图46是示出了使用输入装置的示例的图。
具体实施方式
下面,将参照附图更详细地描述示例性实施方式。
图1是示出了显示系统的示例的图。
如图1所示,根据示例性实施方式的显示系统1包括显示装置100和输入装置200,其中,显示装置100根据预设的过程处理图像信号并基于处理后的图像信号显示图像;输入装置200生成预先设定成用于远程地控制显示装置100的命令/数据/信息/信号,并向显示装置100传输所生成的命令/数据/信息/信号。
该示例涉及显示系统1,其中,显示装置100例如可以是基于从广播站的发射机接收的广播信号/广播信息/广播数据而显示广播图像的电视(TV),输入装置200可以是遥控器。然而,可在显示装置100上显示的图像的种类不局限于广播图像。例如,显示装置100可显示动态图像、静止图像、应用、屏幕显示(OSD)、基于从各类图像源(未示出)接收的信号/数据控制各操作等的用户界面(UI,或者也被称为“图形用户界面(GUI)”)。
根据该示例性实施方式,显示装置100例如可通过智能电视或网际协议(IP)电视等来实现。智能电视能够实时接收和显示广播信号,智能电视具有网页浏览功能,从而在实时显示广播信号时通过因特网搜索和购买各种内容,因此提供便利的用户环境。另外,智能电视可具有开放的软件平台从而向用户提供交互服务。因此,智能电视可通过开放的软件平台为用户提供各种内容,例如与预定服务对应的应用。这些应用表示用于提供各种服务的应用程序,例如,社交网络服务(SNS)、金融、新闻、天气、地图、音乐、电影、游戏、电子图书等。
本公开可应用于另一显示系统,在该显示系统中,显示装置为连接至计算机的监视器且输入装置为用于与计算机通信的系统。
输入装置200例如可以是能够与显示装置100无线通信的外部装置,无线通信例如可包括蓝牙、射频(RF)、Zigbee、红外通信等。当输入装置200被用户操作时,输入装置200可向显示装置100传输预设的命令。
例如,如图1所示,该示例中的输入装置200可具有与球类似的球形形状,并可利用内部驱动器(参见图2的270)进行旋转和运动。
图1和以下示例示出了输入装置200具有球形形状,但是这些实施方式不局限于具有近似球形形状的输入装置200。例如,输入装置200可具有椭圆截面或者可安装有轮或类似的运动装置。
例如,下面要描述的以下示例仅仅是分别可适于根据这些类型的系统的示例,但是并不限制本公开。
该示例中的输入装置200可不受限制地由硅橡胶或类似的弹性材料制成。表面(即输入装置200的外周)是粗糙的,从而在输入装置200滚动时增加摩擦。可替代地,可对外周进行图案化以增加摩擦。
该示例中的输入装置200包括作为用户输入设备接收用户触摸输入的触摸传感器210。因此,显示装置100可被控制成响应于与从输入装置200接收的用户触摸输入有关的信息而在显示器130上显示图像。
除触摸传感器210之外,该示例中的输入装置200还可包括运动传感器(未示出)和按钮输入单元(未示出),运动传感器用于感测由用户引起的输入装置200自身的运动,按钮输入单元具有数字键、菜单键和类似按钮。运动传感器例如可包括陀螺仪传感器、角速度传感器和地磁传感器。运动传感器和按钮输入单元可包括在用户输入设备中。
下面将参照图8至图13,更加详细地描述输入装置200具有按钮输入单元的示例。
下面将参照图2描述根据该示例的显示装置100和输入装置200。图2是示出了示例性显示系统1的框图。
如图2所示,显示装置100例如可包括:用于接收图像信号的图像接收器(例如,包括接收器电路)110;配置成处理从图像接收器110接收的图像信号的图像处理器(例如,包括处理电路)120;基于通过图像处理器120处理的图像信号显示图像的显示器(例如,包括显示面板和用于驱动显示器的电路)130;用于与外部通信的第一通信器(例如,包括通信电路)140;用于存储数据的第一存储器(例如,存储器)150;以及配置成控制显示装置100的第一控制器160。
输入装置200例如包括:用于接收用户触摸输入的触摸传感器210;用于与外部通信的第二通信器(例如,包括通信电路)240;用于存储数据的第二存储器(例如,存储器)250;配置成控制第二通信器240基于触摸传感器210的感测结果向显示装置100传输对应命令的第二控制器260;以及用于提供驱动力以驱使输入装置200运动的驱动器270。可替代地,可不包括第二存储器250。
下面将更加详细地描述显示装置100。
图像接收器110接收图像信号并向图像处理器120传输图像信号。图像接收器110可基于所接收的图像信号的格式和显示装置100的类型而不同地实现。例如,图像接收器110可从广播站(未示出)无线地接收射频(RF)信号,或者可通过线缆接收组合视频、分量视频、超级视频、SCART、高清晰度多媒体接口(HDMI)标准的图像信号。图像接收器110可包括调谐器,如果图像信号是广播信号则该调谐器将被调谐至与广播信号对应的频道。
另外,可从外部装置接收图像信号。例如,可从个人计算机(PC)、音频/视频(AV)系统、智能电话、智能平板或类似的外部装置输出图像信号。此外,图像信号能以通过因特网或类似网络接收的数据为基础。在该示例中,显示装置100可通过第一通信器140执行网络通信,或者还可包括单独的网络通信器。图像信号能以存储在第一存储器150中的数据为基础,第一存储器150可以是非易失性的,例如闪速存储器、硬盘驱动器等。第一存储器150可设置在显示装置100的内部或外部。如果第一存储器150置于显示装置100的外部,则连接器(未示出)可附加地设置成与第一存储器150连接。
图像处理器120可配置成执行参照图像信号预先设定的各种图像处理过程。图像处理器120向显示器130输出处理后的图像信号,从而在显示器130上显示图像。
对于由图像处理器120执行的图像处理过程的类型不存在限制。例如,图像处理过程可包括与各图像格式对应地进行解码、反交错、帧刷新率转换、缩放、降噪以提高图像质量、细节放大、行扫描等。图像处理器120可通过用于独立执行多个处理中的每一个的单个组合(例如,各种处理电路,例如CPU、GPU等)来实现,或者可通过集成与该处理对应的各功能的片上系统(SoC)来实现。
显示器130基于由图像处理器120处理的图像信号显示图像。显示器130的类型不存在限制。例如,显示器130可通过液晶、等离子体、发光二极管(LED)、有机发光二极管(OLED)、表面传导电子发射器、碳纳米管(CNT)、纳米晶体等各种显示器来实现。
显示器130基于其类型可包括附加的元件。例如,如果显示器130通过液晶显示器来实现,则显示器包括液晶显示器(LCD)面板(未示出)、用于向LCD面板发射光的背光单元(未示出)、以及用于驱动面板(未示出)的面板驱动器(未示出)。
在该示例中,显示器130可显示包括显示装置100的菜单项的用户界面(UI)。当用户观察显示于显示器130上的菜单项时可操作触摸传感器210。另外,显示器130可显示包括与通过输入装置200选定的菜单项对应的网页页面的各种内容。
该示例中的显示装置100可在显示器130上显示虚拟角色图标,从而作为用户接口向用户提供至少一个服务。用户可通过输入装置200与显示在显示器130上的角色图标交互。显示装置200可通过角色图标向用户提供各种个性化服务。
第一通信器140向图像处理器120传输来自输入装置200的命令/数据/信息/信号。另外,第一通信器140可向输入装置200传输来自第一控制器160的命令/数据/信息/信号。
在该示例中,第一通信器140可接收与坐标中至少一个值的变更对应的命令,所述坐标例如为于输入装置200的触摸传感器210的触摸输入有关的X坐标和Y坐标。
第一通信器140例如可使用无线通信在显示装置100和输入装置200之间进行通信。无线通信例如可使用蓝牙、射频(RF)、Zigbee、红外线等通信方式。
根据该示例,第一通信器140设置在显示装置100的内部,但不局限于此。可替代地,第一通信器140可设置成软件保护器(dongle)或模块的形式,可拆卸地联接至显示装置100的连接器(未示出)。
第一存储器150在第一控制器160的控制下存储数据,数据的类型不受限制。第一存储器150例如可通过闪速存储器、硬盘驱动器等非易失性存储介质来实现。第一控制器160存取第一存储器150,从而第一控制器160执行数据的读取/记录/修改/删除/更新等。
存储在第一存储器150中的数据例如不仅可包括用于操作显示装置100的操作系统,还可包括在操作系统下运行的各种应用、图像数据、附加数据等。
与显示于显示器130上的图像同步,该示例中的第一存储器150还可存储与由于输入装置200中的触摸传感器210的第一区域和第二区域(例如,参见图3至图7中的211和212)上的触摸输入而引起的坐标值的变化(增大或减小)有关的信息。
例如,操作信息可设定和存储成响应于第一区域211上的X坐标和Y坐标中至少一个坐标值的增大或减小而向上或向下改变频道,以及响应于第二区域212上的X坐标和Y坐标中至少一个坐标值的增大或减小而向上或向下调节音量。
如果显示器130上显示网页页面,则操作信息可设定和存储成使网页页面:响应于第一区域211上的X坐标和Y坐标中至少一个坐标值的增大或减小而向前一页面或下一页面移动;以及响应于第二区域212上的X坐标和Y坐标中至少一个坐标值的增大或减小而向上或向下移动网页。
如果显示器130上显示用于显示装置100的设置菜单,则操作信息可:响应于第二区域212上的X坐标和Y坐标中至少一个坐标值的增大或减小,设定和存储成使指示设置菜单中当前选定的菜单的焦点或指针向上或向下移动;以及响应于第一区域211上的X坐标和Y坐标中至少一个坐标值的增大或减小,使焦点或指针向左或向右移动。
在该示例中,与显示器130上各屏幕有关的操作信息可进行制表并存储在第一存储器150中,并且可由用户对设置进行更改。
第一控制器160可配置成控制显示装置100的各种元件。例如,第一控制器160可配置成控制图像处理器120执行图像处理过程,并执行与从输入装置200接收的命令对应的控制,从而控制显示装置100的整体操作。
第一控制器160包括至少一个处理器。至少一个处理器将来自非易失性存储器(例如,ROM)的程序加载到易失性存储器(例如,RAM)中。
该示例中的第一控制器160可通过至少一个通用处理器来实现,诸如中央处理器(CPU)、应用处理器(AP)、微型计算机(MICOM)等,例如通过存储在ROM中的预定算法运行加载到RAM中的程序,从而执行显示装置100的各种操作。
显示装置100的第一控制器160可通过例如CPU的单个处理器来实现,CPU可设置成实现可在显示装置100中实施的各种功能:例如,控制各种图像处理过程,诸如解码、解调、缩放等;应答从包括遥控器的输入装置200接收的命令;提供对用于与外部装置通信的有线/无线网络的控制;语音识别;使用相机和麦克风进行视频呼叫等。
第一控制器160可包括:用于实现显示装置100中支持的某一功能(例如用于在节电模式中感测外部输入的功能)的程序;以及芯片,例如设置成作为运行对应程序的专用处理器的集成电路(IC)芯片。
当与用户的触摸输入对应的命令通过第一通信器140从输入装置200被接收时,该示例性实施方式中的第一控制器160可配置成控制显示器130显示对应的图像。
当与用户的操作对应的命令从输入装置200被接收时,第一控制器160可配置成控制显示器130基于存储在第一存储器150中的操作信息显示对应的屏幕。例如,如果输入至触摸传感器210的第一区域211或第二区域212的用户输入(例如与坐标值的变更对应的命令)被接收,则控制器160可配置成控制显示器130显示响应于用户输入变更的屏幕。
将通过以下示例更加详细地描述显示器130中的屏幕的示例。
下面将更详细地描述输入装置200和使用输入装置200的用户输入。
图3是示出了示例性输入装置200的立体图,图4至图6是示出了使用图3的输入装置200的示例性用户输入的图,以及图7是示出了从顶部观察的示例性输入装置200的平面图,其是示出了通过触摸传感器210感测的示例性用户输入的视图。
在该示例性实施方式中,输入装置200具有如图3所示的类似球的球形形状,并通过由置于输入装置200中的驱动器270提供的驱动力进行驱动,从而朝向用户的期望位置滚动和移动。
该示例性实施方式中的输入装置200的形状例如可类似具有例如3.5cm至6cm直径的球面,以使得用户可易于将输入装置200握于一只手中。图3在非限制的情况下以示例的方式示出输入装置200为近似的球形。根据示例性实施方式的输入装置可具有能被驱动器270驱动从而独立地滚动和移动的任何结构。
根据图3至图7所示的示例,输入装置200例如能以触摸模式进行操作,在触摸模式中,输入装置200根据对于触摸传感器210的用户触摸输入进行操作。输入装置200的输入方式还可包括通用模式和姿态模式,在通用模式中,输入装置200基于对于按钮输入单元的用户操作进行操作;在姿态模式中,输入装置200基于输入装置的运动进行操作。如果输入装置200具有多种输入模式,则输入模式可响应于用户的预设操作(例如,按压预定的键按钮、大于预定强度或长度的触摸输入、大于预定强度的运动输入等)而发生改变。将理解的是,各种用户输入均可适用而并未进行限制。
触摸传感器210例如可通过用于感测用户触摸输入的触摸板来实现,并且可包括位于上部的输入区和位于下部的传感器。可存在多种触摸输入,因此用户的触摸输入可包括敲击(tapping)、需要比敲击更强的触摸的点击、双击、在触摸状态下移动预定距离的拖动(dragging)、滑动、轻弹、划动(swiping)等。诸如拖动、滑动、轻弹、划动等的输入可通过按压从而利用手指(或触摸笔)对触摸传感器210进行触摸、运动预定距离、以及从触摸传感器210释放来实现,其中,运动可包括直线运动和曲线运动。
当触摸传感器210感测到用户的触摸输入时,第二控制器260可配置成生成与所感测的触摸输入对应的命令,并通过第二通信器240向显示装置100传输该命令。触摸传感器210感测用户通过他/她的手指、触摸笔等的触摸输入。
在该示例性实施方式中,触摸传感器210例如可包括例如第一区域211和第二区域212的多个区域,以接收用户触摸输入。
例如,如图4所示,当球形的输入装置200被保持在手掌中时,第一区域211和第二区域212分别设置在与第一手指(例如,拇指)和第二手指对应的位置处。第一区域211感测由于利用第一手指进行触摸而引起的压力或运动,而第二区域212感测由于利用第二手指进行触摸而引起的压力或运动。
在图4所示的示例中,第一手指是拇指且第二手指是食指,但是不局限于此。例如,当用户将输入装置200保持在他/她的手中以便操作时,考虑到人体的构造,根据该示例性实施方式的输入装置200可具有设计成易于触摸输入的各种结构。
图4示出了第一区域211和第二区域212相对于右手进行定位,但是不局限于此。可替代地,第一区域和第二区域可相对于左手分别设置在与第一手指和第二手指对应的位置处,以便于惯用左手的个体。
第一区域211和第二区域212设置成易于接收分别包括例如第一手指和第二手指的划动操作的触摸输入。
例如,参照图5,第一区域211可具有沿着拇指的划动路径的扇形形状。因此,如图5所示,用户可通过使他/他的拇指向左和向右运动而操作第一区域211。
参照图6,第二区域212可包括例如沿着食指的划动路径的纵向形状。因此,如图6所示,用户可通过使他/她的食指沿着第二区域212的纵向方向上下运动来操作第二区域212。
第二通信器240可与显示装置100通信,并可支持与第一通信器140的通信标准对应的通信标准。例如,第二通信器240通过诸如蓝牙、RF、Zigbee、红外通信等的无线通信发送与接收预定的命令。
第二存储器250存储要被第二控制器260存取的各种数据。例如,该示例中的第二存储器250存储与触摸传感器210的第一区域211和第二区域212有关的坐标信息集,以感测用户的触摸输入。第二存储器250还可存储与输入装置200的输入模式有关的信息。
第二存储器250可通过闪速存储器或类似的非易失性存储介质来实现。第二存储器250可被第二控制器260存取,因此第二控制器260可配置成执行读取数据/记录数据/修改数据/删除数据/更新数据等。根据需要,可不包括第二存储器250。
第二控制器260可配置成控制与输入装置200的各元件有关的操作。例如,第二控制器260可配置成感测各种用户输入并通过第二通信器240向显示装置100传输对应的命令,从而控制输入装置200的整个操作。因此,显示装置100执行与所接收的命令对应的操作。
第二控制器260包括至少一个处理器。至少一个处理器将来自非易失性存储器(例如,ROM)的程序加载至易失性存储器(例如,RAM)中。
该示例中的第二控制器160可通过诸如应用处理器(AP)和微型计算机(MICOM)的至少一个通用处理器或者例如设置成作为专用处理器的IC芯片的芯片来实现,并且例如通过存储在ROM中的预定算法运行加载至RAM中的程序,从而执行输入装置200的各种操作。
当触摸传感器210感测到用户的触摸输入时,该示例中的第二控制器260可配置成通过第二通信器140传输与显示装置100对应的控制信号。
该示例中的输入装置200的第二控制器260可配置成向显示装置100传输与第一区域211中的触摸输入对应的命令以及与第二区域212中的触摸输入对应的命令。
例如,第二控制器260可配置成执行控制,以使得与频道变化对应的命令(即频道切换(CH–或CH+))可响应于第一区域211中的划动操作而传输到显示装置100;以及与音量调整对应的命令(即音量控制(VOL-或VOL+))可响应于第二区域212中的划动操作而传输到显示装置100。
在前述示例中,频道变化可被分配给第一区域211中的操作,因此进行“翻阅”的用户可使用拇指执行即时的频道切换。因此,即使电视频道的数量增加,也可减轻换台疲劳,可通过输入装置200实现用户和显示装置100之间符合人体工程学的密切交互。
将响应于触摸输入从输入装置200传出的命令可各自分配给触摸传感器210的第一区域211和第二区域212。例如,第一区域211中的划动操作可与音量控制对应,以使得音量增大(VOL+)或音量减小(VOL-)的命令可被传输到显示装置100,而第二区域212中的划动操作可与频道切换对应,以使得转变成先前频道(CH-)或下一频道(CH+)的命令可被传输到显示装置100。
响应于第一区域211或第二区域212中的触摸输入而传输的命令不局限于频道切换或音量控制。例如,在预定频道的广播可显示于显示装置100中的状态下,如果第一区域211被较强地敲击两次或被双击,则与根据时间档的当前或随后广播时间表有关信息可相对于当前频道而显示。另外,如果第二区域212被敲击或点击一次,则可发布命令以显示与当前广播的内容有关的信息(例如,演员表、剧情概要、广播时间等信息)。
各种命令可基于显示于显示装置100上的内容进行传输。例如,如果网页页面显示于显示器130上,则先前或下一页面可响应于对第一区域211的触摸输入而显示,或者网页页面可响应于对第二区域212的触摸输入而向上或向下滚动。
根据示例性实施方式,各种命令可设置成基于对第一区域211和第二区域212的触摸输入的种类、强度、方向、运动距离等进行发布,该设定可通过用户的选择而改变。为了用户的方便起见,将响应于触摸输入在显示装置100中执行的操作可被设定成被用户直观识别。
与设定成与对第一区域211和第二区域212的触摸输入的种类、强度、方向、运动距离等对应的操作有关的信息可存储在显示装置100的第一存储器150中。
例如,输入装置200的第二控制器260可响应于触摸输入,通过第二通信器240向显示装置100传输与触摸输入被感测的区域有关的信息,即,与触摸输入是否在第一区域211或第二区域212中被感测到有关的信息。与触摸输入的种类、强度、方向、运动距离等有关信息可被共同传输。
显示装置100的第一控制器160可配置成基于所接收的信息确定触摸输入被感测的区域,并查阅存储在第一存储器150中的设定信息,从而执行设定成与该信息对应的操作,例如,如果所确定的区域是第二区域212,则执行音量增大或减小。
根据示例性实施方式,第二控制器260可配置成相对于触摸传感器210的第一区域211和第二区域212设定坐标信息,并确定与用户触摸输入发生的位置对应的坐标。第二控制器260可配置成通过第二通信器240向显示装置100传输所确定的坐标信息作为预定的命令。
如图7所示,输入装置200的第二控制器260可配置成参照从第二区域212接收的触摸输入而感测X坐标和Y坐标的值的增大或减小,并生成对应的命令(例如,事件)从而通过第二通信器240向显示装置100传输该命令。
例如,如果存在对第二区域212的划动输入,则第二控制器260可配置成参照X坐标或Y坐标,基于按压位置处的坐标值、释放位置处的坐标值、以及按压和释放位置处的坐标值是否增大或减小而生成命令(例如,事件)。例如,第二控制器260可配置成控制第二通信器240向显示装置100发送从按压位置的开始坐标值(0,0)变更至释放位置的结束坐标值(x1,y1)的事件(例如参照图7)、以及与触摸输入发生的第二区域212对应的信息。显示装置100的第一控制器160可配置成基于区域信息和坐标值变化事件而控制音量减小(VOL-)。
显示装置100可对应于对第一区域211的触摸输入而操作。
根据图2至7所示的示例性实施方式,输入装置200设有包括第一区域211和第二区域212的触摸传感器210,从而作为用于接收用户的输入的装置,但是不局限于此。例如,此外,根据示例性实施方式的输入装置200可在内部设有按钮输入单元。
例如,输入装置200可包括可彼此联接和分离的两个半球形囊体(capsule)。每个囊体的分离表面可由用于输入数字或字母的小键盘形成,或者当两个囊体分离时柔性小键盘可被暴露。用户可通过小键盘选择频道编号等,以使得与选定的频道有关信息可通过第二通信器240被传输到显示装置100从而变更频道。
另外,根据该示例的输入装置200可附加地设有运动传感器,其中包括陀螺仪传感器、角速度传感器、地磁传感器等,并且第二控制器260可配置成基于运动传感器的感测结果确定运动信息。例如,当用户摇晃具有运动传感器的输入装置200时,所确定的运动信息通过第二通信器240被传输到显示装置100,因此显示装置100可响应于所接收的运动信息而随机地改变频道。
运动传感器可设置在显示装置100的主体中。显示装置100的第一控制器160可通过设置在其前方的运动传感器感测用户的手势。手势的强度可通过运动距离、运动速度和手运动区域的面积中的一个或其组合来确定。第一控制器160可配置成基于由运动传感器感测的手的角速度和加速度而确定手势的运动信息,并通过与存储在第一存储器150中的信息进行比较而修改所确定的运动信息。比较或修改的结果可用作用于控制显示装置100的预定命令。
根据该示例的输入装置200可附加地包括诸如麦克风的音频输入单元,从而接收由用户、使用全息图的用户输入设备、以及类似的各用户输入设备发出的语音。麦克风可感测频率振荡。
音频输入单元可设置在显示装置100的主体中,诸如相机的视频输入单元可设置在显示装置100的前方。
此外,根据该示例的输入装置200可基于如上所述的各用户输入中的两个或多个的组合而接收用户的输入。例如,输入装置200可在第二区域212被触摸时摇晃。与对应于用户的输入的各种组合的命令有关信息可存储在第一存储器150、第二存储器250或包括云服务器等的单独的服务器中。
驱动器270驱使输入装置200滚动和移动。与球类似,输入装置200可通过驱动器270在所有方向上滚动。
根据该示例的驱动器270例如可包括应用了使用转动惯量的陀螺仪的电机(在下文中,被称为“陀螺电动机”)。由于陀螺电动机利用与内部圆板的旋转速度成正比的力来操作,因此即使输入装置200的直径不大,其也可在诸如门槛、不平整地板等的低障碍物上方越过。
输入装置200可包括重量块或传感器(例如,加速传感器、重力感测传感器、各种陀螺仪传感器、地磁传感器、重力传感器、加速度传感器、数字罗盘传感器、接近传感器、光学传感器等),从而在滚动和移动时保持输入装置200的平衡。下面将参照图14至图16更加详细地描述输入装置200的滚动运动。
图8是示出了示例性显示系统1的框图。
与图2所示的示例相比,图8所示的示例的特征在于,输入装置200包括箭头键221和轨迹球222,作为用户输入设备。因此,除箭头键221和轨迹球222之外的元件的术语和参考标记与图2所示的术语和参考标记相同,将根据需要省略其重复描述。另外,图14至图46中所示的以下示例将应用至图2至图7所示的输入装置200、图8至图12所示的输入装置200、以及图13的输入装置200。
图9示出了示例性输入装置的立体图;图10是从顶部观察的图9的示例性输入装置的平面图;以及图11和图12是图9的输入装置的剖视图。
如图9和图10所示,输入装置200可包括例如位于输入装置200的外周上的多个箭头键221和轨迹球222。
图9和图10示出了箭头键221和轨迹球222设置在输入装置200的顶表面上,但是不局限于此。由于输入装置200在所有的方向上滚动,所以箭头键221和轨迹球222可设置在任何位置,例如位于输入装置200的后表面、顶表面、底表面、前表面、侧表面或类似表面上。
图9和图10示出了每个箭头键221的形状设计成与四边形类似,但是不局限于此。每个箭头键可具有各种形状,诸如十字形(+)、菱形(◇)、圆形(O)等。
在该示例中,图11示出了沿着图10的线A-A'截取的输入装置200的剖视图,图12示出了沿着图10的线B-B'截取的输入装置200的剖视图。
如图11和图12所示,输入装置200可利用位于输入装置200的外周上的例如凹槽和类似凹形部的凹陷区形成,箭头键221和轨迹球222可布置在凹陷区中以使得输入装置200可在所有方向上自由地滚动。
在该示例中,箭头键221包括如图10所示的左上和左下箭头键(+,-)和右上和右下箭头键(∧,∨)。用户例如可通过操作左上和左下箭头键向显示装置100发布用于音量控制的命令,以及例如通过操作右上和右下箭头键而发布用于频道变更的命令。例如,左和右可随着输入装置200的滚动而颠倒。根据需要,左上和左下箭头键可与频道变更对应,右上和右下箭头键可与音量控制对应。
然而,与多个箭头键221对应的命令不局限于频道变更和音量控制。例如,如以上参照图2至图7所示,用于网页页面的移动、广播信息的显示等的各种命令可通过多个箭头键221的单个或组合操作而发送至显示装置。
轨迹球222可向上、向下、向左和向右旋转例如以起到鼠标指针的作用,并且轨迹球222的至少一部分暴露于输入装置200之外,如图11和图12所示。当用户将输入装置200保持在他/她的手中时,用户可利用手指滚动轨迹球222,从而在显示装置100的显示器130中的屏幕上使光标运动或选择项目。盘可放置在轨迹球222之下并支撑轨迹球222,并且在其被按压(或点击)时感测用户的操作。
图13是示出了示例性输入装置200的立体图。
图13的示例与图9的示例在箭头键223的形状方面有所不同。例如,根据该示例的箭头键223具有十字形形状。因此,除箭头键223之外的元件的术语和参考标记与图9所示的相同,根据需要将省略其重复的描述。
如图13所示,根据上、下、左和右的方向,该实施方式中的箭头键223分别包括上键(∧)、下键(∨)、左键(<)和右键(>)。
上键(∧)和下键(∨)例如可设定成发布响应于用户的操作而按顺序将当前频道变更成先前频道(CH-)或下一频道(CH+)的命令。另外,左键(<)和右键(>)例如可响应于用户的操作分别设定成发布音量控制的命令,例如音量增大(VOL+)或音量减小(VOL-)。
尽管未示出,但是电源键、轨迹球等可添加在箭头键223的中央处,但并非限制其位置和形状。
图9至图13所示的输入装置200还可包括触摸传感器、运动传感器和音频输入单元中的一个或多个。在用户操作箭头键221、223、轨迹球222、触摸传感器、运动传感器、音频输入单元等时执行的显示装置100的操作也可如参照图2至图7所描述的那样来实现。
与图2至图7所示的输入装置200类似,图8至图13所示的输入装置200可通过从例如上述陀螺电动机的驱动器270接收驱动力而在所有方向上自由滚动。
图14至图16示出了根据示例性实施方式的输入装置的运动。图14至图16所示的该示例中的输入装置的运动机构被应用于根据图1至图8、图9至图11、以及图12所示的前述示例的全部输入装置。
如图14所示,根据该示例的输入装置200可被设于输入装置200中的驱动器(例如,陀螺电动机、陀螺仪驱动器等)270驱动,从而在所有方向上且360度地自由滚动或运动。
为此,如图15所示,输入装置200可在内部设有驱动器270,该驱动器270为基于旋转的运动提供驱动力。驱动器270还可包括:用于在驱动器270滚动时保持驱动器270平衡的重量块;和用于在驱动器270滚动时感测平衡和方向变更的传感器;以及用于提供转动惯量的陀螺电动机或类似电机。
驱动器270的操作(即旋转方向、速度、角度等)例如可通过第二控制器260来控制。
在该示例中,输入装置200被驱动器270驱动,从而响应于至少一个预设事件朝向预设位置滚动和移动。输入装置200将要滚动和移动到的预设位置是预先设定成使得用户可获得和使用输入装置200的用户位置。例如,参照图16,预设位置可以是起居室中沙发所在的位置。
预设事件可包括以下中的一个或多个:对于设置在显示装置100中的用户输入设备(例如,设置在电视的侧面的控制面板)的用户操作;使用与显示装置100和输入装置200中的至少一个配对的另一终端装置的用户输入;以及用户语音和用户姿态中的至少一个。例如,对于设置在显示装置100中的用户输入设备的用户操作不局限于使用控制面板电视输入,而是包括将被设置在电视中的传感器感测的操作,例如,敲击电视的操作。
例如,为了观看电视(例如,显示装置100),用户可通过点击设置在电视的侧表面上的控制面板的电源按钮而打开电视。类似地,用户可通过各种方法打开电视,例如:使用与电视配对的诸如智能电话等的另一终端装置、发出诸如“打开电视”的语音、站在电视的前方、或进行用于打开电视的预设运动(例如,握紧或打开他/她的拳头)等。另外,根据需要,诸如安装在电视中的相机的视频输入单元的图像传感器可用于感测站在电视前方的用户。在使用智能电话或类似终端装置的示例中,终端装置与显示装置100配对从而传输和接收终端装置和显示装置100之间的命令。
显示装置100的第一控制器160可配置成控制第一通信器140响应于由用户输入的事件而向输入装置200传输控制命令,以使得输入装置200可运动至她或他所处的预期位置。
输入装置200可通过第二通信器240接收控制命令,第二控制器260可配置成响应于从显示装置100接收的控制命令,控制驱动器270使输入装置200运动至预设位置。
例如,预设位置可以指用户所处的预期位置。考虑到安装显示装置100的空间的平均尺寸和/或显示器130的屏幕大小,用于预设位置的值可在制造产品的阶段预先确定,并被存储在第一存储器150和第二存储器250中的至少一个中。可替代地,在显示装置100的第一次操作时,显示器130可显示用户界面(UI)以允许用户输入安装空间的尺寸,用于预设位置的值可利用所显示的UI基于用户的输入/选择来确定。
如图16所示,该示例中的预设位置可包括相距显示装置100的前部第一距离D1的第一位置、以及相距第一位置第二距离D2的第二位置。例如、第一距离D1例如可以是40cm至50cm的短距离。
换言之,根据示例性实施方式,当用户需要输入装置200时需要控制输入装置200运动至期望位置,以观看电视或进行类似操作。然而,根据示例性实施方式,由于可运动的球形输入装置200可在房间中的任何位置滚动,因此可能难以明确输入装置200的当前位置。
因此,输入装置200首先运动至显示装置100的主体前方的第一位置(步骤1),然后运动至相距第一位置预定距离(即,第二距离D2)的第二位置(步骤2),其中,给出第一位置作为用于朝向用户的期望位置运动的参照位置,给出第二位置作为用户所处的预期位置。例如,可考虑安装显示装置100的空间的平均尺寸和/或显示器130的屏幕大小预先设定第二距离D2。
因此,用户可在第二位置处拾取输入装置200。如果用户在预设位置处正常地拾取输入装置200,则输入装置200通过第二通信器240向显示装置100发送通知拾取位置并通知完成拾取的控制信号(步骤3)。例如,与拾取位置有关信息可存储在第二存储器250中。
显示装置100的第一控制器160可配置成基于从输入装置200接收的控制信号,控制第一存储器150存储与输入装置200的拾取位置有关的信息。
另一方面,如果输入装置200没有在预设位置(例如第二位置)处正常地被拾取,则第二控制器260可配置成控制驱动器270驱动输入装置200使其滚动和移动至相距第二位置第三距离的第三位置。如果输入装置200在第三位置处被用户拾取,则与拾取位置有关信息存储在第二存储器250中,通知拾取位置并通知拾取已完成的控制信号通过第二通信器240传输到显示装置100。
图16示出了输入装置200首先运动至显示装置100前方的第一位置然后运动至预期为用户位置的第二位置的示例,但是不局限于此。可替代地,输入装置200可直接运动至预设位置。例如,如果显示装置100通过语音输入或通过操作智能电话或类似终端装置而打开,则可测量与用户说话或终端装置对应的位置,然后输入装置200运动至所测量的位置。
如果输入装置200通过第二通信器240传输与其自身的位置有关信息,则显示装置100的第一控制器160可配置成基于所接收的信息确定输入装置200的当前位置并确定运动的方向和距离,从而传输用于使输入装置200运动至预定位置的控制命令。输入装置200不仅可向显示装置100传输与其自身的位置信息有关的信息,还可传输驱动信息,即与滚动方向、速度等有关的信息。
此外,根据示例性实施方式,当输入装置200运动至例如第二位置的预设位置并感测到障碍物时,第二控制器260可配置成停止驱动滚动并控制第二通信器240向显示装置100发送与感测到障碍物的当前位置有关的信息以及完成驱动的信息。例如,障碍物可以是输入装置200无法越过的大障碍物,例如包括用户、沙发等(参见图16)。
以这种方式,存储于第一存储器150或第二存储器250中的值基于与输入装置200被拾取的位置有关的信息或与滚动停止有关的信息而不断地更新。
例如,存储在第一存储器150或第二存储器250中的拾取位置信息或滚动停止位置信息可与输入装置200通过用户的拾取、障碍物等而停止运动的时间对应,并且可被存储为测量的时间信息。
根据示例性实施方式,输入装置200可在到达预设位置(即,第二位置或第三位置)之前,由于用户的拾取或障碍物而停止运动。在该示例中,第二控制器260可配置成确定该位置为使输入装置200的运动停止的位置,并在第一存储器150或第二存储器250中存储和更新该位置信息(或时间信息)。例如,与位置信息(时间信息)对应的值可存储在可被显示装置100或输入装置200访问的外部服务器中、以及可存储在云服务器中。
如果输入装置200需要为观看电视或类似操作而再次运动,则第二控制器260可配置成控制驱动器270使输入装置200基于最近存储/更新的位置信息而运动。
根据需要,与输入装置200被拾取或停止的位置有关的信息可在预定周期之上求平均值,驱动器270可被控制成使输入装置200运动至该平均位置。
根据示例性实施方式,输入装置200的运动模式可被存储,输入装置200可配置成通过其自身反复地学习用户的位置而自动滚动至最佳位置。因此,输入装置200更方便,因为其可针对用户进行定制。
前述输入装置200可通过内部设有充电单元的结构来实现,以通过充电器300进行充电。
图17至图19是示出了对输入装置200进行充电的示例性方法的图。
如图17所示,充电器300可包括第三通信器(例如,包括通信电路)340以与输入装置200通信。第三通信器340可支持与第二通信器240的通信标准对应的通信标准。例如,第三通信器340可通过可支持诸如蓝牙、RF、Zigbee、IR或类似通信的无线通信的无线通信模块来实现。
在该示例中,输入装置200的第二控制器260可配置成与充电器300交换数据,并控制输入装置200在感测到输入装置200的电源水平低于预定水平的情况下自动充电。
充电器300可通过第三通信器340传输无线信号。无线信号可包括与充电器300的位置有关的信息,例如可通过广播方法传输。
第二控制器260可配置成控制驱动器270响应于所感测的输入装置200的低功率水平或用于充电的用户输入,而使输入装置200运动至充电器300。
第二控制器260可配置成通过分析由第二通信器240从充电器300接收的无线信号而估算充电器300的位置,并控制驱动器270使输入装置200滚动和移动至估算的位置。另外,当输入装置200到达充电器300时,充电器300的充电端可与输入装置200的充电端连接。
图17示出了可通过输入装置200和充电器300之间的直接通信自动地执行充电,但是不局限于此。可替代地,输入装置200可接收来自显示装置100的无线信号,并基于所接收的无线信号确定充电器300的位置。输入装置200可通过运动至所确定的充电器300的位置而充电。
由于根据示例性实施方式的输入装置200具有类似弹珠或球的球形形状,所以难以向输入装置200单独地提供充电端。
因此,如图18所示的无线充电系统可能是优选的。例如,如图18所示,充电器300可形成有形状例如设计成类似球形凹槽的凹陷部380,以接纳球形输入装置200,用于无线充电电源的线圈381可设置在凹陷部380中。类似地,嵌入式线圈280可设置在输入装置200的下部中,并且可接收来自充电器300的无线电源能量,从而执行充电。
将理解的是,所有的技术上可用的无线充电系统均适于本公开。
根据示例性实施方式,输入装置200和充电器300可各自制造成以角色为特征。例如,如图19所示,输入装置200和充电器300可形成一对,从而以用户熟悉的流行角色作为特征,进而允许他/她以有趣或异想天开的方式使用输入装置200和充电器300并对室内装饰产生影响。
此外,根据示例性实施方式的输入装置200能以多种方式输出其操作状态。
图20和图21示出了输入装置200指示其操作状态的示例。
如图20和图21所示,输入装置200可包括用于指示其操作状态的输出单元。
例如,如图20所示,在输入装置200的表面(例如外周)上可设置诸如发光二极管(LED)的指示器290,指示器290可指示输入装置200的操作状态。第二控制器260可配置成控制指示器290基于某些操作具有颜色或亮度或者诸多闪烁时间,从而指示各种操作状态。
另外,如图21所示,指示器290可设置在输入装置200的内部并从整个输入装置200发光。即使在图21所示的示例中,指示器290的颜色、亮度、闪烁时间等可调节以输出各种操作状态。如图21所示,在光从整个输入装置200发出的示例中,输入装置例如可被用作用于气氛灯、立灯等的室内装饰。
尽管未示出,但是输出单元还可包括振动器、用于发出哔哔声的声音输出单元等,从而通过诸如振动、哔哔声等的各种方式通知用户输入装置200的操作状态。
输出单元指示当控制信号从显示装置100被接收时、当发生错误时等的操作状态。另外,输出单元可配置成周期性地制造灯光、声音、振动等,以提醒输入装置200的位置。
下面将更详细地描述使用输入装置200进行显示装置100和用户之间的交互。
图22至图25和图27至图37是示出了显示于显示装置100的显示器130上的示例性图像的图;以及图26示出了显示于传统显示装置的显示器上的示例性图像。
参照图22至图25和图27至图36,虚拟角色图标可显示于屏幕上作为使用输入装置200的用户接口。所显示的角色图标可接收来自显示装置100的一种身份并在由显示装置100提供的内容中不同地使用。例如,在该示例中,显示装置100可通过角色图标11提供针对用户定制的服务。
例如,第一控制器160可配置成响应于显示器130的开启而按顺序地显示图22至图24的角色图标11。开启显示装置100可包括:响应于用于使输入装置200运动的前述预设事件,向显示装置供给电力。
例如,屏幕可配置成按图22、图23和图24的顺序使角色图标11通过问候而自我介绍以及生成消息21,以使得用户能感到友好或熟悉。
在该示例中,可对角色图标11命名。图24以示例的方式示出了角色图标11被命名为Remo。例如,Remo的名称可默认给出,但是可由用户进行更改。例如,角色图标11可命名为Remo 1、Remo 2或与家庭成员对应地命名为母亲、父亲等,或者命名为另一不同的名称。
在该示例中,可选择性地设置多个角色图标11。例如,如图25所示,显示器130可显示可与家庭成员对应地选择的多个角色图标11、12、13和14,以及显示允许观看电视的用户选择角色图标的消息22。
用户可经由输入装置200通过使光标23移动而远程地选择一个角色图标13。例如,使用图5的触摸传感器210的第一区域211进行拖动然后点击第一区域211,使光标23移动至多个角色图标11、12、13和14中的图标13,从而选中期望的角色图标13。与某一用户对应的角色图标13可通过箭头键221和223、轨迹球222以及图9和图13所示的其它用户输入被选中。
根据示例性实施方式,显示装置100的第一控制器160可配置成控制显示器130响应于对输入装置200的用户输入而显示角色图标11作为预定的用户接口。例如,对输入装置200的用户输入可包括用于观看显示装置100(即电视)的他/她的各种输入,例如,打开电视、频道变更、音量控制、用于选择菜单的命令等。
响应于用户的输入,第一控制器160可配置成识别使用输入装置200的至少一个用户,并在显示器130上显示与输入装置200和识别的用户对应的角色图标11。角色图标11可与接收的用户输入对应地进行显示。例如,角色图标11可显示为与通电命令对应的图22至图24的初始屏幕,或者显示为与频道变更对应的诸如“there will be achange to a channel 10(将转换成频道10)”的消息。
如图25所示,对用户的识别可包括使用输入装置200基于用户选择进行识别。另外,根据示例性实施方式,对用户的识别可通过各种方法来实现,包括:基于用户的识别进行识别、基于由相机的图像传感器感测的图像进行识别、使用设置在输入装置200中的指纹传感器进行识别等。
显示装置100通过角色图标通知用户各种消息。图26和图27分别示出了当显示装置100中发生错误时的传统屏幕和根据示例性实施方式的屏幕。
如果显示装置100在网络连接中出现错误,则传统的错误屏幕如图26所示。
另一方面,根据示例性实施方式,显示器130可使用角色图标15显示“please check Internet connection(请检查因特网连接)”的预定消息25。
类似地,显示器130可使用如图28至图32所示的角色图标显示各种消息。
例如,如图28所示,如果当用户正在观看英式足球比赛时用户最喜爱的电视节目即将到来,则显示器130可利用“Your favorite TV showbegins now(您最喜爱的电视节目现在开始)”的消息26,通过角色图标16显示与广播内容有关的信息。
响应于所显示的消息26,显示装置100可从输入装置200接收用于将频道变更成与电视节目对应的频道的用户命令。例如,用于变更频道的命令例如可通过操作如图5所示的对触摸传感器210的第一区域211的用户触摸输入、图9和图13所示的箭头键221和223,从输入装置200远程地接收。另外,第一控制器160可配置成基于响应所显示的消息26的用户选择,向角色图标16提供预定的经验值31;并且通过显示器130通知用户经验值。
如图29所示,显示器130响应于来自输入装置200的频道变更命令,显示与变更的频道对应的广播内容。
为了向用户提供与如图28所示的广播内容有关的信息,可能需要将某一内容注册为最喜爱的广播。为此,如图29所示,在用户正通过显示装置100观看预定内容时,第一控制器160可配置成控制显示器130显示符号图标17,该符号图标17具有请求将对应内容注册为最喜爱广播的消息27。
因此,用户可响应于所显示的消息27,通过输入装置200将当前广播内容注册为最喜爱的广播。另外,第一控制器160可配置成基于用户的选择将对应的广播内容注册为最喜爱的广播,并将对应信息存储在第一存储器150中。根据注册,第一控制器160可配置成控制显示器130显示经验值32被给予至符号图标17。
根据示例性实施方式,当广播内容被显示时,显示装置100可利用各种信息的消息28显示角色图标18。例如,如图30所示,如果当用户正在观看电视节目时用户感兴趣的车辆出现,则显示器130可显示通知用户出现车辆的消息28。
响应于图30所示的消息28,显示装置100可从输入装置200接收用于搜索与对应车辆有关的详细信息的命令。另外,第一控制器160可配置成通过第一通信器140搜索必要的信息,并如图31所示,通过显示器130基于搜索的结果通知用户详细信息41。第一控制器160可配置成控制显示器130显示:根据信息搜索将经验值32赋予给角色图标18。
如参照图28和图31所描述,可作为定制的服务通过角色图标16、17和18向用户提供各种广播内容信息,并响应于所提供的信息向角色图标提供预定的经验值,从而随着经验值累积而提高角色图标的级别。
另外,例如如图32所示,使用角色图标19的定制服务包括聊天服务。
如图32所示,当正在广播某一内容时,用户可通过角色图标19与其它用户聊天。如果用户向聊天框42输入文本,则将经验值33赋予给角色图标19,因此角色图标19的级别提高。用户可通过输入装置200或可通过第一通信器140连接的另一输入装置(例如,无线键盘等)与其它观看者聊天。
根据前述示例性实施方式,角色图标15、16、17、18和19可直接与用户通信,消息25、26、27和28以及使用角色图标的相关信息41和42显示在显示装置100的屏幕上,从而在向用户提供信息和增加友好性方面施加影响。
如参照图28和图32所描述,如果赋予给角色图标的经验值积累得比预定的参考级别更高,则第一控制器160可配置成提高角色图标的级别。
因此,如图33所示,显示器130可显示关于角色图标进行积累的经验值34的级别上升(例如,提高)的消息35。另外,如图34所示,如果经验值连续地累积,则可能级别上升36至下一级别。
根据示例性实施方式,角色图标是可购买的,第一控制器160可配置成响应于购买角色图标而提高角色图标的级别。例如,如图35所示,购买价格可与角色图标的级别对应地确定,用户可通过输入装置200选择购买某一角色图标51。因此,用户可定制角色图标。
根据示例性实施方式,用户可通过角色图标参与各种任务。例如,任务可包括包含在通过角色图标提供的定制服务中的游戏。
例如,如图36所示,角色图标的级别53可响应于使用角色图标51参与游戏而提高。例如,所显示的角色图标51与输入装置200的形状对应,以使得显示装置100和操作输入装置200的用户之间的直接交互可以用户友好的方式实现。
如果存在多个角色图标,则该多个角色图标可提供分别与多个用户对应的定制服务。另外,多个用户分别通过角色图标使用显示装置和输入装置来参与任务和接收服务。
例如,如图37所示,用户1通过第一显示装置101和第一输入装置201参与关于角色图标54的游戏,用户2通过第二显示装置102和第二输入装置202参与关于角色图标55的游戏,以使得用户1和用户2可彼此竞争。例如,用户可通过分配给他/她的角色图标参与各种任务和购买角色等从而增加经验值,从而在游戏中保持优势位置。
根据示例性实施方式,用户可以诸如引导用户之间竞赛的方式,对角色图标产生更多兴趣并各自使用角色图标。
前述角色图标分配给某一用户(例如,角色图标54分配给用户1,角色图标55分配给用户2),因此用户可通过与显示装置101和102不同的另一终端装置来使用角色图标接收服务。
例如,用户1可利用角色图标54使用智能电话、智能板(平板)或个人计算机(PC)参与各种任务,可将对应于这些参与活动的经验值赋予给角色图标54。
分配给用户的角色图标54的诸如经验值等的信息存储在显示装置101、另一终端装置、以及例如服务器(包括云服务器)的又一外部装置中的一个或多个中,从而在可连接至网络的各装置之间共享。根据需要,可应用各种方法来与用户交互。
图38至图43是示出了显示于显示装置100的显示器130上的示例性屏幕的图。
图38所示的屏幕例如可以是显示装置100的初始屏幕(或首页屏幕)。例如,当根据示例性实施方式的显示装置100通电时,图38的屏幕例如可显示在图22至图24的图像之后,或者在显示装置100打开时直接显示。另外,可响应于用户在显示装置100的操作中选择首页屏幕而显示图38的屏幕。
如图38所示,显示器130的屏幕可包括针对显示装置100的设置菜单31、32和33,第一控制器160可配置成控制显示器130通过焦点、指针、光标、高亮、闪烁等对与用户的选择对应的位置进行强调。因此,可以强调当前选定的菜单33。
用户例如可通过操作输入装置200中的触摸传感器210的第一区域211或第二区域212选择所显示的设置菜单中的一个,第一控制器160可配置成通过第一通信器140控制显示器130改变和显示与从输入装置200接收的命令对应的屏幕。
例如,第一控制器160可配置成响应于对输入装置200中第一区域211的触摸输入,控制强调所选择的菜单的指针向左或向右运动或显示,并且响应于对第二区域212的触摸输入控制指针向上或向下运动和显示。
例如,在指针定位于应用项目处的状态下,如果用于增大第一区域211中的X坐标的命令被接收,则指针可响应于该增大而移动至家庭历史项目32。类似地,如果减小第二区域212中的Y坐标的命令在指针定位于家庭历史项目32处的状态中被接收,则指针可响应于该减小移动至网页浏览器项目33,其中,第二区域212的坐标被设定成如图7所示。
第一区域211和第二区域212的坐标集不局限于前述说明,而是可各自设定成响应于用户的触摸输入在显示装置100中执行对应操作。
类似地,如图9或图13所示设有箭头键221、223的输入装置200还使得光标响应于对箭头键的用户输入而移动。
如图38所示,在指针显示于网页浏览器项目33上的状态中,用户可通过点击输入装置200的触摸传感器210、轨迹球222等选择网页浏览器项目33。例如,无论触摸传感器210上的点击位置是第一区域211还是第二区域212,输入装置200的第二控制器260都可配置成生成选择命令并向显示装置100传输选择的命令。
当接收到用于选择网页浏览器项目33的命令时,第一控制器160可配置成控制显示器130显示如图39所示的网页浏览器。网页浏览器包括安装在显示装置100中的应用,并执行网页浏览功能。
在如图39所示网页浏览器显示于显示器130上的状态中,第一控制器160可以:如果随第一区域211的触摸输入接收到增大X坐标的命令,则配置成使网页页面移动至下一页面;如果接收到减小X坐标的命令,则使网页页面移动至前一页面。例如,X坐标增大命令可与网页浏览器上的下一页面移动项目42的选择对应,而X坐标减小命令可与前一页面移动项目41的选择对应。
第一控制器160可配置成:如果随对第二区域212的触摸输入接收到增大Y坐标的命令,则使网页页面向上滚动,其中,第二区域212的坐标设定成如图7所示;以及如果接收到减小Y坐标的命令,则使网页页面向下滚动。例如,Y坐标增大和减小命令分别对应于用户使网页页面向上和向下滚动。
在将输入装置200保持于一只手中时,用户通过利用拇指拖动触摸传感器210的第一区域211或利用食指凭直觉拖动第二区域212来选择菜单,从而使网页页面移动并显示该网页页面。
根据示例性实施方式,如参照图40至图43所描述,设置菜单的项目51、52、53、54和55及其子项目61、62、63、64、65、66、67和68可更迅速和方便地通过对设定区域的触摸输入进行选择。
例如,第一控制器160可配置成:通过在例如以大于预设参考值的压力、速度和/或距离对第一区域211进行较强触摸输入时从输入装置200远程地接收到X坐标减小命令,控制显示器130按顺序地显示图40至图43的显示屏幕。因此,用户可从触摸传感器210的第一区域211的触摸输入即时得到反馈。显示器130利用指针强调当前从设置菜单的项目51、52、53、54、55之中选出的项目51(参见图40)以及从其子项目之中选出的项目61(参见图40)。
如图40所示,在通信项目51被选中的状态中,用户可通过操作触摸传感器210的第一区域211或第二区域212选择子项目61、62或63。例如,所接收的触摸输入可以是压力、速度和/或距离小于预设参考值的相对较弱的触摸输入。
例如,根据示例性实施方式,在图40的屏幕被显示的状态中,设置菜单的项目51、52、53、54和55移动至改变和显示与对第一区域211的较强触摸输入有关的图41至图43的屏幕,并且改变和显示与对第一区域211的相对较弱的触摸输入有关的所选择的子项目61和62。以这种方式,输入装置200可直观地与显示于显示器130上的屏幕交互。
另外,根据示例性实施方式,依照图40的屏幕上的光标的当前位置,设置菜单的项目51、52、53、54和55被移动,或所选择的子项目61、62被改变并显示。
如图41和图42所示,如果用户在图40中对触摸传感器210的第一区域211操作程度较强(例如,向左拖动超过预定参考距离),则选定项目移动至智能生活项目52并被显示,智能生活项目52的子项目64、65和66被共同显示。
类似地,如图43所示,如果在图42中用户对触摸传感器210的第一区域211操作程度较强(例如,以大于预定参考速度向左拖动),则选定的项目移动至偏好内容项目54并被显示,偏好内容54的子项目67和68被共同显示。该偏好内容54的子项目67和68中的至少一个可与图29中注册为最喜爱广播的广播内容对应。
即使在图42和图43中,用户也可通过程度较弱地操作触摸传感器210的第一区域211或第二区域212(例如,以小于预定参考速度或距离进行拖动)而自由地选择子项目64、65、66、67和68。
在前述示例中,响应于对触摸传感器210的第一和第二区域211和212的触摸输入,菜单项被移动/选中,或者网页浏览器被移动或更改。然而,并非对基于设置区域操作的命令进行限制。
例如,根据另一示例性实施方式,在广播内容和类似图像被显示的状态中,屏幕显示(OSD)可响应于对第一区域211的Y坐标减小命令而显示为从显示器130的顶边缘滑出,或者OSD可响应于Y坐标增大命令而显示为从显示器130的底边缘滑出。类似地,OSD可响应于对第二区域212的X坐标增大命令而显示为从显示器130的左边缘滑出,OSD可响应于X坐标减小命令而显示为从显示器130的右边缘滑出。
即使对于通过图9和图13所示的输入装置200中的多个箭头键221和223以及轨迹球222中的单个或组合的用户输入而言,显示器130也能以多种方式直观地反映和显示对应的输入。
下面将参照图44描述包括根据示例性实施方式的输入装置200和显示装置100的显示系统1的控制方法。
图44是示出了显示系统1的示例性控制方法的流程图。
如图44所示,显示系统1可感测预设事件的发生(S802)。预设事件可包括对设置在显示装置100中的用户输入的用户操作、利用与显示装置100和输入装置200不同的终端装置(例如,智能电话)进行的用户输入、用户语音、用户的运动以及用户站在显示装置100前方的至少一个。
响应于在操作S802中感测的事件,输入装置200的第二控制器260可配置成使输入装置200运动至与用户位置对应的预设位置,以使得用户可拿取和使用输入装置200(S804)。例如,第二控制器260可配置成控制设置在具有类似球形状的可运动的形状的输入装置200内部的驱动器270,以使得输入装置200可朝向预设位置滚动。
预设位置是用户所处的预期位置,例如与如图6所示的沙发位置对应。另外,预设位置可与在感测到障碍物处输入装置200被用户拾取的最近位置对应。
根据示例性实施方式,如图6所示,输入装置200可具有朝向参考位置(即显示装置100的前方)运动第一距离然后朝向预设位置运动第二距离的两步运动。
输入装置200可在运动期间通过感测到障碍物(S806)而停止运动。例如,障碍物可以是输入装置200无法越过的大障碍物,例如可包括一件家具、用户等。在该示例中,确定输入装置200被用户阻碍并停止。
如果在运动期间没有感测到障碍物,则输入装置200运动至预设位置。如果运动到的位置与用户的实际位置匹配,则输入装置可在该位置处被用户拾取(S808)。另一方面,如果输入装置200没有感测到障碍物且没有被用户拾取,则输入装置200可进一步运动预定距离。
另外,与操作S806中的停止位置或操作S808中的提取位置对应的位置信息被存储(S810)。例如,位置信息可存储在显示装置100的第一存储器150中或输入装置200的第二存储器250中,或者可存储在诸如服务器的另一装置中,其中,显示装置100和输入装置200可根据需要访问该服务器。另外,如果存在先前存储的位置信息,则以当前位置信息更新该位置信息。
当之后在操作S802中发生事件时,存储的位置信息可用作应用于操作S804的预设位置。例如,根据示例性实施方式,输入装置200可学习用户的模式、通过自身确定最佳位置并自动运动至所确定的位置。因此,重复使用使得输入装置200通过自身朝向用户滚动,从而增加用户的满意度。
由于用户能以这种方式拿取和使用输入装置200,所以显示装置100的第一控制器160可配置成从输入装置200远程地接收用户的操作(S812)。
第一控制器160可配置成响应于在操作S812中接收的用户输入,控制作为与输入装置200对应的用户接口的角色图标(参考图22至图24的11)(S814)。例如,第一控制器160可配置成识别使用输入装置200的至少一个用户,并且显示与所识别的用户对应的角色图标(参照图25的13)。
显示装置100可通过操作S812中的角色图标向用户提供各种服务(S816)。例如,所提供的服务可包括针对某一用户定制的服务,因此显示装置100例如可通过角色图标提供与图27至图32所示的广播内容有关的信息、聊天服务、图35所示的游戏任务等。
用户操作输入装置200从而利用角色图标接收服务并参与各种任务,第一控制器160可配置成响应于使用服务或参与任务向角色图标提供经验值,从而提高角色图标的级别。用户可通过终端装置购买他/她自己的角色图标或者使用角色图标,从而提升角色图标的级别。随着该提升级别过程,用户可与另一用户进行竞赛,并对于角色图标具有较高的友好性。
另外,显示装置100可从输入装置200远程地接收用户的输入(S818)。例如,所接收的用户输入可包括:如图4至图6所示对触摸传感器210的第一区域211或第二区域212的用户触摸输入、图9和图13的箭头键221和223以及轨迹球222的操作、对设置在输入装置200内的运动传感器的运动输入等。
第一控制器160可配置成控制显示器130显示与在操作S818中接收的用户输入对应的屏幕(S820)。例如,显示器130可显示与对输入装置200的用户输入直观对应的屏幕。例如,频道可响应于触摸传感器210的第一区域211的操作而改变,音量可响应于第二区域212的操作进行控制。另外,如参照图38至图43所描述,可显示直接反映输入装置200中感测的操作的屏幕。
此外,根据示例性实施方式的输入装置200的使用可扩展至多种应用。
图45和图46是示出了利用输入装置200的示例的图。
如图45所示,输入装置200不仅可包括用于感测用户输入的触摸传感器210,而且可包括指纹传感器、心跳传感器、温度/湿度传感器、振动传感器、重力传感器、各种陀螺仪传感器、地磁传感器、加速度传感器、方向传感器等之中的一个或多个的传感器。
具有这些传感器的输入装置200可不同地使用。例如,指纹传感器可用于感测用户的指纹并用于用户鉴别,例如用于由输入装置200、显示装置100和另一通信终端装置支持的预定功能的安全性。
另外,心跳传感器、振动传感器、陀螺仪传感器、加速度传感器、温度/湿度传感器等可用于检查用户的睡眠时间和运动量以及温度/湿度,以使得输入装置200可被用于智能健康护理。例如,振动传感器可用于检查运动量。此外,用于感测运动的各种传感器、心跳传感器等用于睡眠传感器,从而测量用户的抖动和翻转、呼吸周期、心率等。感测值可被传输到用户的终端装置(例如,智能电话)或显示装置100(例如,电视),从而用于根据生理周期唤醒他/她、制造声音以便深度睡眠和唤醒、或者通知他/她必要的运动量。另外,由温度/湿度传感器感测的值可用于通过显示装置100控制空调。
另外,可通过诸如与输入装置200通信的移动电话的呼叫、文本消息等各种方式通知用户感测的值。
输入装置200可通过与例如移动电话的用户终端装置进行的数据通信来接收移动电话的呼叫、文本消息等,并且通过输入装置200或显示装置100通知给用户。
这些传感器的感测值可被传输到显示装置100,并且可用于控制设置在家中的各种家电,例如冰箱、空调、洗衣机、机器人清洁器、音频基座等。例如,空调可在温度/湿度传感器感测到温度过高时进行操作,当心跳传感器感测到用户的压力系数较高时可通过音频基座播放用于使身心放松的音乐。
另外,如图46所示,用户可将输入装置200用作通用遥控器以控制各种设备。根据该示例的输入装置200可通过各种方式感测用户的输入,并控制诸如智能电话、冰箱、空调、洗衣机、机器人清洁器,音频基座等的各种其它装置。
具有输入装置200的系统1可形成智能家居并以多种方式被使用和扩展。
例如,如图46所示,通过通信网络连接至电视100的其它装置,即冰箱、空调、洗衣机、机器人清洁器等可被控制成用作用户服务或帮助桌面。
例如,该控制可按照输入装置200->显示装置100->输入装置200->其它装置的顺序来执行。例如,如果用户通过例如遥控器的输入装置200运行用户服务应用,则用于可选装置的各种设定的可选装置和功能屏幕可显示于显示装置100上,例如如图46所示的电视。用户通过遥控器选择要被控制的装置(例如,冰箱)并输入命令(例如,用于设定冷冻和冷却温度),命令直接从输入装置200或通过显示装置100传输到要被控制的装置(例如,冰箱)。
显示装置100的功能屏幕可给出对于各个装置的操作的用户反馈,并且可通过与显示装置100和输入装置200中的至少一个配对的另一终端装置(即通过移动电话)进行显示从而接收用户的输入。
根据示例性实施方式,可运动的输入装置200通过自身到达用户,因此不需要直接寻找输入装置。另外,用户可通过新的体验对滚动输入装置具有友好性或熟悉性,从而提高便捷性。另外,最佳位置通过重复的学习而持续更新,以使得用户可使用针对他自己/她自己定制的输入装置200,从而提高他/她的满意度。
另外,输入装置200中的触摸传感器210的第一和第二区域211和212可从具有符合人类工程学的设计,适于用户的手,并分别与频道变更和音量控制匹配,从而实现更加用户友好和密切的用户交互。
另外,显示装置100的屏幕直观地反映通过输入装置200的用户输入,从而无需手动读取用户便能容易和方便地使用输入装置200。
另外,显示装置100通过与输入装置200对应的角色图标提供各种定制服务,因此对用户的友好性增加,用户被引导通过他/她和输入装置200之间的交流而累积经验,从而在以各种方式使用角色图标方面产生影响。
尽管已经示出和描述了若干示例性实施方式,本领域技术人员将理解的是,在不背离本公开的原理和精神的情况下,可对这些示例性实施方式进行变型,本公开的范围由所附权利要求及其等同范围限定。

Claims (15)

1.一种用于显示装置的输入装置,包括:
输入设备,配置成接收用户的输入;
通信电路,配置成与所述显示装置通信;
驱动器,配置成提供驱动力从而驱使所述输入装置运动;以及
至少一个处理器,配置成响应于预设事件控制所述驱动器,以使所述输入装置运动至与用户位置对应的预设位置。
2.根据权利要求1所述的输入装置,其中,所述输入装置具有大致的球形形状,所述输入装置被所述驱动器驱动从而朝向所述预设位置滚动。
3.根据权利要求1所述的输入装置,其中,所述预设事件包括以下一个或多个:对所述显示装置中设置的用户输入设备进行的用户操作;使用与所述显示装置和所述输入装置中的至少一个配对的另一终端装置进行的用户输入;用户的语音;用户的运动;以及用户定位于所述显示装置前方。
4.根据权利要求1所述的输入装置,其中,所述预设位置包括第一位置和第二位置,所述第一位置与所述显示装置的前部相距第一距离,所述第二位置与所述第一位置相距第二距离。
5.根据权利要求1所述的输入装置,其中,所述至少一个处理器配置成:如果在所述预设位置中,所述输入装置未被所述用户拾取或者没有感测到障碍物,则控制所述驱动器使所述输入装置从所述预设位置运动第三距离到达第三位置。
6.根据权利要求5所述的输入装置,还包括配置成存储与所述预设位置对应的值的存储器,其中,
所述至少一个处理器配置成:用与所述输入装置被用户拾取或感测到障碍物的位置对应的值来更新所存储的值。
7.根据权利要求1至6中的任一项所述的输入装置,其中,所述用户输入设备包括用于感测触摸输入的至少一个触摸传感器,所述触摸传感器包括:第一区域,配置成感测由第一手指的触摸而引起的压力或运动;以及第二区域,配置成感测由第二手指的触摸而引起的压力或运动,以及
所述第一区域和所述第二区域分别定位成在所述输入装置保持在一只手中时与所述第一手指和所述第二手指对应,所述输入装置大致为球形。
8.根据权利要求7所述的输入装置,其中,所述至少一个处理器配置成:响应于对所述第一区域的划动操作,控制所述通信电路向所述显示装置传输与频道变更和音量控制中的一个对应的命令;以及响应于对所述第二区域的划动操作,向所述显示装置传输与频道变更和音量控制中的另一个对应的命令。
9.根据权利要求1至6中的任一项所述的输入装置,还包括包含输出电路的输出单元,所述输出单元配置成与所述输入装置的操作对应地进行操作,其中
所述输出单元包括振动器、发光二极管和声音输出单元中的一个或多个。
10.一种控制与显示装置通信的输入装置的方法,所述方法包括:
接收预设事件;以及
响应于所述预设事件,通过施加使具有球形的所述输入装置朝向与用户位置对应的预设位置滚动的驱动力,而使所述输入装置运动至所述预设位置,其中,所述输入装置包括用于提供所述驱动力的驱动器。
11.根据权利要求10所述的方法,其中,所述预设事件包括以下中的一个或多个:对所述显示装置中设置的用户输入设备进行的用户操作;使用与所述显示装置和所述输入装置中的至少一个配对的另一终端装置进行的用户输入;用户的语音;用户的运动;以及用户定位于所述显示装置前方。
12.根据权利要求10所述的方法,其中,所述预设位置包括第一位置和第二位置,所述第一位置与所述显示装置的前部相距第一距离,所述第二位置与所述第一位置相距第二距离,以及
所述方法还包括:如果在所述预设位置中,所述输入装置未被所述用户拾取或者没有感测到障碍物,则使所述输入装置从所述预设位置运动第三距离到达第三位置。
13.根据权利要求10所述的方法,还包括:
存储与所述预设位置对应的值;以及
用与所述输入装置被用户拾取或感测到障碍物的位置对应的值来更新所存储的值。
14.根据权利要求10至13中的任一项所述的方法,其中,所述用户输入装置包括用于感测用户的触摸输入的至少一个触摸传感器,所述触摸传感器包括:第一区域,配置成感测由第一手指的触摸而引起的压力或运动;以及第二区域,配置成感测由第二手指的触摸而引起的压力或运动,以及
所述第一区域和所述第二区域分别定位成在所述输入装置保持在一只手中时与所述第一手指和所述第二手指对应,所述输入装置大致为球形。
15.根据权利要求14所述的方法,还包括:
响应于对所述第一区域的划动操作,向所述显示装置传输与频道变更和音量控制中的一个对应的命令;以及
响应于对所述第二区域的划动操作,向所述显示装置传输与频道变更和音量控制中的另一个对应的命令。
CN201610157002.0A 2015-03-20 2016-03-18 输入装置、显示装置及其控制方法 Pending CN105988601A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0039192 2015-03-20
KR1020150039192A KR20160112835A (ko) 2015-03-20 2015-03-20 입력장치, 디스플레이장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
CN105988601A true CN105988601A (zh) 2016-10-05

Family

ID=55802169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610157002.0A Pending CN105988601A (zh) 2015-03-20 2016-03-18 输入装置、显示装置及其控制方法

Country Status (4)

Country Link
US (1) US9794506B2 (zh)
EP (1) EP3070953B1 (zh)
KR (1) KR20160112835A (zh)
CN (1) CN105988601A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528137A (zh) * 2016-10-11 2017-03-22 深圳市天易联科技有限公司 与虚拟角色对话的方法及装置
CN108693792A (zh) * 2017-03-31 2018-10-23 奥的斯电梯公司 多目标动态ui动作元素

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180056998A (ko) * 2016-11-21 2018-05-30 엘지전자 주식회사 디바이스 컨트롤러 및 그 데이터 처리 방법
WO2020115454A1 (en) * 2018-12-07 2020-06-11 Peratech Holdco Ltd Interface device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000218578A (ja) * 1999-02-03 2000-08-08 Sony Corp 球形ロボット
CN1853876A (zh) * 2005-04-25 2006-11-01 Lg电子株式会社 能够指定移动区域的机器人系统
US20090157228A1 (en) * 2007-12-18 2009-06-18 Soon Hyuk Hong User interface device of remote control system for robot device and method using the same
CN103105960A (zh) * 2011-11-10 2013-05-15 英业达股份有限公司 触控面板与其触控方法
US20140020964A1 (en) * 2011-01-05 2014-01-23 Orbotix, Inc. Self-propelled device with actively engaged drive system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2219678B (en) 1985-10-30 1990-05-02 Mitsubishi Electric Corp Display control apparatus for elevator
JP3076931B2 (ja) 1991-09-18 2000-08-14 ヤンマー農機株式会社 傾斜地走行用作業車
US5999799A (en) 1996-04-26 1999-12-07 Samsung Electronics Co., Ltd. Auto-finder and distance warning method and apparatus for a remote control input device
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2006018727A (ja) 2004-07-05 2006-01-19 Funai Electric Co Ltd 3次元座標入力装置
JP2006222504A (ja) 2005-02-08 2006-08-24 Sharp Corp リモコンシステム
US20080318679A1 (en) 2007-06-21 2008-12-25 Alexander Bach Tran Foot game controller with motion detection and/or position detection
US20130332952A1 (en) 2010-04-12 2013-12-12 Atul Anandpura Method and Apparatus for Adding User Preferred Information To Video on TV
KR20130050369A (ko) * 2010-08-27 2013-05-15 인텔 코포레이션 터치 감지 장치 및 방법
JP2012094011A (ja) 2010-10-27 2012-05-17 Sharp Corp タッチリモコン
WO2014116282A1 (en) 2013-01-22 2014-07-31 University Of Maryland, College Park Electronic home plate for baseball and softball games and method for automatic determination of presence, position and speed of a ball relative to the strike zone

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000218578A (ja) * 1999-02-03 2000-08-08 Sony Corp 球形ロボット
CN1853876A (zh) * 2005-04-25 2006-11-01 Lg电子株式会社 能够指定移动区域的机器人系统
US20090157228A1 (en) * 2007-12-18 2009-06-18 Soon Hyuk Hong User interface device of remote control system for robot device and method using the same
US20140020964A1 (en) * 2011-01-05 2014-01-23 Orbotix, Inc. Self-propelled device with actively engaged drive system
CN103105960A (zh) * 2011-11-10 2013-05-15 英业达股份有限公司 触控面板与其触控方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106528137A (zh) * 2016-10-11 2017-03-22 深圳市天易联科技有限公司 与虚拟角色对话的方法及装置
CN108693792A (zh) * 2017-03-31 2018-10-23 奥的斯电梯公司 多目标动态ui动作元素

Also Published As

Publication number Publication date
KR20160112835A (ko) 2016-09-28
EP3070953B1 (en) 2019-08-07
EP3070953A1 (en) 2016-09-21
US9794506B2 (en) 2017-10-17
US20160277699A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
US7679601B2 (en) Input means for interactive devices
KR102462671B1 (ko) 디스플레이 장치 및 디스플레이 장치의 화면 표시 제어 방법
US20120208639A1 (en) Remote control with motion sensitive devices
US20130326583A1 (en) Mobile computing device
US20120274547A1 (en) Techniques for content navigation using proximity sensing
TW201227486A (en) Control system and method
CN106796351A (zh) 通过视线控制的头戴式显示装置及其控制方法、用于控制该装置的计算机程序
CN106537326A (zh) 用于辅助显示器的移动设备输入控制器
TW201220716A (en) Universal remote controller
EP3132612B1 (en) Method for operating image display device
CN105988601A (zh) 输入装置、显示装置及其控制方法
US20140160353A1 (en) Control apparatus, remote control apparatus, and method capable of controlling tv interface
CN104685461A (zh) 使用来自被控制的设备的输入模式数据的输入设备
US10386932B2 (en) Display apparatus and control method thereof
US20160345048A1 (en) Remote controller having dual touch pads and method of control using the same
CN108475204A (zh) 自动设置壁纸的方法、终端设备和图形用户界面
CN108536366A (zh) 一种应用程序窗口调整方法及终端
CN110187822A (zh) 一种终端及应用于终端的屏幕显示控制方法
CN109634438A (zh) 一种输入法的控制方法及终端设备
WO2022083554A1 (zh) 用户界面的布局、交互方法及三维显示设备
CN106873803A (zh) 模拟空鼠和键盘的系统及方法
KR20150093490A (ko) 영상표시장치의 동작 방법
KR102053823B1 (ko) 디스플레이장치, 원격제어장치 및 그 제어방법
CN106375812A (zh) 电视机智能操作提示方法、装置及系统
KR102581857B1 (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161005

WD01 Invention patent application deemed withdrawn after publication