CN105872683A - 图像显示设备和方法 - Google Patents
图像显示设备和方法 Download PDFInfo
- Publication number
- CN105872683A CN105872683A CN201610081095.3A CN201610081095A CN105872683A CN 105872683 A CN105872683 A CN 105872683A CN 201610081095 A CN201610081095 A CN 201610081095A CN 105872683 A CN105872683 A CN 105872683A
- Authority
- CN
- China
- Prior art keywords
- input
- project
- display
- image display
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/4221—Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42212—Specific keyboard arrangements
- H04N21/42213—Specific keyboard arrangements for facilitating data entry
- H04N21/42216—Specific keyboard arrangements for facilitating data entry for quick navigation, e.g. through an EPG
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Abstract
提供了一种图像显示设备和方法。所述图像显示设备包括:显示器,被配置为显示包括项目的项目列表;传感器,被配置为感测用于缩小项目列表的第一输入,并感测用于放大项目列表的第二输入。所述图像显示设备还包括:控制器,被配置为响应于传感器感测到第一输入,控制显示器按尺寸减小的方式来显示所述项目,响应于传感器感测到第二输入,控制显示器按尺寸增大的方式来显示所述项目。
Description
本申请要求于2015年2月10日在韩国知识产权局提交的10-2015-0020287号韩国专利申请的优先权,该申请的公开通过引用合并于此。
技术领域
与示例性实施例一致的设备和方法涉及一种图像显示设备和图像显示方法,更具体地说,涉及一种包括多个项目的项目列表可被放大或缩小的图像显示设备和图像显示方法。
背景技术
图像显示设备是具有显示可由用户观看的图像的设备。用户可通过图像显示设备观看广播。图像显示设备在显示器上显示由用户从由广播站发送的广播信号中选择的广播。总体上,当前广播的趋势是从模拟广播转变为数字广播。
数字广播是指数字图像和音频信号被发送的广播。数字广播比模拟广播对外部噪声更具有抵抗力,从而具有低数据丢失,被用于纠错,并提供具有高分辨率的清晰屏幕。另外,与模拟广播不同,数字广播能够双向服务。
最近,正在提供除了提供数字广播功能之外还提供各种内容的智能电视。智能电视正发展为在不需要用户的操作的情况下分析和提供用户希望的内容,来代替根据用户的选择手动操作。
发明内容
示例性实施例至少解决上面的问题和/或缺点以及上面未描述的其它缺点。此外,一个或更多个示例性实施例不需要克服上面描述的缺点,示例性实施例可不克服上述的任何问题。
一个或更多个示例性实施例的各方向提供了一种图像显示设备和图像显示方法,在所述图像显示设备和图像显示方法中,项目列表被放大或缩小,使得有利于从项目列表中检索项目,或者有利于在项目列表中的多个项目之间移动。
根据示例性实施例的一方面,一种图像显示设备,包括:显示器,被配置为显示包括项目的项目列表,以及传感器,被配置为感测用于缩小项目列表的第一输入,并感测用于放大项目列表的第二输入。所述图像显示设备还包括:控制器,被配置为响应于传感器感测到第一输入,控制显示器按尺寸减小的方式来显示所述项目,响应于传感器感测到第二输入,控制显示器按尺寸增大的方式来显示所述项目。
第一输入可包括以下输入中的至少一个输入:在控制图像显示设备的控制设备中包括的触摸板上沿第一方向拖动的输入、将所述控制设备向第二方向倾斜的输入、以及按下包括在所述控制设备中的四个方向键中的第一方向键的输入。
第二输入可包括以下输入中的至少一个输入:在所述触摸板上沿与第一方向相反的第三方向拖动的输入、将所述控制设备向与第二方向相反的第四方向倾斜的输入、以及按下所述四个方向键中的与第一方向键相反的第二方向键的输入。
控制器还可被配置为响应于传感器感测到第一输入,控制显示器显示在所述项目之中的至少一个项目中包括的下级项目。
控制器还可被配置为响应于传感器感测到第一输入,控制显示器显示包括与所述项目相应的线的上级项目区域,其中,所述线被连续地列出。
控制器还可被配置为响应于在所述线被显示的同时传感器感测到第二输入,控制显示器将所述线改变为所述项目,并显示所述项目。
控制器还可被配置为将所述项目之中的至少一个项目设置为书签项目,传感器还可被配置为感测将书签项目沿朝向在显示器中被标高亮的点的方向移动的用户输入,控制器还可被配置为响应于传感器感测到所述用户输入并且书签项目和被标高亮的点之间的距离等于或小于某一值,控制显示器增大书签项目的移动速度并将书签项目移动到被标高亮的点。
控制器可还被配置为响应于传感器感测到第二输入,控制显示器显示包括所述项目的上级项目。
传感器还可被配置为在所述项目按尺寸减小的方式被显示的同时感测所感测到的第一输入被释放,并在所述项目按尺寸增大的方式被显示的同时感测所感测到的第二输入被释放。控制器还可被配置为响应于传感器在所述项目按尺寸减小的方式被显示的同时感测到所感测到的第一输入被释放,控制显示器按尺寸增大的方式并且按照所述项目的原始状态显示所述项目,响应于传感器在所述项目按尺寸增大的方式被显示的同时感测到所感测到的第二输入被释放,控制显示器按尺寸减小的方式并且按照所述项目的原始状态显示所述项目。
传感器还可被配置为在所述项目按尺寸减小或增大的方式被显示的同时感测控制图像显示设备的控制设备的轻拂输入,控制器还可被配置为响应于传感器感测到轻拂输入,控制显示器保持按尺寸减小或增大的方式来显示所述项目。
传感器还可被配置为感测移动项目列表的第三输入,并且控制器还可被配置为响应于传感器感测到第三输入,控制显示器移动项目列表以改变所述项目之中的被标高亮的项目。
传感器还可被配置为感测用于移动项目列表中的项目的高亮的第三输入,并且控制器还可被配置为响应于传感器感测到第三输入,控制显示器移动高亮以改变所述项目之中的被标高亮的项目。
显示器还可被配置为显示指示用户输入的位置的光标,并且控制器还可被配置为响应于传感器感测到第一输入或第二输入,控制显示器将光标从项目列表的第一点移动到项目列表的第二点。
控制器还可被配置为控制显示器对所述项目之中的光标所位于的项目标高亮。
根据另一示例性实施例的一方面,提供了一种图像显示设备的图像显示方法,所述图像显示方法包括:显示包括项目的项目列表,感测用于缩小项目列表的第一输入或用于放大项目列表的第二输入。所述图像显示方法还包括:响应于感测到第一输入,按尺寸减小的方式来显示所述项目,响应于感测到第二输入,按尺寸增大的方式来显示所述项目。
所述图像显示方法还可包括:响应于感测到第一输入,显示在所述项目之中的至少一个项目中包括的下级项目。
所述图像显示方法还可包括:响应于感测到第一输入,显示包括与所述项目相应的线的上级项目区域,其中,所述线被连续地列出。
所述图像显示方法还可包括:响应于在所述线被显示的同时感测到第二输入,将所述线改变为所述项目,并显示所述项目。
所述图像显示方法还可包括:将所述项目之中的至少一个项目设置为书签项目,感测将书签项目沿朝向在显示器中被标高亮的点的方向移动的用户输入,并且响应于感测到所述用户输入并且书签项目和被标高亮的点之间的距离等于或小于某一值,增大书签项目的移动速度并将书签项目移动到被标高亮的点。
所述图像显示方法还可包括:响应于感测到第二输入,显示所述项目之中的至少一个项目的详细信息。
所述图像显示方法还可包括:响应于感测到第二输入,显示包括所述项目的上级项目。
所述图像显示方法还可包括:在所述项目按尺寸减小的方式被显示的同时感测所感测到的第一输入被释放,并在所述项目按尺寸增大的方式被显示的同时感测所感测到的第二输入被释放,响应于在所述项目按尺寸减小的方式被显示的同时感测到所感测到的第一输入被释放,按尺寸增大的方式并且按照所述项目的原始状态显示所述项目,响应于在所述项目按尺寸增大的方式被显示的同时感测到所感测到的第二输入被释放,按尺寸减小的方式并且按照所述项目的原始状态显示所述项目。
所述图像显示方法还可包括:在所述项目按尺寸减小或增大的方式被显示的同时感测控制图像显示设备的控制设备的轻拂输入,响应于感测到轻拂输入,保持按尺寸减小或增大的方式来显示所述项目。
所述图像显示方法还可包括:感测用于移动项目列表的第三输入,并且响应于感测到第三输入,移动项目列表以改变所述项目之中的被标高亮的项目。
所述图像显示方法还可包括:感测用于移动项目列表中的项目的高亮的第三输入,并且响应于感测到第三输入,移动高亮以改变所述项目之中的被标高亮的项目。
所述图像显示方法还可包括:显示指示用户输入的位置的光标,并且响应于感测到第一输入或第二输入,将光标从项目列表的第一点移动到项目列表的第二点。
所述图像显示方法还可包括:对所述项目之中的光标所位于的项目标高亮。
根据另一示例性实施例的一方面,提供了一种图像显示设备,包括:显示器,被配置为显示包括被标高亮的类别的多个类别,传感器,被配置为从远程控制设备感测用于缩小的第一输入,控制器,被配置为响应于传感器在被标高亮的类别被显示的同时感测到第一输入,控制显示器显示被标高亮的类别中包括的项目,响应于传感器在所述项目被显示的同时感测到第一输入,控制显示器按照尺寸减小的方式来显示所述项目。
控制器还可被配置为响应于传感器在被减小的项目被显示的同时感测到第一输入,控制显示器显示与所述项目相应的线。
传感器还可被配置为从远程控制设备感测用于放大的第二输入,并且控制器还可被配置为响应于传感器在所述线被显示的同时感测到第二输入,控制显示器显示减小的项目,响应于传感器在减小的项目被显示的同时感测到第二输入,控制显示器显示所述项目。
控制器还可被配置为响应于传感器在所述项目被显示的同时感测到第二输入,控制显示器显示所述项目之中的被标高亮的项目的详细信息。
控制器还可被配置为响应于传感器在所述项目被显示的同时感测到第二输入,控制显示器显示被标高亮的类别。
附图说明
通过参照附图描述示例性实施例,以上和/或其它方面将更加明显,其中:
图1是示出根据示例性实施例的图像显示设备和控制设备的示图;
图2是示出根据示例性实施例的图像显示设备的配置的框图;
图3是示出根据另一示例性实施例的图像显示设备的配置的框图;
图4是示出图3的存储器中存储的软件配置的示图;
图5是示出根据示例性实施例的控制设备的配置的框图;
图6A、图6B、图6C和图6D是示出根据示例性实施例的项目列表被缩小的示例的示图;
图7A、图7B、图7C、图7D、图7E和图7F是示出根据示例性实施例的项目列表被缩小并随后被放大的示例的示图;
图8A、图8B、图8C和图8D是示出根据示例性实施例的项目列表被放大的示例的示图;
图9A和图9B是示出根据另一示例性实施例的项目列表被放大的示例的示图;
图10A、图10B、图10C、图10D、图10E、图10F和图10G是示出根据另一示例性实施例的项目列表被缩小并随后被放大的示例的示图;
图11A、图11B、图11C、图11D、图11E、图11F和图11G是示出根据另一示例性实施例的项目列表被缩小并随后被放大的示例的示图;
图12是示出根据示例性实施例的图像显示方法的流程图。
具体实施方式
参照附图更详细地描述示例性实施例。
本公开的示例性实施例可被不同地修改。因此,示例性实施例被示出在附图中,并在具体实施方式中被详细描述。然而,将理解的是本公开不限于示例性实施例,而包括不脱离本公开的范围和精神的所有修改、等同物和替代。此外,由于公知功能或结构将以不必要的细节模糊本公开,因此可不详细描述公知功能或结构。
在以下的描述中,即使在不同的附图中,相同的附图标号也用于相同的元件。在描述中定义的事项(诸如详细的结构和元件)被提供以帮助对示例性实施例的全面理解。因此,明显的是可在不需要这些特别定义的事项的情况下实施示例性实施例。以下,将理解当诸如“…中的至少一个”的表述在一列元素之后时,是用于修饰整列元素,而不是用于修饰列表中的单独的元素。
在以下的本公开中,当描述包括(包含或具有)一些元素时,可理解为可仅包括(或包含或具有)这些元素,或者在没有特定限制的情况下除了可包括(或包含或具有)这些元素之外,还可包括(或包含或具有)其它元素。此外,在说明书中描述的诸如“单元”和“模块”的术语中的每个术语表示用于执行至少一个功能或操作的元件,并可在硬件、软件、或硬件和软件的组合中实现。
图1是示出根据示例性实施例的图像显示设备100和控制设备200的示图。
如图1所示,图像显示设备100可以是作为示例的TV,并可被实现为包括图2的显示器120的电子装置。例如,图像显示设备100可被实现为各种电子装置之一,诸如智能电话、平板PC、数码相机、摄像机、膝上型计算机、台式计算机、电子书终端、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航装置、MP3播放器、可穿戴装置等。可在具有大显示器120的显示装置(诸如TV)中实现示例性实施例,但不限于此。此外,图像显示设备100可以是固定的或移动的,并可以是能够接收数字广播的数字广播接收器。
除了平面显示设备外,图像显示设备100可被实现为曲面显示设备,即,具有曲率的屏幕或具有可调整的曲率的柔性显示设备。图像显示设备100的输出分辨率可包括例如高清(HD)、全HD、超HD或更高的分辨率。
控制设备200可被实现为各种类型的用于控制图像显示设备100的设备,诸如遥控器或蜂窝电话。
此外,控制设备200可通过短距离通信(诸如红外(IR)或蓝牙)来控制图像显示设备100。控制设备200可使用键(包括按钮)、触摸板、能够接收用户声音的麦克风和能够识别控制设备200的运动的传感器中的至少一个来控制图像显示设备100的功能。
控制设备200包括用于开启或关闭图像显示设备100的电源开启/关闭按钮。控制设备200还可根据用户输入在图像显示设备100上改变频道、调整图像显示设备100的音量、在图像显示设备100上选择地面广播/有线广播/卫星广播、或者设置图像显示设备100的配置。
此外,控制设备200可以是指向装置。例如,控制设备200可在预定键输入被接收到时操作为指向装置。
可通过将控制设备200向上移动、向下移动、向左移动或向右移动或者将控制设备200向任何方向倾斜的用户输入来控制图像显示设备100。关于通过控制设备200的传感器感测到的控制设备200的移动的信息可被发送到图像显示设备100。图像显示设备100可从关于控制设备200的移动的信息计算光标在显示器上的坐标,并根据计算出的坐标来移动光标。因此,在图像显示设备100的显示器上的光标可移动,或者各种显示的菜单可被激活。
可选地,在控制设备200包括触摸板的条件下,根据诸如用户的手指的对象在触摸板上移动的位移,图像显示设备100的显示器上的光标可被移动,或者各种显示的菜单可被选择性地激活。
这里使用的术语“用户”是指使用控制设备200控制图像显示设备100的功能或操作的人,可包括观看者、管理者或者安装工程师。
根据示例性实施例的图像显示设备100将包括多个项目的项目列表显示在显示器上。
另外,根据示例性实施例的图像显示设备100可响应于用于缩小项目列表的输入或者用于放大项目列表的输入,以增大的尺寸或减小的尺寸来显示包括在项目列表中的多个项目。
图2是示出根据示例性实施例的图像显示设备100a的配置的框图。图2的图像显示设备100a可以是图1的图像显示设备100的示例。
参照图2,根据示例性实施例的图像显示设备100a包括控制器110、显示器120和传感器130。
显示器120将由控制器110处理的图像信号、数据信号、屏上显示(OSD)信号、控制信号等转换为驱动信号。显示器120可被实现为等离子显示面板(PDP)、液晶显示器(LCD)、有机发光二极管(OLED)或柔性显示器,并可还可被实现为三维(3D)显示器。此外,显示器120可被配置为触摸屏,并因此除了可被用作输出装置之外还可被用作输入装置。
根据示例性实施例的显示器120可显示包括多个项目的项目列表。此外,显示器120可显示指示用户输入在显示器120上的位置的光标。
根据示例性实施例的传感器130可感测用户输入,并将感测到的信号发送到控制器110。此外,传感器130可从控制设备200感测用户输入,诸如电源开启/关闭、频道选择、频道向上/向下或者屏幕设置。根据示例性实施例的传感器130可感测用于移动显示器120上显示的光标的用户输入。此外,根据示例性实施例的传感器130可感测用于进入指向模式的输入。例如,传感器130可感测触摸控制设备200的触摸区域的输入或者按下控制设备200的用户输入单元的预定按钮的输入。
此外,传感器130可感测用于缩小项目列表的第一输入或用于放大项目列表的第二输入。
例如,传感器130将以下输入中的至少一个输入感测为第一输入:在用于控制图像显示设备100a的控制设备200中包括触摸板的条件下在触摸板上按第一方向拖动的输入、在控制设备200是指向装置的条件下将指向装置向第二方向倾斜的输入、在控制设备200包括四个方向键的条件下按下方向键的输入。可选地,传感器130可将以下输入中的至少一个输入感测为第二输入:在触摸板上按与第一方向相反的第三方向拖动的输入、将指向装置向与第二方向相反的第四方向倾斜的输入、按下四个方向键之中与上述方向键反向的方向键的输入。
此外,传感器130可感测用于移动项目列表的输入、用于移动项目列表中的高亮的输入、用于移动光标的输入。
根据示例性实施例的控制器110可处理图像信号,并将处理的图像信号输入到显示器120。因此,与图像信号相应的图像可被显示在显示器120上。另外,控制器110可按照通过传感器130感测到的用户命令或者内部程序来控制图像显示设备100a。
例如,根据示例性实施例,控制器110可响应于感测到的第一输入(用于缩小项目列表的用户输入),以减小的尺寸来显示包括在项目列表中的多个项目。另外,控制器110可响应于感测到的第二输入(用于放大项目列表的用户输入),以增大的尺寸来显示包括在项目列表中的多个项目。
控制器110可响应于第一输入显示多个项目中的至少一个项目中包括的下级项目。
控制器110可响应于第一输入显示包括多个项目的上级项目区域,并在上级项目区域中显示与这多个项目相应的线,使得这些线被连续列出。
控制器110可响应于第二输入将这些线改变为与这些线相应的多个项目,并可显示改变后的项目。
当感测到将多个项目中的书签项沿朝向高亮点的方向移动的用户输入,并且书签项和高亮点之间的距离等于或小于预定距离时,控制器110可增大书签项的移动速度,并将书签项移动到高亮点。
控制器110可响应于第二输入显示关于多个项目中的至少一个项目的详细信息。
控制器110可响应于第二输入显示包括多个项目的上级项目。
当在多个项目按照减小的尺寸或增大的尺寸被显示的同时感测到的输入被释放时,控制器110可将多个项目返回到它们的原始状态。
当在多个项目按照减小的尺寸或增大的尺寸被显示的同时轻拂输入被感测到时,即使感测到的输入被释放,控制器110也可保持多个项目按照减小的尺寸或增大的尺寸被显示的状态。
控制器110可响应于移动项目列表的用户输入来移动项目列表以改变多个项目中的高亮项目。
控制器110可响应于用于移动项目列表中的高亮的用户输入来移动高亮以改变多个项目中的高亮项目。
控制器110可根据第一输入或第二输入将光标从项目列表中的第一点移动到项目列表中的第二点。控制器110可对光标所位于的项目标高亮。
图3是示出根据另一示例性实施例的图像显示设备100b的配置的框图。图3的图像显示设备100b可以是图1的图像显示设备100的示例。
参照图3,根据示例性实施例的图像显示设备100b除了包括控制器110、显示器120和传感器130之外,还包括视频处理器180、音频处理器115、音频输出接口125、电源160、调谐器140、通信接口150、输入/输出接口170和存储器190。
在图3的描述中,将省略对于图2中描述的控制器110、显示器120和传感器130的重复描述。
视频处理器180对由图像显示设备100b接收到的视频数据进行处理。视频处理器180可对视频数据执行各种图像处理操作,诸如,解码、缩放、噪声过滤、帧率转换、分辨率转换。
显示器120按照控制器110的控制显示通过调谐器140接收到的广播信号中包括的视频。此外,显示器120可显示通过通信接口150或输入/输出接口170输入的内容(例如,视频)。显示器120可按照控制器110的控制输出存储在存储器190中的图像。此外,显示器120可显示用于执行与语音识别相应的语音识别任务的语音用户界面(UI)(例如,包括语音命令指南)、或者用于执行与动作识别相应的动作识别任务的动作UI(例如,包括用于动作识别的用户动作指南)。
音频处理器115对音频数据进行处理。音频处理器115可对音频数据执行各种处理操作,诸如解码、放大和噪声过滤。音频处理器115可包括多个音频处理器来处理与多条内容相应的音频。
音频输出接口125按照控制器110的控制输出通过调谐器140接收到的广播信号中包括的音频。音频输出接口125可输出通过通信接口150或输入/输出接口170输入的音频(例如,语音或声音)。此外,音频输出接口125可按照控制器110的控制输出存储在存储器190中的音频。音频输出接口125可包括扬声器126、耳机输出终端127和索尼/飞利浦数字接口(S/PDIF)输出终端128中的至少一个。音频输出接口125可包括扬声器126、耳机输出终端127和S/PDIF输出终端128的组合。
电源160按照控制器110的控制将从外部电源输入的电力供应到图像显示设备100b内部的元件。此外,电源160可按照控制器110的控制向内部元件供应从位于图像显示设备100b内部的一个或更多个电池输出的电力。
调谐器140可对通过有线或无线接收到的广播信号进行放大、混频或共振以在多个无线电波分量之中仅调谐并选择将由显示设备100b接收的频道的频率。广播信号包括音频、视频和附加信息(例如,电子节目指南(EPG))。
调谐器140可响应于用户输入(例如,从控制设备200接收到的控制信号,其中,控制信号包括频道号输入、频道向上/向下输入和EPG屏幕上的频道输入),接收与频道号(例如,有线广播第506号)相应的频带的广播信号。
调谐器140可从各种源(诸如地面广播、有线广播、卫星广播和互联网广播)接收广播信号。调谐器140还可从诸如模拟广播或数字广播的源接收广播信号。通过调谐器140接收到的广播信号可被解码(例如,音频解码、视频解码或附加信息解码)为音频、视频和/或附加信息。按照控制器110的控制,解码后的音频、视频和/或附加信息可被存储在存储器190中。
可以以多种方式提供图像显示设备100b的调谐器140。调谐器140可被实现为与图像显示设备100b是一体的,或者可被实现为与图像显示设备100b电连接的具有调谐器的单独的装置(例如,机顶盒、连接到输入/输出接口170的调谐器等)。
通信接口150可按照控制器110的控制将图像显示设备100b与外部装置(例如,音频装置)连接。控制器110可将内容发送到通过通信接口150连接的外部装置/从通过通信接口150连接的外部装置接收内容,从外部装置下载应用,或者执行web浏览。通信接口150可根据显示设备100b的性能和结构,包括无线LAN(WLAN)151、蓝牙152和有线以太网153之一。此外,通信接口150可包括WLAN 151、蓝牙152和有线以太网153的组合。通信接口150可按照控制器110的控制接收控制设备200的控制信号。控制信号可被实现为蓝牙类型信号、RF类型信号或WiFi类型信号。
例如,通信接口150可通过使用蓝牙152的通信从控制设备200接收与蓝牙类型用户输入(例如,触摸、按压、触摸手势、语音或动作)相应的信号。通信接口150除了可包括蓝牙之外,还可包括短距离通信(例如,近场通信(NFC)和蓝牙低功耗(BLE))。
传感器130感测用户的语音、图像或交互。
麦克风131接收由用户发出的语音。麦克风131可将接收到的语音转换为电信号,并可将电信号输出到控制器110。用户的语音可包括例如与图像显示设备100b的菜单或功能相应的语音。麦克风131的识别范围可被推荐为从麦克风131到用户位置的距离为4米或更小,并可根据用户语音的级别和周围环境(例如,扬声器声音或环境噪声)而不同。
根据示例性实施例,麦克风131可接收由用户发出的语音,并将接收到的语音数据输出到控制器110,使得控制器110可使用语音数据来识别观看图像显示设备100b的用户的身份。
麦克风131可被实现为与图像显示设备100b是一体的,或可被实现为与图像显示设备100b分离。单独的麦克风131可通过通信接口150或输入/输出接口170与图像显示设备100b电连接。
本领域的技术人员将容易地理解根据图像显示设备100b的性能和结构可不包括麦克风131。
相机132在相机识别范围内接收与包括手势的用户动作相应的图像(例如,连续帧)。例如,相机132的识别范围可以在从相机到用户约0.1米至约5米的距离内。例如,用户的动作可包括用户的身体部位(诸如用户的脸部、手、拳头或手指)或用户的身体部位的动作。相机132可按照控制器110的控制将接收到的图像转换为电信号,并可将电信号输出到控制器110。
根据示例性实施例,相机132可捕捉用户的脸部,并将接收到的脸部图像输出到控制器110,使得控制器110可使用脸部图像来识别观看图像显示设备100b的用户的身份。
控制器110可使用接收到的动作识别结果来选择显示在图像显示设备100b上的菜单或执行与动作识别结果相应的控制。例如,所述控制可包括频道调整、音量调整、指示符移动和光标移动。
相机132可包括镜头和图像传感器。相机132可使用多个镜头和图像处理来支持光学变焦和数字变焦。可根据相机视角和周围环境条件来不同地设置相机132的识别范围。当相机132包括多个相机时,相机132使用多个相机来接收三维(3D)静止图像或3D移动图像。
相机132可被实现为与图像显示设备100b是一体的,或可被实现为与图像显示设备100b分离。包括分离的相机132的单独的装置可通过通信接口150或输入/输出接口170与图像显示设备100b电连接。
本领域的技术人员将容易理解,根据图像显示设备100b的性能和结构,可不包括相机132。
光接收器133通过显示器120的边框的光学窗口接收从外部控制设备200接收到的光信号(包括控制信号)。光接收器133可从控制设备200接收与用户输入(例如,触摸、按压、触摸手势、语音或动作)相应的光信号。可按照控制器110的控制从接收到的光信号提取控制信号。
输入/输出接口170按照控制器110的控制从图像显示设备100b的外部接收视频(例如,运动画面)、音频(例如,语音或音乐)和附加信息(例如,EPG)。输入/输出接口170可包括高清多媒体接口(HDMI)端口171、组件插口172、PC端口173和USB端口174。输入/输出接口170可包括HDMI端口171、组件插口172、PC端口173和USB端口174的组合。
本领域的技术人员将容易理解,可根据示例性实施例按各种方式实现输入/输出接口170的配置和操作。
控制器110用于控制图像显示设备100b的整体操作以及图像显示设备100b的内部元件之间的信号流,并用于处理数据。当存在用户输入或者预定并存储的条件被满足时,控制器110可运行存储在存储器190中的操作系统(OS)和各种应用。
控制器110包括随机存取存储器(RAM)181、只读存储器(ROM)182和处理器183,其中,RAM 181存储从图像显示设备100b的外部接收的信号或数据或用作与由图像显示设备100b执行的各种任务相应的存储区域,ROM 182存储用于控制图像显示设备100b的控制程序。
处理器183或控制器110可包括用于执行与视频相应的图形处理的图形处理器(GPU)。处理器183可被实现为包括核和GPU的片上系统(SoC)。处理器183可包括单核、双核、三核、四核以及多倍数量的核。
此外,处理器183可包括多个处理器。例如,处理器183可被实现为主处理器和在睡眠模式下操作的子处理器。
图形处理器184使用处理器和渲染器来产生包括各种对象(诸如图标、图像、文本等)的屏幕。计算器使用通过传感器130感测到的用户输入,根据屏幕的布局来计算对象将被显示的属性值,诸如坐标、形式、尺寸和颜色。渲染器基于由计算器计算出的属性值产生具有包括对象的各种布局的屏幕。由渲染器产生的屏幕被显示在显示器120的显示区域内。
第一接口185-1至第n接口185-n与上述的各种类型的元件连接。这些接口之一可以是通过网络与外部装置连接的网络接口。
RAM 181、ROM 182、处理器183、图形处理器184以及第一接口185-1至第n接口185-n通过内部总线186彼此连接。
这里使用的术语“图像显示设备的控制器”包括处理器183、ROM 182和RAM 181。
存储器190可按照控制器110的控制存储用于驱动和控制图像显示设备100b的各种类型的数据、程序或应用。存储器190可存储与视频处理器180、显示器120、音频处理器115、音频输出接口125、电源160、调谐器140、通信接口150、传感器130和输入/输出接口170的驱动相应的输入/输出信号或数据。存储器190可存储用于控制图像显示设备100b和控制器110的控制程序、由制造商初始提供的或从外部下载的应用、与应用关联的图形用户界面(GUI)、用于提供GUI的对象(例如,图像文本、图标或按钮)、用户信息、文档、数据库或相关数据。
在示例性实施例中,术语“存储器”包括存储器190、控制器110的ROM182或RAM 181、或安装在图像显示设备100b中的记忆卡(例如,微SD卡或USB存储器)。此外,存储器190可包括非易失性存储器、易失性存储器、硬盘驱动器(HDD)和固态驱动器(SSD)。
存储器190可包括广播接收模块、频道控制模块、音量控制模块、通信控制模块、语音识别模块、动作识别模块、光接收模块、显示控制模块、音频控制模块、外部输入控制模块、电源控制模块、无线连接(例如,经由蓝牙)的外部装置的电源控制模块、语音数据库(DB)或动作DB。可以以这样的形式来实现存储器190的模块和DB,即,图像显示设备100b用于执行广播接收控制功能、频道控制功能、音量控制功能、通信控制功能、语音识别功能、动作识别功能、光接收控制功能、显示控制功能、音频控制功能、外部输入控制功能、
电源控制功能或无线连接(例如,经由蓝牙)的外部装置的电源控制功能。控制器110可使用存储在存储器190中的软件来执行每个功能。
此外,具有显示器120的图像显示设备100b可与具有调谐器的单独的外部装置(例如,机顶盒)电连接。例如,本领域的技术人员将容易理解,图像显示设备100b可被实现为模拟TV、数字TV、3D TV、智能TV、LED TV、OLED TV、等离子TV或监视器,但不限于此。
图像显示设备100b可包括检测图像显示设备100b的内部或外部状态的传感器(例如,照度传感器、温度传感器等)。
图2或图3中示出的图像显示设备100a或100b的框图是示例性实施例的框图。框图的元件可根据实际实现的图像显示设备100a或100b的规格而被集成、添加或省略。也就是说,两个或更多个元件可被组合为一个元件,或者一个元件可被分为两个或更多个元件。此外,在每个块中执行的功能意图描述示例性实施例,其详细操作或装置不限制示例性实施例。
图4是用于描述存储在图3的存储器190中的软件配置的示图。
参照图4,包括基本模块191、感测模块192、通信模块193、呈现模块194、web浏览器模块195和服务模块196的软件被存储在存储器190中。
基本模块191是指处理从包括在图像显示设备100b中的硬件传送的信号并将传送的信号传送到上层模块的基本模块。基本模块191包括存储模块191-1、安全模块191-2和网络模块191-3。存储模块191-1是管理数据库(DB)或注册文档的程序模块。处理器183可使用存储模块191-1来访问存储器190中的数据库并读取各种类型的数据。安全模块191-2是支持硬件的认证、请求许可和安全存储的程序模块。网络模块191-3包括作为用于支持网络连接的模块的DNET模块、UPnP模块等。
感测模块192是从各种类型的传感器收集信息并分析和管理收集的信息的模块。感测模块192还可包括头部方向识别模块、脸部识别模块、语音识别模块、动作识别模块、NFC识别模块、旋转识别模块、触摸识别模块、手势识别模块等。
通信模块193是用于执行与外部的通信的模块。通信模块193包括消息模块193-1(诸如信使程序、短消息服务(SMS)和多媒体消息服务(MMS)程序、或电子邮件程序)以及电话模块193-2(包括呼叫信息聚合器程序模块、互联网协议上语音(VoIP)模块等)。
呈现模块194是用于配置显示屏幕的模块。呈现模块194包括用于重放并输出多媒体内容的多媒体模块194-1以及用于执行用户界面和图形处理的UI和图形渲染模块194-2。多媒体模块194-1可包括播放器模块、摄像机模块、声音处理模块等。因此,多媒体模块194-1执行重放各种类型的多媒体内容的操作以产生并重放屏幕和声音。UI和图形渲染模块194-2可包括组合图像的图像组合器、组合并产生将被显示在屏幕上的图像的坐标的坐标组合模块、从硬件接收各种类型的事件的X11模块以及提供用于配置2D或3D类型UI的工具的2D/3D UI工具包。
Web浏览器模块195是指执行web浏览以访问web服务器的模块。Web浏览器模块195可包括各种模块,诸如配置web页面的web视图模块、执行下载的下载代理模块、书签模块和webkit模块。
服务模块196是包括用于提供各种服务的各种类型的应用的模块。具体地,服务模块196可包括各种程序模块,诸如SNS程序、内容重放程序、游戏程序、电子书程序、日历程序、叫醒管理程序和其它微件。
在图4中,示出了各种程序模块。然而,将理解,各种程序模块可根据图像显示设备100b的类型和特征而被部分略图、修改或添加。例如,还可包括与硬件协作的支持基于位置的服务的基于位置的模块(诸如全球定位系统(GPS)芯片)。
图5是示出根据示例性实施例的控制设备200的配置的框图。
参照图5,控制设备200包括无线通信接口220、用户输入接口230、传感器部分240、输出接口250、电源260、存储器270和控制器280。
无线通信接口220可将信号发送到上述根据示例性实施例的图像显示设备中的任意一个/从上述根据示例性实施例的图像显示设备中的任意一个接收信号。无线通信接口220包括可根据RF通信标准将信号发送到图像显示设备100和/或从图像显示设备100接收信号的RF收发器221。此外,控制设备200可包括可根据IR通信标准将信号发送到图像显示设备100和/或从图像显示设备100接收信号的IR收发器221。
在示例性实施例中,控制设备200通过RF收发器221将包含关于控制设备的移动的信息的信号发送到图像显示设备100。
此外,控制设备200可通过RF收发器221接收由图像显示设备100发送的信号。控制设备200可通过IR收发器223将用于开启/关闭、频道改变、音量调整等的命令发送到图像显示设备100。
用户输入接口230可包括键盘、按钮、触摸板或触摸屏。用户可操作用户输入接口230来将与图像显示设备100关联的命令输入到控制设备200。当用户输入接口230包括硬键按钮时,用户可通过按压硬键按钮的操作将与图像显示设备100关联的命令输入到控制设备200。当用户输入接口230包括触摸屏时,用户可触摸触摸屏的软键来将与图像显示设备100关联的命令输入到控制设备200。
例如,用户输入接口230可包括四个方向按钮或键。四个方向按钮或键可被用于控制显示在显示器120上的窗口、区域、应用或项目。四个方向键或按钮可被用于指示向上、向下、向左和向右移动。本领域的技术人员将理解,用户输入接口230可包括两个方向键或按钮,而不是包括四个方向键或按钮。
此外,用户输入接口230可包括可由用户操作的各种类型的输入接口,诸如滚动键或滚轮键。
用户输入接口230可包括触摸板。根据示例性实施例的用户输入接口230可通过控制设备200的触摸板接收用户输入(诸如拖动、触摸或轻拂)。图像显示设备100可根据接收到的用户输入的类型(例如,拖动命令被输入的方向或触摸命令被输入的时间段)而被控制。
传感器部分240包括陀螺仪传感器241和加速度传感器243。陀螺仪传感器241可感测关于控制设备200的移动的信息。作为示例,陀螺仪传感器241可针对x轴、y轴和z轴感测关于控制设备200的操作的信息。加速度传感器243可感测关于控制设备200的移动速度的信息。传感器部分240还可包括距离测量传感器,并因此可感测与图像显示设备100的距离。
输出接口250可输出与用户输入接口230的操作相应的视频或语音信号或者与从图像显示设备100接收到的信号相应的视频或语音信号。通过输出接口250,用户可确定是否调整用户输入接口230或是否控制图像显示设备100。
作为示例,输出接口250可包括LED 251、振动器253、扬声器255或显示器257。当用户输入接口230被操作,或者通过无线通信接口220将信号发送到图像显示设备100和/或通过无线通信接口220从图像显示设备100接收到信号时,LED 251被点亮,振动器253产生振动,扬声器255输出声音,并且显示器257输出图像。
电源260向控制设备200供电。当控制设备200在一段时间内没有移动时,电源260可停止供电,因此降低功耗。电源260可在控制设备200中包括的预定键被操作时重新供电。
存储器270可存储在控制设备200的控制或操作中使用的各种类型的程序和应用数据。
控制器280控制与控制设备200的控制关联的整体操作。控制器280可通过无线通信接口220将与用户输入接口230的预定键的操作相应的信号或与由传感器部分240感测到的控制设备200的移动相应的信号发送到图像显示设备100。
图像显示设备100可包括坐标计算器,其中,坐标计算器可计算与控制设备200的光标的操作相应的坐标。
坐标计算器可从与感测到的控制设备200的操作相应的信号校正手抖或误差以计算将被显示在显示器120上的光标的坐标(x,y)。
此外,通过传感器130感测到的控制设备200的发送信号被发送到图像显示设备100的控制器110。控制器110可基于由控制设备200发送的信号来确定关于控制设备200的操作和键操作的信息,并可根据确定的结果来控制图像显示设备100。
作为另一示例,控制设备200可计算光标的与操作相应的坐标,并将计算出的坐标发送到图像显示设备100。在这种情况下,图像显示设备100可将关于光标的坐标的信息发送到控制器110,其中,光标的坐标是在没有校正手抖或误差的单独操作的情况下被接收到的。
图6A、图6B、图6C和图6D是示出根据示例性实施例的项目列表被缩小的示例的示图。
参照图6A,显示器120在显示器120的底部显示包括多个项目的项目列表310。项目列表310具有多个项目横向排列的形式。然而,示例性实施例不限于此。项目列表可以是多个项目纵向排列的列表。
多个项目均可以是指示类别的类别项。例如,如图6A所示,多个项目包括类别项“频道”、类别项“历史”、类别项“游戏”、类别项“剪辑”和类别项“应用”。然而,示例性实施例不限于此。
此外,每个类别项可包括指示被分类到相应类别的内容的项目,作为下级项目。例如,类别项“频道”可包括指示广播频道(例如,与第一频道相应的项目、与第二频道相应的项目、与第三频道相应的项目等)的项目,作为下级项目。
此外,类别项“历史”可包括与用户最近运行的应用相应的项目,作为下级项目。此外,类别项“游戏”可包括指示游戏内容的项目,作为下级项目。此外,类别项“应用”可包括与安装在图像显示设备中的应用相应的项目,作为下级项目。
如图6A所示,包括在项目列表310中的多个项目被呈现为可具有相同尺寸或不同尺寸的四边形。例如,四边形可根据包括在多个项目中的每个项目中的下级项目的数量和特征而具有不同宽度或高度。此外,四边形可包括高度与宽度相等的正方形或高度与宽度不等的矩形。然而,示例性实施例不限于此。
再次参照图6A,多个项目之中的位于显示器120中心的第一项目321被标高亮,被标高亮的第一项目321被明显地显示。例如,被标高亮的第一项目321的颜色可被改变,或者还可在第一项目321的边缘周围显示四边形框。可选地,被标高亮的第一项目321的尺寸(例如,宽度或高度)可被改变。
在感测到移动项目列表310的用户输入时,图像显示设备100可根据用户输入的方向移动项目列表310以改变位于显示器120的中心的第一项目321。
例如,如图6A所示,当项目列表310是项目被横向排列的列表时,图像显示设备100可感测将项目列表310向左移动或向右移动的输入,并因此改变位于显示器120的中心的第一项目321。
在控制设备200包括触摸板235的条件下,控制设备200可感测在触摸板235上向左拖动或向右拖动的触摸输入。可选地,在控制设备200是指向装置的条件下,控制设备200可使用运动传感器(例如,加速度传感器或陀螺仪传感器)感测向左移动或向右移动或者向左倾斜或向右倾斜。可选地,在控制设备200包括四个方向键的条件下,控制设备200可感测在四个方向键中的向左键输入或向右健输入。
如图6A所示,当感测到在触摸板235上向右拖动的触摸输入时,图像显示设备100将项目列表310向左(即,与向右相反的方向)移动。当如图6B所示项目列表310向左移动时,先前位于第一项目321的右侧的第二项目322被移动到显示器120的中心,并随后被标高亮。
图像显示设备100可感测缩小项目列表的用户输入。例如,在控制设备200包括触摸板235的条件下,控制设备200可感测在触摸板235上沿与缩小相应的方向拖动的触摸输入。可选地,在控制设备200是指向装置的条件下,图像显示设备100可感测向与缩小相应的方向移动控制设备200或倾斜控制设备200的用户输入。可选地,在控制设备200包括四个方向键的条件下,图像显示设备100可感测按下四个方向键之中的与缩小相应的方向键的输入。
如图6B所示,当感测到在触摸板235上向下拖动的触摸输入(例如,用于缩小的用户输入)时,如图6C所示,图像显示设备100在项目列表310中显示在被标高亮的第二项目322中包括的下级项目。
例如,当在类别项“频道”322被标高亮的同时感测到缩小项目列表310的用户输入(例如,在触摸板235上向下拖动的触摸输入)时,如图6C所示,图像显示设备100在项目列表310中显示指示包括在类别项“频道”322中的广播频道的项目(例如,与第一频道(频道1)相应的项目331、与第二频道(频道2)相应的项目332、与第三频道(频道3)相应的项目333)。在这种情况下,广播频道的频道名称和频道号可被显示在指示广播频道的项目中。可选地,可在项目中显示用户在相应频道上最后观看的屏幕图像或者指示在相应频道上当前广播的节目的图像。
即使当图像显示设备100感测到在图6B的项目列表310中选择被标高亮的第二项目322的用户输入时,图像显示设备100可如图6C所示显示包括在第二项目322中的下级项目331、332和333。
图像显示设备100对显示在项目列表310中的下级项目之中的位于显示器120的中心的项目331标高亮,并在项目331的上部显示与被标高亮的项目331相应的频道号(例如,1)。
此外,图像显示设备100可在类别项“频道”322的下级项目331、332和333被显示的同时感测移动项目列表310的用户输入。例如,图像显示设备100可感测在控制设备200的触摸板235上向左拖动或向右拖动的触摸输入。可选地,图像显示设备100可感测将控制设备200向左移动或向右移动或者将控制设备200向左倾斜或向右倾斜的输入,或者可感测按下控制设备200的四个方向键之中的向左键或向右键的输入。
图像显示设备100可响应于感测到的移动项目列表的用户输入来移动项目列表并改变被标高亮的项目。例如,如图6C所示,当感测到在触摸板235上向右拖动的触摸输入时,图像显示设备100将项目列表310向左(即,与向右相反的方向)移动。当项目列表310向左移动时,如图6D所示,与频道8相应的项目338位于显示器120的中心,并随后被标高亮。
在感测到选择被标高亮的项目(例如,与频道8相应的项目338)的用户输入时,图像显示设备100可在显示器120的全部上显示相应频道(例如,频道8)的屏幕。
图7A、图7B、图7C、图7D、图7E和图7F是示出根据示例性实施例的项目列表被放大并随后被缩小的示例的示图。
参照图7A,显示器120显示包括多个项目的项目列表410。多个项目都可以是指示内容的项目。例如,指示内容的项目可包括以下项目:指示视频内容(诸如电影或肥皂剧)的项目、指示音频内容(诸如音乐)的项目、指示应用的项目、指示广播频道的项目和指示用户已执行过的内容的历史信息的项目。
在这种情况下,可在多个项目的每个项目中显示与项目相应的内容的内容名称、指示内容的图像和在该内容中最后执行的屏幕图像。例如,当多个项目是指示广播频道的项目时,可在多个项目中的每个项目中显示广播频道的频道名称和频道号。可选地,可在项目上显示用户在相应频道上最后观看的屏幕图像或者指示在相应频道上当前广播的节目的图像。
参照图7A,多个项目之中的位于显示器120的中心的项目438被标高亮,并且被标高亮的项目被明显地显示。
图像显示设备100可感测缩小项目列表的用户输入。例如,如图7A所示,图像显示设备100感测在控制设备200的触摸板235上向下(即,与缩小相应的方向)拖动的触摸输入。可选地,图像显示设备100可感测将控制设备200向与缩小相应的方向移动或者将控制设备200向与缩小相应的方向倾斜的输入,或者可感测按下控制设备200的四个方向键之中的与缩小相应的方向键的输入。
图像显示设备100可响应于感测到的用户输入逐渐减小包括在项目列表中的多个项目的尺寸。例如,如图7B所示,图像显示设备100响应于缩小输入将多个项目的宽度从第一宽度W1逐渐减小到第二宽度W2。在这种情况下,图像显示设备100可基于缩小输入的尺寸来减小多个项目的宽度。例如,图像显示设备100还可随着在触摸板235上输入的拖动的距离、控制设备200移动的距离、倾斜角度或者方向键被按下的时间段的增加而减小多个项的宽度。
此外,当在多个项目的宽度减小到第二宽度W2的同时连续感测到缩小输入时,如图7C所示,图像显示设备100在项目列表410中显示包括多个项目的上级项目区域450。例如,当多个项目是指示广播频道的项目时,其上级项目可以是类别项“频道”。因此,图像显示设备100可在项目列表410中显示类别项“频道”区域,作为上级项目区域450。此外,图像显示设备100可在项目列表410中显示与类别项“频道”具有相同深度的另一类别项(例如,类别项“应用”、类别项“历史”和类别项“游戏”)。
图像显示设备100在上级项目区域450中显示与多个项目相应的线,使得这些线被连续列出。在这种情况下,显示在上级项目区域中的线是与多个项目被排列的方向垂直的线。
例如,如图7C所示,对于类别项被横向排列的项目列表410,图像显示设备100在上级项目区域450中显示与指示广播频道的多个项目相应的纵向线460。
在这种情况下,多个纵向线460之中的位于显示器120的中心的纵向线465被标高亮,并且可使用与其它纵向线不同的厚度或颜色来显示被标高亮的纵向线465。此外,在纵向线465上方显示与被标高亮的纵向线465相应的广播频道的频道号(例如,8)。
在上级项目区域和线被显示的同时,图像显示设备100可感测移动项目列表410的用户输入。
例如,当在控制设备200的触摸板235上向下拖动的输入被感测为缩小输入时,图像显示设备100可感测向左拖动或向右拖动同时在拖动结束的点保持触摸的输入。可选地,当将控制设备200向下移动或向下倾斜的输入被感测为缩小输入时,图像显示设备100可感测到将控制设备200向左移动或向右移动或者将控制设备200向左倾斜或向右倾斜同时在控制设备200的移动(例如,缩小输入)结束的点保持控制设备200的倾斜角度的输入。可选地,当按下控制设备200的四个方向键之中的向下键的输入被感测为缩小输入时,图像显示设备100可感测按下四个方向键之中的向左键或向右键同时按下向下键的输入。
图像显示设备100可响应于感测到的用户输入来移动项目列表410,以改变被标高亮的项目(例如,被标高亮的纵向线)。例如,如图7C所示,当由触摸板235感测到在触摸板235上从缩小输入结束的点向右拖动的输入时,图像显示设备100将项目列表410向左(即,与向右相反的方向)移动。当项目列表410向左移动时,如图7D所示,与频道25相应的纵向线467位于显示器120的中心,并随后被标高亮。
另外,图像显示设备100可将多个项目中的至少一个项目设置为书签项目。例如,指示广播频道的多个项目之中的与用户偏爱的频道或频繁观看的频道相应的项目可被设置为书签项目。
图像显示设备100可感测沿朝向显示器120的中心(纵向线被标高亮的位置)的方向移动与书签项目相应的纵向线的用户输入。在这种情况下,当与书签项目相应的纵向线和显示器120的中心(标高亮的点)之间的距离等于或小于预定距离时,图像显示设备100可快速将与书签项目相应的纵向线移动到显示器120的中心(标高亮的点)。因此,当与书签项目相应的纵向线变得接近于标高亮的点时,图像显示设备100可移动项目列表,使得用户感觉好像与书签项目相应的纵向线像磁铁一样被吸附到标高亮的点。
当在项目列表被放大或被缩小的同时,感测到的用户输入被释放时,图像显示设备100可逐渐将被放大或被缩小的项目列表返回到原始项目列表。
例如,如图7B所示,当在多个项目的宽度被减小的同时,感测到的用户输入被释放时(例如,当用户放开触摸板235时),图像显示设备100可逐渐增大多个项目的宽度,因此将项目列表返回到图7A的项目列表。
此外,如图7C或图7D所示,当在与多个项目相应的线被显示的同时,感测到的用户输入被释放时(例如,当用户放开触摸板235时),图像显示设备100可将多个线改变为与这些线相应的多个项目,并逐渐增加多个项目的宽度,因此将项目列表410返回到图7A的项目列表。
可选地,当在项目列表被缩小的同时,预定用户输入(例如,轻拂输入)被感测到时,即使感测到的用户输入被释放,图像显示设备100也可保持缩小。
在项目列表被缩小的同时,图像显示设备100可感测放大项目列表的用户输入。例如,如图7D所示,图像显示设备100感测在控制设备200的触摸板235上向上(例如,与放大相应的方向)拖动的触摸输入。可选地,图像显示设备100可感测沿与放大相应的方向移动或倾斜控制设备200的输入,或者可感测按下控制设备200的四个方向键之中的与放大相应的方向键的输入。
图像显示设备100可响应于感测到的放大输入逐渐增大显示在上级项目区域中的线的宽度。当这些线的宽度超过预测宽度时,如图7E所示,图像显示设备100将这些线改变为与这些线相应的多个项目,并随后显示改变后的项目。在这种情况下,预定宽度可与图7B中的上述第二宽度W2不同。
此外,当在多个项目被显示的同时连续感测到放大输入时,如图7F所示,图像显示设备100按照宽度逐渐增大的方式来显示多个项目。
图8A、图8B、图8C和图8D是示出根据示例性实施例的项目列表被放大的示例的示图。
参照图8A,显示器120显示包括多个项目的项目列表510。图8A的项目列表510可与图7A的项目列表410相同。已参照图7A详细描述项目列表,因此将省略对其的重复描述。
此外,多个项目之中的位于显示器120的中心的项目531被标高亮,并且被标高亮的项目被明显地显示。
图像显示设备100可感测放大项目列表510的用户输入。例如,如图8A所示,图像显示设备100感测在控制设备200的触摸板235上向上(即,与放大相应的方向)拖动的触摸输入。可选地,图像显示设备100可感测沿与放大相应的方向移动或倾斜控制设备200的输入,或者可感测按下控制设备200的四个方向键之中的与放大相应的方向键的输入。
图像显示设备100可响应于感测的用户输入逐渐增大被标高亮的项目的尺寸。例如,如图8B所示,图像显示设备100响应于放大输入逐渐将被标高亮的第一项目531的宽度从第一宽度W1增大到第三宽度W3。此外,当在第一项目531的宽度被增大到第三宽度W3的同时连续感测到放大输入时,如图8C所示,图像显示设备100在将第一项目531的宽度逐渐增大到第四宽度W4的同时,显示关于与第一项目531相应的内容的详细信息。
在这种情况下,关于内容的详细信息可包括通过最后执行内容而获得的屏幕图像、最后执行内容的日期、内容的类型和在内容中存在的人。例如,当内容是广播频道时,关于内容的详细信息可包括关于实时在广播频道上广播的节目的信息。
在以增加宽度的方式显示被标高亮的项目的同时,图像显示设备100可感测移动项目列表510的用户输入。
例如,当在控制设备200的触摸板上向上拖动的输入被感测为放大输入时,图像显示设备100可感测向左或向右拖动同时在拖动结束的点上保持触摸的输入。可选地,当将控制设备200向上移动或向上倾斜的输入被感测为放大输入时,图像显示设备100可感测将控制设备200向左移动或向右移动或者将控制设备200向左倾斜或向右倾斜同时在控制设备200的移动(例如,放大输入)结束的点保持控制设备200的倾斜角度的输入,并可移动项目列表。可选地,当按下控制设备200的四个方向键之中的向上键的输入被感测为放大输入时,图像显示设备100可感测在按下向上键的同时按下四个方向键之中的向左键或向右键的输入。
图像显示设备100可响应于感测的用户输入来移动项目列表510以改变被标高亮的项目。例如,如图8C所示,当感测到在控制设备200的触摸板上向右拖动的输入时,图像显示设备100将项目列表510向左(即,与向右相反的方向)移动。当项目列表510向左移动时,如图8D所示,先前位于第一项目531的右侧的第二项目532被移动到显示器120的中心,并随后被标高亮。
在这种情况下,第一项目531的宽度从第四宽度W4减小到第一宽度W1,并且第二项目532的宽度从第一宽度W1被增大到第四宽度W4。另外,已在第一项目531中显示的详细信息不被显示,并且关于第二项目532的详细信息被显示在第二项目532中。
当在被标高亮的项目的宽度被增大或者详细信息被显示的同时,感测到的用户输入被释放时,图像显示设备100可将项目列表返回到其原始状态。
例如,如图8C所示,当在项目列表被放大的同时,感测到的用户输入被释放时(例如,当用户放开触摸板时),图像显示设备100可通过逐渐减小被标高亮的项目的宽度并不显示详细信息来将项目列表510返回到图8A的项目列表。
图9A和图9B是示出根据另一示例性实施例的项目列表被放大的示例的示图。
参照图9A,显示器120显示包括多个项目的项目列表610。图9A的项目列表610可与图7A的项目列表410相同。已参照图7A详细描述了项目列表,并因此将省略对其的重复描述。
此外,多个项目之中的位于显示器120的中心的项目631被标高亮,并且被标高亮的项目被明显地显示。
图像显示设备100可感测放大项目列表的用户输入。例如,如图9A所示,图像显示设备100感测在控制设备200的触摸板235上向上(例如,与放大相应的方向)拖动的触摸输入。
图像显示设备100可响应于感测到的放大输入来显示包括多个项目的上级项目。
例如,当包括在图9A的项目列表610中的多个项目是指示广播频道的项目时,如图9B所示,图像显示设备100在项目列表610中显示包括指示广播频道的项目的类别项“频道”641。此外,图像显示设备100在项目列表610显示与类别项“频道”具有相同深度的另一类别项(例如,类别项“应用”、类别项“历史”和类别项“游戏”)。在这种情况下,类别项“频道”641位于显示器120的中心,并随后被标高亮。
图10A、图10B、图10C、图10D、图10E和图10F是示出根据另一示例性实施例的项目列表被缩小并随后被放大的示例的示图。
参照图10A,显示器120在显示器120的底部显示包括多个项目的项目列表710。图10A的项目列表710可与图6A的项目列表310相同,并因此将省略对其的重复描述。
再次参照图10A,多个项目中的任何一个项目715被标高亮,并且被标高亮的项目715被明显地显示。例如,图像显示设备100可通过改变项目的颜色或在项目的边界周围显示四边形框来对多个项目中的任何一个项目标高亮。
当感测到移动高亮的用户输入时,图像显示设备100可根据用户输入的方向移动高亮以改变被标高亮的项目。例如,如图10A所示,当项目列表710是项目被横向排列的列表时,图像显示设备100可感测将高亮向左或向右移动的输入,并改变被标高亮的项目。
此外,当图像显示设备100感测到放大项目列表710的用户输入时,如图10B所示,图像显示设备100在项目列表710中显示包括在被标高亮的项目中的下级项目。
例如,当在类别项“频道”715被标高亮的同时感测到缩小项目列表的输入(例如,在控制设备200的触摸板235上向下拖动的触摸输入)时,如图10B所示,图像显示设备100在项目列表710中显示包括在类别项“频道”715中的指示广播频道的项目731、732和733。
此外,图像显示设备100在类别项“频道”的下级项目被显示的同时,感测移动高亮的用户输入。图像显示设备100响应于感测到的用户输入来移动高亮以改变被标高亮的项目。
例如,如图10B所示,当感测到在触摸板235上向右拖动的触摸输入时,图像显示设备100将高亮向右移动。当高亮向右移动时,如图10C所示,与频道8相应的项目738被标高亮。
此外,当在类别项“频道”的下级项目被显示的同时感测到缩小项目列表的用户输入时,图像显示设备100可逐渐减小下级项目的尺寸(例如,宽度)。此外,当在项目的宽度被减小到预定宽度(例如,第二宽度W2)的同时连续感测到缩小输入时,如图10D所示,图像显示设备100在项目列表710中显示包括下级项目的上级项目区域750。
此外,图像显示设备100在上级项目区域750中显示与下级项目相应的线760,从而这些线被连续列出。这已经参照图7C详细描述,并将省略对其的重复描述。
在这种情况下,多条线760之中的任何一条线765被标高亮,并且可以使用与其它线不同的厚度或颜色来显示被标高亮的线765。
在上级项目区域和线被显示的同时,图像显示设备100可感测移动高亮的用户输入。移动高亮的用户输入可与在图7C中所述的移动项目列表的用户输入相同。
图像显示设备100可响应于感测到的用户输入来移动高亮以改变被标高亮的项目(例如,被标高亮的纵向线)。例如,如图10D所示,当感测到在触摸板235上从缩小输入结束的点向右拖动的输入时,图像显示设备100将高亮向右移动。当高亮向右移动时,如图10E所示,与频道25相应的纵向线767被标高亮。
图像显示设备100可感测放大项目列表的用户输入。例如,如图10E所示,图像显示设备100感测在控制设备200的触摸板235上向上(例如,与放大相应的方向)拖动的触摸输入。
图像显示设备100可响应于感测到的放大输入逐渐增大在上级项目区域750中显示的线的宽度。当线的宽度超过预定宽度时,如图10F所示,图像显示设备100将线改变为与线相应的多个项目,并随后显示改变后的项目。
此外,当在多个项目被显示的同时连续感测到放大输入(例如,在触摸板上向上拖动的触摸输入)时,如图10F所示,图像显示设备100以宽度逐渐增大的方式来显示多个项目。此外,当连续感测到放大输入时,如图10G所示,图像显示设备100在被标高亮的项目中显示关于与该项目相应的内容的详细信息。
图11A、图11B、图11C、图11D、图11E、图11F和图11G是示出根据另一示例性实施例的项目列表被缩小并随后被放大的示例的示图。
参照图11A,显示器120在显示器120的底部显示包括多个项目的项目列表810。图11A的项目列表810可与图6A的项目列表310相同。
参照图11A,显示器120显示指示用户输入的位置的光标820。光标820响应于感测到的用户输入在显示器120上被移动。
在图11A中,光标820被显示为圆圈,但不限于此。光标820可具有各种形状和尺寸。光标820的形状和尺寸可基于用户输入被不同地设置。
光标820可位于包括在项目列表810中的多个项目中的任何一个项目中。当光标820位于多个项目中的任何一个项目中时,项目815被标高亮,并且被标高亮的项目815被明显地显示。例如,图像显示设备100可通过改变被标高亮的项目的颜色或者在该项目的边界周围显示四边形框来对该项目标高亮。
当感测到移动光标的用户输入时,图像显示设备100可根据用户输入的方向移动光标以改变被标高亮的项目。例如,如图11A所示,当项目列表810是项目被横向排列的列表时,图像显示设备100可响应于将光标820向左移动或向右移动的输入来移动光标820并根据光标的820的位置来改变被标高亮的项目。
此外,当图像显示设备100感测到缩小项目列表810的用户输入时,如图11B所示,图像显示设备100在项目列表810中显示包括在被标高亮的项目中的下级项目。
例如,当在类别项“频道”815被标高亮的同时感测到缩小项目列表的输入(例如,将光标820向下移动的输入)时,如图11B所示,图像显示设备100在项目列表810中显示包括在类别项“频道”中的下级项目(例如,指示广播频道的项目)。当光标820位于多个项目中的任何一个项目中时,项目836被标高亮,并且被标高亮的项目835被明显地显示。
此外,图像显示设备100可在类别项“频道”的下级项目被显示的同时感测移动光标820的用户输入。图像显示设备100可响应于感测到的用户输入来移动光标820并且根据光标820的位置改变被标高亮的项目。
例如,当感测到将光标向右移动的输入(例如,在控制设备200的触摸板235上向右拖动的触摸输入)时,图像显示设备100可响应于感测到的输入来将显示在显示器120上的光标820向右移动。因此,如图11C所示,光标820被移动到与频道8相应的项目838,并且与频道8相应的项目838被标高亮。
此外,当在类别项“频道”的下级项目被显示的同时感测到缩小项目列表的用户输入时,图像显示设备100可逐渐减小下级项目的尺寸(例如,宽度)。此外,当在项目的宽度被减小到预定宽度(例如,W2)的同时连续感测到缩小输入时,如图11D所示,图像显示设备100在项目列表810中显示包括下级项目的上级项目区域850。
此外,图像显示设备100在上级项目区域850中显示与下级项目相应的线860,从而这些线连续地被列出。这已参照图7C详细描述了,并将省略对其的重复描述。
在这种情况下,光标820可位于多条线之中的任何一条线865上。当光标820位于多条线之中的任何一条线865上时,线865被标高亮,并且可使用与其它线不同的厚度或颜色来显示被标高亮的线865。
在这此线被显示在上级项目区域850中的同时,图像显示设备100可感测移动光标820的用户输入。移动光标820的用户输入可与在图7C中描述的移动项目列表的用户输入相同。
图像显示设备100可响应于感测到的用户输入来移动光标820以改变被标高亮的线。例如,如图11D所示,当感测到在触摸板235上从缩小输入结束的点向右拖动的输入时,图像显示设备100将光标820向右移动。当光标820被向右移动时,如图11E所示,与频道25相应的纵向线867被标高亮。
图像显示设备100可感测放大项目列表的用户输入。例如,如图11E所示,图像显示设备100感测在控制设备200的触摸板235上向上(例如,与放大相应的方向)拖动的触摸输入。
图像显示设备100可响应于感测到的放大输入来逐渐增大显示在上级项目区域中的线的宽度。当这些线的宽度超过预定宽度时,如图11F所示,图像显示设备100将这些线改变为与这些线相应的多个项目,并随后显示改变后的项目。
此外,当在多个项目被显示的同时连续感测到放大输入(例如,在触摸板上向上拖动的触摸输入)时,图像显示设备100可按宽度逐渐增大的方式来显示多个项。此外,当连续感测到放大输入时,如图11G所示,图像显示设备100在被标高亮的项目中显示关于与该项目相应的内容的详细信息。
图12是示出根据示例性实施例的图像显示方法的流程图。
参照图12,图像显示设备100显示包括多个项目的项目列表(S910)。
例如,根据示例性实施例的项目列表可包括指示类别的项目以及指示内容的项目。类别项可包括指示被分类为相应类别的内容的项目,作为下级项目。项目列表可以是多个项目被横向或纵向排列的列表。
图像显示设备100感测用于缩小项目列表的第一输入或用于放大项目列表的第二输入(S920)。
例如,用于缩小项目列表的第一输入可包括以下输入:在控制设备200包括触摸板235的条件下在触摸板235上沿与缩小相应的方向(例如,向下)拖动的触摸输入、在控制设备200是指向装置的条件下将控制设备200向与缩小相应的方向移动或向与缩小相应的方向倾斜的用户输入、在控制设备200包括四个方向键的条件下按下四个方向键之中的与缩小相应的方向键的输入。
此外,用于放大项目列表的第二输入包括下以输入:在控制设备200的触摸板235上沿与放大相应的方向(例如,向上)拖动的触摸输入、将控制设备200向与放大相应的方向移动或向与放大相应的方向倾斜的输入、按下控制设备200的四个方向键之中的与放大相应的方向键的输入。
图像显示设备100响应于第一输入使用尺寸减小的方式来显示多个项目或者响应于第二输入使用尺寸增大的方式来显示多个项目(S930)。
例如,图像显示设备100可响应于第一输入来逐渐减小包括在项目列表中的多个项目的宽度。在这种情况下,图像显示设备100还可随着第一输入的幅度增大而减小多个项目的宽度。此外,图像显示设备100可响应于第一输入,显示包括多个项目的上级项目区域,并可在上级项目区域中显示与多个项目相应的线,从而这些线被连续地列出。
图像显示设备100可响应于第一输入显示在多个项目中的至少一个项目中包括的下级项目。
图像显示设备100可响应于第二输入来逐渐增大包括在项目列表中的多个项目的宽度。此外,图像显示设备100可响应于第二输入来显示关于与多个项目中的至少一个项目相应的内容的详细信息。
图像显示设备100可响应于第二输入来逐渐增大显示在上级项目区域中的线的宽度。当这些线的宽度超过预定宽度时,图像显示设备100可将这些线改变为与这些线相应的多个项目,并随后显示改变后的项目。
根据示例性实施例,用户可从项目列表容易且快速地检索项目,或者通过放大/缩小项目列表来在项目列表中的多个项目之间移动。
根据示例性实施例,用户可通过设置书签项目来容易且快速地搜索内容。
虽然没有限制,示例性实施例可被实现为计算机可读记录介质上的计算机可读代码。例如,控制上述操作的控制程序可被实现为计算机可读记录介质上的计算机可读代码。计算机可读记录介质是可存储可由计算机系统稍后读取的数据的任何数据存储装置。计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光学数据存储装置。计算机可读记录介质还可分布在联网的计算机系统上,从而计算机可读代码按分布式方式被存储和执行。此外,示例性实施例可被编写为在计算机可读传输介质(诸如载波)上传输、在执行程序的通用或专用数字计算机中接收并实现的计算机程序。此外,将理解,在示例性实施例中,一个或更多个单元可包括电路、处理器、微处理器等,并可执行存储在计算机可读介质中的计算机程序。
上述示例性实施例是示例,并不被解释为是限制。本教导可被容易地应用于其它类型的设备。此外,对示例性实施例的描述旨在说明,并非限制权利要求的范围,并且许多替代、修改和改变对于本领域的技术人员来说将是明显的。
Claims (15)
1.一种图像显示设备,包括:
显示器,被配置为显示包括项目的项目列表;
传感器,被配置为感测用于缩小项目列表的第一输入,并感测用于放大项目列表的第二输入;
控制器,被配置为响应于传感器感测到第一输入,控制显示器按尺寸减小的方式来显示所述项目,响应于传感器感测到第二输入,控制显示器按尺寸增大的方式来显示所述项目。
2.如权利要求1所述的图像显示设备,其中,第一输入包括以下输入中的至少一个输入:在控制图像显示设备的控制设备中包括的触摸板上沿第一方向拖动的输入、将所述控制设备向第二方向倾斜的输入、以及按下包括在所述控制设备中的四个方向键中的第一方向键的输入。
3.如权利要求2所述的图像显示设备,其中,第二输入包括以下输入中的至少一个输入:在所述触摸板上沿与第一方向相反的第三方向拖动的输入、将所述控制设备向与第二方向相反的第四方向倾斜的输入、以及按下所述四个方向键中的与第一方向键方向相反的第二方向键的输入。
4.如权利要求1所述的图像显示设备,其中,控制器还被配置为响应于传感器感测到第一输入,控制显示器显示在所述项目之中的至少一个项目中包括的下级项目。
5.如权利要求1所述的图像显示设备,其中,控制器还被配置为响应于传感器感测到第一输入,控制显示器显示包括与所述项目相应的线的上级项目区域,其中,所述线被连续地列出。
6.如权利要求5所述的图像显示设备,其中,控制器还被配置为响应于在所述线被显示的同时传感器感测到第二输入,控制显示器将所述线改变为所述项目,并显示所述项目。
7.如权利要求1所述的图像显示设备,其中,控制器还被配置为将所述项目之中的至少一个项目设置为书签项目,
传感器还被配置为感测将书签项目沿朝向在显示器中被标高亮的点的方向移动的用户输入,
控制器还被配置为响应于传感器感测到所述用户输入并且书签项目和被标高亮的点之间的距离等于或小于某一值,控制显示器增大书签项目的移动速度并将书签项目移动到被标高亮的点。
8.如权利要求1所述的图像显示设备,其中,控制器还被配置为响应于传感器感测到第二输入,控制显示器显示包括所述项目的上级项目。
9.一种图像显示设备的图像显示方法,所述图像显示方法包括:
显示包括项目的项目列表;
感测用于缩小项目列表的第一输入或用于放大项目列表的第二输入;
响应于感测到第一输入,按尺寸减小的方式来显示所述项目;
响应于感测到第二输入,按尺寸增大的方式来显示所述项目。
10.如权利要求9所述的图像显示方法,其中,第一输入包括以下输入中的至少一个输入:在控制图像显示设备的控制设备中包括的触摸板上沿第一方向拖动的输入、将所述控制设备向第二方向倾斜的输入、以及按下包括在所述控制设备中的四个方向键中的第一方向键的输入。
11.如权利要求10所述的图像显示方法,其中,第二输入包括以下输入中的至少一个输入:在所述触摸板上沿与第一方向相反的第三方向拖动的输入、将所述控制设备向与第二方向相反的第四方向倾斜的输入、以及按下所述四个方向键中的与第一方向键方向相反的第二方向键的输入。
12.如权利要求9所述的图像显示方法,还包括:响应于感测到第一输入,显示在所述项目之中的至少一个项目中包括的下级项目。
13.如权利要求9所述的图像显示方法,还包括:响应于感测到第一输入,显示包括与所述项目相应的线的上级项目区域,其中,所述线被连续地列出。
14.如权利要求13所述的图像显示方法,还包括:响应于在所述线被显示的同时感测到第二输入,将所述线改变为所述项目,并显示所述项目。
15.如权利要求9所述的图像显示方法,还包括:
将所述项目之中的至少一个项目设置为书签项目;
感测将书签项目沿朝向在显示器中被标高亮的点的方向移动的用户输入;
响应于感测到所述用户输入并且书签项目和被标高亮的点之间的距离等于或小于某一值,增大书签项目的移动速度并将书签项目移动到被标高亮的点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150020287A KR20160097867A (ko) | 2015-02-10 | 2015-02-10 | 영상 표시 장치 및 영상 표시 방법 |
KR10-2015-0020287 | 2015-02-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105872683A true CN105872683A (zh) | 2016-08-17 |
CN105872683B CN105872683B (zh) | 2019-09-17 |
Family
ID=55085580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610081095.3A Expired - Fee Related CN105872683B (zh) | 2015-02-10 | 2016-02-05 | 图像显示设备和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160231885A1 (zh) |
EP (1) | EP3057312A3 (zh) |
KR (1) | KR20160097867A (zh) |
CN (1) | CN105872683B (zh) |
WO (1) | WO2016129784A1 (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9591339B1 (en) | 2012-11-27 | 2017-03-07 | Apple Inc. | Agnostic media delivery system |
US9774917B1 (en) | 2012-12-10 | 2017-09-26 | Apple Inc. | Channel bar user interface |
US10200761B1 (en) | 2012-12-13 | 2019-02-05 | Apple Inc. | TV side bar user interface |
US9532111B1 (en) | 2012-12-18 | 2016-12-27 | Apple Inc. | Devices and method for providing remote control hints on a display |
US10521188B1 (en) | 2012-12-31 | 2019-12-31 | Apple Inc. | Multi-user TV user interface |
CN111782129B (zh) | 2014-06-24 | 2023-12-08 | 苹果公司 | 用于在用户界面中导航的列界面 |
KR102076252B1 (ko) | 2014-06-24 | 2020-02-11 | 애플 인크. | 입력 디바이스 및 사용자 인터페이스 상호작용 |
DK201670581A1 (en) | 2016-06-12 | 2018-01-08 | Apple Inc | Device-level authorization for viewing content |
DK201670582A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Identifying applications on which content is available |
US11966560B2 (en) | 2016-10-26 | 2024-04-23 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
CN108227898B (zh) * | 2017-11-30 | 2022-01-04 | 努比亚技术有限公司 | 柔性屏终端及其功耗控制方法、计算机可读存储介质 |
WO2019176910A1 (ja) * | 2018-03-14 | 2019-09-19 | 本田技研工業株式会社 | 情報表示装置、情報表示方法および情報表示プログラム |
DK201870354A1 (en) | 2018-06-03 | 2019-12-20 | Apple Inc. | SETUP PROCEDURES FOR AN ELECTRONIC DEVICE |
CN111919196A (zh) * | 2018-12-04 | 2020-11-10 | 谷歌有限责任公司 | 旋转屏上虚拟键盘用于在字符输入期间有效使用 |
USD945470S1 (en) * | 2018-12-27 | 2022-03-08 | Sony Corporation | Display panel or screen with animated graphical user interface |
CN114302210A (zh) | 2019-03-24 | 2022-04-08 | 苹果公司 | 用于查看和访问电子设备上的内容的用户界面 |
CN114115676A (zh) | 2019-03-24 | 2022-03-01 | 苹果公司 | 包括内容项的可选表示的用户界面 |
US11962836B2 (en) | 2019-03-24 | 2024-04-16 | Apple Inc. | User interfaces for a media browsing application |
US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
WO2020243645A1 (en) | 2019-05-31 | 2020-12-03 | Apple Inc. | User interfaces for a podcast browsing and playback application |
US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
USD970516S1 (en) * | 2019-06-20 | 2022-11-22 | Yandex Europe Ag | Display screen or portion thereof with graphical user interface |
US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
US20210409811A1 (en) * | 2020-06-26 | 2021-12-30 | Rovi Guides, Inc. | Autoplay recommendations and sequencing in full screen video mode |
US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060075358A1 (en) * | 2004-10-01 | 2006-04-06 | Nokia Corporation | Scrolling items on a list |
CN101341457A (zh) * | 2005-02-14 | 2009-01-07 | 希尔克瑞斯特实验室公司 | 利用3d定位增强电视应用的方法和系统 |
CN102144213A (zh) * | 2008-08-29 | 2011-08-03 | 微软公司 | 可滚动区域多缩放比例查看 |
US20140089854A1 (en) * | 2008-12-03 | 2014-03-27 | Microsoft Corporation | Manipulation of list on a multi-touch display |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061062A (en) * | 1991-12-20 | 2000-05-09 | Apple Computer, Inc. | Zooming controller |
US6252597B1 (en) * | 1997-02-14 | 2001-06-26 | Netscape Communications Corporation | Scalable user interface for graphically representing hierarchical data |
US6034661A (en) * | 1997-05-14 | 2000-03-07 | Sony Corporation | Apparatus and method for advertising in zoomable content |
KR100313692B1 (ko) * | 1998-01-16 | 2001-11-15 | 가나이 쓰토무 | 줌 확대 기능을 갖는 영상 장치 및 영상 장치의 줌 화상 생성 방법 |
US6721953B1 (en) * | 2000-02-11 | 2004-04-13 | International Business Machines Corporation | Display of television program information using dynamically-adjusted scroll rate |
BR0017165A (pt) * | 2000-03-17 | 2003-01-14 | Opentv Inc | Método e sistema para a escolha um item a partir de uma lista que aparece em uma tela |
US20010030667A1 (en) * | 2000-04-10 | 2001-10-18 | Kelts Brett R. | Interactive display interface for information objects |
GB0019459D0 (en) * | 2000-07-28 | 2000-09-27 | Symbian Ltd | Computing device with improved user interface for applications |
US20080060011A1 (en) * | 2000-12-22 | 2008-03-06 | Hillcrest Laboratories, Inc. | Zoomable user interfaces for television |
US6907575B2 (en) * | 2001-09-06 | 2005-06-14 | Danger, Inc. | Method of scrolling a display window |
US20030132944A1 (en) * | 2001-10-03 | 2003-07-17 | Sun Microsystems, Inc. | User control of generalized semantic zooming |
CA2473781A1 (en) * | 2002-01-18 | 2003-07-31 | Protemix Corporation Limited | Glycoisoforms of adiponectin and uses thereof |
US7068288B1 (en) * | 2002-02-21 | 2006-06-27 | Xerox Corporation | System and method for moving graphical objects on a computer controlled system |
US7343052B2 (en) * | 2002-04-09 | 2008-03-11 | Sonic Solutions | End-user-navigable set of zoomed-in images derived from a high-resolution master image |
US20040100509A1 (en) * | 2002-11-27 | 2004-05-27 | Microsoft Corporation | Web page partitioning, reformatting and navigation |
US8046705B2 (en) * | 2003-05-08 | 2011-10-25 | Hillcrest Laboratories, Inc. | Systems and methods for resolution consistent semantic zooming |
US8555165B2 (en) * | 2003-05-08 | 2013-10-08 | Hillcrest Laboratories, Inc. | Methods and systems for generating a zoomable graphical user interface |
US20040268393A1 (en) * | 2003-05-08 | 2004-12-30 | Hunleth Frank A. | Control framework with a zoomable graphical user interface for organizing, selecting and launching media items |
US8601396B2 (en) * | 2003-05-08 | 2013-12-03 | Hillcrest Laboratories, Inc. | Systems and methods for node tracking and notification in a control framework including a zoomable graphical user interface |
US8373660B2 (en) * | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
DE102004035256B3 (de) * | 2004-07-21 | 2005-09-22 | Siemens Audiologische Technik Gmbh | Hörhilfegerätesystem sowie Verfahren zum Betrieb eines Hörhilfegerätesystems bei Audio-Empfang |
KR101190462B1 (ko) * | 2005-01-05 | 2012-10-11 | 힐크레스트 래보래토리스, 인크. | 1-대-다 객체를 처리하기 위한 스케일링 및 레이아웃 방법및 시스템 |
US8274534B2 (en) * | 2005-01-31 | 2012-09-25 | Roland Wescott Montague | Methods for combination tools that zoom, pan, rotate, draw, or manipulate during a drag |
US7725837B2 (en) * | 2005-03-31 | 2010-05-25 | Microsoft Corporation | Digital image browser |
US8924889B2 (en) * | 2005-12-02 | 2014-12-30 | Hillcrest Laboratories, Inc. | Scene transitions in a zoomable user interface using a zoomable markup language |
US20100019922A1 (en) * | 2006-10-18 | 2010-01-28 | Koninklijke Philips Electronics N.V. | Electronic system control using surface interaction |
US8326823B2 (en) * | 2007-11-01 | 2012-12-04 | Ebay Inc. | Navigation for large scale graphs |
US20090199090A1 (en) * | 2007-11-23 | 2009-08-06 | Timothy Poston | Method and system for digital file flow management |
US8043684B2 (en) * | 2008-02-14 | 2011-10-25 | United Technologies Corporation | Low transient and steady state thermal stress disk shaped components |
EP2110528B2 (en) * | 2008-04-18 | 2017-04-19 | Daimler AG | Apparatus for treating an exhaust gas stream with removable module |
US9870130B2 (en) * | 2008-05-13 | 2018-01-16 | Apple Inc. | Pushing a user interface to a remote device |
US20100162168A1 (en) * | 2008-12-24 | 2010-06-24 | Research In Motion Limited | Methods and systems for managing memory and processing resources for the control of a display screen to fix displayed positions of selected items on the display screen |
US20100175029A1 (en) * | 2009-01-06 | 2010-07-08 | General Electric Company | Context switching zooming user interface |
US9195317B2 (en) * | 2009-02-05 | 2015-11-24 | Opentv, Inc. | System and method for generating a user interface for text and item selection |
US20100218131A1 (en) * | 2009-02-23 | 2010-08-26 | Microsoft Corporation | Multiple views of multi-dimensional warehouse layout |
US8532346B2 (en) * | 2009-03-11 | 2013-09-10 | Sony Corporation | Device, method and computer program product |
EP2406220A1 (en) * | 2009-03-12 | 2012-01-18 | Biolipox AB | Bis aromatic compounds for use as ltc4 synthase inhibitors |
UA102916C2 (uk) * | 2009-07-02 | 2013-08-27 | Кемфарм, Інк. | Композиція на основі кон'югату гідрокодону з бензойною кислотою, похідними бензойної кислоти або гетероарилкарбоновою кислотою, проліки, спосіб лікування від зловживань |
JP4962540B2 (ja) * | 2009-07-30 | 2012-06-27 | 株式会社デンソー | 車両存在報知装置 |
US20110029904A1 (en) * | 2009-07-30 | 2011-02-03 | Adam Miles Smith | Behavior and Appearance of Touch-Optimized User Interface Elements for Controlling Computer Function |
US20120266069A1 (en) * | 2009-12-28 | 2012-10-18 | Hillcrest Laboratories, Inc. | TV Internet Browser |
TW201133298A (en) * | 2010-03-25 | 2011-10-01 | Novatek Microelectronics Corp | Touch sensing method and system using the same |
CN102270081B (zh) * | 2010-06-03 | 2015-09-23 | 腾讯科技(深圳)有限公司 | 一种调整列表元素大小的方法及装置 |
US20120050336A1 (en) * | 2010-09-01 | 2012-03-01 | Exent Technologies, Ltd. | Touch-based remote control |
US20130293486A1 (en) * | 2010-09-01 | 2013-11-07 | Exent Technologies, Ltd. | Touch-based remote control |
KR20120022490A (ko) * | 2010-09-02 | 2012-03-12 | 삼성전자주식회사 | 채널 리스트 제공 방법 및 이를 적용한 디스플레이 장치 |
JP2012108479A (ja) * | 2010-10-28 | 2012-06-07 | Seiko Epson Corp | 投射型表示装置及びその制御方法 |
US20130029348A1 (en) * | 2011-07-26 | 2013-01-31 | Opgen, Inc. | Methods of elongating nucleic acids |
US9122311B2 (en) * | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
KR101271996B1 (ko) * | 2011-09-02 | 2013-06-05 | 엘지전자 주식회사 | 외부기기 리스트 제공방법 및 그를 이용한 영상 표시 기기 |
KR20130052461A (ko) * | 2011-11-11 | 2013-05-22 | 휴텍 주식회사 | 스마트 단말을 위한 하이브리드 터치입력 방식의 리모컨 장치 및 그 모드제어 방법 |
US20140008985A1 (en) * | 2012-07-06 | 2014-01-09 | Robert Bosh Gmbh | Method and system for control of energy storage devices |
US9182890B2 (en) * | 2013-01-31 | 2015-11-10 | Lg Electronics Inc. | Image display apparatus and method for operating the same |
KR20140122292A (ko) * | 2013-03-28 | 2014-10-20 | 삼성전자주식회사 | 디스플레이 장치의 디스플레이 방법 및 디스플레이 장치 |
-
2015
- 2015-02-10 KR KR1020150020287A patent/KR20160097867A/ko not_active Application Discontinuation
- 2015-11-19 WO PCT/KR2015/012438 patent/WO2016129784A1/en active Application Filing
- 2015-11-23 US US14/948,767 patent/US20160231885A1/en not_active Abandoned
-
2016
- 2016-01-08 EP EP16150678.7A patent/EP3057312A3/en not_active Withdrawn
- 2016-02-05 CN CN201610081095.3A patent/CN105872683B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060075358A1 (en) * | 2004-10-01 | 2006-04-06 | Nokia Corporation | Scrolling items on a list |
CN101341457A (zh) * | 2005-02-14 | 2009-01-07 | 希尔克瑞斯特实验室公司 | 利用3d定位增强电视应用的方法和系统 |
CN102144213A (zh) * | 2008-08-29 | 2011-08-03 | 微软公司 | 可滚动区域多缩放比例查看 |
US20140089854A1 (en) * | 2008-12-03 | 2014-03-27 | Microsoft Corporation | Manipulation of list on a multi-touch display |
Also Published As
Publication number | Publication date |
---|---|
KR20160097867A (ko) | 2016-08-18 |
WO2016129784A1 (en) | 2016-08-18 |
EP3057312A3 (en) | 2016-08-31 |
US20160231885A1 (en) | 2016-08-11 |
EP3057312A2 (en) | 2016-08-17 |
CN105872683B (zh) | 2019-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105872683B (zh) | 图像显示设备和方法 | |
US10379698B2 (en) | Image display device and method of operating the same | |
EP2911050A2 (en) | User terminal apparatus and control method thereof | |
US11301108B2 (en) | Image display apparatus and method for displaying item list and cursor | |
CN108293146B (zh) | 图像显示设备及其操作方法 | |
US11500509B2 (en) | Image display apparatus and image display method | |
EP3041225B1 (en) | Image display apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190917 Termination date: 20210205 |
|
CF01 | Termination of patent right due to non-payment of annual fee |