CN108563389A - 显示设备及其用户界面显示方法 - Google Patents

显示设备及其用户界面显示方法 Download PDF

Info

Publication number
CN108563389A
CN108563389A CN201810171167.2A CN201810171167A CN108563389A CN 108563389 A CN108563389 A CN 108563389A CN 201810171167 A CN201810171167 A CN 201810171167A CN 108563389 A CN108563389 A CN 108563389A
Authority
CN
China
Prior art keywords
user interface
display
user
touch input
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810171167.2A
Other languages
English (en)
Other versions
CN108563389B (zh
Inventor
赵恩林
田侑弦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN108563389A publication Critical patent/CN108563389A/zh
Application granted granted Critical
Publication of CN108563389B publication Critical patent/CN108563389B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

一种显示设备包括:显示器;沿着显示器的周边设置的边框;设置在边框内部并被配置为从用户接收在触摸传感器的触摸位置处的第一触摸输入的触摸传感器;以及被配置为控制显示器在显示器的第一位置处显示用户界面的处理器。处理器还被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,基于接收到第一触摸输入的触摸位置来确定用户的用户位置,并控制显示器将所显示的用户界面移动到显示器的第二位置,第二位置对应于所确定的用户位置。

Description

显示设备及其用户界面显示方法
相关申请的交叉引用
本申请要求于2017年3月2日在韩国知识产权局递交的韩国专利申请No.10-2017-0027101的优先权,并在此通过参考引入其全部公开的内容。
技术领域
根据示例实施例的装置和方法涉及用于显示用户界面并改变用户界面的位置的方法。
背景技术
随着电子技术的发展,开发并广泛使用了各种形式的电子产品。尤其是近年来,包括显示器的电子设备(例如,TV、监视器、电子相框、电子板、智能电话等)已被广泛使用,并且随着显示技术的发展,电子设备中包括的显示器变得更大。
通过多功能电子设备提供诸如广播、电子邮件、音乐/视频再现、社交网络服务(SNS)、消息服务、游戏等的各种类型的服务。为了支持上述各种功能,还开发了用于电子设备和用户之间的交互的技术,并且能够接收用户对显示在显示器上的内容的直观输入的触摸屏已被广泛使用。
包括大屏幕显示器的电子设备可以显示大量的信息。然而,在用户通过使用触摸屏与电子设备交互的情况下,处于固定位置的用户难以与电子设备的显示器上显示的所有用户界面进行交互。
发明内容
提供了一种显示设备及其用户界面显示方法,用于根据用户的位置来移动显示在显示器上的用户界面,并根据用户输入来改变用户界面的形式。
根据示例实施例,提供了一种显示设备,包括:外壳,被配置为形成显示设备的外观;显示器,通过外壳而暴露;边框,被配置为形成外壳的一部分并沿着显示器的周边设置;触摸传感器,设置在边框内部并被配置为从用户接收在触摸传感器的触摸位置处的第一触摸输入;以及处理器,被配置为控制显示器在显示器的第一位置处显示用户界面。处理器还被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,基于接收到第一触摸输入的触摸位置来确定用户的用户位置,并控制显示器将所显示的用户界面移动到显示器的第二位置,第二位置对应于所确定的用户位置。
用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器改变所述多个对象被布置的方向,以使得所述多个对象与第二位置相对应。
用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器基于所接收的第一触摸输入的持续时间来改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
用户界面可以包括第一用户界面和第二用户界面,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器显示第一用户界面的第一部分重叠在第二用户界面的第二部分上,并且基于接收到的第一触摸输入的持续时间显示第二用户界面的第二部分重叠在第一用户界面的第一部分上。
用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器响应于所接收的第一触摸输入的第一持续时间超过阈值持续时间,显示与用户界面相关的附加对象或用户界面的子用户界面。
该显示设备还可以包括设置在边框内部并被配置为检测第一触摸输入的强度的压力传感器,用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器基于所检测到的第一触摸输入的强度来改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
该显示设备还可以包括设置在边框内部并被配置为检测第一触摸输入的强度的压力传感器,用户界面可以包括第一用户界面和第二用户界面,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器显示第一用户界面的第一部分重叠在第二用户界面的第二部分上,并且基于检测到的第一触摸输入的强度显示第二用户界面的第二部分重叠在第一用户界面的第一部分上。
用户界面可以包括第一用户界面和第二用户界面,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到第一触摸输入,控制显示器将第一用户界面和第二用户界面中的最近显示的用户界面移动到所述第二位置。
触摸传感器还可以被配置为从用户接收第二触摸输入,并且处理器还可以被配置为响应于在第二位置处显示用户界面时接收到第二触摸输入,控制显示器将所显示的用户界面移动到第一位置。
该显示设备还可以包括被配置为检测用户的第一手势和第二手势的运动识别传感器,并且处理器还可以被配置为响应于在第一位置处显示用户界面时检测到第一手势,控制显示器将所显示的用户界面移动到第二位置,并且响应于在第二位置处显示用户界面时检测到第二手势,将所显示的用户界面移动到第一位置。
用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时检测到第一手势,基于检测到的第一手势的持续时间来确定所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
用户界面可以包括第一用户界面和第二用户界面,并且处理器还可以被配置为响应于在第一位置处显示用户界面时检测到第一手势,控制显示器显示第一用户界面的第一部分重叠在第二用户界面的第二部分上,并且基于检测到的第一手势的持续时间显示第二用户界面的第二部分重叠在第一用户界面的第一部分上。
根据示例实施例,提供了一种显示设备的用户界面显示方法,所述方法包括:在显示器的第一位置处显示用户界面;从用户接收在触摸传感器的触摸位置处的第一触摸输入,所述触摸传感器设置在边框内部,所述边框形成外壳的一部分,所述外壳形成显示设备的外观,所述边框沿显示器的周边设置;以及响应于在第一位置处显示用户界面时接收到第一触摸输入:基于接收到第一触摸输入的触摸位置来确定用户的用户位置;以及将所显示的用户界面移动到显示器的第二位置,所述第二位置与所确定的用户位置相对应。
用户界面可以包括多个对象,并且所述方法还可以包括:响应于在第一位置处显示用户界面时接收到第一触摸输入,改变所述多个对象被布置的方向,以使得所述多个对象与第二位置相对应。
用户界面可以包括多个对象,并且所述方法还可以包括:响应于在第一位置处显示用户界面时接收到第一触摸输入,基于所接收的第一触摸输入的持续时间来改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
用户界面可以包括第一用户界面和第二用户界面,并且所述方法还可以包括:响应于在第一位置处显示用户界面时接收到第一触摸输入,显示第一用户界面的第一部分重叠在第二用户界面的第二部分上,并且基于接收到的第一触摸输入的持续时间显示第二用户界面的第二部分重叠在第一用户界面的第一部分上。
用户界面可以包括多个对象,并且所述方法还可以包括响应于在第一位置处显示用户界面时接收到第一触摸输入:响应于所接收的第一触摸输入的第一持续时间超过阈值持续时间,显示与用户界面相关的附加对象或用户界面的子用户界面。
用户界面可以包括多个对象,并且所述方法还可以包括:通过设置在边框内部的压力传感器来检测第一触摸输入的强度;以及响应于在第一位置处显示用户界面时接收到第一触摸输入,基于检测到的第一触摸输入的强度来改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
用户界面可以包括第一用户界面和第二用户界面,并且所述方法还可以包括:通过设置在边框内部的压力传感器来检测第一触摸输入的强度;以及响应于在第一位置处显示用户界面时接收到第一触摸输入,显示第一用户界面的第一部分重叠在第二用户界面的第二部分上,并且基于检测到的第一触摸输入的强度显示第二用户界面的第二部分重叠在第一用户界面的第一部分上。
根据示例实施例,提供了一种存储有包括指令的程序的非暂时性计算机可读存储介质,所述指令使得处理器执行显示设备的用户界面显示方法,所述方法包括:在显示器的第一位置处显示用户界面;从用户接收在触摸传感器的触摸位置处的第一触摸输入,所述触摸传感器设置在边框内部,所述边框形成外壳的一部分,所述外壳形成显示设备的外观,所述边框沿显示器的周边设置;以及响应于在第一位置处显示用户界面时接收到第一触摸输入:基于接收到第一触摸输入的触摸位置来确定用户的用户位置;以及将所显示的用户界面移动到显示器的第二位置,所述第二位置与所确定的用户位置相对应。
根据示例实施例,提供了一种显示设备,包括:显示器;沿着显示器的周边设置的边框;设置在边框下方并被配置为从用户接收在边框的触摸位置处的触摸输入的触摸传感器;以及处理器,该处理器被配置为:控制显示器在显示器的第一位置处显示用户界面,以及响应于在第一位置处显示用户界面时接收到触摸输入,确定用户的用户位置,并控制显示器将所显示的用户界面移动到显示器的第二位置,第二位置对应于所确定的用户位置。
该显示设备还可以包括被配置为检测用户位置的热传感器,并且处理器还可以被配置为基于检测到的用户位置来确定用户位置。
用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到触摸输入,控制显示器基于所接收的触摸输入的持续时间来改变所述多个对象之间的间隔。
用户界面可以包括多个对象,并且处理器还可以被配置为响应于在第一位置处显示用户界面时接收到触摸输入,控制显示器基于所接收的触摸输入的持续时间来改变所述多个对象被布置的顺序。
附图说明
根据结合附图的以下描述,本公开的示例实施例的上述和其他方面和特征将更清楚,附图中:
图1是示出了根据示例实施例的显示设备的配置的框图;
图2是示出了根据示例实施例的显示设备的外观的透视图;
图3是示出了根据示例实施例的移动用户界面的示例的图;
图4是示出了根据示例实施例的移动用户界面的示例的图;
图5是示出了根据示例实施例的移动用户界面的示例的图;
图6是示出了根据示例实施例的移动用户界面的示例的图;
图7是示出了根据示例实施例的移动用户界面的示例的图;
图8是示出了根据示例实施例的移动用户界面的示例的图;
图9是示出了根据示例实施例的移动用户界面的示例的图;
图10是示出了根据示例实施例的移动用户界面的示例的图;以及
图11是示出了根据示例实施例的显示设备的用户界面显示方法的流程图。
具体实施方式
下文中,将参考附图来描述示例实施例。因此,本领域的普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以不同地对本文中所述的示例实施例进行修改、等同和/或替换。关于附图的描述,相似的元件可以用相似的附图标记来标记。
图1是示出了根据示例实施例的显示设备的配置的框图。
参考图1,显示设备100可以包括显示器110、存储器120、传感器130和处理器140。根据示例实施例,显示设备100可以包括例如如下设备,该设备(例如,大屏幕TV、电子板等)包括具有指定尺寸
(例如,50英寸)或更大尺寸的大屏幕显示器,或者显示设备100可以包括例如通过连接多个显示器实现大屏幕显示的多视觉或视频墙。
根据示例实施例,显示器110可以显示用户界面。用户界面可以包括例如用于与用户交互的至少一个对象。例如,该至少一个对象可以是包括文本、图标和/或图像的菜单。
根据示例实施例,存储器120可以存储用户界面。根据示例实施例,存储器120可以存储用户界面的位置信息。例如,存储器120可以存储关于用户界面将首先显示在显示器110上的位置的信息。根据示例实施例,存储器120可以存储用户的位置信息。
根据示例实施例,传感器130可以检测用户或用户输入。例如,传感器130可以通过使用多个传感器来检测用户的位置、显示设备100与用户之间的距离和/或用户的身高,和/或可以检测用户的触摸输入或用户的运动(或手势)。
根据示例实施例,传感器130可以包括热传感器131、触摸传感器133、压力传感器135、运动传感器137和接近传感器139。根据示例实施例,传感器130可以包括分离的用于处理由传感器检测到的信息的处理器(或传感器中枢)。
根据示例实施例,热传感器131可以检测用户的位置。热传感器131可以通过使用红外相机拍摄红外热图像,并且可以基于红外热图像来检测用户的位置。例如,热传感器131可以识别包括在红外热图像中的用户身体,并且可以基于包括在红外热图像中的用户身体的位置(或坐标)和尺寸来确定用户的位置。例如,在用户身体位于红外热图像的右侧的情况下,热传感器131可以确定用户位于左侧(相对于用户观看显示器110的方向),并且在用户身体位于红外热图像的左侧的情况下,热传感器131可以确定用户位于右侧(相对于用户观看显示器110的方向)。在另一示例中,随着包括在红外热图像中的用户身体的尺寸的增加,热传感器131可以确定用户更靠近显示器110,并且随着包括在红外热图像中的用户身体的尺寸的减小,热传感器131可以确定用户更远离显示器110。
根据示例实施例,触摸传感器133可以接收用户的触摸输入或悬停(或接近触摸)输入。触摸传感器133可以包括例如电阻式触摸传感器、电容式触摸传感器、红外式触摸传感器或超声式触摸传感器。根据示例实施例,在用户悬停输入的情况下,电容式触摸传感器133可以检测用户身体(例如,手指)与触摸传感器133之间的距离。根据示例实施例,传感器130可以包括多个触摸传感器。例如,传感器130可以包括设置在显示面板上用以接收显示器110上的触摸输入的第一触摸传感器、以及设置在边框内部(或下方)用以接收对边框的触摸输入的第二触摸传感器,其中边框设置在显示器110的周边。下文中,将参考图2描述包括触摸传感器133(例如,第二触摸传感器)的边框的结构。
图2是示出了根据示例实施例的显示设备的外观的透视图。
参考图2,显示设备100可以包括显示器110(或显示设备)和外壳150。显示设备100内部(或外壳150内部)可以设置各种电路或模块,例如处理器、存储器等。
根据示例实施例,外壳150可以形成显示设备100的外观的至少一部分。例如,外壳150可以包括面向第一方向11的前表面21、与前表面21相对并且面向第二方向12的后表面22以及至少围绕前表面21与后表面22之间的空间的侧表面。侧表面可以包括面向第三方向13(或左侧方向)的左侧表面23、面向第四方向14(或右侧方向)的右侧表面24、面对第五方向15(或上侧方向)的上侧表面25以及面向第六方向16(或下侧方向)的下侧表面26。根据示例实施例,外壳150可以由塑料注模材料、导电材料(例如,金属)或其组合形成,以保护显示设备100内的各种组件免受外部冲击或灰尘。
根据示例实施例,显示器110可以设置在显示设备100(或外壳150)的前表面21上。例如,显示器110可以设置在前表面21与后表面22之间,并且可以通过前表面21暴露于外部。
根据示例实施例,外壳150可以包括边框151。根据示例实施例,边框151可以形成外壳150的一部分,并且可以形成在显示器110的周边。边框151可以对应于例如外壳150的前表面21、左侧表面23、右侧表面24、上侧表面25和下侧表面26。
再次参考图1,根据示例实施例,压力传感器135可以检测用户触摸输入的强度(或压力)。压力传感器135可以包括例如电容式压力传感器。根据示例实施例,传感器130可以包括多个压力传感器。例如,传感器130可以包括设置在显示面板下方用以检测显示器110上的触摸输入的强度的第一压力传感器、以及设置在位于显示器110周边的边框151的内部(或下方)用以检测对边框151的触摸输入的强度的第二压力传感器。
根据示例实施例,运动传感器137(或手势传感器)可以识别用户的运动(或手势)。例如,运动传感器137可以通过使用相机拍摄用户的图像,并且可以识别包括在图像中的用户运动。
根据示例实施例,接近传感器139可以检测距用户或用户身体的一部分的距离。接近传感器139可以包括例如超声或电容式接近传感器。根据示例实施例,传感器130可以包括多个接近传感器。例如,传感器130可以包括设置在显示设备100的多个点处的多个接近传感器。
根据示例实施例,处理器140可以控制显示设备100的整体操作。例如,根据示例实施例,处理器140可以控制显示器110、存储器120和传感器130以在显示器110上显示用户界面。
根据示例实施例,显示设备100可以包括至少一个(例如,多个)处理器。根据示例实施例,处理器140可以用包括中央处理单元(CPU)、图形处理单元(GPU)和存储器(例如,高速缓存存储器)的片上系统(SoC)来实现。
根据示例实施例,处理器140可以通过使用传感器130确定用户的位置。根据示例实施例,处理器140可以通过使用热传感器131确定用户的位置。根据示例实施例,处理器140可以基于通过触摸传感器133接收的用户触摸输入的位置来确定用户的位置。例如,如果用户的触摸输入施加于右侧边框(相对于用户观看显示器110的方向),则处理器140可以确定用户位于右侧,并且如果用户的触摸输入施加于左侧边框,则处理器140可以确定用户位于左侧。在另一示例中,如果用户的触摸输入施加于下侧边框,则处理器140可以确定用户位于显示设备100前面。
根据示例实施例,处理器140可以将用户的位置信息存储在存储器120中。如果用户的位置改变,则处理器140可以更新存储在存储器120中的用户位置信息。
图3是示出了根据示例实施例的移动用户界面的示例的图。
根据示例实施例,处理器140可以在显示器110上显示用户界面30。根据示例实施例,处理器140可以在与用户33的位置相对应的位置处显示用户界面30。例如,如果用户33的位置被确定为第一位置U31,则处理器140可以在显示器110上与用户的第一位置U31相对应的第一位置P31处显示用户界面30。如果用户33从第一位置U31移动到第二位置U32,则处理器140可以将显示器110上显示的用户界面30从第一位置P31移动到与用户的第二位置U32相对应的第二位置P32。如果用户33从第二位置U32移动到第三位置U33,则处理器140可以将显示器110上显示的用户界面30从第二位置P32移动到与用户的第三位置U33相对应的第二位置P33。
根据示例实施例,取决于用户界面30的显示位置,处理器140可以改变包括在用户界面30中的多个对象31被布置的方向。例如,在用户界面30显示在第一位置P31和第二位置P32的情况下,处理器140可以水平地布置包括在用户界面30中的多个对象31,并且在用户界面30显示在第三位置P33的情况下,处理器140可以竖直地布置包括在用户界面30中的多个对象31。
根据示例实施例,取决于触摸输入施加到触摸传感器133的位置,处理器140可以改变包括在用户界面30中的多个对象31被布置的方向。例如,在用户的触摸输入施加到上侧边框或下侧边框的情况下,处理器140可以水平地布置包括在用户界面30中的多个对象31,并且在用户的触摸输入施加到右侧边框或左侧边框的情况下,处理器140可以竖直地布置包括在用户界面30中的多个对象31。
根据示例实施例,如果通过传感器130接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的用户界面30。例如,如果在指定时间段上接收到用户的触摸输入或者接收到具有指定强度或更高强度的用户触摸输入,则处理器140可以移动显示器110上显示的用户界面30。在另一示例中,如果识别出指定的第一手势(例如,握紧拳头或在第一方向上移动手的用户手势),则处理器140可以移动显示器110上显示的用户界面30。
根据示例实施例,如果在移动了用户界面30的状态下接收到指定的第二用户输入,则处理器140可以将用户界面30移动到原始位置。例如,如果再次接收到与第一用户输入相同的触摸输入,则处理器140可以将显示器110上显示的用户界面30移动到原始位置。在另一示例中,如果识别出指定的第二手势(例如,打开拳头或在与第一方向相反的第二方向上移动手的用户手势),则处理器140可以将显示器110上显示的用户界面30移动到原始位置。
图4是示出了根据示例实施例的移动用户界面的示例的图。
参考图4的图像<401>,处理器140可以在显示器110上显示用户界面40。例如,处理器140可以根据存储在存储器120中的用户界面40的位置信息在显示器110上的第一位置P41处显示用户界面40。
参考图4的图像<402>,处理器140可以基于设置在边框151内部的触摸传感器133上施加触摸输入的位置来移动用户界面40。例如,如果用户输入施加到边框151的第一位置B41,则处理器140可以将显示器110上显示的用户界面40从第一位置P41移动到与边框151的第一位置B41相对应的第二位置P42。在另一示例中,如果用户输入施加到边框151的第二位置B42,则处理器140可以将显示器110上显示的用户界面40从第一位置P41移动到与边框151的第二位置B42相对应的第三位置P43。
图5是示出了根据示例实施例的移动用户界面的示例的图。
参考图5的图像<501>,处理器140可以在显示器110上显示用户界面50。用户界面50可以包括多个对象51。参考图5的图像<502>,如果接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的用户界面50。根据示例实施例,可以指定的间隔来布置包括在用户界面50中的多个对象51。例如,处理器140可以第一间隔d1布置包括在用户界面50中的多个对象51。
参考图5的图像<503>,处理器140可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)来改变包括在用户界面50中的多个对象51之间的间隔。例如,在指定的第一用户输入的持续时间超过阈值时间或者指定的第一用户输入的强度超过阈值强度的情况下,处理器140可以将多个对象51之间的间隔从第一间隔d1减小到第二间隔d2。在另一示例中,处理器140可以随着指定的第一用户输入的持续时间的增加而减小多个对象51之间的间隔。在另一示例中,处理器140可以随着指定的第一用户输入的强度的增加而减小多个对象51之间的间隔。
图6是示出了根据示例实施例的移动用户界面的示例的图。
参考图6的图像<601>,处理器140可以在显示器110上显示用户界面60。用户界面60可以包括多个对象61、62、63和64。根据示例实施例,可以按指定的顺序布置包括在用户界面60中的多个对象61、62、63和64。例如,处理器140可以按照第一对象61、第二对象62、第三对象63和第四对象64的顺序来布置多个对象61、62、63和64。
参考图6的图像<602>,如果接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的用户界面60。在移动用户界面60时,处理器140可以保持多个对象61、62、63和64被布置的顺序。
参考图6的图像<603>,处理器140可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)来改变包括在用户界面60中的多个对象61、62、63和64被布置的顺序。例如,如果指定的第一用户输入的持续时间超过第一阈值时间(例如,1秒),或者指定的第一用户输入的强度超过第一阈值强度,则处理器140可以按照第四对象64、第一对象61、第二对象62和第三对象63的顺序来布置多个对象61、62、63和64。
参考图6的图像<604>,处理器140可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)连续地改变包括在用户界面60中的多个对象61、62、63和64被布置的顺序。例如,如果指定的第一用户输入的持续时间超过第二阈值时间(例如,2秒),或者指定的第一用户输入的强度超过第二阈值强度,则处理器140可以按照第三对象63、第四对象64、第一对象61和第二对象62的顺序来布置多个对象61、62、63和64。根据示例实施例,如果停止对指定的第一用户输入的接收,则处理器140可以将多个对象61、62、63和64保持在停止接收指定的第一用户输入时的布置状态下。
图7是示出了根据示例实施例的移动用户界面的示例的图。
参考图7的图像<701>,处理器140可以在显示器110上显示用户界面70。用户界面70可以包括多个对象71、72、73和74。
参考图7的图像<702>,如果接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的用户界面70。根据示例实施例,处理器140可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)附加地显示与用户界面70相关的对象。例如,如果指定的第一用户输入的持续时间超过第一阈值时间(例如,1秒),或者指定的第一用户输入的强度超过第一阈值强度,则处理器140可以在用户界面70上附加地显示与用户界面70相关的第五对象75和第六对象76。与用户界面70相关的对象75和76可以是例如根据用户的设置或对象被选择的次数而未在显示器110上显示的隐藏对象。
图8是示出了根据示例实施例的移动用户界面的示例的图。
参考图8的图像<801>,处理器140可以在显示器110上显示用户界面80。用户界面80可以包括多个对象81、82、83和84。
参考图8的图像<802>,如果接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的用户界面80。根据示例实施例,处理器140可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)附加地显示用户界面80的子用户界面。例如,如果指定的第一用户输入的持续时间超过第一阈值时间(例如,1秒),或者指定的第一用户输入的强度超过第一阈值强度,则处理器140可以显示第一对象81的子用户界面85、第二对象82的子用户界面86、第三对象83的子用户界面87和第四对象84的子用户界面88。包括在用户界面80中的多个对象81、82、83和84可以是选择菜单,并且子用户界面85、86、87和88可以分别包括这多个对象81、82、83和84的子选择菜单。
图9是示出了根据示例实施例的移动用户界面的示例的图。
参考图9的图像<901>,处理器140可以在显示器110上显示第一用户界面91。第一用户界面91可以是例如包括用于选择由显示设备100提供的多个功能的选择菜单的用户界面。处理器140可以在显示第一用户界面91之后在显示器110上显示第二用户界面92。第二用户界面92可以是例如临时显示在显示器110上的用户界面,例如弹出窗口。
参考图9的图像<902>,如果接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的第一用户界面91和第二用户界面92中的一个或两者。根据示例实施例,处理器140可以移动在显示器110上显示的多个用户界面91和92中的最近显示的用户界面(例如,第二用户界面92)。例如,如果接收到指定的第一用户输入,则处理器140可以将第二用户界面92从第一位置P91移动到第二位置P92。
当显示设备100正在被用户使用时,可能显示不必要的弹出窗口。为结束弹出窗口,用户可以移动到显示弹出窗口的位置,或者可以将弹出窗口沿用户所在的方向移动。根据参考图9描述的示例实施例,用户可以通过沿用户所在的方向移动弹出窗口而方便地结束弹出窗口,而无需移动其他用户界面。
图10是示出了根据示例实施例的移动用户界面的示例的图。
参考图10的图像<1001>,处理器140可以在显示器110上显示第一用户界面95和第二用户界面96。
参考图10的图像<1002>,如果接收到指定的第一用户输入,则处理器140可以移动显示器110上显示的第一用户界面95和第二用户界面96。根据示例实施例,处理器140可以允许第一用户界面95和第二用户界面96彼此重叠。例如,处理器140可以允许第一用户界面95的至少一个区域和第二用户界面96的至少一个区域彼此重叠,并且可以在第二用户界面96上显示第一用户界面95。
参考图10的图像<1003>,处理器140可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)来改变第一用户界面95和第二用户界面96彼此重叠的顺序。例如,如果指定的第一用户输入的持续时间超过第一阈值时间(例如,1秒),或者指定的第一用户输入的强度超过第一阈值强度,则处理器140可以通过改变第一用户界面95和第二用户界面96彼此重叠的顺序,在第一用户界面95上显示第二用户界面96。
在用户将显示器上显示的多个用户界面沿用户所在的方向移动的情况下,用户可能处于不得不重叠用户界面的情况中。根据参考图10描述的示例实施例,通过改变多个用户界面相互重叠的顺序,用户即使在固定位置也可以有效地控制多个用户界面。
参考图3至图10描述的示例实施例可以独立地执行,但是这些示例实施例可以同时执行。例如,处理器140可以根据用户的位置或接收到触摸输入的位置来移动用户界面,并且可以同时改变包括在用户界面中的多个对象之间的间隔以及多个对象被布置的方向和顺序中的任何一个或任何组合。
图11是示出了根据示例实施例的显示设备的用户界面显示方法的流程图。
图11中所示的流程图可以包括由上述显示设备100处理的操作。因此,尽管在下面的描述中被省略,但是参考图1至图10关于显示设备100阐述的内容也可以应用于图11所示的流程图。
根据示例实施例,在操作1110中,显示设备100可以在显示器110的第一位置处显示用户界面。例如,显示设备100可以根据存储在存储器120中的用户界面的位置信息在第一位置处显示用户界面。
根据示例实施例,在操作1120中,显示设备100可以确定用户的位置。根据示例实施例,显示设备100可以通过使用热传感器确定用户的位置。根据示例实施例,显示设备100可以基于通过触摸传感器133接收的用户触摸输入的位置来确定用户的位置。
根据示例实施例,在操作1130中,显示设备100可以接收指定的第一用户输入。例如,显示设备100可以在指定时间段上接收用户触摸输入,或者可以接收具有指定强度或更高强度的用户触摸输入。在另一示例中,显示设备100可以识别指定的第一手势(例如,握紧拳头或在第一方向上移动手的用户手势)。
根据示例实施例,如果接收到指定的第一用户输入,则显示设备100可以在操作1140中将用户界面移动到与用户的位置相对应的第二位置。
根据示例实施例,用户界面可以包括多个对象。根据示例实施例,取决于显示用户界面的第二位置,显示设备100可以改变包括在用户界面中的多个对象被布置的方向。根据示例实施例,取决于触摸输入施加到触摸传感器的位置,显示设备100可以改变包括在用户界面中的多个对象被布置的方向。
根据示例实施例,显示设备100可以基于指定的第一用户输入的持续时间(例如,触摸输入或手势输入的持续时间)或指定的第一用户输入的强度(例如,触摸输入的强度)来改变包括在用户界面中的多个对象之间的间隔。根据示例实施例,显示设备100可以基于指定的第一用户输入的持续时间或强度来改变包括在用户界面中的多个对象被布置的顺序。根据示例实施例,显示设备100可以基于指定的第一用户输入的持续时间或强度,附加地显示与用户界面相关的对象或用户界面的子用户界面。
根据示例实施例,如果多个用户界面显示在显示器110上,则显示设备100可以将多个用户界面中的最近显示的用户界面移动到第二位置。根据示例实施例,如果多个用户界面显示在显示器110上,则显示设备100可以将多个用户界面全部移动到第二位置。显示设备100可以允许移动到第二位置的多个用户界面中的至少一些相互重叠。根据示例实施例,显示设备100可以基于指定的第一用户输入的持续时间或强度来改变多个用户界面相互重叠的顺序。
根据示例实施例,在操作1150中,显示设备100可以接收指定的第二用户输入。例如,显示设备100可以在指定时间段上接收用户触摸输入,或者可以接收具有指定强度或更高强度的用户触摸输入。在另一示例中,显示设备100可以识别指定的第二手势(例如,打开拳头或在第二方向上移动手的用户手势)。
根据示例实施例,如果接收到指定的第二用户输入,则显示设备100可以在操作1160中将用户界面移动到第一位置。根据示例实施例,如果接收到指定的第二用户输入,则显示设备100可以改变包括在用户界面中的多个对象被布置的方向和顺序、多个对象之间的间隔以及用户界面的位置。
根据示例实施例的装置(例如,其模块或功能)或方法(例如,操作)的至少一部分可以由以程序模块形式存储在计算机可读存储介质中的指令实现。指令在由处理器执行时可以使得处理器执行与指令相对应的功能。计算机可读存储介质可以包括硬盘、软盘、磁介质(例如,磁带)、光介质(例如,致密盘只读存储器(CD-ROM)和数字多功能盘(DVD))、磁光介质(例如,光磁软盘)、内部存储器等。指令可以包括由编译器产生的代码或可在计算机上使用解译器执行的代码。
提供本文所公开的示例实施例来描述本公开的技术详情并帮助理解本公开,而非意在限制本公开的范围。因此,应理解,基于本公开的技术构思的所有修改和变型或其他示例实施例均落在本公开的范围内。
尽管参考本公开示例实施例示出并描述了本公开,但是本领域技术人员将理解:在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的前提下,可以进行形式和细节上的各种改变。

Claims (15)

1.一种显示设备,包括:
外壳,被配置为形成所述显示设备的外观;
显示器,通过所述外壳而暴露;
边框,被配置为形成所述外壳的一部分并沿所述显示器的周边设置;
触摸传感器,设置在所述边框内部并被配置为从用户接收在所述触摸传感器的触摸位置处的第一触摸输入;以及
处理器,被配置为:
控制所述显示器在所述显示器的第一位置处显示用户界面;以及
响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入:
基于接收到所述第一触摸输入的所述触摸位置来确定所述用户的用户位置;并且
控制所述显示器将所显示的所述用户界面移动到所述显示器的第二位置,所述第二位置与所确定的所述用户位置相对应。
2.根据权利要求1所述的显示设备,其中,所述用户界面包括多个对象,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器改变所述多个对象被布置的方向,以使所述多个对象与所述第二位置相对应。
3.根据权利要求1所述的显示设备,其中,所述用户界面包括多个对象,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器基于所接收的所述第一触摸输入的持续时间,改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
4.根据权利要求1所述的显示设备,其中,所述用户界面包括第一用户界面和第二用户界面,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器:
显示所述第一用户界面的第一部分重叠在所述第二用户界面的第二部分上;并且
基于所接收的所述第一触摸输入的持续时间,显示所述第二用户界面的所述第二部分重叠在所述第一用户界面的所述第一部分上。
5.根据权利要求1所述的显示设备,其中,所述用户界面包括多个对象,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器响应于所接收的所述第一触摸输入的第一持续时间超过阈值持续时间,显示与所述用户界面相关的附加对象或所述用户界面的子用户界面。
6.根据权利要求1所述的显示设备,还包括:压力传感器,设置在所述边框内部并被配置为检测所述第一触摸输入的强度,
其中,所述用户界面包括多个对象,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器基于检测到的所述第一触摸输入的强度,改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
7.根据权利要求1所述的显示设备,还包括:压力传感器,设置在所述边框内部并被配置为检测所述第一触摸输入的强度,
其中,所述用户界面包括第一用户界面和第二用户界面,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器:
显示所述第一用户界面的第一部分重叠在所述第二用户界面的第二部分上;以及
基于检测到的所述第一触摸输入的强度,显示所述第二用户界面的所述第二部分重叠在所述第一用户界面的所述第一部分上。
8.根据权利要求1所述的显示设备,其中,所述用户界面包括第一用户界面和第二用户界面,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,控制所述显示器将所述第一用户界面和所述第二用户界面之中最近显示的用户界面移动到所述第二位置。
9.根据权利要求1所述的显示设备,其中,所述触摸传感器还被配置为从用户接收第二触摸输入,以及
其中,所述处理器还被配置为响应于在所述第二位置处显示所述用户界面时接收到所述第二触摸输入,控制所述显示器将所显示的所述用户界面移动到所述第一位置。
10.根据权利要求1所述的显示设备,还包括:运动识别传感器,被配置为检测用户的第一手势和第二手势,
其中,所述处理器还被配置为控制所述显示器:
响应于在所述第一位置处显示所述用户界面时检测到所述第一手势,将所显示的所述用户界面移动到所述第二位置;以及
响应于在所述第二位置处显示所述用户界面时检测到所述第二手势,将所显示的所述用户界面移动到所述第一位置。
11.根据权利要求10所述的显示设备,其中,所述用户界面包括多个对象,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时检测到所述第一手势,基于检测到的所述第一手势的持续时间来确定所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
12.根据权利要求10所述的显示设备,其中,所述用户界面包括第一用户界面和第二用户界面,以及
其中,所述处理器还被配置为响应于在所述第一位置处显示所述用户界面时检测到所述第一手势,控制所述显示器:
显示所述第一用户界面的第一部分重叠在所述第二用户界面的第二部分上;并且
基于检测到的所述第一手势的持续时间,显示所述第二用户界面的所述第二部分重叠在所述第一用户界面的所述第一部分上。
13.一种显示设备的用户界面显示方法,所述方法包括:
在显示器的第一位置处显示用户界面;
从用户接收在触摸传感器的触摸位置处的第一触摸输入,所述触摸传感器设置在边框内部,所述边框形成外壳的一部分,所述外壳形成所述显示设备的外观,所述边框沿所述显示器的周边设置;以及
响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入:
基于接收到所述第一触摸输入的所述触摸位置来确定所述用户的用户位置;并且
将所显示的所述用户界面移动到所述显示器的第二位置,所述第二位置与所确定的所述用户位置相对应。
14.根据权利要求13所述的方法,其中,所述用户界面包括多个对象,以及
其中,所述方法还包括:响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,改变所述多个对象被布置的方向,以使所述多个对象与所述第二位置相对应。
15.根据权利要求13所述的方法,其中,所述用户界面包括多个对象,以及
其中,所述方法还包括:响应于在所述第一位置处显示所述用户界面时接收到所述第一触摸输入,基于所接收的所述第一触摸输入的持续时间来改变所述多个对象之间的间隔和所述多个对象被布置的顺序之一或两者。
CN201810171167.2A 2017-03-02 2018-03-01 显示设备及其用户界面显示方法 Active CN108563389B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0027101 2017-03-02
KR1020170027101A KR102316024B1 (ko) 2017-03-02 2017-03-02 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법

Publications (2)

Publication Number Publication Date
CN108563389A true CN108563389A (zh) 2018-09-21
CN108563389B CN108563389B (zh) 2023-05-30

Family

ID=61557117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810171167.2A Active CN108563389B (zh) 2017-03-02 2018-03-01 显示设备及其用户界面显示方法

Country Status (4)

Country Link
US (1) US11231785B2 (zh)
EP (1) EP3370134B1 (zh)
KR (1) KR102316024B1 (zh)
CN (1) CN108563389B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
KR102403141B1 (ko) 2017-08-31 2022-05-30 삼성전자주식회사 프리뷰 ui를 제공할 수 있는 디스플레이 장치 및 이의 제어 방법
US10754480B2 (en) * 2018-04-26 2020-08-25 Hewlett-Packard Development Company, L.P. Frames for interactive posters
US11553247B2 (en) * 2020-08-20 2023-01-10 The Nielsen Company (Us), Llc Methods and apparatus to determine an audience composition based on thermal imaging and facial recognition
US12045419B2 (en) * 2022-03-28 2024-07-23 Promethean Limited User interface modification systems and related methods
US20240280950A1 (en) * 2023-02-16 2024-08-22 Sudhakar Ravuri Smart environment control device using prioritized thermal sensing to trigger personalized functions

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060238517A1 (en) * 2005-03-04 2006-10-26 Apple Computer, Inc. Electronic Device Having Display and Surrounding Touch Sensitive Bezel for User Interface and Control
CN101183292A (zh) * 2006-11-16 2008-05-21 Lg电子株式会社 移动终端及其屏幕显示方法
US20080284754A1 (en) * 2007-05-15 2008-11-20 High Tech Computer, Corp. Method for operating user interface and recording medium for storing program applying the same
CN101609383A (zh) * 2006-03-03 2009-12-23 苹果公司 具有显示器和用于用户界面及控制的周围触摸敏感边框的电子设备
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
CN102109963A (zh) * 2011-03-25 2011-06-29 威盛电子股份有限公司 于屏幕上进行光标定位的方法
US20120233545A1 (en) * 2011-03-11 2012-09-13 Akihiko Ikeda Detection of a held touch on a touch-sensitive display
US20140055367A1 (en) * 2012-08-21 2014-02-27 Nokia Corporation Apparatus and method for providing for interaction with content within a digital bezel
CN104049737A (zh) * 2013-03-14 2014-09-17 三星电子株式会社 用户设备的对象控制方法和装置
CN104182169A (zh) * 2013-05-23 2014-12-03 三星电子株式会社 用于基于手势的用户界面的方法和设备
US20140359539A1 (en) * 2013-05-31 2014-12-04 Lenovo (Singapore) Pte, Ltd. Organizing display data on a multiuser display
US20150153932A1 (en) * 2013-12-04 2015-06-04 Samsung Electronics Co., Ltd. Mobile device and method of displaying icon thereof
US20150186008A1 (en) * 2013-12-31 2015-07-02 Barnesandnoble.Com Llc Move icon to reveal textual information
CN104823140A (zh) * 2012-11-12 2015-08-05 微软公司 触摸敏感边框技术
US20160062636A1 (en) * 2014-09-02 2016-03-03 Lg Electronics Inc. Mobile terminal and control method thereof
CN105389078A (zh) * 2014-09-02 2016-03-09 苹果公司 用于接收用户输入的用户界面

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE40891E1 (en) * 1991-11-26 2009-09-01 Sandio Technology Corp. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5825363A (en) * 1996-05-24 1998-10-20 Microsoft Corporation Method and apparatus for determining visible surfaces
JPH104531A (ja) * 1996-06-14 1998-01-06 Nikon Corp 情報処理装置
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
TW521205B (en) * 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US7814419B2 (en) * 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
US20060007169A1 (en) * 2004-06-04 2006-01-12 Robbins Michael S Self-encoding control interface bezel system
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US20060064642A1 (en) * 2004-09-22 2006-03-23 Edurite Technologies Pvt. Ltd. Seamless presentation integrator
US7382353B2 (en) * 2004-11-18 2008-06-03 International Business Machines Corporation Changing a function of a device based on tilt of the device for longer than a time period
US7536654B2 (en) * 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
US20090213086A1 (en) * 2006-04-19 2009-08-27 Ji Suk Chae Touch screen device and operating method thereof
US8882590B2 (en) * 2006-04-28 2014-11-11 Nintendo Co., Ltd. Touch-controlled game character motion providing dynamically-positioned virtual control pad
US9292996B2 (en) * 2006-12-19 2016-03-22 Igt Distributed side wagering methods and systems
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20080249682A1 (en) * 2007-04-06 2008-10-09 Visteon Global Technologies, Inc. Touch control bezel for display devices
US8259117B2 (en) * 2007-06-18 2012-09-04 Brian Mark Shuster Avatar eye control in a multi-user animation environment
US7778118B2 (en) * 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
KR100973354B1 (ko) * 2008-01-11 2010-07-30 성균관대학교산학협력단 메뉴 유저 인터페이스 제공 장치 및 방법
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8645827B2 (en) * 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8462148B1 (en) * 2009-04-01 2013-06-11 Perceptive Pixel Inc. Addressing rotational exhaustion in 3D manipulation
KR101055924B1 (ko) * 2009-05-26 2011-08-09 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
US8416206B2 (en) * 2009-07-08 2013-04-09 Smart Technologies Ulc Method for manipulating a graphic widget in a three-dimensional environment displayed on a touch panel of an interactive input system
US8656314B2 (en) * 2009-07-30 2014-02-18 Lenovo (Singapore) Pte. Ltd. Finger touch gesture for joining and unjoining discrete touch objects
KR101768540B1 (ko) * 2009-10-30 2017-08-18 삼성전자주식회사 모바일 기기 및 이에 적용되는 ui 제공방법
KR101304321B1 (ko) * 2010-01-22 2013-09-11 전자부품연구원 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US9250800B2 (en) * 2010-02-18 2016-02-02 Rohm Co., Ltd. Touch-panel input device
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US8990732B2 (en) * 2010-05-14 2015-03-24 Sap Se Value interval selection on multi-touch devices
US20110316888A1 (en) * 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
KR101788049B1 (ko) * 2010-12-15 2017-10-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5620287B2 (ja) * 2010-12-16 2014-11-05 株式会社オプティム ユーザインターフェースを変更する携帯端末、方法及びプログラム
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
KR101781908B1 (ko) * 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US9658766B2 (en) * 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130067398A1 (en) * 2011-09-09 2013-03-14 Theresa B. Pittappilly Semantic Zoom
KR101339420B1 (ko) * 2011-10-05 2013-12-10 한국과학기술원 베젤 영역을 이용한 전자책 컨텐츠 제어방법 및 장치
TW201333787A (zh) * 2011-10-11 2013-08-16 Flatfrog Lab Ab 觸控系統中改良的多點觸控偵測
KR20130082352A (ko) * 2012-01-11 2013-07-19 삼성전자주식회사 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법
US9229625B2 (en) * 2012-02-06 2016-01-05 Mosaiqq, Inc System and method for providing a circular computer desktop environment
US9158383B2 (en) * 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
US8963962B2 (en) * 2012-03-06 2015-02-24 Apple Inc. Display of multiple images
US9146655B2 (en) * 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9015582B2 (en) * 2012-05-01 2015-04-21 Kabushiki Kaisha Toshiba User interface for reordering thumbnails
CN109101165A (zh) * 2012-06-28 2018-12-28 汉阳大学校产学协力团 用户界面调节方法
KR20140036576A (ko) * 2012-09-17 2014-03-26 삼성전자주식회사 카테고리 디스플레이를 위한 방법 및 그 방법을 처리하는 전자 장치
US9785291B2 (en) * 2012-10-11 2017-10-10 Google Inc. Bezel sensitive touch screen system
US9164625B2 (en) * 2012-10-14 2015-10-20 Neonode Inc. Proximity sensor for determining two-dimensional coordinates of a proximal object
US20140109012A1 (en) * 2012-10-16 2014-04-17 Microsoft Corporation Thumbnail and document map based navigation in a document
US9158766B2 (en) * 2012-11-29 2015-10-13 Oracle International Corporation Multi-touch interface for visual analytics
CN103019594A (zh) * 2012-12-06 2013-04-03 鸿富锦精密工业(深圳)有限公司 电子装置及其页面缩放方法
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
GB2512887B (en) * 2013-04-10 2017-09-13 Samsung Electronics Co Ltd Displaying history information for a selected action
KR102137240B1 (ko) * 2013-04-16 2020-07-23 삼성전자주식회사 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치
US9477331B2 (en) * 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge
US10576372B2 (en) * 2013-10-11 2020-03-03 Supercell Oy Electronic device for facilitating user interactions with graphical user interface
US20150160849A1 (en) * 2013-12-06 2015-06-11 Microsoft Corporation Bezel Gesture Techniques
CN103617002A (zh) 2013-12-16 2014-03-05 深圳市理邦精密仪器股份有限公司 一种触控界面的实现方法及装置
KR102206385B1 (ko) * 2014-04-11 2021-01-22 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9600114B2 (en) * 2014-07-31 2017-03-21 International Business Machines Corporation Variable pressure touch system
US10037185B2 (en) * 2014-08-18 2018-07-31 Nightlight Systems Llc Digital media message generation
US10261674B2 (en) * 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
US10304163B2 (en) * 2014-09-08 2019-05-28 Apple Inc. Landscape springboard
US10296206B2 (en) * 2014-09-23 2019-05-21 Microsoft Technology Licensing, Llc Multi-finger touchpad gestures
US9836195B2 (en) * 2014-11-17 2017-12-05 Supercell Oy Electronic device for facilitating user interactions with graphical objects presented on a display
KR20160069909A (ko) * 2014-12-09 2016-06-17 에스케이텔레콤 주식회사 전자칠판장치 및 그 장치를 위한 기록매체
JP2016111652A (ja) * 2014-12-10 2016-06-20 オリンパス株式会社 撮像装置、撮像方法およびプログラム
CN105786356B (zh) 2014-12-23 2019-08-09 阿里巴巴集团控股有限公司 一种应用的操作方法及装置
US9542037B2 (en) * 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
CN106325726B (zh) * 2015-06-30 2019-12-13 中强光电股份有限公司 触控互动方法
US9898130B2 (en) * 2016-03-31 2018-02-20 Synaptics Incorporated Grip management
US20180039951A1 (en) * 2016-08-03 2018-02-08 Google Inc. Computer-assisted agendas for videoconferences
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
DK180859B1 (en) * 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060238517A1 (en) * 2005-03-04 2006-10-26 Apple Computer, Inc. Electronic Device Having Display and Surrounding Touch Sensitive Bezel for User Interface and Control
CN101609383A (zh) * 2006-03-03 2009-12-23 苹果公司 具有显示器和用于用户界面及控制的周围触摸敏感边框的电子设备
CN101183292A (zh) * 2006-11-16 2008-05-21 Lg电子株式会社 移动终端及其屏幕显示方法
US20080284754A1 (en) * 2007-05-15 2008-11-20 High Tech Computer, Corp. Method for operating user interface and recording medium for storing program applying the same
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
US20120233545A1 (en) * 2011-03-11 2012-09-13 Akihiko Ikeda Detection of a held touch on a touch-sensitive display
CN102109963A (zh) * 2011-03-25 2011-06-29 威盛电子股份有限公司 于屏幕上进行光标定位的方法
US20140055367A1 (en) * 2012-08-21 2014-02-27 Nokia Corporation Apparatus and method for providing for interaction with content within a digital bezel
CN104823140A (zh) * 2012-11-12 2015-08-05 微软公司 触摸敏感边框技术
CN104049737A (zh) * 2013-03-14 2014-09-17 三星电子株式会社 用户设备的对象控制方法和装置
CN104182169A (zh) * 2013-05-23 2014-12-03 三星电子株式会社 用于基于手势的用户界面的方法和设备
US20140359539A1 (en) * 2013-05-31 2014-12-04 Lenovo (Singapore) Pte, Ltd. Organizing display data on a multiuser display
US20150153932A1 (en) * 2013-12-04 2015-06-04 Samsung Electronics Co., Ltd. Mobile device and method of displaying icon thereof
US20150186008A1 (en) * 2013-12-31 2015-07-02 Barnesandnoble.Com Llc Move icon to reveal textual information
US20160062636A1 (en) * 2014-09-02 2016-03-03 Lg Electronics Inc. Mobile terminal and control method thereof
CN105389078A (zh) * 2014-09-02 2016-03-09 苹果公司 用于接收用户输入的用户界面

Also Published As

Publication number Publication date
EP3370134A1 (en) 2018-09-05
KR102316024B1 (ko) 2021-10-26
US20180253221A1 (en) 2018-09-06
CN108563389B (zh) 2023-05-30
KR20180101655A (ko) 2018-09-13
US11231785B2 (en) 2022-01-25
EP3370134B1 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
CN108563389A (zh) 显示设备及其用户界面显示方法
US10021319B2 (en) Electronic device and method for controlling image display
US9360965B2 (en) Combined touch input and offset non-touch gesture
KR101984683B1 (ko) 멀티 디스플레이 장치 및 그 제어 방법
AU2014200250B2 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium, and portable terminal
CN103649900B (zh) 边缘手势
US9684403B2 (en) Method, device, and computer-readable medium for changing size of touch permissible region of touch screen
US20140198036A1 (en) Method for controlling a portable apparatus including a flexible display and the portable apparatus
WO2014140827A2 (en) Systems and methods for proximity sensor and image sensor based gesture detection
US20130176202A1 (en) Menu selection using tangible interaction with mobile devices
KR20160069428A (ko) 배경화면의 내용에 대응하여 객체를 배열하는 방법 및 장치
US20150063785A1 (en) Method of overlappingly displaying visual object on video, storage medium, and electronic device
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
TW201203081A (en) Representative image
CN103513879A (zh) 触控设备及其显示控制方法及装置
US20140146007A1 (en) Touch-sensing display device and driving method thereof
US9904444B2 (en) Method of providing user interface of device and device including the user interface
CN104951140B (zh) 一种触摸屏菜单显示方法和系统
US10042445B1 (en) Adaptive display of user interface elements based on proximity sensing
US20200257396A1 (en) Electronic device and control method therefor
US20190212891A1 (en) Electronic apparatus, information processing method, program, and storage medium
JP7030527B2 (ja) 電子機器、情報処理方法、プログラム及び記憶媒体
JP2005284644A (ja) データ処理装置およびプログラム
KR20140016483A (ko) 터치방식 휴대용 단말기 및 그 구동 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant