CN104301765A - 图像显示设备及其操作方法 - Google Patents
图像显示设备及其操作方法 Download PDFInfo
- Publication number
- CN104301765A CN104301765A CN201410336078.0A CN201410336078A CN104301765A CN 104301765 A CN104301765 A CN 104301765A CN 201410336078 A CN201410336078 A CN 201410336078A CN 104301765 A CN104301765 A CN 104301765A
- Authority
- CN
- China
- Prior art keywords
- user
- individual screen
- display
- image display
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/82—Protecting input, output or interconnection devices
- G06F21/84—Protecting input, output or interconnection devices output devices, e.g. displays or monitors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明提供了一种图像显示设备及其操作方法。所述方法包括:识别多个用户;显示选择菜单,其中,所述选择菜单被配置为允许对与识别的多个用户中的每个用户相应的个人屏幕的选择;接收从选择菜单选择至少一个个人屏幕的输入;显示选择的所述至少一个个人屏幕,其中,所述至少一个个人屏幕包括基于用户信息的个人内容。
Description
本申请要求于2013年7月15日提交到韩国知识产权局的第10-2013-0083151号韩国专利申请的优先权,所述申请的公开内容通过引用整体合并于此。
技术领域
与示例性实施例一致的设备和方法涉及一种图像显示设备及其操作方法,更具体地讲,涉及一种提供与多个用户中的每个用户相应的个人屏幕的图像显示设备及其操作方法。
背景技术
图像显示设备至少具有显示用户可观看的图像或其他内容的功能。例如,用户可通过图像显示设备观看广播图像。另外,图像显示设备可在显示装置上显示由用户从广播站广播的广播信号中选择的广播图像。当前,世界上大多数国家已经从模拟广播转变到数字广播。
数字广播是指提供数字图像和音频信号的广播。当与模拟广播相比时,数字广播被认为是弹性地抵御外部噪声,因此具有更少的数据丢失,并有利于错误校正。数字广播还能够实现高分辨率和高清晰度屏幕的使用。与模拟广播不同,数字广播还可提供交互服务。
最近,已提供了提供除了数字广播功能之外的各种功能和内容的智能电视(TV)。智能TV可在无需用户的操纵的情况下分析内容,并将内容提供给用户,代替根据用户的选择的手动操作。
发明内容
根据示例性实施例的一方面,提供一种操作图像显示设备的方法,所述方法包括:识别多个用户;显示选择菜单,其中,所述选择菜单被配置为允许选择与识别的多个用户中的每个用户相应的个人屏幕;接收用于从选择菜单选择至少一个个人屏幕的输入;显示选择的所述至少一个个人屏幕,其中,所述至少一个个人屏幕包括基于用户信息的个人内容。
所述方法还可包括:接收用于进入个人屏幕模式的进入命令;响应于接收到用于进入个人屏幕模式的进入命令,识别所述多个用户。
显示选择的所述至少一个个人屏幕的步骤包括可包括:接收用户认证信息;响应于接收到的用户认证信息和与选择的所述至少一个个人屏幕相应的用户标识信息匹配,显示选择的所述至少一个个人屏幕。
用户认证信息可包括用户面部信息、预定图案信息、用户声纹信息和密码中的至少一个。
选择菜单可包括指示所述至少一个个人屏幕的对象。
显示选择的所述至少一个个人屏幕的步骤可包括:显示包括在选择的所述至少一个个人屏幕中的内容之中的一些预定内容。
显示选择的所述至少一个个人屏幕的步骤可包括:响应于选择了多个个人屏幕,在显示器的不同区域上显示所述多个个人屏幕。
个人内容可包括:基于图像显示设备的使用时间推荐的内容以及从另一用户共享的内容。
用户信息可包括用户的性别、年龄、内容使用历史、搜索历史和感兴趣的领域中的至少一个。
所述方法还可包括:响应于与显示的所述至少一个个人屏幕相应的用户的识别的失败,终止所述至少一个个人屏幕的显示。
所述方法还可包括:响应于当显示所述至少一个个人屏幕时识别出与识别的多个用户不同的新用户,终止所述至少一个个人屏幕的显示。
根据另一示例性实施例的一方面,提供一种图像显示设备,所述图像显示设备包括:用户识别单元,被配置为识别多个用户;显示器,被配置为显示选择菜单,其中,所述选择菜单被配置为选择与识别的多个用户中的每个用户相应的个人屏幕;用户输入接收器,被配置为接收用于从选择菜单选择至少一个个人屏幕的输入;控制器,被配置为控制选择的所述至少一个个人屏幕的显示,其中,所述至少一个个人屏幕包括基于用户信息的个人内容。
控制器还可被配置为响应于接收到用于进入个人屏幕模式的进入命令来识别所述多个用户。
用户输入接收器还可被配置为接收用户认证信息,其中,控制器还可被配置为响应于接收到的用户认证信息和与选择的所述至少一个个人屏幕相应的用户标识信息匹配来控制选择的所述至少一个个人屏幕的显示。
用户认证信息可包括用户面部信息、预定图案信息、用户声纹信息和密码中的至少一个。
控制器还可被配置为控制包括在选择的所述至少一个个人屏幕中的内容之中的一些预定内容的显示。
控制器还可被配置为响应于选择了多个个人屏幕来控制所述多个个人屏幕在显示器的不同区域上的显示。
个人内容可包括:基于图像显示设备的使用时间推荐的内容以及从另一用户共享的内容。
用户信息可包括用户的性别、年龄、内容使用历史、选择历史和感兴趣的领域中的至少一个。
根据另一示例性实施例的一方面,提供一种记录有用于在计算机上执行操作图像显示设备的方法的程序的非暂时性计算机可读记录介质,所述方法包括:识别多个用户;显示选择菜单,其中,所述选择菜单被配置为允许对与识别的多个用户中的每个用户相应的个人屏幕的选择;接收从选择菜单选择至少一个个人屏幕的输入;显示选择的所述至少一个个人屏幕,其中,所述至少一个个人屏幕包括基于用户信息的个人内容。
附图说明
从以下结合附图进行的对示例性实施例的描述,这些和/或其他方面将变得明显和更易于理解,其中:
图1是示出根据示例性实施例的图像显示设备的框图;
图2是示出根据另一示例性实施例的图像显示设备的框图;
图3是示出根据示例性实施例的遥控器的框图;
图4是根据示例性实施例的操作图像显示设备的方法的流程图;
图5是示出根据示例性实施例的用户识别操作的示图;
图6是示出根据示例性实施例的在显示器上显示的选择菜单的示图;
图7是示出根据另一示例性实施例的在显示器上显示的选择菜单的示图;
图8是示出根据另一示例性实施例的在显示器上显示的选择菜单的示图;
图9是示出根据示例性实施例的在显示器上显示的个人屏幕的示图;
图10是示出根据示例性实施例的显示个人屏幕的方法的示图;
图11是示出根据另一示例性实施例的显示个人屏幕的方法的示图;
图12是根据另一示例性实施例的操作图像显示设备的方法的流程图;
图13是示出根据示例性实施例的认证方法的示图;
图14是示出根据另一示例性实施例的认证方法的示图;
图15是示出根据另一示例性实施例的认证方法的示图;
图16是示出根据示例性实施例的终止个人屏幕显示的操作的示图;
图17是示出根据另一示例性实施例的终止个人屏幕显示的操作的示图。
具体实施方式
现在将详细说明实施例,在附图中示出实施例的示例,其中,相同的参考标号始终是指相同的元件。在这方面,本实施例可具有不同的形式,且不应被解释为受限于在此阐述的描述。因此,以下仅通过参照附图来描述实施例,以解释本说明书的各方面。当诸如“…中的至少一个”的表述位于一列元件之后时,其修饰整列元件,而不是修饰该列的单个元件。
用于以下描述中的组件的后缀“模块”和“单元”或“部分”仅被提供便于准备本说明书,并因此它们不被授予特定的含义或功能。因此,应当注意到,可一起使用“模块”和“单元”或“部分”。
在实施例中使用的术语“…单元”指示包括软件或硬件的组件,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC),并且“…单元”执行特定作用。然而,“…单元”不限于软件或硬件。“…单元”可被配置为包括在可寻址存储介质中或再现一个或更多个处理器。因此,例如,“…单元”包括组件(诸如软件组件、面向对象的软件组件、类组件和任务组件)、处理、功能、属性、程序、子程序、程序代码段、驱动器、固件、微代码、电路、数据、数据库、数据结构、表、阵列和变量。在组件和“…单元”内部提供的功能可组合成更少数量的组件和“…单元”,或进一步被划分为另外的组件和“…单元”。
如在这里使用的术语“模块”表示但不限于执行特定任务的软件或硬件组件,诸如FPGA或ASIC。模块可有利地被配置为驻留在可寻址存储介质上并被配置为在一个或更多个处理器上执行。因此,通过举例的方式,模块可包括组件(诸如软件组件、面向对象的软件组件、类组件和任务组件)、处理、功能、属性、程序、子程序、程序代码段、驱动器、固件、微代码、电路、数据、数据库、数据结构、表、阵列和变量。在组件和模块中提供的功能可组合成更少的组件和模块,或进一步被分成另外的组件和模块。
虽然在此使用的术语是当前被广泛使用的通过考虑其功能而被选择的通用术语,但是术语的含义可根据本领域技术人员的意图、法律判例或新技术的出现而不同。此外,一些特定术语可由申请人任意选择,在这种情况下,术语的含义可在示例性实施例的描述中被专门定义。因此,术语不应由其简单的名称来定义,而应基于术语的含义和示例性实施例的描述的上下文来定义。如这里所使用的,当诸如“…中的至少一个”的表述位于一列元件之后时,其修饰整列元件,而不是修饰该列中的单个元件。
将理解的是,术语“包括”和/或“包含”当在本说明书中被使用时指定所陈述的元件和/或组件的存在,而不排除存在或添加一个或更多个元件和/或组件。如这里所使用的,术语“模块”是指可执行至少一个功能或操作并可利用硬件、软件或硬件和软件的组合的任何形式所实现的单元。
图1是根据示例性实施例的图像显示设备100的框图。
参照图1,根据本示例性实施例的图像显示设备100可包括控制器140、显示器120、用户识别单元110和用户输入接收器130。
用户识别单元110可包括相机。用户识别单元110捕捉用户的图像并基于捕捉到的图像来识别用户。用户识别单元110可用一个相机来实现,但也可用多个相机来实现。
相机可包括在图像显示设备100中,并可被布置在显示器120之上或被单独提供。由相机捕捉到的图像可输入到控制器140。
控制器140处理图像信号,并将处理后的图像信号输入到显示器120,使得与图像信号相应的图像显示在显示器120上。控制器140还根据通过用户输入接收器130输入的用户命令或内部程序来控制图像显示设备100。
例如,根据示例性实施例,控制器140可控制由用户输入所选择的个人屏幕显示在显示器120上。
控制器140基于由用户识别单元110捕捉到的图像来识别用户的位置。例如,控制器140可识别用户和图像显示设备100之间的距离(z轴坐标)。控制器140还可识别显示器120上的与用户的位置相应的x轴坐标和y轴坐标。
根据示例性实施例,如果控制器140接收到用于进入个人屏幕模式的命令,则控制器140可控制用户识别单元110识别用户。
显示器120转换由控制器140处理的图像信号、数据信号、屏上显示(OSD)信号和控制信号以产生驱动信号。
显示器120可被实现为等离子显示面板(PDP)、液晶显示器(LCD)、有机发光二极管(OLED)或柔性显示器,并且还可被实现为三维(3D)显示器。
显示器120可利用被用作输入装置以及输出装置的触摸屏来实现。
关于示例性实施例,显示器120可显示用于选择与识别的多个用户中的每个用户相应的个人屏幕的选择菜单。
用户输入接收器130将用户输入信号转发给控制器140,或将从控制器140输出的信号转发给用户。
根据示例性实施例,用户输入接收器130接收用于从在显示器120上显示的选择菜单选择至少一个个人屏幕的输入。
图2是示出根据另一实施例的图像显示设备200的框图。
参照图2,根据另一实施例的图像显示设备200可包括控制器140、显示器220、用户识别单元210、用户输入接收器230、广播接收单元250、外部装置接口280、存储单元260、传感器单元和音频输出单元290。
广播接收单元250可包括调谐器251、解调器253和网络接口270。广播接收单元250还可被设计为包括调谐器251和解调器253而不包括网络接口270。另一方面,广播接收单元250可被设计为包括网络接口270而不包括调谐器251和解调器253。
调谐器251对经由天线接收到的射频(RF)广播信号中的与由用户选择的频道或所有预先存储的频道相应的RF广播信号进行调谐。调谐器251还将调谐后的RF广播信号转换为中频(IF)信号或者基带图像或音频信号。
例如,如果调谐后的RF广播信号是数字广播信号,则调谐器251可将调谐后的RF广播信号转换为数字IF(DIF)信号,如果调谐后的RF广播信号是模拟信号,则调谐器251可将调谐后的RF广播信号转换为模拟基带图像或音频信号(CVBS/SIF)。也即是说,调谐器251可处理数字广播信号或模拟广播信号。从调谐器251输出的模拟基带图像或音频信号(CVBS/SIF)直接输入到控制器140。
调谐器251接收根据高级电视系统委员会(ATSC)标准的具有单个载波的RF广播信号,或接收根据数字视频广播(DVB)标准的具有多个载波的RF广播信号。
在示例性实施例中,调谐器251可从经由天线接收到的RF广播信号依次对使用频道存储功能存储的所有广播频道的RF广播信号进行调谐,并将调谐后的RF广播信号转换为IF信号或者基带图像或音频信号。
调谐器251可包括用于接收多个频道的广播信号的多个调谐器。调谐器251还可包括同时接收多个频道的广播信号的单个调谐器。
解调器253接收通过调谐器251中的转换而获得的DIF信号,并对接收到的DIF信号执行解调。
解调器253在执行解调和信道解码之后输出流信号(TS)。流信号可以是将图像信号、音频信号或数据信号进行复用的结果。
从解调器253输出的流信号可输入到控制器140。控制器140执行解复用和图像/音频信号处理,然后在显示器220上输出图像,并将音频输出到音频输出单元290。
外部装置接口280将数据发送到连接的外部装置,或从连接的外部装置接收数据。为此,外部装置接口280可包括音频/视频(A/V)输入和输出单元或无线通信单元。
外部装置接口280可以以有线或无线方式连接到外部装置(诸如数字多功能盘(DVD)播放器、蓝光盘(BD)播放器、游戏控制台、相机、摄像录像机、计算机(笔记本计算机)或机顶盒),并可与外部装置相关联地执行输入/输出操作。
A/V输入和输出单元可接收外部装置的图像和音频信号。无线通信单元可与其他电子装置执行短距离无线通信。
网络接口270提供用于利用包括互联网网络的无线/有线网络来连接图像显示设备200的接口。例如,网络接口270可通过网络接收由互联网、内容提供商或网络运营商提供的内容或数据。
存储单元260存储用于控制器140的信号处理和控制的程序或经信号处理的图像、音频或数据信号。
存储单元260执行用于临时存储输入到外部装置接口280的图像、音频或数据信号的功能。存储单元260还可通过使用频道存储功能(诸如频道图)来存储关于预定广播频道的信息。
虽然图2示出了与控制器140分开地设置存储单元260的示例性实施例,但是范围不限于此。存储单元260可包括在控制器140中。
用户输入接收器230将用户输入信号转发给控制器140,或将信号从控制器140转发给用户。
例如,用户输入接收器230可发送来自将参照图3描述的遥控器300的用户输入信号(诸如上电/断电、频道选择或屏幕设置)/从遥控器300接收所述用户输入信号,将通过本地按键(诸如电源键、频道键、音量键或设置键)输入的用户输入信号转发给控制器140,将从用于感测用户手势的传感器单元输入的用户输入信号转发给控制器140,或者将信号从控制器140发送到传感器单元。
根据示例性实施例,用户输入接收器230可接收用于从在显示器220上显示的选择菜单选择至少一个个人屏幕的输入。
控制器140对通过调谐器251、解调器253或外部装置接口280的输入流进行解复用,并处理解复用后的信号以产生和输出用于图像或音频输出的信号。
由控制器140进行图像处理后的图像信号输入到显示器220,并被显示为与该图像信号相应的图像。由控制器140进行图像处理后的图像信号通过外部装置接口280输入到外部输出装置。
由控制器140处理的音频信号输出到音频输出单元290。由控制器140处理的音频信号通过外部装置接口280输入到外部输出装置。
虽然图2中未示出,但是解复用单元和图像处理单元可包括在控制器140中。
控制器140控制图像显示设备200的整体操作。例如,控制器140可控制调谐器251对与用户选择的频道或预先存储的频道相应的RF广播信号进行调谐。
控制器140根据通过用户输入接收器230输入的用户命令或内部程序来控制图像显示设备200。
例如,根据示例性实施例,控制器140控制由用户输入所选择的个人屏幕的显示。
控制器140控制显示器220显示图像。在显示器220上显示的图像可以是静止或运动图像或者3D图像。
控制器140基于由用户识别单元210捕捉到的图像来识别用户的位置。例如,控制器140可识别用户和图像显示设备200之间的距离(z轴坐标)。控制器140还可识别显示器220上的与用户的位置相应的x轴坐标和y轴坐标。
根据示例性实施例,如果控制器140接收到用于进入个人屏幕模式的命令,则控制器140可控制用户识别单元210识别用户。
显示器220转换由控制器140处理的图像信号、数据信号、OSD信号或控制信号或者通过外部装置接口280接收到的图像信号、数据信号或控制信号,以产生驱动信号。
显示器220可包括PDP、LCD、OLED或柔性显示器,或还可包括3D显示器。
显示器220可包括充当输入装置以及输出装置的触摸屏。
音频输出单元290接收由控制器140进行音频处理后的信号并输出音频。
用户识别单元210可包括相机。用户识别单元210通过使用相机来捕捉用户,并基于捕捉到的图像来识别用户。用户识别单元210可用一个相机来实现,但是还可用多个相机来实现。相机可包括在图像显示设备200中,并可被布置在显示器220之上或被单独提供。由相机捕捉到的图像可输入到控制器140。
控制器140基于由相机捕捉到的图像或由传感器单元感测到的信号或者二者的组合来感测用户的手势。
遥控器300将用户输入发送到用户输入接收器230。为此,遥控器300可使用蓝牙、RF通信、红外(IR)通信、超宽带(UWB)或Zigbee。遥控器300接收从用户输入接收器230输出的图像、音频或数据信号,并在遥控器300上显示信号,或将信号作为音频输出。
图像显示设备100和200可以是能够接收数字广播的固定的或移动的数字广播接收器。
在此描述的图像显示设备可包括电视机、监视器、蜂窝手机、智能手机、笔记本计算机、数字广播终端、个人数字助理(PDA)或便携式多媒体播放器(PMP)。
示出图像显示设备100和200的图1和图2的框图是用于示例性实施例的框图。框图的每个组件可根据实际实现的图像显示设备100和200的规格而被集成、添加或省略。也就是说,两个或更多个组件可被集成为一个组件,或者一个组件可被划分为两个或更多个组件。在每个块中执行的功能旨在描述示例性实施例,详细的操作或装置不限制范围。
与图2中不同,图像显示设备200可通过网络接口270或外部装置接口280接收图像内容,并回放图像内容,而不包括图2中示出的调谐器251和解调器253。
图像显示设备100和200是用于对存储在设备中的图像或输入图像执行信号处理的图像信号处理设备的示例。图像信号处理设备的另一示例可包括机顶盒、DVD播放器、蓝光播放器、游戏控制台或不包括图2中示出的显示器220和音频输出单元290的计算机。
图3是示出图2中示出的遥控器300的框图。
参照图3,遥控器300可包括无线通信单元310、第二用户输入接收器350、输出单元360、第二存储单元340和第二控制器330。
无线通信单元310与根据以上描述的一个或更多个示例性实施例的图像显示设备中的任意一个发送和接收信号。在根据一个或更多个示例性实施例的图像显示设备之中,图像显示设备将被描述为示例。
在当前示例性实施例中,无线通信单元310可包括能够根据IR通信标准与图像显示设备100和200发送和接收信号的IR模块。
因此,遥控器300可通过IR模块将与上电/断电、频道改变或音量改变相关的命令发送到图像显示设备100和200。
第二用户输入接收器350可包括键盘、按钮、触摸板或触摸屏。用户可操纵第二用户输入接收器350以将与图像显示设备100和200相关的命令输入到遥控器300。如果用户输入接收器350包括硬键按钮,则用户可通过硬键按钮的按压操作将与图像显示设备100和200相关的命令输入到遥控器300。如果第二用户输入接收器350包括触摸屏,则用户可触摸触摸屏的软键以将与图像显示设备100和200相关的命令输入到遥控器300。第二用户输入接收器350可包括用户可操纵的各种类型的输入装置(诸如滚轮或飞梭旋钮),并且当前示例性实施例不限制范围。
输出单元360输出与第二用户输入接收器350的操纵相应的图像或音频信号或者与从图像显示设备100和200发送的信号相应的图像或音频信号。用户通过输出单元360识别第二用户输入接收器350的操纵或图像显示设备100和200的控制。
例如,输出单元360可包括当第二用户输入接收器350被操纵,或者信号通过无线通信单元310被发送到图像显示设备100和200或从图像显示设备100和200被接收时点亮的LED模块、产生振动的振动模块、输出音频的音频输出模块或输出图像的显示模块。
第二存储单元340存储用于遥控器300的控制或操作的各种类型的程序和应用数据。
第二控制器330控制与遥控器300的控制有关的整体操作。第二控制器330通过无线通信单元310将与第二用户输入接收器350的预定键操纵相应的信号发送到图像显示设备100和200。
第二用户输入接收器350接收由遥控器300通过IR模块根据IR通信标准发送的信号。
通过第二用户输入接收器350输入到图像显示设备100和200的信号被发送到图像显示设备100和200的控制器140。控制器140从自遥控器300发送的信号中识别关于遥控器300的操作和键操纵的信息,并基于该信息控制图像显示设备100和200。
图4是根据示例性实施例的操作图像显示设备的方法的流程图。
参照图4,在操作S310,图像显示设备100和200可识别多个用户。
例如,如图5中所示,用户识别单元110或210可包括相机。相机可通过使用眼动追踪实时地跟踪用户的位置,捕捉被跟踪的用户的面部图像,并基于捕捉到的图像识别用户的面部。可选地,还可通过用户定义的手势或用户定义的音频短语来完成识别。
当用户注册个人屏幕时,用户还可注册与个人屏幕相应的用户的面部,使得控制器140可将由用户识别单元110识别出的用户的面部与注册的用户的面部进行比较,并检测与由用户识别单元110识别出的用户相应的个人屏幕。
例如,如图5中所示,用户识别单元110可识别第一用户A、第二用户B、第三用户C和第四用户D,控制器140可检测与第一用户A相应的第一个人屏幕、与第二用户B相应的第二个人屏幕、与第三用户C相应的第三个人屏幕以及与第四用户D相应的第四个人屏幕。
图像显示设备100和200接收用于进入个人屏幕模式的进入命令,并且如果控制器140接收到进入命令,则控制器140控制用户识别单元110识别多个用户。用于进入个人屏幕模式的进入命令可包括特定键的输入、特定动作的输入和特定命令的输入中的至少一个。
例如,如果用户按下在遥控器300中包括的特定键/特定按钮,执行特定动作或说出特定词语,则控制器140可控制用户识别单元110执行用户识别。
如此,图像显示设备100和200在接收到用于进入个人屏幕模式的进入命令时执行用户识别,从而节省由用户识别单元110耗费的电力。
根据示例性实施例,如果不存在与识别的用户的面部匹配的注册的用户的面部,则图像显示设备100和200可注册与识别的用户的面部相应的个人屏幕。
在操作S320,图像显示设备100和200可显示用于选择与识别的多个用户中的每个用户相应的个人屏幕的选择菜单。
例如,如以上所述,如果控制器140检测到分别与识别的第一用户A至第四用户D相应的第一个人屏幕至第四个人屏幕,则用于选择第一个人屏幕至第四个人屏幕中的至少一个的选择菜单可显示在显示器120上。
根据示例性实施例,选择菜单可包括与每个个人屏幕相应的对象。例如,如图6中所示,选择菜单420可包括与第一个人屏幕相应的第一图标421、与第二个人屏幕相应的第二图标422、与第三个人屏幕相应的第三图标423以及与第四个人屏幕相应的第四图标424。
第一图标421至第四图标424包括各自的标识信息。例如,如果第一用户A在注册第一个人屏幕时将第一个人屏幕的标识(ID)注册为“A”,则ID“A”与第一图标421一起被显示,使得用户可容易地识别用“A”显示的第一图标421指示第一个人屏幕。
第一图标421至第四图标424还可显示为用户的面部图像或与用户的面部图像相应的头像,从而使得用户容易地识别与每个图标相应的个人屏幕。
如图7中所示,选择菜单520可以以书签的形式示出与识别的多个用户相应的个人屏幕。
在此情况下,在选择菜单520中示出的个人屏幕可显示在个人屏幕中包括的部分内容。
如图8中所示,选择菜单620可包括用于分别与识别的多个用户相应的个人屏幕的缩略图A、B、C和D。缩略图A、B、C和D可以是第一个人屏幕至第四个人屏幕的尺寸被减小的图像。
如图6至图8中所示,一旦选择菜单420、520和620被显示,在操作S330,图像显示设备100和200就可接收用于从选择菜单选择至少一个个人屏幕的输入。
在此情况下,可选择一个个人屏幕,或可选择两个或更多个个人屏幕。
在操作S340,图像显示设备100和200在显示器120上显示选择的个人屏幕。
例如,如图9中所示,控制器140可在显示器120上显示选择的个人屏幕730,并且个人屏幕730可包括多个内容。内容可包括实时广播、游戏、运动图像、音频、文本和应用中的至少一个。
个人屏幕730还可包括个人内容。例如,个人屏幕730可包括用户经常使用的内容、基于用户信息推荐的内容、基于图像显示设备被使用的时间推荐的内容、由其他用户共享的内容。
用户信息可包括用户的性别、年龄、内容使用历史、搜索历史、频道观看历史和感兴趣的领域中的至少一个。个人内容可以是基于用户信息推荐的内容。
例如,如果用户是20多岁的女性,则可由推荐服务器推荐20多岁的女性最频繁使用的内容,并且图像显示设备100和200可在个人屏幕730上显示推荐的内容。
基于用户的频道观看历史和图像显示设备被使用的时间,可在个人屏幕730上显示在图像显示设备的使用期间用户最频繁观看的广播频道。
用户信息可以是从外部装置接收到的信息。例如,可从与图像显示设备100和200协作的外部装置(例如,移动终端、平板等等)接收诸如内容使用历史、搜索历史、频道观看历史和感兴趣的领域的信息。
外部装置可将用户信息发送到推荐服务器,然后,推荐服务器可将基于接收到的用户信息推荐的内容发送到图像显示设备100和200。图像显示设备100和200可将从推荐服务器接收到的推荐的内容显示为包括在个人屏幕730中。
如图9中所示,个人屏幕730可包括包含用户的日程信息的警告消息731。
图像显示设备100和200可显示在个人屏幕730中包括的一些内容,而不显示其他的一些内容。
图像显示设备100和200可接收显示受限的内容733的密码,并根据接收到的密码是否正确来显示内容733。
如果如图10中所示,从选择菜单420、520和620选择了多个个人屏幕,则图像显示设备100和200可在显示器120的不同区域810和820上显示多个个人屏幕A和B。
例如,如果选择了第一个人屏幕A和第二个人屏幕B,则图像显示设备100和200可在显示器120的第一区域810上显示第一个人屏幕A,并在显示器120的第二区域820上显示第二个人屏幕B。
可由用户输入来设置第一区域810与第二区域820的比率。
根据另一示例性实施例,可分开控制第一个人屏幕A和第二个人屏幕B。例如,可通过与图像显示设备协作的第一外部装置来控制第一个人屏幕A,可通过与图像显示设备协作的第二外部装置来控制第二个人屏幕B。
可使用第一外部装置输出针对第一个人屏幕A的音频信号,可使用第二外部装置输出针对第二个人屏幕B的音频信号。
图像显示设备100和200可控制选择的个人屏幕显示在外部装置上。
例如,如果第一外部装置(装置1)和第二外部装置(装置2)与图像显示设备100和200协作,则图像显示设备100和200可接收用于选择第一外部装置(装置1)和第二外部装置(装置2)中的至少一个的输入。
如图11中所示,在接收到用于选择第一外部装置(装置1)的输入时,图像显示设备100和200可将关于选择的个人屏幕的数据发送到第一外部装置930(装置1)。因此,第一外部装置930(装置1)可从图像显示设备100和200接收关于选择的个人屏幕的数据,并在显示器上显示选择的个人屏幕。
图12是根据示例性实施例的操作图像显示设备的方法的流程图。
类似于图4的操作S310,图12的操作S1010识别一个或更多个用户。类似于图4的操作S320,图12的操作S1020显示用于选择个人屏幕的选择菜单。类似于图4的操作S330,图12的操作S1030接收对个人屏幕的选择。
因此,这里将不重复分别与图4的操作S310、S320和S330相应的图12的操作S1010、S1020和S1030的详细描述。
如果选择了个人屏幕,则在操作S1040,图像显示设备100和200接收用户认证信息。
用户认证信息可包括用户面部信息、图案信息、密码和用户声纹信息中的至少一个。
例如,如图13中所示,如果接收到用于选择第一个人屏幕的输入,则图像显示设备100和200可在显示器120上显示要求输入密码图案的消息1130。
因此,用户可通过使用遥控器300的触摸板1120输入预定图案。图像显示设备100和200可在显示器120上显示通过使用遥控器300输入的预定图案。
如图14中所示,如果接收到用于选择个人屏幕的输入,则图像显示设备100和200可在显示器120上显示要求输入密码的消息1230。因此,用户可通过使用遥控器300输入密码。
如图15中所示,如果接收到用于选择第一个人屏幕的输入,则用户识别单元110可执行面部识别。在此情况下,可将识别的面部显示在显示器120上。
可选地,图像显示设备100和200可接收用户的语音输入。
在操作S1050,图像显示设备100和200确定输入的用户认证信息是否和与选择的个人屏幕相应的认证信息匹配,如果它们匹配,则在操作S1060,图像显示设备100和200显示选择的个人屏幕。
例如,如果输入的预定图案和与第一个人屏幕相应的密码图案匹配,则图像显示设备100和200可显示如图9中所示的第一个人屏幕。
如果输入的密码和与第一个人屏幕相应的密码匹配,则图像显示设备100和200可显示第一个人屏幕。
如果识别的面部和与第一个人屏幕相应的用户的面部匹配,则图像显示设备100和200也可显示第一个人屏幕。
如果输入的语音的声纹信息和与第一个人屏幕相应的声纹信息匹配,则图像显示设备100和200可显示第一个人屏幕。
类似于图4的操作S340,图12的操作S1060显示选择的个人屏幕,因此这里将不重复图12的操作S1060的详细描述。
图16和图17是用于描述个人屏幕模式的终止的示图。
如果在显示个人屏幕时未识别到与显示的个人屏幕相应的用户,则图像显示设备100和200可终止个人屏幕模式。
例如,如图16中所示,当显示与第一用户A相应的第一个人屏幕时,如果第一用户A位于可由图像显示设备100和200识别的区域之外,则可显示询问是否终止个人屏幕模式的消息1330。如果用户选择了“是”,则图像显示设备可终止个人屏幕模式。
如图17中所示,如果当在显示器120上显示个人屏幕时,在操作S310或S1010识别到与识别出的多个用户不同的新用户,则图像显示设备100和200可终止个人屏幕模式。
例如,当在操作S310或S1010图像显示设备100和200识别出第一用户A和第二用户B,并且与第一用户A相应的第一个人屏幕被显示时,如果用户识别单元110识别到与第一用户A和第二用户B不同的新用户C,则图像显示设备100和200可显示询问是否终止个人屏幕模式的消息1430。如果用户选择了“是”,则图像显示设备100和200可终止个人屏幕模式。
根据一个或更多个示例性实施例的图像显示设备及其操作方法不限于以上描述的示例性实施例的构造和方法,而可选择性地组合和配置示例性实施例的全部或一些,使得示例性实施例可按各种方式修改。
如以上所描述的,根据以上的示例性实施例中的一个或更多个,即使针对多个用户,也提供个人屏幕模式以进行更大选择范围的选择。
另外,基于识别的用户,提供用于选择个人屏幕的选择菜单,从而便于用户对个人屏幕的选择。
此外,个人屏幕包括个人内容,使得个人屏幕可基于个人喜好被配置。
另外,根据示例性实施例,识别用户和终止个人屏幕模式,从而提高用户便利性。
根据一个或更多个示例性实施例的操作图像显示设备的方法或操作服务器的方法可被实现为记录介质上的处理器可读代码,其中,所述处理器可读代码可由在图像显示设备或服务器中包括的处理器读取。处理器可读记录介质包括能够存储可由处理器读取的数据的所有类型的记录装置。处理器可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘、光数据存储装置和诸如在互联网上传输的载波。处理器可读记录介质还可分布在联网的计算机系统中,使得处理器可读代码可按分散的方式被存储和执行。
虽然已针对有限数量的实施例描述了示例性实施例,但是受益于本公开的本领域的技术人员将理解,可设计不脱离在此公开的范围的其他实施例。因此,范围应仅由权利要求限定。
Claims (15)
1.一种操作图像显示设备的方法,所述方法包括:
识别多个用户;
显示选择菜单,其中,所述选择菜单被配置为允许选择与识别的多个用户中的每个用户相应的个人屏幕;
接收用于从选择菜单选择至少一个个人屏幕的输入;
显示选择的所述至少一个个人屏幕,
其中,所述至少一个个人屏幕包括基于用户信息的个人内容。
2.如权利要求1所述的方法,还包括:
接收用于进入个人屏幕模式的进入命令;
响应于接收到用于进入个人屏幕模式的进入命令,识别所述多个用户。
3.如权利要求1所述的方法,其中,显示选择的所述至少一个个人屏幕的步骤包括:
接收用户认证信息;
响应于接收到的用户认证信息和与选择的所述至少一个个人屏幕相应的用户标识信息匹配,显示选择的所述至少一个个人屏幕。
4.如权利要求1所述的方法,其中,显示选择的所述至少一个个人屏幕的步骤包括:
显示包括在选择的所述至少一个个人屏幕中的内容之中的一些预定内容。
5.如权利要求1所述的方法,其中,显示选择的所述至少一个个人屏幕的步骤包括:
响应于选择了多个个人屏幕,在显示器的不同区域上显示所述多个个人屏幕。
6.如权利要求1所述的方法,其中,个人内容包括:
基于图像显示设备的使用时间推荐的内容以及从另一用户共享的内容。
7.如权利要求1所述的方法,其中,用户信息包括:
用户的性别、年龄、内容使用历史、搜索历史和感兴趣的领域中的至少一个。
8.如权利要求1所述的方法,还包括:
响应于对与显示的所述至少一个个人屏幕相应的用户的识别的失败,终止所述至少一个个人屏幕的显示。
9.如权利要求1所述的方法,还包括:
响应于当显示所述至少一个个人屏幕时识别出与识别的多个用户不同的新用户,终止所述至少一个个人屏幕的显示。
10.一种图像显示设备,包括:
用户识别单元,被配置为识别多个用户;
显示器,被配置为显示选择菜单,其中,所述选择菜单被配置为选择与识别的多个用户中的每个用户相应的个人屏幕;
用户输入接收器,被配置为接收用于从选择菜单选择至少一个个人屏幕的输入;
控制器,被配置为控制选择的所述至少一个个人屏幕的显示,
其中,所述至少一个个人屏幕包括基于用户信息的个人内容。
11.如权利要求10所述的图像显示设备,其中,控制器还被配置为响应于接收到用于进入个人屏幕模式的进入命令来识别所述多个用户。
12.如权利要求10所述的图像显示设备,
其中,用户输入接收器还被配置为接收用户认证信息,
其中,控制器还被配置为响应于接收到的用户认证信息和与选择的所述至少一个个人屏幕相应的用户标识信息匹配来控制选择的所述至少一个个人屏幕的显示。
13.如权利要求10所述的图像显示设备,其中,控制器还被配置为控制包括在选择的所述至少一个个人屏幕中的内容之中的一些预定内容的显示。
14.如权利要求10所述的图像显示设备,其中,控制器还被配置为响应于选择了多个个人屏幕来控制所述多个个人屏幕在显示器的不同区域上的显示。
15.如权利要求10所述的图像显示设备,其中,个人内容包括:基于图像显示设备的使用时间推荐的内容以及从另一用户共享的内容。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0083151 | 2013-07-15 | ||
KR1020130083151A KR20150008769A (ko) | 2013-07-15 | 2013-07-15 | 영상표시장치 및 그 동작방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104301765A true CN104301765A (zh) | 2015-01-21 |
Family
ID=52278179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410336078.0A Pending CN104301765A (zh) | 2013-07-15 | 2014-07-15 | 图像显示设备及其操作方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150019995A1 (zh) |
KR (1) | KR20150008769A (zh) |
CN (1) | CN104301765A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105160606A (zh) * | 2015-08-30 | 2015-12-16 | 安徽味唯网络科技有限公司 | 一种自动点菜的方法 |
CN109076074A (zh) * | 2016-07-13 | 2018-12-21 | 奥迪股份公司 | 用于提供对于个人数据源的访问装置的方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046642A (ja) * | 2014-08-21 | 2016-04-04 | キヤノン株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2019073562A1 (ja) * | 2017-10-12 | 2019-04-18 | 三菱電機株式会社 | 表示制御装置、表示制御方法、及び表示制御装置を備える車載機器 |
CN113688307A (zh) * | 2021-07-15 | 2021-11-23 | 荣耀终端有限公司 | 模式配置方法和模式配置装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101078986A (zh) * | 1999-12-15 | 2007-11-28 | 微软公司 | 在共享计算环境中提供多个并行的桌面和工作区的方法 |
US20090060293A1 (en) * | 2006-02-21 | 2009-03-05 | Oki Electric Industry Co., Ltd. | Personal Identification Device and Personal Identification Method |
US20090175509A1 (en) * | 2008-01-03 | 2009-07-09 | Apple Inc. | Personal computing device control using face detection and recognition |
CN102769725A (zh) * | 2011-05-03 | 2012-11-07 | Lg电子株式会社 | 图像显示设备、便携式终端以及操作其的方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6807666B1 (en) * | 1999-12-15 | 2004-10-19 | Microsoft Corporation | Methods and arrangements for providing multiple concurrent desktops and workspaces in a shared computing environment |
US20070140532A1 (en) * | 2005-12-20 | 2007-06-21 | Goffin Glen P | Method and apparatus for providing user profiling based on facial recognition |
JP4433326B2 (ja) * | 2007-12-04 | 2010-03-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP5414282B2 (ja) * | 2009-01-07 | 2014-02-12 | キヤノン株式会社 | ファイル管理システム、ファイル管理方法及びプログラム |
US9014546B2 (en) * | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8949871B2 (en) * | 2010-09-08 | 2015-02-03 | Opentv, Inc. | Smart media selection based on viewer user presence |
EP2474893B1 (en) * | 2011-01-07 | 2014-10-22 | LG Electronics Inc. | Method of controlling image display device using display screen, and image display device thereof |
US20120204116A1 (en) * | 2011-02-03 | 2012-08-09 | Sony Corporation | Method and apparatus for a multi-user smart display for displaying multiple simultaneous sessions |
US8261090B1 (en) * | 2011-09-28 | 2012-09-04 | Google Inc. | Login to a computing device based on facial recognition |
US20140245335A1 (en) * | 2013-02-25 | 2014-08-28 | Comcast Cable Communications, Llc | Environment Object Recognition |
US9349179B2 (en) * | 2013-05-10 | 2016-05-24 | Microsoft Technology Licensing, Llc | Location information determined from depth camera data |
-
2013
- 2013-07-15 KR KR1020130083151A patent/KR20150008769A/ko not_active Application Discontinuation
-
2014
- 2014-07-03 US US14/323,338 patent/US20150019995A1/en not_active Abandoned
- 2014-07-15 CN CN201410336078.0A patent/CN104301765A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101078986A (zh) * | 1999-12-15 | 2007-11-28 | 微软公司 | 在共享计算环境中提供多个并行的桌面和工作区的方法 |
US20090060293A1 (en) * | 2006-02-21 | 2009-03-05 | Oki Electric Industry Co., Ltd. | Personal Identification Device and Personal Identification Method |
US20090175509A1 (en) * | 2008-01-03 | 2009-07-09 | Apple Inc. | Personal computing device control using face detection and recognition |
CN102769725A (zh) * | 2011-05-03 | 2012-11-07 | Lg电子株式会社 | 图像显示设备、便携式终端以及操作其的方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105160606A (zh) * | 2015-08-30 | 2015-12-16 | 安徽味唯网络科技有限公司 | 一种自动点菜的方法 |
CN109076074A (zh) * | 2016-07-13 | 2018-12-21 | 奥迪股份公司 | 用于提供对于个人数据源的访问装置的方法 |
US10728258B2 (en) | 2016-07-13 | 2020-07-28 | Audi Ag | Method for providing an access device for a personal data source |
Also Published As
Publication number | Publication date |
---|---|
US20150019995A1 (en) | 2015-01-15 |
KR20150008769A (ko) | 2015-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11385861B2 (en) | Smart controlling device and method of controlling therefor | |
CN104219552B (zh) | 图像显示装置的操作方法 | |
US10057317B2 (en) | Sink device and method for controlling the same | |
CN103530032B (zh) | 移动终端、图像显示装置及使用其的用户接口提供方法 | |
US10474322B2 (en) | Image display apparatus | |
CN102685318B (zh) | 发送和接收数据的方法、显示装置以及移动终端 | |
CN105379299B (zh) | 获取关于内容的信息的方法、使用该方法的图像显示设备和用于提供关于内容的信息的服务器系统 | |
EP3342170B1 (en) | Electronic device and method of scanning channels in electronic device | |
CN104145481B (zh) | 图像显示设备和用于操作其的方法 | |
CN103731701B (zh) | 图像显示设备及操作其的方法 | |
CN102883204B (zh) | 图像显示设备和操作该图像显示设备的方法 | |
CN102957956A (zh) | 图像显示装置及其操作方法 | |
KR20140039641A (ko) | 영상표시장치, 및 그 동작방법 | |
CN107801075A (zh) | 图像显示设备及其操作方法 | |
CN103201790A (zh) | 多媒体设备中使用语音和姿势的控制方法及其多媒体设备 | |
KR20110118421A (ko) | 증강 원격제어장치, 증강 원격제어장치 제어방법 및 그 시스템 | |
CN104301765A (zh) | 图像显示设备及其操作方法 | |
US10448107B2 (en) | Display device | |
KR20150049362A (ko) | 디스플레이 장치 및 그 ui 제공 방법 | |
KR20170008040A (ko) | 단말기 및 그것을 포함한 시스템 | |
US20150047020A1 (en) | Image display apparatus and operating method thereof | |
CN108012193A (zh) | 图像显示设备及操作图像显示设备的方法 | |
KR102190007B1 (ko) | 영상제공장치, 서버, 및 이를 포함하는 영상 제공 시스템 | |
CN105592341A (zh) | 图像显示设备和显示图像的方法 | |
KR102105459B1 (ko) | 영상표시장치 및 영상표시장치 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150121 |