CN117321559A - 显示装置 - Google Patents

显示装置 Download PDF

Info

Publication number
CN117321559A
CN117321559A CN202180098157.0A CN202180098157A CN117321559A CN 117321559 A CN117321559 A CN 117321559A CN 202180098157 A CN202180098157 A CN 202180098157A CN 117321559 A CN117321559 A CN 117321559A
Authority
CN
China
Prior art keywords
input
specific
touch input
display device
specific direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180098157.0A
Other languages
English (en)
Inventor
李比娜
金安罗
文智熙
郑多仁
徐锡元
李东熙
朴大建
金韶贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN117321559A publication Critical patent/CN117321559A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供一种显示装置:用户输入部,接收触摸输入;显示部,输出由应用提供的画面;以及判断所述应用是否支持触摸输入;在所述应用不支持触摸输入的情况下,判断是否支持鼠标输入功能,基于是否支持所述鼠标输入功能来执行与所述触摸输入对应的功能。

Description

显示装置
技术领域
本公开涉及利用触摸输入来控制显示装置的方法。
背景技术
显示装置是具有接收、处理以及显示能够供用户视听的图像的功能的装置。例如,显示装置从广播局发送的广播信号中接收用户选择的广播信号,从接收到的信号分离出图像信号,并重新将分离的图像信号显示在显示器上。
另一方面,随着诸如TV的显示装置上也开始驱动有类似智能手机的各种应用,除了频道变更、音量调节之外,还需要用于控制正在动作的应用的方法。
此外,随着用户输入方式的多样化,能够提供利用远程控制装置的用户输入、通过用户触摸输入的用户输入,由此,在显示装置接收到用户触摸输入的情况下,掌握对应触摸输入的用户意图,并以执行用户意图的功能的方式来控制显示装置。
另一方面,要执行根据触摸输入的动作,则不仅是显示装置,应用也需要能够接收与触摸输入对应的功能,然而,虽然显示装置能够接收触摸输入,但在当前正在运行的应用的种类不提供与触摸输入对应的功能的情况下,则会发生不能运行与用户触摸输入对应的功能的问题。
发明内容
发明要解决的问题
本公开的目的在于,提供一种从显示装置提供的应用不支持触摸输入功能的情况下,将用户的触摸输入转换为鼠标输入并执行与用户触摸输入对应的指令的显示装置。
本公开的目的在于,提供一种从显示装置提供的应用不支持触摸输入功能的情况下,将用户的触摸输入转换为方向键输入并执行与用户触摸输入对应的指令的显示装置。
用于解决问题的手段
本公开实施例的显示装置:用户输入部,接收触摸输入;显示部,输出由应用提供的画面;以及判断所述应用是否支持触摸输入;在所述应用不支持触摸输入的情况下,可以判断是否支持鼠标输入功能,并可以基于是否支持所述鼠标输入功能来执行与所述触摸输入对应的功能。
另外,所述画面可以包括至少一个内容,在所述应用支持鼠标输入功能的情况下,所述控制部可以将所述触摸输入转换为鼠标输入,并执行与所述鼠标输入对应的功能。
另外,在所述触摸输入是特定位置的触摸的情况下,所述控制部可以将所述触摸输入转换为所述特定位置的鼠标点击输入,并在所述特定位置执行所述鼠标点击输入。
另外,在所述触摸输入是对于所述内容的长按输入的情况下,所述控制部可以将所述触摸输入转换为对于所述内容的长点击输入,并输出与对于所述内容的长点击输入对应的所述内容的详细信息。
另外,在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为点击所述特定位置并朝所述特定方向拖动的鼠标拖动输入,并输出所述特定位置朝与所述特定方向对应的方向移动的画面。
另外,在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为点击所述特定位置并朝所述特定方向拖动的鼠标拖动输入,并输出所述特定位置朝与所述特定方向对应的方向移动的画面。
另外,所述控制部可以将包括在一个类别中的复数个内容朝特定方向排列并输出,在所述触摸输入是触摸所述复数个内容中的任一个并朝所述特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为点击被触摸的内容并朝所述特定方向拖动的鼠标拖动输入,并输出所述复数个内容朝所述特定方向移动的画面。
另外,在所述触摸输入是长按输入后朝特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为点击正在播放的内容的当前时间点并朝所述特定方向拖动的鼠标拖动输入,并输出从当前时间点朝特定方向前进相当于鼠标拖动输入的时间点的内容。
另外,所述控制部可以通过显示部输出表示内容的播放进度的进度条,在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为点击所述进度条并朝所述特定方向拖动的鼠标拖动输入,输出从当前时间点朝特定方向前进时间点的内容。
另外,所述控制部可以输出用于引导与所述触摸输入对应的所述鼠标输入功能的引导窗口。
另外,所述引导窗口可以包括引导用户的手部动作的引导图像和根据所述“与用户输入对应的所述鼠标输入功能”的画面移动方向的引导图像中的至少一个。
另外,所述画面可以包括至少一个内容,在所述应用不支持所述鼠标输入功能的情况下,所述控制部可以将所述触摸输入转换为方向键输入并执行与所述方向键输入对应的功能。
另外,在所述触摸输入是特定位置的触摸的情况下,所述控制部可以将所述触摸输入转换为所述特定位置的选择输入,并在所述特定位置执行所述选择输入。
另外,在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为朝与所述特定方向的相反方向对应的第一方向的方向键输入,并输出所述特定位置朝与所述特定方向对应的方向移动的画面。
另外,所述控制部可以将包括在一个类别中的复数个内容朝特定方向排列并输出,在所述触摸输入是触摸所述复数个内容中的任一个并朝所述特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为选择被触摸的内容并朝与所述特定方向的相反方向对应的第一方向的方向键输入,并输出所述复数个内容朝所述特定方向移动的画面。
另外,在所述触摸输入是长按输入后朝特定方向拖动的情况下,所述控制部可以将所述触摸输入转换为选择正在播放的内容的当前时间点并朝所述特定方向的方向键输入,并输出从当前时间点朝所述特定方向前进相当于方向键输入的时间点的内容。
另外,所述控制部可以通过显示部输出表示内容的播放进度的进度条,在所述用户输入是触摸所述进度条上的特定时间点并朝特定方向拖动的情况下,可以判断为与所述特定方向对应的第一方向的方向键输入,并输出从所述内容的特定时间点朝特定方向前进相当于所述方向键输入的时间点的内容。
另外,所述控制部可以输出用于引导与所述用户输入对应的所述方向键输入功能的引导窗口。
另外,所述引导窗口可以包括引导用户的手部动作的引导图像和对于根据所述“与用户输入对应的所述方向键输入功能”的画面移动方向的引导图像中的至少一个。
另外,所述画面还可以包括能够滚动的滚动条,在所述触摸输入是触摸滚动条的特定区域并朝特定方向拖动的输入的情况下,所述控制部可以将所述触摸输入转换为点击所述滚动条的特定区域并朝所述特定方向拖动的鼠标拖动输入,并输出朝所述特定方向滚动的画面。
另外,在所述触摸输入是触摸滚动条的特定区域并朝特定方向拖动的输入的情况下,所述控制部可以将所述触摸输入转换为选择所述滚动条的特定区域并朝所述特定方向的方向键输入,并输出朝所述特定方向滚动的画面。
发明效果
根据本公开的实施例,即使在支持触摸输入的显示装置中执行设置于显示装置内的不支持触摸的应用,也能够将显示装置控制为将触摸输入转换为鼠标输入或方向键输入并执行与用户的触摸输入对应的指令。
根据本公开的实施例,通过提供示出正在执行触摸输入的引导,向用户提供即使在不支持触摸的应用中也能够进行触摸输入的通知。
附图说明
图1是示出本公开一实施例的显示装置的构成的框图。
图2是本公开一实施例的远程控制装置的框图。
图3示出了本公开一实施例的远程控制装置的实际构成例。
图4示出了本公开实施例的使用远程控制装置的例。
图5是示出本公开实施例的流程图的图。
图6是示出本公开实施例的触碰后根据拖动输入的画面移动的图。
图7是示出本公开实施例的触碰后根据拖动输入的内容移动的图。
图8是示出本公开实施例的根据长按输入的画面的图。
图9是示出本公开实施例的用于引导画面移动的引导窗口的图。
图10是示出本公开实施例的用于引导画面移动的引导窗口的图。
图11是示出本公开实施例的用于引导画面移动的引导窗口的图。
图12是示出本公开实施例的触摸输入时的播放时间点移动的图。
图13是示出本公开实施例的触摸输入时的播放时间点移动的图。
图14是示出本公开实施例的触摸输入时的播放时间点移动的图。
具体实施方式
以下,参照附图更详细地说明与本发明关联的实施例。在以下说明中使用的构成要素的后缀“模块”和“部”仅是为了便于撰写说明书而赋予或混用的,其自身并不具有相互区别的含义或作用。
图1是示出本发明一实施例的显示装置的构成的框图。
参照图1,显示装置100可以包括广播接收部130、外部装置接口部135、存储部140、用户输入接口部150、控制部170、无线通信部173、语音获取部175、显示部180、音频输出部185以及供电部190。
广播接收部130可以包括调谐器131、解调器132以及网络接口部133。
调谐器131可以根据频道选择指令来选择特定广播频道。调谐器131可以接收所选择的特定广播频道的广播信号。
解调器132可以将接收到的广播信号分离成视频信号、音频信号以及与广播节目关联的数据信号,并可以将分离的视频信号、音频信号和数据信号恢复成可输出的形态。
网络接口部133可以提供用于连接显示装置100和包括互联网的有/无线网络的接口。网络接口部133可以通过连接的网络或与连接的网络链接的其他网络,向另一用户或另一电子设备发送数据或从另一用户或另一电子设备接收数据。
网络接口部133可以通过连接的网络或与连接的网络链接的其他网络,访问规定的网页。即,可以通过网络访问规定网页,并向对应服务器发送数据或从对应服务器接收数据。
此外,网络接口部133可以接收内容提供者或网络运营商提供的内容或数据。即,网络接口部133可以通过网络接收从内容提供者或网络提供者提供的视频、广告、游戏、VOD、广播信号等内容以及与其关联的信息。
另外,网络接口部133可以接收网络运营商提供的固件的更新信息和更新文件,可以向互联网或内容提供者或网络运营商发送数据。
网络接口部133可以通过网络从向公众开放的应用中选择并接收需要的应用。
外部装置接口部135可以接收相邻的外部装置内的应用或应用目录,并将其传递给控制部170或存储部140。
外部装置接口部135可以提供显示装置100与外部装置之间的连接路径。外部装置接口部135可以接收从以无线或有线的方式与显示装置100连接的外部装置输出的图像、音频中的一个以上,并传递至控制部170。外部装置接口部135可以包括复数个外部输入端子。复数个外部输入端子可以包括RGB端子、一个以上的HDMI(High Definition MultimediaInterface)端子、分量端子。
通过外部装置接口部135输入的外部装置的图像信号可以通过显示部180输出。通过外部装置接口部135输入的外部装置的语音信号可以通过音频输出部185输出。
能够与外部装置接口部135连接的外部装置可以是机顶盒、蓝光播放器、DVD播放器、游戏机、音响条、智能手机、PC、USB存储器、家庭影院中的任一个,但这仅作为例示。
另外,可以向预先登录到显示装置100的其它用户或其它电子设备中选择的用户或选择的电子设备发送储存在显示装置100的一部分内容数据。
存储部140可以储存用于处理并控制控制部170内的各个信号的程序,并可以储存已被信号处理的图像、语音或数据信号。
另外,存储部140也可以执行用于临时存储从外部装置接口部135或网络接口部133输入的图像、语音或数据信号的功能,也可以通过频道记忆功能来储存与规定图像相关的信息。
存储部140可以储存从外部装置接口部135或网络接口部133输入的应用或应用目录。
显示装置100可以再现储存在存储部140内的内容文件(视频文件、静态图像文件、音频文件、文本文件、应用文件等)并将其提供给用户。
用户输入接口部150可以将用户输入的信号传递给控制部170,或将来自控制部170的信号传递给用户。例如,用户输入接口部150可以通过蓝牙(Bluetooth)、WB(UltraWideband,超宽带)、紫蜂协议(ZigBee)方式、RF(Radio Frequency,射频)通信方式或红外线(IR)通信方式等各种通信方式,从远程控制装置200接收电源接通/断开、频道选择、画面设定等的控制信号并处理,或将来自控制部170的控制信号处理为发送到远程控制装置200。
另外,用户输入接口部150可以向控制部170传递从电源键、频道键、音量键、设定值等的本地键(未图示)输入的控制信号。
在控制部170被图像处理的图像信号可以输入到显示部180,并显示成与对应图像信号对应的图像。另外,在控制部170被图像处理的图像信号可以通过外部装置接口部135输入到外部输出装置。
在控制部170被处理的语音信号可以音频输出到音频输出部185。另外,在控制部170被处理的语音信号可以通过外部装置接口部135输入到外部输出装置。
此外,控制部170可以控制显示装置100内的整体的动作。
另外,控制部170可以利用通过用户输入接口部150输入的用户指令或内部程序来控制显示装置100,并可以与网络连接而能够将用户所需的应用或应用目录下载到显示装置100内。
控制部170可以使用户选择的频道信息等与被处理过的图像或语音信号一起通过显示部180或音频输出部185输出。
另外,控制部170可以根据通过用户输入接口部150接收到的外部装置图像再现指令,使通过外部装置接口部135输入的来自外部装置例如摄像头或摄像机的图像信号或语音信号通过显示部180或音频输出部185输出。
另一方面,控制部170可以控制显示部180以显示图像,例如,可以控制为使通过调谐器131输入的广播图像,或通过外部装置接口部135输入的外部输入图像,或通过网络接口部输入的图像,或储存在存储部140中的图像显示在显示部180上。在此情况下,在显示部180上显示的图像可以是静态图像或视频,可以是2D图像或3D图像。
另外,控制部170可以控制为再现储存在显示装置100内的内容、或接收到的广播内容、或从外部输入的外部输入内容,内容可以是广播图像、外部输入图像、音频文件、静态图像、访问的网页画面以及文本文件等各种形态。
无线通信部173可以通过有线或无线通信与外部设备执行通信。无线通信部173可以与外部设备执行近距离通信(Short range communication)。为此,无线通信部173可以利用蓝牙(BluetoothTM)、BLE(Bluetooth Low Energy;低功耗蓝牙)、RFID(RadioFrequency Identification;射频识别)、红外线通信(Infrared Data Association;IrDA)、UWB(Ultra Wideband;超宽带)、ZigBee(紫蜂协议)、NFC(Near FieldCommunication;近场通信)、无线高保真(Wireless-Fidelity)、无线高保真直连、WirelessUSB(Wireless Universal Serial Bus,无线通用串行总线)技术中的至少一个来支持近距离通信。这样的无线通信部173可以通过近距离无线通信网(Wireless Area Networks)来支持显示装置100与无线通信系统之间、显示装置100与另一显示装置100之间、或显示装置100与显示装置100(或外部服务器)所在的网络之间的无线通信。近距离无线通信网可以是近距离无线个人通信网(Wireless Personal Area Networks)。
在此,另一显示装置100可以是能够与本发明的显示装置100彼此交换数据的(或能够联动的)可穿戴设备(wearabledevice,例如,智能手表(smartwatch)、智能眼镜(smartglass)、HMD(head mounted display;头戴式显示器))、智能手机等的移动终端。无线通信部173可以检测(或识别)显示装置100周边的能够通信的可穿戴设备。进一步,当检测到的可穿戴设备是被认证为与本发明的显示装置100通信的设备的情况下,控制部170可以将在显示装置100处理的数据的至少一部分通过无线通信部173发送到可穿戴设备。因此,可穿戴设备的用户可以通过可穿戴设备来利用在显示装置100处理的数据。
语音获取部175可以获取音频。语音获取部175可以包括至少一个麦克风(未图示),并可以通过麦克风(未图示)来获取显示装置100周边的音频。
显示部180可以将在控制部170被处理的图像信号、数据信号、OSD信号或从外部装置接口部135接收到的图像信号、数据信号等分别转换成R、G、B信号并生成驱动信号。
另一方面,图1所示的显示装置100仅作为本发明一实施例。图示的构成要素中的一部分可以根据实际实现的显示装置100的样式来统合、追加或省略。
即,根据需要,可以构成为两个以上的构成要素合并成一个构成要素,或一个构成要素可以细分成两个以上的构成要素。另外,在各个块中执行的功能仅用于说明本发明的实施例,其具体的动作或装置并不限制本发明的权利范围。
根据本发明的又一实施例,不同于图1所示,显示装置100也可以不具有调谐器131和解调器132,而是通过网络接口部133或外部装置接口部135来接收图像并再现。
例如,显示装置100可以分离成用于接收广播信号或根据各种网络服务的内容的诸如机顶盒等的图像处理装置和再现从图像处理装置输入的内容的内容再现装置来实现。
在此情况下,以下说明的本发明实施例的显示装置的动作方法不仅可以通过参照图1所述的显示装置100来执行,也可以通过分离的诸如机顶盒等的图像处理装置和具有显示部180和音频输出部185的内容再现装置中的任一个来执行。
音频输出部185可以从控制部170接收被语音处理的信号并输出成语音。
供电部190为整个显示装置100供应对应的电源。尤其,可以对能够以片上系统(System On Chip,SOC)的形态实现的控制部170、用于图像显示的显示部180以及用于音频输出的音频输出部185等供应电源。
具体而言,供电部190可以具有将交流电源转换为直流电源的转换器和转换直流电源的电平的DC/DC转换器。
接下来,参照图2至图3,对本发明一实施例的远程控制装置进行说明。
图2是本发明一实施例的远程控制装置的框图,图3示出了本发明一实施例的远程控制装置的实际构成例。
首先,参照图2,远程控制装置200可以包括指纹识别部210、无线通信部220、用户输入部230、传感器部240、输出部250、供电部260、存储部270、控制部280以及语音获取部290。
参照图2,无线通信部220与上述的本发明实施例的显示装置中的任一个收发信号。
远程控制装置200可以具有能够根据RF通信标准来与显示装置100收发信号的RF模块221,并可以具有能够根据IR通信标准来与显示装置100收发信号的IR模块223。另外,远程控制装置200可以具有能够根据蓝牙通信标准来与显示装置100收发信号的蓝牙模块225。另外,远程控制装置200可以具有能够根据近场通信(Near Field Communication)通信标准来与显示装置100收发信号的近场通信模块227,并可以具有能够根据无线局域网(Wireless LAN)通信标准来与显示装置100收发信号的无线局域网模块229。
另外,远程控制装置200通过无线通信部220向显示装置100传送载有与远程控制装置200的移动等相关的信息的信号。
另一方面,远程控制装置200可以通过RF模块221接收显示装置100传送的信号,并根据需要可以通过IR模块223向显示装置100传送与电源接通/断开、频道变更、音量变更等相关的指令。
用户输入部230可以由小键盘、按键、触摸板或触摸屏等构成。用户可以通过操作用户输入部230将与显示装置100相关的指令输入到远程控制装置200。在用户输入部230具有硬键按键的情况下,用户可以通过硬键按键的按压动作将与显示装置100相关的指令输入到远程控制装置200。对此,参照图3进行说明。
参照图3,远程控制装置200可以包括复数个按键。复数个按键可以包括指纹识别键212、电源键231、主页键232、直播键233、外部输入键234、音量调节键235、语音识别键236、频道变更键237、确认键238以及后退键239。
指纹识别键212可以是用于识别用户的指纹的按键。作为一实施例,能够通过对指纹识别键212进行按压动作,接收按压动作和指纹识别动作。电源键231可以是用于接通/切断显示装置100的电源的按键。主页键232可以是用于移动到显示装置100的主页的按键。直播键233可以是用于显示实时广播节目的按键。外部输入键234可以是用于接收与显示装置100连接的外部输入的按键。音量调节键235可以是用于调节显示装置100输出的音量的大小的按键。语音识别键236可以是用于接收用户的语音并识别接收到的语音的按键。频道变更键237可以是用于接收特定广播频道的广播信号的按键。确认键238可以是用于选择特定功能的按键,后退键239可以是用于返回到之前的画面的按键。
再次,对图2进行说明。
在用户输入部230具有触摸屏的情况下,用户可以通过触碰触摸屏的软键将与显示装置100相关的指令输入到远程控制装置200。另外,用户输入部230可以具有滚动键或轻推键等用户能够操作的各种种类的输入手段,本实施例并不局限本发明的权利范围。
传感器部240可以具有陀螺仪传感器241或加速度传感器243,陀螺仪传感器241可以感测到与远程控制装置200的移动相关的信息。
例如,陀螺仪传感器241可以以x、y、z轴为基准感测与远程控制装置200的动作相关的信息,加速度传感器243可以感测与远程控制装置200的移动速度等相关的信息。另一方面,远程控制装置200还可以具有距离测量传感器,从而能够感测与显示装置100的显示部180之间的距离。
输出部250可以输出与用户输入部230的操作对应或与从显示装置100传送的信号对应的图像或语音信号。通过输出部250,用户能够认知到用户输入部230是否被操作或显示装置100是否被控制。
例如,输出部250可以具有若用户输入部230被操作或通过无线通信部220与显示装置100收发信号则被点亮的LED模块251、产生振动的振动模块253、输出声音的音响输出模块255或输出图像的显示模块257。
另外,供电部260可以向远程控制装置200供电,在远程控制装置200在规定时间期间没有移动的情况下,可以通过中断供电来减少电源浪费。供电部260可以在设置于远程控制装置200的规定按键被操作的情况下重新开始供电。
存储部270可以储存远程控制装置200的控制或动作所需的各种程序、应用数据等。如果远程控制装置200通过RF模块221与显示装置100无线收发信号的情况下,远程控制装置200和显示装置100通过规定频带来收发信号。
远程控制装置200的控制部280可以将能够和与远程控制装置200配对的显示装置100无线收发信号的频带等相关的信息储存到存储部270并参照。
控制部280控制与远程控制装置200的控制相关的全部事项。控制部280可以通过无线通信部220向显示装置100传送与用户输入部230的规定按键操作对应的信号,或与在传感器部240感测到的远程控制装置200的移动对应的信号。
另外,远程控制装置200的语音获取部290可以获取语音。
语音获取部290可以包括至少一个以上的麦克风291,可以通过麦克风291来获取语音。
接下来,对图4进行说明。
图4示出了本发明实施例的使用远程控制装置的例。
图4中的(a)例示了与远程控制装置200对应的指针205显示在显示部180。
用户可以上下、左右移动或旋转远程控制装置200。在显示装置100的显示部180显示的指针205与远程控制装置200的移动对应。这样的远程控制装置200如图所示,根据3D空间上的移动使指针205移动显示,因此可以被命名为空间遥控器。
图4中的(b)例示了当用户朝左侧移动远程控制装置200时,在显示装置100的显示部180显示的指针205也与其对应地朝左侧移动。
与通过远程控制装置200的传感器来检测到的远程控制装置200的移动相关的信息可以传送到显示装置100。显示装置100可以从与远程控制装置200的移动相关的信息计算出指针205的坐标。显示装置100可以以与计算出的坐标对应的方式显示指针205。
图4中的(c)例示了在按下远程控制装置200内的特定按键的状态下,用户以远离显示部180的方式移动远程控制装置200的情况。由此,能够将与指针205对应的显示部180内的选择区域放大显示。
与此相反地,在用户以靠近显示部180的方式移动远程控制装置200的情况下,能够将与指针205对应的显示部180内的选择区域缩小显示。
另一方面,也可以在远程控制装置200远离显示部180的情况下,使选择区域缩小,并在远程控制装置200靠近显示部180的情况下,使选择区域放大。
另外,在按下远程控制装置200内的特定按键的状态下,可以排除上下、左右移动的识别。即,在以靠近或远离显示部180的方式移动远程控制装置200的情况下,可以不识别上、下、左、右移动,而仅识别前后移动。在没有按下远程控制装置200内的特定按键的状态下,根据远程控制装置200的上、下、左、右移动仅使指针205移动。
另一方面,指针205的移动速度或移动方向可以与远程控制装置200的移动速度或移动方向对应。
另一方面,本说明书的指针表示与远程控制装置200的动作对应地显示在显示部180的对象。因此,指针205可以是附图所示的箭头形状之外的各种形状的对象。例如,可以是包括点、光标、提示符、厚外廓线等的概念。此外,指针205不仅可以与显示部180上的横轴和纵轴中的任一位置(point)对应地显示,也可以与线(line)、面(surface)等复数位置对应地显示。
以下,对本公开实施例的显示装置的动作流程图进行说明。
首先,本公开实施例的显示装置100还可以包括用户输入部120。
用户输入部120可以包括机械式(mechanical)输入手段(或机械按键,例如,设置在AI装置100的前/背面或侧面的按键、圆顶开关(dome switch)、调节旋钮、轻摇开关等)和触摸式输入手段。
作为一例,触摸式输入手段可以构成为通过以软件方式的处理而在触摸屏上显示的虚拟键(virtual key)、软件键(soft key)或视觉键(visual key),也可以构成为配置在所述触摸屏之外的部分的触摸键(touch key)。
此外,显示装置100也可以以与用户输入部120的触摸式输入手段对应地接收显示部接收的用户触摸输入。
即,用户可以通过触摸显示装置100的显示部向用户输入部120提供触摸输入,控制部可以通过用户输入部120接收用户的触摸输入。
图5示出了本公开实施例的显示装置的动作流程图。
参照图5,显示装置100可以执行应用(S510)。具体而言,应用可以提供至少一个以上的图像内容,应用可以储存在显示装置的存储部140或从与显示装置连接的服务器或机顶盒提供。
例如,应用可以包括图像和图像内容、网络浏览器、智能引导、通过独立的电缆或无线连接的外部输入内容等。
当执行应用时,显示装置100的控制部170可以通过显示部输出应用提供的画面。
本公开实施例的控制部170可以判断应用是否支持触摸输入(S520)。
首先,应用可以区分为当接收触摸输入时提供执行与触摸输入对应的指令的功能的应用和不提供执行与触摸输入对应的指令的功能的应用。
在当前显示装置中动作的操作系统正在执行特定应用的情况下,当所述特定应用输出的画面接收触摸输入时,本公开实施例的控制部170可以判断正在执行的应用是否支持触摸输入,并可以判断应用是否提供执行与触摸输入对应的指令的功能。
通常,由于搭载在显示装置100的操作系统储存有执行的应用的应用信息,所以控制部170可以利用所述应用信息来判断该应用是否提供执行与触摸输入对应的指令的功能。
此时,应用信息可以包括应用种类、安装日期、功能、固有编号以及应用动作所需的各种信息。
本公开实施例的控制部170可以利用通过操作系统执行的应用中包含的应用信息来判断是否支持触摸输入。
在正在执行的应用支持触摸输入的情况下,本公开实施例的控制部170可以通过输入部120接收用户的触摸输入并执行与触摸输入对应的功能(S531)。
相反,在正在执行的应用不支持触摸输入的情况下(S520),本公开实施例的控制部170可以分析用户的触摸输入(S530),并基于应用是否支持鼠标输入功能来执行与触摸输入对应的功能(S540)。
具体而言,在所述应用支持鼠标输入功能的情况下,所述控制部可以将所述触摸输入转换为鼠标输入,并执行与所述鼠标输入对应的功能(S552、S562)
另外,在所述应用不支持所述鼠标输入功能的情况下,所述控制部可以将所述触摸输入转换成方向键输入,并执行与所述方向键输入对应的功能(S551、S561)。
以下,对本公开实施例的用户触摸输入的种类进行说明,并对与其对应的画面移动和内容播放进行说明。
首先,本公开实施例的控制部170可以分析用户的触摸输入(S530)。
此时,用户触摸输入分析可以表示,在提供触摸输入的显示装置中,对与通过显示部180输入的用户触摸输入或通过输入部输入的用户触摸输入对应的功能进行分析。
控制部170可以通过分析用户触摸输入来识别该触摸输入的特定位置触摸、特定位置触碰后的拖动、特定位置的长按、触碰进度条后的拖动、触碰滚动条后的拖动等各种用户的触摸输入。
图6是示出本公开实施例的根据触碰后拖动输入的画面移动的图。
首先,在显示装置100执行应用的情况下,显示装置的控制部170可以输出包括至少一个以上的内容的应用提供的画面。
用户可以对所述画面输入触摸输入。
本公开实施例的控制部170在用户的触摸输入是所述画面上的特定位置的触摸的情况下,所述控制部可以将所述触摸输入转换成所述特定位置的鼠标点击输入,并可以在所述特定位置执行所述鼠标点击输入。
例如,在画面610上的第一内容613接收到用户触摸输入的情况下,控制部170可以将所述触摸输入转换为针对第一内容613的点击输入并识别,从而执行第一内容613。
此外,用户可以为了画面的移动而触碰特定位置后进行拖动输入。
在用户的触摸输入是触摸特定位置611并朝特定方向612拖动的情况下,本公开实施例的控制部170可以将所述触摸输入转换成点击所述特定位置611并朝所述特定方向612的鼠标拖动输入,并输出所述特定位置朝与所述特定方向612对应的方向移动的画面。
例如,如图6中的(a)所示,在用户的触摸输入是触摸特定位置611并朝特定方向612拖动的情况下,控制部170可以转换并识别成鼠标点击所述特定位置611并朝所述特定方向612鼠标拖动输入。
参照图6中的(b),控制部可以根据所述鼠标输入来输出特定位置611朝与特定方向612对应的方向移动的画面630。
在移动的画面630可以输出有与第一内容611不同的内容631。
对本公开的另一实施例的应用不提供鼠标输入功能的情况进行说明。
在所述用户的触摸输入是特定位置的触摸的情况下,本公开实施例的控制部170可以将所述触摸输入转换成所述特定位置的选择输入,并在所述特定位置执行所述选择输入。
例如,在画面上的第一内容613接收到用户触摸输入的情况下,控制部170可以将所述触摸输入转换并识别成针对第一内容613的选择输入,并执行第一内容。
此外,用户可以为了画面的移动而触碰特定位置后拖动输入。
在本公开实施例的控制部170中,用户的触摸输入是触摸特定位置611并朝特定方向612拖动的情况下,所述控制部170可以转换成朝与所述特定方向612相反的方向对应的第一方向的方向键输入,并输出所述特定位置611朝与所述特定方向612对应的方向移动的画面。
例如,如图6中的(a)所示,在用户的触摸输入是触摸特定位置611并朝特定方向612拖动的情况下,控制部可以转换并识别成选择所述特定位置611并朝所述特定方向612的相反方向对应的第一方向的方向键输入。
参照图6中的(b),控制部170可以根据所述第一方向的方向键输入来输出特定位置611朝与特定方向612对应的方向移动的画面630。
即,根据本公开的实施例,可以知晓与用户触摸输入对应的画面移动和内容执行输出结果与鼠标输入功能和方向键输入功能相同地示出。
图7是本公开实施例的根据触碰后拖动输入的内容移动的图。
首先,对应用支持鼠标输入功能的情况进行说明。
参照图7,在复数个内容按类别分组的情况下,用户可以输入用于将聚焦的内容转换成其他内容,或查看包括在类别中的复数个内容目录的拖动触摸输入。
具体而言,显示装置100的控制部170可以将包括在一个类别中的复数个内容朝特定方向排列并输出。
此时,在用户的触摸输入是触摸所述复数个内容中的任一个并朝所述特定方向拖动的情况下,控制部可以将所述触摸输入转换成点击触摸的内容并朝所述特定方向的鼠标拖动输入。
控制部170可以通过显示部180输出所述复数个内容朝特定方向移动的画面。
例如,在图7中的(a)的画面710中,可以输出有被分组成相似的类别的内容713、714。
为了查看包括在类别中的复数个内容目录,用户可以在触摸特定位置711的状态下输入朝特定方向712的拖动输入。
此时,特定位置711可以是被分组成相似的类别的内容中的任一个713。
本公开实施例的控制部170可以将所述触摸输入转换成在点击特定位置711的状态下朝特定方向712的鼠标拖动输入。
然后,如图7中的(b)所示,控制部170可以输出所述复数个内容713、714朝所述特定方向712移动的画面730。
以下,对应用支持方向键输入功能的情况进行说明。
根据本公开另一实施例,在用户触摸输入是触摸所述复数个内容中的任一个并朝所述特定方向拖动的情况下,所述控制部170可以将所述触摸输入转换成选择被触摸的内容并朝与所述特定方向的相反方向对应的第一方向的方向键输入,并输出所述复数个内容朝所述特定方向移动的画面。
如上所述,参照图7中的(a),为了查看包括在类别中的复数个内容目录,用户可以输入在触摸特定位置711的状态下的朝特定方向712的拖动。
本公开实施例的控制部170可以将所述触摸输入转换成在选择特定位置711的状态下,朝与特定方向712的相反方向对应的第一方向的方向键输入。
然后,控制部170可以输出所述复数个内容713、714朝所述特定方向712移动的画面730。
图8是示出本公开实施例的根据长按输入的画面的图。
根据本公开的实施例,在用户触摸输入是针对特定内容长按输入后朝特定方向拖动的情况下,控制部170可以在画面中输出所述特定内容的详细信息。
具体而言,在正在执行的应用提供鼠标输入功能的情况下,控制部170可以将所述触摸输入转换成对于所述内容的长按输入,并输出与对于所述内容的长按输入对应的针对所述内容的详细信息。
此时,长按输入可以表示以点击鼠标的状态保持预设定的时间以上的输入。
参照图8(a)中的和图8中的(b),控制部170在接收针对特定内容810的用户的长按输入811的情况下,可以将该长按输入转换成针对内容810的长点击输入,并输出针对所述内容的详细信息窗口820。
此时,在内容为图像的情况下,在详细信息窗中可以包括对于内容的标题、播放时间、日期、预告篇、制作人、播放、预览等的信息中的至少一个。
图9是示出本公开实施例的用于引导画面移动的引导窗口的图。
根据本公开实施例,即使是不支持触摸输入的应用,也能够执行根据触摸输入的动作。因此,显示装置100可以输出向用户通知触摸输入被转换并执行为鼠标输入功能或方向键输入功能的引导。
具体而言,参照图9中的(a)和图9中的(b),若用户向第一内容910的特定位置911输入触摸输入,则所述控制部170可以输出用于引导与所述触摸输入对应的所述鼠标输入功能的引导窗口920。
例如,在提供鼠标输入功能的应用的情况下,所述引导窗口可以包括引导用户的手部动作的引导图像921、表示正在执行鼠标输入功能的光标引导图像922以及表示当前正在接收触摸输入的引导图像923中的至少一个。
另外,在鼠标输入功能对应于鼠标拖动的情况下,也可以输出针对画面移动方向的引导图像。
图10是示出本公开实施例的用于引导画面移动的引导窗口的图。
根据本公开的另一实施例,在提供方向键输入功能的应用的情况下,控制部170可以输出用于引导与用户输入对应的所述方向键输入功能的引导窗口1120。
具体而言,在接收到用户的对于触碰第一内容1010的特定位置1011后朝特定方向1012的拖动输入的情况下,控制部170可以输出用于引导方向键输入的所述引导窗口1020。
用于引导所述方向键输入的引导窗口1020可以包括引导用户的手部动作的引导图像1021和根据所述“与用户输入对应的所述方向键输入功能”的画面移动方向的引导图像1022中的至少一个。
另外,在控制部170根据用户的触摸输入使画面朝特定方向移动的情况下,也可以激活显示对应方向的方向键。
图11是示出本公开实施例的触摸输入时的画面移动的图。
另一方面,可以在应用提供的画面上提供诸如滚动条的便于使画面移动的工具。以下,说明用户为了移动应用提供的画面而对滚动条输入触摸输入的情况下的控制部的动作。
首先,对应用提供鼠标输入功能的情况进行说明。
在正在执行的用户的触摸输入是触摸滚动条的特定区域并朝特定方向拖动的输入的情况下,本公开实施例的控制部170可以将所述触摸输入转换成点击所述滚动条的特定区域并朝所述特定方向的鼠标拖动输入,并输出朝所述特定方向滚动的画面。
例如,参照图11,画面可以包括滚动条1110。在用户的触摸输入是触摸滚动条1110的特定区域1111并朝特定方向1112拖动的输入的情况下,控制部170可以转换成在点击所述特定区域1111的状态下朝特定方向1112的鼠标拖动输入,并输出朝所述特定方向1112滚动的画面。
此时,滚动的程度可以根据用户朝特定方向1112的拖动强度而不同地设定。
以下,对应用提供方向键输入功能的情况进行说明。
在正在执行的用户的触摸输入是触摸滚动条的特定区域并朝特定方向拖动的输入的情况下,本公开另一实施例的控制部170可以将所述触摸输入转换成选择所述滚动条的特定区域并朝所述特定方向的方向键输入,并输出朝所述特定方向滚动的画面。
例如,参照图12,在用户的触摸输入是触摸滚动条1110的特定区域1111并朝特定方向1112拖动的输入的情况下,控制部170可以转换成在选择所述特定区域1111的状态下朝特定方向1112的方向键输入,并输出朝所述特定方向1112滚动的画面。
同样地,滚动的程度可以根据用户朝特定方向1112的拖动强度而不同地设定。
另一方面,在所述触摸输入是触摸滚动条的特定区域并拖动的输入转换成鼠标输入功能或方向键输入功能的情况下,控制部170可以输出表示画面朝特定方向移动的引导窗口1130。
如上所述,在引导窗口1130可以激活并显示与画面的移动方向对应的引导图像。
以下,在图12至图14中,说明在播放内容的情况下,根据用户的触摸输入来设定内容的播放时间点的实施例。
图12是示出本公开实施例的触摸输入时的播放时间点移动的图。
参照图12,控制部170可以播放应用中包含的内容。此时,内容可以是具有预设定的播放时间的影像或图像数据。
用户可以在内容播放中输入用于暂停、快进、快退以及移动到特定时间点等的各种触摸输入。
在用户的触摸输入是长按输入后朝特定方向拖动的情况下,本公开实施例的控制部170将所述触摸输入转换成点击正在播放的内容的当前时间点并朝所述特定方向的鼠标拖动输入,并输出从当前时间点朝特定方向前进相当于鼠标拖动输入的时间点的内容。
例如,参照图12,在显示部180播放内容1210,在用户向对应内容的特定位置1211长按输入后朝特定方向1212(例如,右侧方向)拖动的情况下,控制部170可以将所述触摸输入转换并识别成在点击正在播放的内容的当前时间点的状态下朝右侧方向的鼠标拖动输入。
控制部170可以输出从当前时间点前进相当于朝右侧方向的鼠标拖动输入的时间点1213的内容1220。
另一方面,如图13所示,所述控制部170可以通过显示部180输出示出内容的播放进度的进度条1310。如上所述,在用户的触摸输入是触摸特定位置1311并朝特定方向1312拖动的情况下,控制部170可以将所述触摸输入转换并识别成点击当前时间点的进度条1310并朝所述特定方向的鼠标拖动输入。
另外,控制部170可以输出从当前时间点1311朝特定方向1312前进相当于拖动强度的时间点的进度条1313,并输出与所述进度条1313对应的时间点的内容。
根据本公开的另一实施例,对应用提供方向键输入的情况进行说明。
当所述触摸输入接收在长按输入后朝特定方向拖动时,本公开实施例的控制部170可以将所述触摸输入转换成选择正在播放的内容的当前时间点并朝所述特定方向的方向键输入。
此外,控制部170可以输出从当前时间点前进相当于朝所述特定方向1312的方向键输入的内容。
另外,所述控制部170可以通过显示部180输出表示内容的播放进度的进度条1310,在所述用户输入是触摸所述进度条上的特定时间点1311并朝特定方向1312拖动的情况下,可以判断为与所述特定方向1312对应的第一方向的方向键输入,并输出从所述内容的特定时间点朝特定方向前进相当于所述方向键输入的时间点的内容。
例如,在触摸进度条上的特定时间点1311并朝右侧拖动的情况下,如图13所示,可以输出从正在播放的内容1310的特定时间点1311朝右侧前进相当于方向键输入的时间点的内容1320。
以下,对根据播放时间点移动的鼠标输入功能或方向键输入功能的引导窗口进行说明。
参照图13,随着执行鼠标输入功能,控制部170可以通过显示部180输出用于向用户引导播放时间点移动的引导窗口1320。
本公开实施例的引导窗口1320可以根据鼠标输入功能包括用户的手部动作引导图像1321、光标引导图像1322、引导时间点正在朝与特定方向1312对应的方向移动的图像1323中的至少一个。
在用户通过显示部180触摸进度条的当前时间点1310并朝特定方向移动并拖动到之后时间点1313的情况下,控制部170可以输出所述引导窗口1320中包含的手部动作引导图像和光标引导图像移动的效果1323。
所述实施例不仅可以适用于提供鼠标输入功能的应用,也可以适用于提供方向键输入功能的应用。
图14是示出本公开实施例的触摸输入时的播放时间点移动的图。
参照图14,随着执行方向键输入功能,控制部170可以通过显示部180向用户输出用于引导播放时间点移动的引导窗口1420。
本公开实施例的引导窗口1420可以根据方向键输入功能包括用户的手部动作引导图像1421和方向键引导图像1422。
不仅在用户通过显示部180触摸进度条的当前时间点并朝特定方向移动而拖动到之后时间点为止的情况下,在播放内容的期间触摸特定区域1411并朝特定方向1412拖动的情况下,控制部170也可以输出所述引导窗口1420中包含的方向键引导图像朝调节内容播放时间点的方向被激活的引导图像。
以上说明是为了例示说明本发明的技术思想,而本发明所属领域的普通技术人员可以在不脱离本发明的本质性的特性的范围内进行各种修改和变形。
因此,本发明公开的实施例并非旨在限制本发明的技术思想,而是用于解释该技术思想,并且本发明的技术思想的范围不受这些实施例的限制。
本发明的保护范围应由所附的权利要求书来解释,并且与之等同的范围内的所有技术思想都应被解释为包括在本发明的范围内。

Claims (20)

1.一种显示装置,其中,
用户输入部,接收触摸输入;
显示部,输出由应用提供的画面;以及
判断所述应用是否支持触摸输入;
在所述应用不支持触摸输入的情况下,判断是否支持鼠标输入功能;
基于是否支持所述鼠标输入功能来执行与所述触摸输入对应的功能。
2.根据权利要求1所述的显示装置,其中,
所述画面包括至少一个内容;
在所述应用支持鼠标输入功能的情况下,所述控制部将所述触摸输入转换为鼠标输入,并执行与所述鼠标输入对应的功能。
3.根据权利要求2所述的显示装置,其中,
在所述触摸输入是特定位置的触摸的情况下,所述控制部将所述触摸输入转换为所述特定位置的鼠标点击输入,并在所述特定位置执行所述鼠标点击输入。
4.根据权利要求2所述的显示装置,其中,
在所述触摸输入是对于所述内容的长按输入的情况下,所述控制部将所述触摸输入转换为对于所述内容的长点击输入,并输出与对于所述内容的长点击输入对应的所述内容的详细信息。
根据权利要求2所述的显示装置,其中,
在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,
所述控制部将所述触摸输入转换为点击所述特定位置并朝所述特定方向拖动的鼠标拖动输入,
并输出所述特定位置朝与所述特定方向对应的方向移动的画面。
5.根据权利要求2所述的显示装置,其中,
在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,
所述控制部将所述触摸输入转换为点击所述特定位置并朝所述特定方向拖动的鼠标拖动输入,
并输出所述特定位置朝与所述特定方向对应的方向移动的画面。
6.根据权利要求2所述的显示装置,其中,
所述控制部将包括在一个类别中的复数个内容朝特定方向排列并输出;
在所述触摸输入是触摸所述复数个内容中的任一个并朝所述特定方向拖动的情况下,
所述控制部将所述触摸输入转换为点击被触摸的内容并朝所述特定方向拖动的鼠标拖动输入,
并输出所述复数个内容朝所述特定方向移动的画面。
7.根据权利要求2所述的显示装置,其中,
在所述触摸输入是长按输入后朝特定方向拖动的情况下,
所述控制部将所述触摸输入转换为点击正在播放的内容的当前时间点并朝所述特定方向拖动的鼠标拖动输入,
并输出从当前时间点朝特定方向前进相当于鼠标拖动输入的时间点的内容。
8.根据权利要求2所述的显示装置,其中,
所述控制部通过显示部输出表示内容的播放进度的进度条;
在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,
所述控制部将所述触摸输入转换为点击所述进度条并朝所述特定方向拖动的鼠标拖动输入,
并输出从当前时间点朝特定方向前进时间点的内容。
9.根据权利要求2所述的显示装置,其中,
所述控制部输出用于引导与所述触摸输入对应的所述鼠标输入功能的引导窗口。
10.根据权利要求9所述的显示装置,其中,
所述引导窗口包括引导用户的手部动作的引导图像和对于根据与所述用户输入对应的所述鼠标输入功能的画面移动方向的引导图像中的至少一个。
11.根据权利要求1所述的显示装置,其中,
所述画面包括至少一个内容;
在所述应用不支持所述鼠标输入功能的情况下,所述控制部将所述触摸输入转换为方向键输入并执行与所述方向键输入对应的功能。
12.根据权利要求11所述的显示装置,其中,
在所述触摸输入是特定位置的触摸的情况下,所述控制部将所述触摸输入转换为所述特定位置的选择输入,并在所述特定位置执行所述选择输入。
13.根据权利要求11所述的显示装置,其中,
在所述触摸输入是触摸特定位置并朝特定方向拖动的情况下,所述控制部将所述触摸输入转换为朝与所述特定方向的相反方向对应的第一方向的方向键输入,并输出所述特定位置朝与所述特定方向对应的方向移动的画面。
14.根据权利要求11所述的显示装置,其中,
所述控制部将包括在一个类别中的复数个内容朝特定方向排列并输出;
在所述触摸输入是触摸所述复数个内容中的任一个并朝所述特定方向拖动的情况下,
所述控制部将所述触摸输入转换为选择被触摸的内容并朝与所述特定方向的相反方向对应的第一方向的方向键输入,
并输出所述复数个内容朝所述特定方向移动的画面。
15.根据权利要求11所述的显示装置,其中,
在所述触摸输入是长按输入后朝特定方向拖动的情况下,
所述控制部将所述触摸输入转换为选择正在播放的内容的当前时间点并朝所述特定方向的方向键输入,
并输出从当前时间点朝所述特定方向前进相当于方向键输入的时间点的内容。
16.根据权利要求11所述的显示装置,其中,
所述控制部通过显示部输出表示内容的播放进度的进度条;
在所述用户输入是触摸所述进度条上的特定时间点并朝特定方向拖动的情况下,所述控制部判断为与所述特定方向对应的第一方向的方向键输入,输出从所述内容的特定时间点朝特定方向前进相当于所述方向键输入的时间点的内容。
17.根据权利要求11所述的显示装置,其中,
所述控制部输出用于引导与所述用户输入对应的所述方向键输入功能的引导窗口。
18.根据权利要求17所述的显示装置,其中,
所述引导窗口包括引导用户的手部动作的引导图像和对于根据与所述用户输入对应的所述方向键输入功能的画面移动方向的引导图像中的至少一个。
19.根据权利要求2所述的显示装置,其中,
所述画面还包括能够滚动的滚动条;
在所述触摸输入是触摸滚动条的特定区域并朝特定方向拖动的输入的情况下,所述控制部将所述触摸输入转换为点击所述滚动条的特定区域并朝所述特定方向的鼠标拖动输入,并输出朝所述特定方向滚动的画面。
20.根据权利要求11所述的显示装置,其中,
所述画面还包括能够滚动的滚动条;
在所述触摸输入是触摸滚动条的特定区域并朝特定方向拖动的输入的情况下,所述控制部将所述触摸输入转换为选择所述滚动条的特定区域并朝所述特定方向的方向键输入,并输出朝所述特定方向滚动的画面。
CN202180098157.0A 2021-05-11 2021-05-11 显示装置 Pending CN117321559A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/005836 WO2022239881A1 (ko) 2021-05-11 2021-05-11 디스플레이 장치

Publications (1)

Publication Number Publication Date
CN117321559A true CN117321559A (zh) 2023-12-29

Family

ID=84028337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180098157.0A Pending CN117321559A (zh) 2021-05-11 2021-05-11 显示装置

Country Status (5)

Country Link
EP (1) EP4339760A1 (zh)
JP (1) JP2024519327A (zh)
KR (1) KR102602034B1 (zh)
CN (1) CN117321559A (zh)
WO (1) WO2022239881A1 (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8754855B2 (en) * 2008-06-27 2014-06-17 Microsoft Corporation Virtual touchpad
KR20100042762A (ko) * 2008-10-17 2010-04-27 주식회사 케이티테크 휴대 단말기에서 마우스 인터페이스를 실행하는 방법 및 이를 수행하는 휴대 단말기
KR101995234B1 (ko) * 2012-12-10 2019-07-02 엘지전자 주식회사 단말기 및 그 제어 방법
KR102015347B1 (ko) * 2013-01-07 2019-08-28 삼성전자 주식회사 터치 디바이스를 이용한 마우스 기능 제공 방법 및 장치
KR101505806B1 (ko) * 2013-01-07 2015-03-25 주식회사 인프라웨어 터치 스크린 디스플레이에서의 포인터 활성화 및 제어 방법 및 장치
KR101491056B1 (ko) * 2013-07-16 2015-02-10 주식회사 틸론 터미널 환경의 서버 기반 컴퓨팅 시스템에서 마우스 ui 지원을 위한 터치 스크린 단말 장치 및 마우스 ui 지원 방법
KR101574752B1 (ko) * 2014-09-15 2015-12-08 주식회사 마스터소프트 스마트 기기용 터치 마우스 장치

Also Published As

Publication number Publication date
KR102602034B1 (ko) 2023-11-15
WO2022239881A1 (ko) 2022-11-17
JP2024519327A (ja) 2024-05-10
KR20220154081A (ko) 2022-11-21
EP4339760A1 (en) 2024-03-20

Similar Documents

Publication Publication Date Title
EP3364280B1 (en) Information processing apparatus, information processing method, and program
EP2960882A1 (en) Display device and operating method thereof
EP3449635B1 (en) Display device and method of operating the same
US11704089B2 (en) Display device and system comprising same
KR20170120977A (ko) 스크린 미러링 기능을 제공하는 디스플레이 장치 및 그의 동작 방법
KR102576388B1 (ko) 디스플레이 장치 및 그의 동작 방법
CN110178376A (zh) 显示装置
KR102654415B1 (ko) 디스플레이 장치 및 그의 동작 방법
CN117321559A (zh) 显示装置
US11974010B2 (en) Display device for controlling one or more home appliances in consideration of viewing situation
KR20220005590A (ko) 디스플레이 장치 및 그의 동작 방법
EP4322538A1 (en) Display device and operating method thereof
EP4207788A1 (en) Display device and method for providing content using same
US11703991B2 (en) Display device with mouse control and operating method thereof
EP4274202A1 (en) Mobile terminal and display system
EP3992816A1 (en) Display device
US20220343909A1 (en) Display apparatus
US20230282209A1 (en) Display device and artificial intelligence server
KR20230111526A (ko) 디스플레이 장치
KR20230152310A (ko) 외부 디스플레이 장치와 콘텐츠를 공유하는 디스플레이 장치 및 콘텐츠 공유 방법
KR20210000119A (ko) 디스플레이 장치
KR20210000520A (ko) 디스플레이 장치
KR20190069096A (ko) 이동 단말기 및 디스플레이 장치
KR20190026928A (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination