WO2023200033A1 - 영상표시장치 및 그 동작방법 - Google Patents

영상표시장치 및 그 동작방법 Download PDF

Info

Publication number
WO2023200033A1
WO2023200033A1 PCT/KR2022/005489 KR2022005489W WO2023200033A1 WO 2023200033 A1 WO2023200033 A1 WO 2023200033A1 KR 2022005489 W KR2022005489 W KR 2022005489W WO 2023200033 A1 WO2023200033 A1 WO 2023200033A1
Authority
WO
WIPO (PCT)
Prior art keywords
keyword
voice
display device
application
word
Prior art date
Application number
PCT/KR2022/005489
Other languages
English (en)
French (fr)
Inventor
최유경
이재경
이향진
장지안
손명옥
변영빈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/005489 priority Critical patent/WO2023200033A1/ko
Publication of WO2023200033A1 publication Critical patent/WO2023200033A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof

Definitions

  • the present invention relates to an image display device and a method of operating the same.
  • a video display device is a device that has the function of displaying images that users can view, and users can watch broadcasts through the video display device.
  • video display devices include TVs (Televisions) and monitors equipped with liquid crystal displays (LCDs) using liquid crystals or OLED displays using organic light emitting diodes (OLEDs). ), projector, etc.
  • a content provider recommends the latest content or popular content that other users have watched a lot, or recommends web content related to the TV broadcast content that the user is currently watching.
  • content recommended through conventional methods is often somewhat different from the user's preferences.
  • an external server may collect the user's usage history of the video display device, and content or keywords may be recommended to the user based on the usage history collected by the external server.
  • the user's consent to providing personal information is generally required, and if the user does not agree to providing information for reasons such as concerns about personal information leakage, there is also a problem in that content or keywords that match preferences are not recommended at all.
  • the video display device may internally collect the user's usage history and recommend content or keywords to the user based on the usage history.
  • the video display device may internally collect the user's usage history and recommend content or keywords to the user based on the usage history.
  • the video display device may internally collect the user's usage history and recommend content or keywords to the user based on the usage history.
  • the present invention aims to solve the above-mentioned problems and other problems.
  • Another purpose is to provide a video display device and operating method that can more quickly and accurately recommend keywords for content that a user is likely to prefer, without worrying about personal information leakage, based on the user's usage history. there is.
  • Another purpose is to provide a video display device and a method of operating the same that can recommend optimized keywords for each of a plurality of applications.
  • an image display device includes a display; a network interface unit that communicates with at least one server; a memory storing at least one database corresponding to an application; and a control unit, wherein, based on the reception of a predetermined input related to a specific application, the control unit determines at least one piece of data corresponding to the point in time at which the predetermined input is received, among data included in a database corresponding to a specific application. , Based on the determined at least one data, a first keyword corresponding to the specific application is transmitted to the server through the network interface unit, and a second keyword associated with the first keyword is transmitted from the server through the network interface unit. Based on the one received, a screen containing at least one recommended keyword corresponding to the received second keyword may be output through the display.
  • the control unit determines an application corresponding to the received voice based on reception of the voice through the microphone, and determines an application corresponding to the determined application.
  • Adding data corresponding to the voice to a database, wherein the data corresponding to the voice includes at least one of an input keyword corresponding to a word included in the voice and a related keyword related to the input keyword, and a time point when the voice was received. may include.
  • the input keyword may include a word corresponding to the object of performing the action among words included in the voice, and the related keyword may include the type of the object.
  • the control unit determines the application corresponding to the specific word as the application corresponding to the voice, and If a specific word corresponding to the application is not included, the application running at the time the voice is received may be determined as the application corresponding to the voice.
  • control unit may determine the first keyword based on the frequency of the keyword included in the at least one data corresponding to the time when the predetermined input is received.
  • the first keyword includes a first word corresponding to a search target
  • the second keyword includes at least one second word related to the first word
  • the control unit may determine the first word and the second word as one recommended keyword.
  • the first keyword includes a specific type of content
  • the second keyword includes at least one word corresponding to the specific content corresponding to the specific type
  • the control unit may determine a word corresponding to the specific content as the recommended keyword.
  • a method of operating a video display device is based on the reception of a predetermined input related to a specific application, and the predetermined input is received among the data included in the database corresponding to the specific application stored in the memory.
  • determining an application corresponding to the received voice based on the reception of voice through a microphone, determining an application corresponding to the received voice; and adding data corresponding to the voice to a database corresponding to the determined application, wherein the data corresponding to the voice includes an input keyword corresponding to a word included in the voice and an association related to the input keyword. It may include at least one of keywords and the time when the voice was received.
  • the input keyword may include a word corresponding to the object of performing the action among words included in the voice, and the related keyword may include the type of the object.
  • the voice when the voice includes a specific word corresponding to an application, determining the application corresponding to the specific word as the application corresponding to the voice; and, when the voice does not include a specific word corresponding to an application, determining the application running at the time the voice is received as the application corresponding to the voice.
  • the operation of transmitting the first keyword to the server is based on the frequency of the keyword included in the at least one data corresponding to the time when the predetermined input is received. 1 May include an operation to determine a keyword.
  • the first keyword includes a first word corresponding to a search target
  • the second keyword includes at least one second word related to the first word
  • the operation of displaying the screen may include determining the first word and the second word as one recommended keyword.
  • the first keyword includes a specific type of content
  • the second keyword includes at least one word corresponding to the specific content corresponding to the specific type
  • the operation of displaying the screen may include the operation of determining a word corresponding to the specific content as the recommended keyword.
  • keywords for content that the user is likely to prefer can be recommended more quickly and accurately without worrying about personal information leakage.
  • optimized keywords can be recommended for each of a plurality of applications.
  • FIG. 1 is a diagram illustrating an image display system according to an embodiment of the present invention.
  • FIG. 2 is an internal block diagram of the video display device of FIG. 1.
  • FIG. 3 is an internal block diagram of the control unit of FIG. 2.
  • FIG. 4 is a diagram illustrating a control method of the remote control device of FIG. 2.
  • Figure 5 is an internal block diagram of the remote control device of Figure 2.
  • 6A and 6B are flowcharts of a method of operating an image display device according to an embodiment of the present invention.
  • module and “part” for components used in the following description are simply given in consideration of the ease of writing this specification, and do not in themselves give any particularly important meaning or role. Accordingly, the terms “module” and “unit” may be used interchangeably.
  • FIG. 1 is a diagram illustrating an image display system according to various embodiments of the present invention.
  • the image display system 10 may include an image display device 100 and/or a remote control device 200.
  • the image display device 100 may be a device that processes and outputs images.
  • the video display device 100 is not particularly limited as long as it can output a screen corresponding to video signals, such as a TV, laptop computer, or monitor.
  • the video display device 100 can receive a broadcast signal, process it, and output a processed broadcast image.
  • the video display device 100 may correspond to a broadcast reception device.
  • the video display device 100 may receive broadcast signals wirelessly through an antenna, or may receive broadcast signals wired through a cable.
  • the image display device 100 can receive terrestrial broadcasting signals, satellite broadcasting signals, cable broadcasting signals, and Internet Protocol Television (IPTV) broadcasting signals.
  • IPTV Internet Protocol Television
  • the remote control device 200 can be connected to the video display device 100 by wire and/or wirelessly and provide various control signals to the video display device 100. At this time, the remote control device 200 establishes a wired or wireless network with the video display device 100 and transmits various control signals to the video display device 100 or the video display device 100 through the established network. It may include a device that receives signals related to various operations processed in the image display device 100 from.
  • remote control device 200 various input devices such as a mouse, keyboard, spatial remote control, trackball, and joystick may be used as the remote control device 200.
  • the remote control device 200 may be referred to as an external device, and hereinafter, it will be specified in advance that the external device and the remote control device may be used interchangeably as needed.
  • the video display device 100 may be connected to only a single remote control device 200 or simultaneously connected to two or more remote control devices 200, and displays the image on the screen based on the control signal provided from each remote control device 200. You can change the displayed object or adjust the screen state.
  • the video display system 10 may further include at least one server 400.
  • the video display device 100 can transmit and receive data to and from the server 400.
  • the video display device 100 can transmit and receive data with the server 400 via a network such as the Internet.
  • the image display device 100 may transmit data related to an operation performed according to a user input to the server 400, and the server 400 may store the data received from the image display device 100.
  • FIG. 2 is an internal block diagram of the video display device of FIG. 1.
  • the video display device 100 includes a broadcast receiver 105, an external device interface unit 130, a network interface unit 135, a storage unit 140, a user input interface unit 150, and an input unit. It may include 160, a control unit 170, a display 180, an audio output unit 185, and/or a power supply unit 190.
  • the broadcast reception unit 105 may include a tuner unit 110 and a demodulation unit 120.
  • the video display device 100 includes a broadcast receiver 105, an external device interface unit 130, and a network interface unit 135. It is also possible to include only That is, the image display device 100 may not include the network interface unit 135.
  • the tuner unit 110 may select a broadcast signal corresponding to a channel selected by the user or all previously stored channels among broadcast signals received through an antenna (not shown) or a cable (not shown).
  • the tuner unit 110 can convert the selected broadcast signal into an intermediate frequency signal or a baseband video or audio signal.
  • the tuner unit 110 may convert it into a digital IF signal (DIF), and if the selected broadcast signal is an analog broadcast signal, it may be converted into an analog baseband video or audio signal (CVBS/SIF). . That is, the tuner unit 110 can process digital broadcasting signals or analog broadcasting signals.
  • the analog base band video or audio signal (CVBS/SIF) output from the tuner unit 110 may be directly input to the control unit 170.
  • the tuner unit 110 may sequentially select broadcast signals of all broadcast channels stored through a channel memory function among received broadcast signals and convert them into intermediate frequency signals or baseband video or audio signals.
  • the tuner unit 110 may be equipped with multiple tuners in order to receive broadcast signals of multiple channels.
  • a single tuner that simultaneously receives broadcast signals from multiple channels is also possible.
  • the demodulator 120 may receive the digital IF signal (DIF) converted by the tuner unit 110 and perform a demodulation operation.
  • DIF digital IF signal
  • the demodulator 120 may output a stream signal TS after performing demodulation and channel decoding.
  • the stream signal may be a multiplexed video signal, audio signal, or data signal.
  • the stream signal output from the demodulator 120 may be input to the control unit 170.
  • the control unit 170 can output video through the display 180 and audio through the audio output unit 185.
  • the external device interface unit 130 can transmit or receive data with a connected external device.
  • the external device interface unit 130 may include an A/V input/output unit (not shown).
  • the external device interface unit 130 can be connected wired/wireless to external devices such as DVD (Digital Versatile Disk), Blu ray, game device, camera, camcorder, computer (laptop), set-top box, etc. , input/output operations can also be performed with external devices.
  • the external device interface unit 130 establishes a communication network with various remote control devices 200 as shown in FIG. 1, and provides control related to the operation of the image display device 100 from the remote control device 200.
  • a signal may be received, or data related to the operation of the image display device 100 may be transmitted to the remote control device 200.
  • the A/V input/output unit can receive video and audio signals from an external device.
  • the A/V input/output unit includes an Ethernet terminal, USB terminal, CVBS (Composite Video Banking Sync) terminal, component terminal, S-video terminal (analog), DVI (Digital Visual Interface) terminal, and HDMI (High Definition Multimedia Interface) terminal, MHL (Mobile High-definition Link) terminal, RGB terminal, D-SUB terminal, IEEE 1394 terminal, SPDIF terminal, Liquid HD terminal, etc.
  • Digital signals input through these terminals may be transmitted to the control unit 170.
  • the analog signal input through the CVBS terminal and the S-video terminal may be converted into a digital signal through an analog-to-digital converter (not shown) and transmitted to the control unit 170.
  • the external device interface unit 130 may include a wireless communication unit (not shown) for short-distance wireless communication with other electronic devices. Through this wireless communication unit, the external device interface unit 130 can exchange data with an adjacent mobile terminal. For example, the external device interface unit 130 may receive device information, executing application information, application images, etc. from the mobile terminal in mirroring mode.
  • the external device interface unit 130 performs short-range wireless communication using Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, etc. It can be done.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra-Wideband
  • ZigBee ZigBee
  • the network interface unit 135 may provide an interface for connecting the video display device 100 to a wired/wireless network including an Internet network.
  • the network interface unit 135 may include a communication module (not shown) for connection to a wired/wireless network.
  • the network interface unit 135 provides communications for wireless LAN (WLAN) (Wi-Fi), wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet Access (HSDPA).
  • WLAN wireless LAN
  • Wibro wireless broadband
  • Wimax World Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • the network interface unit 135 may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network.
  • the network interface unit 135 may receive web content or data provided by a content provider or network operator. That is, the network interface unit 135 can receive content such as movies, advertisements, games, VOD, broadcasting, etc. and information related thereto provided from a content provider or network provider through a network.
  • the network interface unit 135 can receive firmware update information and update files provided by a network operator, and can transmit data to the Internet, a content provider, or a network operator.
  • the network interface unit 135 can select and receive a desired application from among applications open to the public through a network.
  • the storage unit 140 may store programs for processing and controlling each signal in the control unit 170, or may store processed video, audio, or data signals.
  • the storage unit 140 stores application programs designed for the purpose of performing various tasks that can be processed by the control unit 170, and selects some of the stored application programs at the request of the control unit 170. can be provided.
  • Programs stored in the storage unit 140 are not particularly limited as long as they can be executed by the control unit 170.
  • the storage unit 140 may perform a function for temporarily storing video, voice, or data signals received from an external device through the external device interface unit 130.
  • the storage unit 140 can store information about a certain broadcast channel through a channel memory function such as a channel map.
  • FIG. 2 shows an embodiment in which the storage unit 140 is provided separately from the control unit 170, the scope of the present invention is not limited thereto, and the storage unit 140 may be included in the control unit 170.
  • the storage unit 140 includes volatile memory (e.g., DRAM, SRAM, SDRAM, etc.), non-volatile memory (e.g., flash memory, hard disk drive (HDD), and solid state drive (Solid). -state drive; SSD), etc.) may be included. In various embodiments of the present invention, the storage unit 140 and memory may be used interchangeably.
  • volatile memory e.g., DRAM, SRAM, SDRAM, etc.
  • non-volatile memory e.g., flash memory, hard disk drive (HDD), and solid state drive (Solid). -state drive; SSD), etc.
  • HDD hard disk drive
  • SSD solid state drive
  • the user input interface unit 150 may transmit a signal input by the user to the control unit 170 or transmit a signal from the control unit 170 to the user.
  • transmitting/receiving user input signals such as power on/off, channel selection, and screen settings from the remote control device 200, or local keys such as power key, channel key, volume key, and setting value (not shown).
  • the user input signal input from the control unit 170 is transmitted to the control unit 170, the user input signal input from the sensor unit (not shown) that senses the user's gesture is transmitted to the control unit 170, or the signal from the control unit 170 is transmitted to the control unit 170. It can be transmitted to the sensor unit.
  • the input unit 160 may be provided on one side of the main body of the image display device 100.
  • the input unit 160 may include a touch pad, physical buttons, etc.
  • the input unit 160 can receive various user commands related to the operation of the image display device 100 and transmit control signals corresponding to the input commands to the control unit 170.
  • the input unit 160 may include at least one microphone (not shown) and may receive the user's voice through the microphone.
  • the control unit 170 may include at least one processor, and may control the overall operation of the image display device 100 using the processor included therein.
  • the processor may be a general processor such as a central processing unit (CPU).
  • the processor may be a dedicated device such as an ASIC or another hardware-based processor.
  • the control unit 170 demultiplexes the stream input through the tuner unit 110, demodulator 120, external device interface unit 130, or network interface unit 135, or processes the demultiplexed signals. , signals for video or audio output can be generated and output.
  • the display 180 converts the video signal, data signal, OSD signal, and control signal processed by the control unit 170 or the video signal, data signal, and control signal received from the external device interface unit 130 to provide a driving signal. can be created.
  • the display 180 may include a display panel (not shown) having a plurality of pixels.
  • a plurality of pixels provided in the display panel may include RGB subpixels.
  • a plurality of pixels provided in the display panel may include RGBW subpixels.
  • the display 180 may convert image signals, data signals, OSD signals, control signals, etc. processed by the control unit 170 to generate driving signals for a plurality of pixels.
  • the display 180 may be a plasma display panel (PDP), liquid crystal display (LCD), organic light emitting diode (OLED), or flexible display, and may also be capable of a 3D display. there is.
  • the 3D display 180 can be divided into a glasses-free type and a glasses type.
  • the display 180 can be configured as a touch screen and used as an input device in addition to an output device.
  • the audio output unit 185 receives the audio-processed signal from the control unit 170 and outputs it as audio.
  • the video signal processed by the control unit 170 may be input to the display 180 and displayed as an image corresponding to the video signal. Additionally, the image signal processed by the control unit 170 may be input to an external output device through the external device interface unit 130.
  • the voice signal processed by the control unit 170 may be output as sound to the audio output unit 185. Additionally, the voice signal processed by the control unit 170 may be input to an external output device through the external device interface unit 130.
  • control unit 170 may include a demultiplexer, an image processor, etc. This will be described later with reference to FIG. 3.
  • control unit 170 can control overall operations within the image display device 100.
  • control unit 170 may control the tuner unit 110 to select (tuning) a broadcast corresponding to a channel selected by the user or a previously stored channel.
  • control unit 170 may control the image display device 100 by a user command input through the user input interface unit 150 or an internal program.
  • control unit 170 can control the display 180 to display an image.
  • the image displayed on the display 180 may be a still image or a moving image, and may be a 2D image or a 3D image.
  • control unit 170 can cause a certain 2D object to be displayed in the image displayed on the display 180.
  • the object may be at least one of a connected web screen (newspaper, magazine, etc.), EPG (Electronic Program Guide), various menus, widgets, icons, still images, videos, and text.
  • EPG Electronic Program Guide
  • the image display device 100 may further include a photographing unit (not shown).
  • the photographing unit may photograph the user.
  • the photographing unit can be implemented with one camera, but is not limited to this, and can also be implemented with a plurality of cameras.
  • the photographing unit may be embedded in the image display device 100 on the upper part of the display 180 or may be placed separately. Image information captured by the photographing unit may be input to the control unit 170.
  • the control unit 170 may recognize the user's location based on the image captured by the photographing unit. For example, the control unit 170 may determine the distance (z-axis coordinate) between the user and the image display device 100. In addition, the control unit 170 may determine the x-axis coordinate and y-axis coordinate in the display 180 corresponding to the user's location.
  • the control unit 170 may detect a user's gesture based on each or a combination of an image captured by a photographing unit or a sensed signal from a sensor unit.
  • the power supply unit 190 can supply the corresponding power throughout the image display device 100.
  • power can be supplied to the control unit 170, which can be implemented in the form of a system on chip (SOC), the display 180 for displaying images, and the audio output unit 185 for audio output. there is.
  • SOC system on chip
  • the power supply unit 190 may include a converter (not shown) that converts AC power to DC power and a Dc/Dc converter (not shown) that converts the level of DC power.
  • the remote control device 200 may transmit user input to the user input interface unit 150.
  • the remote control device 200 may use Bluetooth, Radio Frequency (RF) communication, Infrared Radiation communication, Ultra-wideband (UWB), ZigBee, etc. Additionally, the remote control device 200 may receive video, audio, or data signals output from the user input interface unit 150, and display them or output audio signals on the remote control device 200.
  • RF Radio Frequency
  • UWB Ultra-wideband
  • ZigBee ZigBee
  • the above-described video display device 100 may be a fixed or mobile digital broadcasting receiver capable of receiving digital broadcasting.
  • the block diagram of the image display device 100 shown in FIG. 2 is only a block diagram for an embodiment of the present invention, and each component of the block diagram is according to the specifications of the image display device 100 that is actually implemented. May be combined, added, or omitted.
  • two or more components may be combined into one component, or one component may be subdivided into two or more components.
  • the functions performed by each block are for explaining embodiments of the present invention, and the specific operations or devices do not limit the scope of the present invention.
  • FIG. 3 is an internal block diagram of the control unit of FIG. 2.
  • control unit 170 includes a demultiplexer 310, an image processor 320, a processor 330, an OSD generator 340, a mixer 345, It may include a frame rate converter 350 and/or a formatter 360. In addition, it may further include an audio processing unit (not shown) and a data processing unit (not shown).
  • the demultiplexer 310 can demultiplex the input stream. For example, when MPEG-2 TS is input, it can be demultiplexed and separated into video, voice, and data signals.
  • the stream signal input to the demultiplexer 310 may be a stream signal output from the tuner unit 110, demodulator 120, or external device interface unit 130.
  • the image processing unit 320 may perform image processing of demultiplexed video signals.
  • the image processing unit 320 may include an image decoder 325 and a scaler 335.
  • the video decoder 325 can decode the demultiplexed video signal, and the scaler 335 can perform scaling so that the resolution of the decoded video signal can be output on the display 180.
  • the video decoder 325 may be equipped with decoders of various standards. For example, it may be equipped with an MPEG-2, H,264 decoder, a 3D image decoder for color image and depth image, and a decoder for multiple viewpoint images.
  • the processor 330 may control overall operations within the image display device 100 or the control unit 170. For example, the processor 330 may control the tuner 110 to select (tuning) a broadcast corresponding to a channel selected by the user or a pre-stored channel.
  • the processor 330 can control the image display device 100 by a user command input through the user input interface unit 150 or an internal program.
  • the processor 330 may perform data transmission control with the network interface unit 135 or the external device interface unit 130.
  • processor 330 may control the operations of the demultiplexer 310, the image processor 320, and the OSD generator 340 within the control unit 170.
  • the OSD generator 340 may generate an OSD signal according to user input or on its own. For example, based on a user input signal input through the input unit 160, a signal for displaying various information in graphics or text can be generated on the screen of the display 180.
  • the generated OSD signal may include various data such as a user interface screen of the video display device 100, various menu screens, widgets, and icons. Additionally, the generated OSD signal may include 2D objects or 3D objects.
  • the OSD generator 340 may generate a pointer that can be displayed on the display 180 based on the pointing signal input from the remote control device 200.
  • the OSD generator 340 may include a pointing signal processor (not shown) that generates a pointer. It is also possible for the pointing signal processor (not shown) to be provided separately rather than within the OSD generator 240.
  • the mixer 345 may mix the OSD signal generated by the OSD generator 340 and the decoded image signal processed by the image processor 320.
  • the mixed video signal may be provided to the frame rate converter 350.
  • the frame rate converter (FRC) 350 can convert the frame rate of the input video. Meanwhile, the frame rate conversion unit 350 is also capable of outputting the image as is without separate frame rate conversion.
  • the formatter 360 can arrange the left eye image frames and right eye image frames of the frame rate converted 3D image. Additionally, a synchronization signal (Vsync) for opening the left eye glass and the right eye glass of the 3D viewing device (not shown) may be output.
  • Vsync synchronization signal
  • the formatter 360 can change the format of the input video signal into an video signal for display on the display 180 and output it.
  • the formatter 360 can change the format of the 3D video signal. For example, among various 3D formats such as Side by Side format, Top/Down format, Frame Sequential format, Interlaced format, and Checker Box format. It can be changed to any one format.
  • 3D formats such as Side by Side format, Top/Down format, Frame Sequential format, Interlaced format, and Checker Box format. It can be changed to any one format.
  • the formatter 360 may convert a 2D video signal into a 3D video signal.
  • edges or selectable objects can be detected within a 2D image signal, and objects or selectable objects according to the detected edges can be separated into 3D image signals to be generated. You can.
  • the generated 3D image signal may be separated and arranged into the left eye image signal (L) and the right eye image signal (R), as described above.
  • a 3D processor (not shown) for 3-dimensional effect signal processing is further disposed after the formatter 360.
  • These 3D processors can process brightness, tint, and color adjustments of video signals to improve 3D effects. For example, signal processing can be performed to make near areas clear and far areas blurry. Meanwhile, the functions of this 3D processor may be merged into the formatter 360 or within the image processing unit 320.
  • the audio processing unit (not shown) in the control unit 170 may perform audio processing of the demultiplexed audio signal.
  • the audio processing unit (not shown) may be equipped with various decoders.
  • control unit 170 can process bass, treble, and volume control.
  • the data processing unit within the control unit 170 may perform data processing of the demultiplexed data signal.
  • the demultiplexed data signal is an encoded data signal, it can be decoded.
  • the encoded data signal may be electronic program guide information including broadcast information such as the start time and end time of the broadcast program aired on each channel.
  • FIG. 3 the block diagram of the control unit 170 shown in FIG. 3 is only a block diagram for one embodiment of the present invention, and each component of the block diagram can be integrated, added, or integrated according to the specifications of the control unit 170 that is actually implemented. Or it may be omitted.
  • the frame rate converter 350 and the formatter 360 may not be provided within the control unit 170, but may be provided separately or as a single module.
  • FIG. 4 is a diagram illustrating a control method of the remote control device of FIG. 2.
  • a pointer 205 corresponding to the remote control device 200 is displayed on the display 180 of the image display device 100.
  • the user can move or rotate the remote control device 200 up and down, left and right, back and forth.
  • the pointer 205 displayed on the display 180 of the image display device 100 may be displayed in response to the movement of the remote control device 200.
  • this remote control device 200 can be called a spatial remote control or a 3D pointing device because the corresponding pointer 205 is moved and displayed according to movement in 3D space.
  • the pointer 205 displayed on the display 180 of the video display device 100 also moves to the left. You can see that it moves to the left in response to the movement.
  • Information about the movement of the remote control device 200 detected through the sensor of the remote control device 200 may be transmitted to the image display device 100.
  • the image display device 100 can calculate the coordinates of the pointer 205 from information about the movement of the remote control device 200.
  • the image display device 100 may display a pointer 205 to correspond to the calculated coordinates.
  • the user while pressing a specific button provided on the remote control device 200, the user can move the remote control device 200 away from the display 180.
  • the selected area in the display 180 corresponding to the pointer 205 can be zoomed in and displayed enlarged.
  • the display 180 corresponding to the pointer 205 The selected area within may be zoomed out and displayed in a reduced size.
  • the selected area may be zoomed out, and when the remote control device 200 approaches the display 180, the selected area may be zoomed in. .
  • the moving speed or direction of the pointer 205 may correspond to the moving speed or direction of the remote control device 200.
  • Figure 5 is an internal block diagram of the remote control device of Figure 2.
  • the remote control device 200 includes a wireless communication unit 420, a user input unit 430, a sensor unit 440, an output unit 450, a power supply unit 460, a storage unit 470, and/or may include a control unit 480.
  • the wireless communication unit 420 can transmit and receive signals to and from the image display device 100.
  • the remote control device 200 may be provided with an RF module 421 that can transmit and receive signals with the image display device 100 according to RF (Radio Frequency) communication standards. Additionally, the remote control device 200 may be equipped with an IR module 423 capable of transmitting and receiving signals with the image display device 100 according to IR (Infrared radiation) communication standards.
  • RF Radio Frequency
  • IR Infrared radiation
  • the remote control device 200 may transmit a signal containing information about the movement of the remote control device 200 to the image display device 100 through the RF module 421.
  • the remote control device 200 can receive the signal transmitted by the image display device 100 through the RF module 421.
  • the remote control device 200 can transmit commands for power on/off, channel change, volume change, etc. to the video display device 100 through the IR module 423.
  • the user input unit 430 may be composed of a keypad, buttons, touch pad, touch screen, etc. The user can manipulate the user input unit 430 to input commands related to the image display device 100 through the remote control device 200.
  • the user input unit 430 is provided with a hard key button, the user can input a command related to the image display device 100 through the remote control device 200 through a push operation of the hard key button.
  • the user input unit 430 has a touch screen, the user can input commands related to the video display device 100 through the remote control device 200 by touching a soft key on the touch screen.
  • the user input unit 430 may be provided with various types of input means that the user can operate, such as scroll keys, jog keys, and microphones, and this embodiment does not limit the scope of the present invention.
  • the sensor unit 440 may include a gyro sensor 441 or an acceleration sensor 443.
  • the gyro sensor 441 can sense the movement of the remote control device 200.
  • the gyro sensor 441 can sense information about the operation of the remote control device 200 based on the x, y, and z axes.
  • the acceleration sensor 443 can sense information about the moving speed of the remote control device 200, etc.
  • the sensor unit 440 may further include a distance measurement sensor capable of sensing the distance to the display 180.
  • the output unit 450 may output a video or audio signal corresponding to an operation of the user input unit 430 or a signal transmitted from the video display device 100. Through the output unit 450, the user can recognize whether the user input unit 430 is operated or whether the image display device 100 is controlled.
  • the output unit 450 includes an LED module 451 that turns on when the user input unit 430 is manipulated or a signal is transmitted and received with the image display device 100 through the wireless communication unit 420, a vibration module 453 that generates vibration, A sound output module 455 that outputs sound and/or a display module 457 that outputs an image may be provided.
  • the power supply unit 460 can supply power to each component of the remote control device 200.
  • the power supply unit 460 may stop supplying power when the remote control device 200 does not move for a predetermined period of time, thereby reducing power waste.
  • the power supply unit 460 can resume power supply when a predetermined key provided in the remote control device 200 is operated.
  • the storage unit 470 may store various types of programs, application data, etc. necessary for controlling or operating the remote control device 200.
  • the remote control device 200 transmits and receives signals wirelessly through the video display device 100 and the RF module 421, the remote control device 200 and the video display device 100 transmit signals through a predetermined frequency band. Can send and receive.
  • the control unit 480 of the remote control device 200 stores information about the frequency band capable of wirelessly transmitting and receiving signals with the video display device 100 paired with the remote control device 200 in the storage unit 470. and can be referenced.
  • the control unit 480 may include at least one processor, and may control the overall operation of the remote control device 200 using the processor included therein.
  • the control unit 480 sends a signal corresponding to a predetermined key operation of the user input unit 430 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor unit 440 as an image through the wireless communication unit 420. It can be transmitted to the display device 100.
  • the user input interface unit 150 of the image display device 100 includes a wireless communication unit 151 capable of wirelessly transmitting and receiving signals with the remote control device 200, and a pointer corresponding to the operation of the remote control device 200.
  • a coordinate value calculation unit 415 capable of calculating coordinate values may be provided.
  • the user input interface unit 150 can transmit and receive signals wirelessly with the remote control device 200 through the RF module 412. Additionally, the remote control device 200 can receive signals transmitted according to IR communication standards through the IR module 413.
  • the coordinate value calculation unit 415 calculates the coordinates of the pointer 205 to be displayed on the display 170 by correcting hand tremors or errors from the signal corresponding to the operation of the remote control device 200 received through the wireless communication unit 151.
  • the values (x,y) can be calculated.
  • the remote control device 200 transmission signal input to the image display device 100 through the user input interface unit 150 may be transmitted to the control unit 180 of the image display device 100.
  • the control unit 180 of the video display device 100 determines information about the operation and key operation of the remote control device 200 from the signal transmitted from the remote control device 200, and displays the video display device 100 in response. can be controlled.
  • the remote control device 200 may calculate pointer coordinates corresponding to the operation and output them to the user input interface unit 150 of the image display device 100.
  • the user input interface unit 150 of the image display device 100 can transmit information about the received pointer coordinate value to the control unit 180 without a separate hand tremor or error correction process.
  • the coordinate value calculation unit 415 may be provided inside the control unit 170 rather than the user input interface unit 150 as shown in the drawing.
  • FIGS. 6A and 6B are flowcharts of a method of operating an image display device according to an embodiment of the present invention
  • FIGS. 7 to 15 are diagrams referenced in the description of a method of operating an image display device.
  • the video display device 100 may determine whether a voice input is received in operation S601. For example, the video display device 100 may receive voice input through a microphone included in the input unit 160. For example, the video display device 100 may receive a signal corresponding to a voice input from the remote control device 200 through the user input interface unit 150.
  • the video display device 100 may transmit data corresponding to the voice input to the first server through the network interface unit 135, based on reception of the voice input, in operation S602.
  • the video display device 100 may transmit audio data corresponding to voice input to the first server.
  • the first server may be a server that extracts words included in the voice by performing voice recognition using processing technology (natural language processing, NLP).
  • the first server may be composed of a plurality of servers.
  • the first server may be comprised of an STT (Speech-to-Text) server that converts audio data corresponding to voice input into text, and a keyword server that determines keywords based on the converted text.
  • the video display device 100 may receive text data corresponding to audio data from the STT server and then transmit the text data to the keyword server.
  • the video display device 100 may receive data on the result of audio processing from an external server through the network interface unit 135 in operation S603.
  • data on the result of processing the voice may include at least one keyword (hereinafter referred to as input keyword) corresponding to a word included in the voice. For example, if the received voice input is “Search Baby Shark on YouTube,” data on the result of voice processing may include “YouTube,” “Baby Shark,” and “Search” as input keywords, respectively.
  • data on the result of processing the voice may include at least one keyword (hereinafter referred to as a related keyword) related to a word included in the voice.
  • the related keyword may include the type of target for performing the action among words included in the voice. For example, if the data for the results of voice processing includes “YouTube,” “Baby Shark,” and “Search,” “YouTube” is the application that is being executed, “Search” is the action performed through the application, “ “Baby Shark” may correspond to each object of movement performance. At this time, “kids” corresponding to the type of “Baby Shark” that is the target of the action may be included in the data regarding the result of processing the voice as a related keyword.
  • the video display device 100 can determine words included in the voice through voice recognition using natural language processing technology (NLP).
  • NLP natural language processing technology
  • the video display device 100 may determine related keywords related to words included in the voice.
  • the video display device 100 may output content through the display 180 based on data on the result of audio processing in operation S604.
  • the video display device 100 may execute an application corresponding to “YouTube” based on the data on the result of audio processing including “YouTube” corresponding to the application to be executed as an input keyword. there is.
  • the video display device 100 corresponds to “YouTube” based on the fact that “search” corresponding to the action and “Baby Shark”, the target of performing the action, are included as input keywords in the data for the result of processing the voice.
  • a screen corresponding to the results of performing a search operation for “Baby Shark” can be output through the display 180 through the application.
  • the video display device 100 executes the application corresponding to the specific word to perform a predetermined operation. can be performed. Meanwhile, the video display device 100 may perform a predetermined operation through the currently executing application when the data for the result of processing the voice does not include a specific word corresponding to the application to be executed as an input keyword.
  • the video display device 100 may add data corresponding to the voice to the database in operation S605.
  • data corresponding to a voice may include at least one of an input keyword that is the target of action performance among words included in the voice and a related keyword related to the word included in the voice, and the time when the voice input is received.
  • the storage unit 140 may store at least one database corresponding to an application. At this time, the video display device 100 may add data corresponding to the voice to the database corresponding to the application determined to correspond to the voice among the databases stored in the storage unit 140.
  • the storage unit 140 may store at least one database corresponding to an application.
  • the video display device 100 may determine an application corresponding to the voice among the databases stored in the storage unit 140. For example, if data on the result of voice processing includes a specific word corresponding to an application to be executed as an input keyword, the application corresponding to the specific word may be determined as the application corresponding to the voice. For example, if the data on the result of processing the voice does not include a specific word corresponding to the application to be executed as an input keyword, the currently executing application may be determined to be the application corresponding to the voice.
  • the image display device 100 may determine whether a predetermined input related to a specific application is received in operation S606. For example, the video display device 100 may determine whether a predetermined input of pressing a specific button provided on the remote control device 200 is received through the user input interface unit 150.
  • the video display device 100 may output a home screen 700 including objects corresponding to a plurality of applications.
  • the home screen 700 may include at least one object corresponding to an application related to an OTT service that provides content.
  • the user enters the user input unit of the remote control device 200.
  • a specific button included in 430 the video display device 100 may determine that a predetermined input related to a specific application providing a specific OTT service has been received.
  • the video display device 100 displays a predetermined number related to a specific application based on input received while a screen providing a specific OTT service is output through the display 180 according to execution of a specific application. It is possible to determine whether input is received. For example, when a screen providing a specific OTT service is output through the display 180 and the user presses a specific button included in the user input unit 430 of the remote control device 200, the video display device ( 100) may determine that a predetermined input related to a specific application providing a specific OTT service has been received.
  • the video display device 100 may determine data corresponding to the time at which the predetermined input is received in the database corresponding to the specific application, based on the reception of the predetermined input related to the specific application.
  • the image display device 100 may determine a database corresponding to a specific application among databases stored in the storage unit 140. Additionally, the image display device 100 may extract data corresponding to the point in time at which a predetermined input is received from among data included in a database corresponding to a specific application. For example, the video display device 100 includes the time corresponding to 3 PM among the data included in the database corresponding to a specific application, based on the fact that the time at which the predetermined input is received corresponds to 3 PM. data can be extracted.
  • the video display device 100 may transmit the first keyword corresponding to a specific application to the second server through the network interface unit 135 in operation S608.
  • the first server and the second server may be configured as the same server or may be configured as different servers.
  • the video display device 100 may determine the first keyword based on the frequency of the keyword included in data corresponding to the time when a predetermined input is received. For example, the video display device 100 may include the most frequent word among input keywords that are targets of operation performed included in data corresponding to the time at which a predetermined input is received as the first keyword. At this time, the video display device 100 may include words included in the database as related keywords related to the word determined to be the most frequent together in the first keyword.
  • the video display device 100 displays “Baby Shark” and “Children,” which are related keywords related to “Baby Shark.” (kids)" can be determined as the first keyword.
  • the video display device 100 may receive a second keyword associated with the first keyword from the second server in operation S609.
  • the video display device 100 sends a first message corresponding to a specific application to the second server 400 based on a predetermined input related to a specific application received while the home screen 700 is displayed. Keywords can be transmitted (810).
  • the video display device 100 may receive a second keyword associated with the first keyword from the second server 400 while the home screen 700 is displayed (820).
  • the second server 400 may include a database for at least one word that has a history of being uttered together with the input keyword that is the target of performing the operation. At this time, the second server 400 selects at least one word that has a history of being uttered together with the input keyword included in the first keyword received from the video display device 100 as the second keyword and displays the video display device 100 as the second keyword. can be transmitted to. Meanwhile, words that have a history of being uttered together with the input keyword included in the second keyword may be determined based on the frequency of being uttered together with the input keyword.
  • the second server 400 may include a database for content corresponding to a specific type.
  • the specific type may include a genre of content, a content provider, a broadcast channel, an application, etc.
  • the second server 400 displays an image using at least one word corresponding to specific content corresponding to a specific type, which is a related keyword included in the first keyword received from the video display device 100, as the second keyword. It can be transmitted to device 100. Meanwhile, words corresponding to specific content included in the second keyword may be determined based on the playback frequency of the content.
  • the video display device 100 may output a screen containing at least one recommended keyword corresponding to the second keyword through the display 180 in operation S610.
  • the video display device 100 performs the operation included in the first keyword when the second keyword received from the second server includes at least one word that has a history of being uttered together with the input keyword.
  • the words included in the input keyword and the second keyword that are the target of can be determined as one recommended keyword.
  • the video display device 100 selects the word corresponding to the specific content.
  • Each can be determined by recommended keywords.
  • the video display device 100 may output a first screen 900 including recommended keywords corresponding to the user's usage history.
  • the first screen 900 may include at least one recommended keyword 910 corresponding to the input keyword that is the target of performing the operation included in the first keyword. For example, if the input keyword that is the target of action performance included in the first keyword is “Baby Shark” and the words included in the second keyword are “Pinkfong,” “toy,” and “song,” the video display device ( 100), “Baby Shark Pinkfong”, “Baby Shark Toy”, and “Baby Shark Song” may be determined as recommended keywords, respectively.
  • the first screen 900 may include an object 920 corresponding to the user's usage history and/or an object 930 corresponding to the next screen.
  • the video display device 100 displays a screen corresponding to the user's usage history. (1000) can be output.
  • the screen 1000 corresponding to the user's usage history may include at least one indicator based on data included in the database stored in the storage unit 140.
  • the screen 1000 corresponding to the user's usage history includes an indicator 1010 indicating the frequency of the type of operation target included in the voice by time zone, and the frequency of the application executed in response to the voice input at a specific time zone. It may include an indicator 1020 indicating the frequency of a searched object through a specific application in a specific time period, and an indicator 1030 indicating the frequency of the searched object through a specific application in a specific time period.
  • the video display device 100 selects one of the recommended keywords 910. Recommended keywords selected by the user can be searched through a specific application.
  • the video display device 100 selects a recommended keyword corresponding to a specific type.
  • a second screen 1100 including the screen 1100 may be output.
  • the second screen 1100 may include at least one recommended keyword 1110 corresponding to a related keyword that is a type of target for performing an operation included in the first keyword. For example, if the specific type of related keyword included in the first keyword is “kids,” and the words included in the second keyword are “Junior,” “Pinkfong,” and “Super Jojo,” the video is displayed. The device 100 may determine “Geniver,” “Pinkfong,” and “Super JoJo” as recommended keywords, respectively.
  • the video display device 100 selects the recommended keyword selected by the user. You can search through a specific application.
  • the second screen 1100 may include an object 1120 corresponding to the previous screen and/or an object 1130 corresponding to the next screen.
  • the video display device 100 outputs the first screen 900 again. You can.
  • the video display device 100 provides recommended keywords corresponding to functions and applications.
  • the third screen 1200 may include at least one recommended keyword 1210 corresponding to an application and/or function related to a related keyword, which is the type of target for performing an operation included in the first keyword.
  • a recommended keyword 1210 corresponding to an application and/or function related to a related keyword, which is the type of target for performing an operation included in the first keyword.
  • the video display device 100 provides an OTT service (e.g., YouTube kids) related to “kids.” You can decide which application to use as a recommended keyword.
  • OTT service e.g., YouTube kids
  • the video display device 100 selects the user's selected keyword. You can run an application or function corresponding to the recommended keyword.
  • the third screen 1200 may include an object 1220 corresponding to the previous screen and/or an object 1230 corresponding to the next screen.
  • the video display device 100 outputs the second screen 1100 again. You can.
  • the video display device 100 provides recommended keywords corresponding to the specific application.
  • a fourth screen 1300 including the screen 1300 may be output.
  • the fourth screen 1300 may include at least one recommended keyword 1310 corresponding to a specific application.
  • a specific application is an application that provides a specific OTT service (eg, YouTube)
  • a search term provided by the specific OTT service eg, YouTube
  • the video display device 100 selects the recommended keyword selected by the user to a specific application. You can search through .
  • the fourth screen 1300 may include an object 1320 corresponding to the previous screen and/or an object 1330 corresponding to the next screen.
  • the video display device 100 outputs the third screen 1200 again. You can.
  • the video display device 100 provides recommended keywords corresponding to other applications.
  • a fifth screen 1400 including the screen 1400 may be output.
  • the fifth screen 1400 may include at least one recommended keyword 1410 corresponding to another application.
  • the other application is an application that provides another OTT service (e.g., Netflix)
  • the search term provided by the other OTT service e.g., Netflix
  • the search term provided by the other OTT service may be determined as a recommended keyword at the time a predetermined input is received.
  • the video display device 100 may execute the other application. Additionally, recommended keywords selected by the user can be searched through other applications.
  • the fifth screen 1400 may include an object 1420 corresponding to the previous screen and/or an object 1430 corresponding to the next screen.
  • the video display device 100 outputs the fourth screen 1300 again. You can.
  • the video display device 100 includes a guide for voice input.
  • the sixth screen 1500 can be output.
  • the sixth screen 1500 may include an example 1510 of voice input, an object 1520 corresponding to the previous screen, and/or an object 1530 corresponding to a detailed view.
  • the video display device 100 When the user selects the object 1520 corresponding to the previous screen using the pointer 205 corresponding to the remote control device 200, the video display device 100 outputs the fifth screen 1400 again. You can. Meanwhile, when the user selects the object 1530 corresponding to the detailed view using the pointer 205 corresponding to the remote control device 200, the video display device 100 outputs all examples of voice input. can do.
  • keywords for content that the user is likely to prefer can be recommended more quickly and accurately, based on the user's usage history, without worrying about personal information leakage.
  • optimized keywords can be recommended for each of a plurality of applications.
  • the operating method of the video display device of the present invention can be implemented as processor-readable code on a recording medium readable by a processor provided in the video display device.
  • Processor-readable recording media include all types of recording devices that store data that can be read by a processor. Examples of recording media that can be read by a processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices, and also include those implemented in the form of a carrier wave, such as transmission through the Internet. .
  • the processor-readable recording medium is distributed in a computer system connected to a network, so that the processor-readable code can be stored and executed in a distributed manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은, 영상표시장치 및 그의 동작방법에 관한 것이다. 본 발명의 일 실시예에 따른 영상표시장치는, 디스플레이; 적어도 하나의 서버와 통신을 수행하는 네트워크 인터페이스부; 애플리케이션에 대응하는 데이터베이스를 적어도 하나 저장하는 메모리; 및 제어부를 포함하고, 상기 제어부는, 특정 애플리케이션과 관련된 소정 입력의 수신에 기초하여, 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 상기 소정 입력이 수신된 시점에 대응하는 데이터를 적어도 하나 결정하고, 상기 결정된 적어도 하나의 데이터에 기초하여, 상기 특정 애플리케이션에 대응하는 제1 키워드를 상기 네트워크 인터페이스부를 통해 서버에 전송하고, 상기 네트워크 인터페이스부를 통해 상기 제1 키워드와 연관된 제2 키워드가 상기 서버로부터 적어도 하나 수신되는 것에 기초하여, 상기 수신된 제2 키워드에 대응하는 추천 키워드가 적어도 하나 포함된 화면을 상기 디스플레이를 통해 출력할 수 있다. 그 외에 다양한 실시예들이 가능하다.

Description

영상표시장치 및 그 동작방법
본 발명은, 영상표시장치 및 그 동작방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이며, 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 예를 들면, 영상표시장치는, 액정을 이용한 액정 디스플레이(Liquid Crystal Display; LCD)나, 유기 발광 다이오드(Organic Light Emitting Diode; 이하 OLED)를 이용한 OLED 디스플레이를 구비하는 TV(Television), 모니터(Monitor), 프로젝터(Projector) 등을 포함할 수 있다.
최근 들어, 유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있으며, 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서 제공할 수 없었던 다양한 서비스를 제공하고 있다.
종래에는 콘텐츠 제공자(Content Provider, CP)가 최신 콘텐츠나 다른 사용자들이 많이 시청한 인기 콘텐츠를 추천하거나, 사용자가 현재 시청 중인 TV 방송 콘텐츠와 관련된 웹 콘텐츠를 추천한다. 그러나 종래 방식을 통해 추천되는 콘텐츠들은 사용자의 선호와는 다소 차이가 있는 경우가 많다.
또한, 영상표시장치에 대한 사용자의 사용 이력을 외부 서버가 수집하고, 외부 서버가 수집한 사용 이력에 기초하여 사용자에게 콘텐츠나 키워드를 추천할 수도 있다. 그러나 일반적으로 개인 정보 제공에 대한 사용자의 동의가 필요하며, 사용자가 개인 정보 유출에 대한 걱정 등의 이유로 정보 제공에 동의하지 않는 경우 선호에 맞는 콘텐츠나 키워드가 전혀 추천되지 못하는 문제점도 있다.
또한, 영상표시장치가 내부적으로 사용자의 사용 이력을 수집하고, 사용 이력에 기초하여 사용자에게 콘텐츠나 키워드를 추천할 수도 있다. 그러나 콘텐츠의 출력을 위해 영상표시장치에 설치된 애플리케이션이 복수인 경우에는, 각 애플리케이션에 최적화된 콘텐츠나 키워드의 추천이 어려운 문제점도 있다.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.
또 다른 목적은, 사용자의 사용 이력에 기초하여, 개인정보 유출에 대한 걱정 없이, 사용자가 선호할 가능성이 높은 콘텐츠에 대한 키워드를 보다 빠르고 정확하게 추천할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.
또 다른 목적은, 복수의 애플리케이션 각각에 대하여 최적화된 키워드를 추천할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.
상기 목적을 달성하기 위한, 본 발명의 일 실시예에 따른 영상표시장치는, 디스플레이; 적어도 하나의 서버와 통신을 수행하는 네트워크 인터페이스부; 애플리케이션에 대응하는 데이터베이스를 적어도 하나 저장하는 메모리; 및 제어부를 포함하고, 상기 제어부는, 특정 애플리케이션과 관련된 소정 입력의 수신에 기초하여, 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 상기 소정 입력이 수신된 시점에 대응하는 데이터를 적어도 하나 결정하고, 상기 결정된 적어도 하나의 데이터에 기초하여, 상기 특정 애플리케이션에 대응하는 제1 키워드를 상기 네트워크 인터페이스부를 통해 서버에 전송하고, 상기 네트워크 인터페이스부를 통해 상기 제1 키워드와 연관된 제2 키워드가 상기 서버로부터 적어도 하나 수신되는 것에 기초하여, 상기 수신된 제2 키워드에 대응하는 추천 키워드가 적어도 하나 포함된 화면을 상기 디스플레이를 통해 출력할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 마이크를 더 포함하고, 상기 제어부는, 상기 마이크를 통한 음성의 수신에 기초하여, 상기 수신된 음성에 대응하는 애플리케이션을 결정하고, 상기 결정된 애플리케이션에 대응하는 데이터베이스에 상기 음성에 대응하는 데이터를 추가하고, 상기 음성에 대응하는 데이터는, 상기 음성에 포함된 단어에 대응하는 입력 키워드 및 상기 입력 키워드와 관련된 연관 키워드 중 적어도 하나와, 상기 음성이 수신된 시점을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 입력 키워드는, 상기 음성에 포함된 단어 중 동작 수행의 대상에 해당하는 단어를 포함하고, 상기 연관 키워드는, 상기 대상의 타입을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제어부는, 상기 음성에 애플리케이션에 대응하는 특정 단어가 포함된 경우, 상기 특정 단어에 대응하는 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하고, 상기 음성에 애플리케이션에 대응하는 특정 단어가 포함되지 않은 경우, 상기 음성이 수신된 시점에 실행 중인 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제어부는, 상기 소정 입력이 수신된 시점에 대응하는 상기 적어도 하나의 데이터에 포함된 키워드의 빈도에 기초하여, 상기 제1 키워드를 결정할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제1 키워드는, 검색 대상에 대응하는 제1 단어를 포함하고, 상기 제2 키워드는, 상기 제1 단어와 연관된 제2 단어를 적어도 하나 포함하고, 상기 제어부는, 상기 제1 단어 및 상기 제2 단어를 하나의 상기 추천 키워드로 결정할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제1 키워드는, 콘텐츠의 특정 타입을 포함하고, 상기 제2 키워드는, 상기 특정 타입에 해당하는 특정 콘텐츠에 대응하는 단어를 적어도 하나 포함하고, 상기 제어부는, 상기 특정 콘텐츠에 대응하는 단어를 상기 추천 키워드로 결정할 수 있다.
한편, 본 발명의 일 실시예에 따른 영상표시장치의 동작방법은, 특정 애플리케이션과 관련된 소정 입력의 수신에 기초하여, 메모리에 저장된 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 상기 소정 입력이 수신된 시점에 대응하는 데이터를 적어도 하나 결정하는 동작; 상기 결정된 적어도 하나의 데이터에 기초하여, 상기 특정 애플리케이션에 대응하는 제1 키워드를 서버에 전송하는 동작; 및 상기 제1 키워드와 연관된 제2 키워드가 상기 서버로부터 적어도 하나 수신되는 것에 기초하여, 디스플레이를 통해 상기 수신된 제2 키워드에 대응하는 추천 키워드가 적어도 하나 포함된 화면을 출력하는 동작을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 마이크를 통한 음성의 수신에 기초하여, 상기 수신된 음성에 대응하는 애플리케이션을 결정하는 동작; 및 상기 결정된 애플리케이션에 대응하는 데이터베이스에 상기 음성에 대응하는 데이터를 추가하는 동작을 더 포함하고, 상기 음성에 대응하는 데이터는, 상기 음성에 포함된 단어에 대응하는 입력 키워드 및 상기 입력 키워드와 관련된 연관 키워드 중 적어도 하나와, 상기 음성이 수신된 시점을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 입력 키워드는, 상기 음성에 포함된 단어 중 동작 수행의 대상에 해당하는 단어를 포함하고, 상기 연관 키워드는, 상기 대상의 타입을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 음성에 애플리케이션에 대응하는 특정 단어가 포함된 경우, 상기 특정 단어에 대응하는 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하는 동작; 및 상기 음성에 애플리케이션에 대응하는 특정 단어가 포함되지 않은 경우, 상기 음성이 수신된 시점에 실행 중인 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하는 동작을 더 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제1 키워드를 서버에 전송하는 동작은, 상기 소정 입력이 수신된 시점에 대응하는 상기 적어도 하나의 데이터에 포함된 키워드의 빈도에 기초하여, 상기 제1 키워드를 결정하는 동작을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제1 키워드는, 검색 대상에 대응하는 제1 단어를 포함하고, 상기 제2 키워드는, 상기 제1 단어와 연관된 제2 단어를 적어도 하나 포함하고, 상기 화면을 출력하는 동작은, 상기 제1 단어 및 상기 제2 단어를 하나의 상기 추천 키워드로 결정하는 동작을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 상기 제1 키워드는, 콘텐츠의 특정 타입을 포함하고, 상기 제2 키워드는, 상기 특정 타입에 해당하는 특정 콘텐츠에 대응하는 단어를 적어도 하나 포함하고, 상기 화면을 출력하는 동작은, 상기 특정 콘텐츠에 대응하는 단어를 상기 추천 키워드로 결정하는 동작을 포함할 수 있다.
본 발명에 따른 영상표시장치 및 그 동작방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 다양한 실시예에 따르면, 사용자의 사용 이력에 기초하여, 개인정보 유출에 대한 걱정 없이, 사용자가 선호할 가능성이 높은 콘텐츠에 대한 키워드를 보다 빠르고 정확하게 추천할 수 있다.
또한, 본 발명의 다양한 실시예에 따르면, 복수의 애플리케이션 각각에 대하여 최적화된 키워드를 추천할 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은, 본 발명의 일 실시예에 따른, 영상표시 시스템을 도시한 도면이다.
도 2는, 도 1의 영상표시장치의 내부 블록도이다.
도 3은, 도 2의 제어부의 내부 블록도이다.
도 4는, 도 2의 원격제어장치의 제어 방법을 도시한 도면이다.
도 5는, 도 2의 원격제어장치의 내부 블록도이다.
도 6a 및 6b는, 본 발명의 일 실시예에 따른 영상표시장치의 동작방법에 대한 순서도이다.
도 7 내지 15는, 영상표시장치의 동작방법의 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다. 도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것들의 존재, 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 명세서에서, 다양한 요소들을 설명하기 위해 제1, 제2 등의 용어가 이용될 수 있으나, 이러한 요소들은 이러한 용어들에 의해 제한되지 아니한다. 이러한 용어들은 한 요소를 다른 요소로부터 구별하기 위해서만 이용된다.
도 1은, 본 발명의 다양한 실시예에 따른, 영상 표시 시스템을 도시한 도면이다.
도 1을 참조하면, 영상 표시 시스템(10)은, 영상표시장치(100) 및/또는 원격제어장치(200)를 포함할 수 있다.
영상표시장치(100)는, 영상을 처리하여 출력하는 장치일 수 있다. 영상표시장치(100)는, TV, 노트북 컴퓨터(notebook computer), 모니터 등 영상신호에 대응하는 화면을 출력할 수 있는 것이라면 특별히 한정하지 않는다.
영상표시장치(100)는, 방송 신호를 수신하여 이를 신호 처리하고, 신호 처리된 방송 영상을 출력할 수 있다. 영상표시장치(100)가 방송 신호를 수신하는 경우, 영상표시장치(100)가 방송 수신 장치에 해당할 수 있다.
영상표시장치(100)는, 안테나를 통해 무선으로 방송 신호를 수신할 수도 있고, 케이블(cable)을 통해 유선으로 방송 신호를 수신할 수도 있다. 예를 들면, 영상표시장치(100)는, 지상파 방송 신호, 위성 방송 신호, 케이블 방송 신호, IPTV(Internet Protocol Television) 방송 신호 등을 수신할 수 있다.
원격제어장치(200)는, 영상표시장치(100)와 유선 및/또는 무선으로 연결되어, 영상표시장치(100)로 각종 제어신호를 제공할 수 있다. 이때, 원격제어장치(200)는 영상표시장치(100)와 유선 또는 무선 네트워크를 수립하여, 수립된 네트워크를 통해, 각종 제어신호를 영상표시장치(100)로 전송하거나, 영상표시장치(100)로부터 영상표시장치(100)에서 처리되는 각종 동작과 관련된 신호를 수신하는 장치를 포함할 수 있다.
예컨대, 원격제어장치(200)로는 마우스, 키보드, 공간 리모콘, 트랙볼, 조이스틱 등의 다양한 입력 장치가 이용될 수 있다. 원격제어장치(200)는 외부 디바이스로 명명될 수 있으며, 이하에서는 필요에 따라 외부 디바이스와 원격제어장치가 혼용되어 사용될 수 있음을 미리 밝혀 둔다.
영상표시장치(100)는 단일의 원격제어장치(200)만 연결되거나, 둘 이상의 원격제어장치(200)와 동시에 연결되어, 각 원격제어장치(200)로부터 제공되는 제어신호를 기초로, 화면에 표시되는 오브젝트를 변경하거나, 화면의 상태를 조절할 수 있다.
한편, 영상 표시 시스템(10)은, 적어도 하나의 서버(400)를 더 포함할 수 있다. 영상표시장치(100)는, 서버(400)와 상호 간에 데이터를 송수신할 수 있다. 예를 들면, 영상표시장치(100)는, 인터넷과 같은 네트워크를 경유하여, 서버(400)와 데이터를 송수신할 수 있다.
영상표시장치(100)는, 사용자 입력에 따라 수행한 동작과 관련된 데이터를 서버(400)로 전송할 수 있고, 서버(400)는 영상표시장치(100)로부터 수신된 데이터를 저장할 수 있다.
도 2는, 도 1의 영상표시장치의 내부 블록도이다.
도 2를 참조하면, 영상표시장치(100)는, 방송 수신부(105), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 입력부(160), 제어부(170), 디스플레이(180), 오디오 출력부(185) 및/또는 전원 공급부(190)를 포함할 수 있다.
방송 수신부(105)는, 튜너부(110) 및 복조부(120)를 포함할 수 있다.
한편, 영상표시장치(100)는, 도면과 달리, 방송 수신부(105), 외부장치 인터페이스부(130) 및 네트워크 인터페이스부(135) 중, 방송 수신부(105)와, 외부장치 인터페이스부(130)만을 포함하는 것도 가능하다. 즉, 영상표시장치(100)는, 네트워크 인터페이스부(135)를 포함하지 않을 수도 있다.
튜너부(110)는, 안테나(미도시) 또는 케이블(미도시)를 통해 수신되는 방송 신호 중 사용자에 의해 선택된 채널 또는 기 저장된 모든 채널에 해당하는 방송 신호를 선택할 수 있다. 튜너부(110)는, 선택된 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환할 수 있다.
예를 들면, 튜너부(110)는, 선택된 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환할 수 있다. 즉, 튜너부(110)는, 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는, 제어부(170)로 직접 입력될 수 있다.
한편, 튜너부(110)는, 수신되는 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 방송 신호를 순차적으로 선택하여, 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.
복조부(120)는, 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행할 수 있다.
복조부(120)는, 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는, 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)를 통해 영상을 출력하고, 오디오 출력부(185)를 통해 음성을 출력할 수 있다.
외부장치 인터페이스부(130)는, 접속된 외부 장치와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), 셋톱 박스 등과 같은 외부 장치와 유/무선으로 접속될 수 있으며, 외부 장치와 입력/출력 동작을 수행할 수도 있다.
또한, 외부장치 인터페이스부(130)는, 도 1에 도시된 것과 같은 다양한 원격제어장치(200)와 통신 네트워크를 수립하여, 원격제어장치(200)로부터 영상표시장치(100)의 동작과 관련된 제어신호를 수신하거나, 영상표시장치(100)의 동작과 관련된 데이터를 원격제어장치(200)로 전송할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 입력받을 수 있다. 예를 들면, A/V 입출력부는, 이더넷(Ethernet) 단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, MHL (Mobile High-definition Link) 단자, RGB 단자, D-SUB 단자, IEEE 1394 단자, SPDIF 단자, 리퀴드(Liquid) HD 단자 등을 포함할 수 있다. 이러한 단자들을 통해 입력되는 디지털 신호는 제어부(170)에 전달될 수 있다. 이때, CVBS 단자 및 S-비디오 단자를 통해 입력되는 아날로그 신호는 아날로그-디지털 변환부(미도시)를 통해 디지털 신호로 변환되어 제어부(170)로 전달될 수 있다.
외부장치 인터페이스부(130)는, 다른 전자기기와의 근거리 무선 통신을 위한, 무선 통신부(미도시)를 포함할 수 있다. 이러한 무선 통신부를 통해, 외부장치 인터페이스부(130)는, 인접하는 이동 단말기와 데이터를 교환할 수 있다. 예를 들면, 외부장치 인터페이스부(130)는, 미러링 모드에서, 이동 단말기로부터 디바이스 정보, 실행되는 애플리케이션 정보, 애플리케이션 이미지 등을 수신할 수 있다.
외부장치 인터페이스부(130)는, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), 지그비(ZigBee) 등을 이용하여 근거리 무선 통신을 수행할 수 있다.
네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다.
네트워크 인터페이스부(135)는, 유/무선 네트워크와의 연결을 위한 통신 모듈(미도시)를 포함할 수 있다. 예를 들면, 네트워크 인터페이스부(135)는, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등을 위한 통신 모듈을 포함할 수 있다.
네트워크 인터페이스부(135)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
네트워크 인터페이스부(135)는, 콘텐츠 제공자 또는 네트워크 운영자가 제공하는 웹 콘텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(135)는, 네트워크를 통하여 콘텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 등의 콘텐츠 및 그와 관련된 정보를 수신할 수 있다.
네트워크 인터페이스부(135)는, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있고, 인터넷 또는 콘텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(135)는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. 예를 들면, 저장부(140)는 제어부(170)에 의해 처리 가능한 다양한 작업들을 수행하기 위한 목적으로 설계된 응용 프로그램들을 저장하고, 제어부(170)의 요청 시, 저장된 응용 프로그램들 중 일부를 선택적으로 제공할 수 있다.
저장부(140)에 저장되는 프로그램 등은, 제어부(170)에 의해 실행될 수 있는 것이라면 특별히 한정하지 않는다.
저장부(140)는, 외부장치 인터페이스부(130)를 통해 외부장치로부터 수신되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다.
저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여, 소정 방송 채널에 관한 정보를 저장할 수 있다.
도 2의 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않으며, 제어부(170) 내에 저장부(140)가 포함될 수도 있다.
저장부(140)는, 휘발성 메모리(예: DRAM, SRAM, SDRAM 등)나, 비휘발성 메모리(예: 플래시 메모리(Flash memory), 하드 디스크 드라이브(Hard disk drive; HDD), 솔리드 스테이트 드라이브(Solid-state drive; SSD) 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시예에 있어서, 저장부(140)와 메모리는 서로 혼용되어 사용될 수도 있다.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다.
예를 들면, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 송신/수신하거나, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 사용자의 제스처를 센싱하는 센서부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센서부로 송신할 수 있다.
입력부(160)는, 영상표시장치(100)의 본체의 일측에 구비될 수 있다. 예를 들면, 입력부(160)는, 터치 패드, 물리적 버튼 등을 포함할 수 있다.
입력부(160)는, 영상표시장치(100)의 동작과 관련된 각종 사용자 명령을 수신할 수 있고, 입력된 명령에 대응하는 제어 신호를 제어부(170)에 전달할 수 있다.
입력부(160)는, 적어도 하나의 마이크(미도시)를 포함할 수 있고, 마이크를 통해 사용자의 음성을 수신할 수 있다.
제어부(170)는, 적어도 하나의 프로세서를 포함할 수 있고, 이에 포함된 프로세서를 이용하여, 영상표시장치(100)의 동작 전반을 제어할 수 있다. 여기서, 프로세서는 CPU(central processing unit)과 같은 일반적인 프로세서일 수 있다. 물론, 프로세서는 ASIC과 같은 전용 장치(dedicated device)이거나 다른 하드웨어 기반의 프로세서일 수 있다.
제어부(170)는, 튜너부(110), 복조부(120), 외부장치 인터페이스부(130), 또는 네트워크 인터페이스부(135)를 통하여 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)로부터 수신되는 영상신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성할 수 있다.
디스플레이(180)는, 복수의 픽셀을 구비하는 디스플레이 패널(미도시)를 포함할 수 있다.
디스플레이 패널에 구비된 복수의 픽셀은, RGB의 서브 픽셀을 구비할 수 있다. 또는, 디스플레이 패널에 구비된 복수의 픽셀은, RGBW의 서브 픽셀을 구비할 수도 있다. 디스플레이(180)는, 제어부(170)에서 처리된 영상신호, 데이터 신호, OSD 신호, 제어 신호 등을 변환하여, 복수의 픽셀에 대한 구동 신호를 생성할 수 있다.
디스플레이(180)는 PDP(Plasma Display Panel), LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 플렉서블 디스플레이(flexible display)등이 가능하며, 또한, 3차원 디스플레이(3D display)가 가능할 수도 있다. 3차원 디스플레이(180)는, 무안경 방식과 안경 방식으로 구분될 수 있다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다.
제어부(170)에서 영상 처리된 영상신호는, 디스플레이(180)로 입력되어, 해당 영상신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상신호는, 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수도 있다.
제어부(170)에서 처리된 음성 신호는, 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는, 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다.
도 2에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 3을 참조하여 후술한다.
그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들면, 제어부(170)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기 저장된 채널에 해당하는 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 내에, 소정 2D 오브젝트가 표시되도록 할 수 있다. 예를 들면, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다.
한편, 영상표시장치(100)는, 촬영부(미도시)를 더 포함할 수도 있다. 촬영부는, 사용자를 촬영할 수 있다. 촬영부는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부는 디스플레이(180) 상부에 영상표시장치(100)에 매립되거나 또는 별도로 배치될 수 있다. 촬영부에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다.
제어부(170)는, 촬영부로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식할 수 있다. 예를 들면, 제어부(170)는, 사용자와 영상표시장치(100) 간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 제어부(170)는, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.
제어부(170)는, 촬영부로부터 촬영된 영상, 또는 센서부로부터의 감지된 신호 각각 또는 그 조합에 기초하여 사용자의 제스처를 감지할 수 있다.
전원 공급부(190)는, 영상표시장치(100) 전반에 걸쳐 해당 전원을 공급할 수 있다. 특히, 시스템 온 칩(System On Chip; SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이(180), 및 오디오 출력을 위한 오디오 출력부(185) 등에 전원을 공급할 수 있다.
구체적으로, 전원 공급부(190)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)와, 직류 전원의 레벨을 변환하는 Dc/Dc 컨버터(미도시)를 구비할 수 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 전송할 수 있다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(Infrared Radiation) 통신, UWB(Ultra-wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 상술한 영상표시장치(100)는, 고정형 또는 이동형 디지털 방송 수신 가능한 디지털 방송 수신기일 수 있다.
한편, 도 2에 도시된 영상표시장치(100)의 블록도는 본 발명의 일 실시예를 위한 블록도일 뿐, 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 3은, 도 2의 제어부의 내부 블록도이다.
도 3을 참조하면, 본 발명의 일 실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), 프로세서(330), OSD 생성부(340), 믹서(345), 프레임 레이트 변환부(350), 및/또는 포맷터(360)를 포함할 수 있다. 그 외 오디오 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.
역다중화부(310)는, 입력되는 스트림을 역다중화할 수 있다. 예를 들면, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.
영상 처리부(320)는, 역다중화된 영상신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(325), 및 스케일러(335)를 구비할 수 있다.
영상 디코더(325)는, 역다중화된 영상신호를 복호화할 수 있고, 스케일러(335)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행할 수 있다.
영상 디코더(325)는 다양한 규격의 디코더를 구비할 수 있다. 예를 들면, MPEG-2, H,264 디코더, 색차 영상(color image) 및 깊이 영상(depth image)에 대한 3D 영상 디코더, 복수 시점 영상에 대한 디코더 등을 구비할 수 있다.
프로세서(330)는, 영상표시장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 방송을 선택(tuning)하도록 제어할 수 있다.
또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)와의 데이터 전송 제어를 수행할 수 있다.
또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320), OSD 생성부(340) 등의 동작을 제어할 수 있다.
OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성할 수 있다. 예를 들면, 입력부(160)를 통해 입력된 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(graphic)이나 텍스트(text)로 표시하기 위한 신호를 생성할 수 있다.
생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다.
또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이(180)에 표시 가능한, 포인터를 생성할 수 있다.
OSD 생성부(340)는, 포인터를 생성하는 포인팅 신호 처리부(미도시)를 포함할 수 있다. 포인팅 신호 처리부(미도시)가 OSD 생성부(240) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.
믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 복호화된 영상신호를 믹싱(mixing)할 수 있다. 믹싱된 영상신호는 프레임 레이트 변환부(350)에 제공될 수 있다.
프레임 레이트 변환부(Frame Rate Conveter, FRC)(350)는, 입력되는 영상의 프레임 레이트를 변환할 수 있다. 한편, 프레임 레이트 변환부(350)는, 별도의 프레임 레이트 변환 없이, 그대로 출력하는 것도 가능하다.
포맷터(Formatter)(360)는, 프레임 레이트 변환된 3D 영상의 좌안 영상 프레임과 우안 영상 프레임을 배열할 수 있다. 그리고, 3D 시청 장치(미도시)의 좌안 글래스와 우안 글래스의 개방을 위한 동기 신호(Vsync)를 출력할 수 있다.
한편, 포맷터(360)는, 입력되는 영상신호의 포맷을, 디스플레이(180)에 표시하기 위한 영상신호로 변화시켜 출력할 수 있다.
또한, 포맷터(360)는, 3D 영상신호의 포맷을 변경할 수 있다. 예를 들어, 사이드 바이 사이드(Side by Side) 포맷, 탑 다운(Top/Down) 포맷, 프레임 시퀀셜(Frame Sequential) 포맷, 인터레이스 (Interlaced) 포맷, 체커 박스(Checker Box) 포맷 등의 다양한 3D 포맷 중 어느 하나의 포맷으로 변경할 수 있다.
한편, 포맷터(360)는, 2D 영상신호를 3D 영상신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상신호는, 상술한 바와 같이, 좌안 영상신호(L)와 우안 영상신호(R)로 분리되어 정렬될 수 있다.
한편, 도면에서는 도시하지 않았지만, 포맷터(360) 이후에, 3D 효과(3-dimensional effect) 신호 처리를 위한 3D 프로세서(미도시)가 더 배치되는 것도 가능하다. 이러한 3D 프로세서는, 3D 효과의 개선을 위해, 영상신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 프로세서의 기능은, 포맷터(360)에 병합되거나 영상처리부(320) 내에 병합될 수 있다.
한편, 제어부(170) 내의 오디오 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(미도시)는 다양한 디코더를 구비할 수 있다.
또한, 제어부(170) 내의 오디오 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들면, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 전자 프로그램 가이드 정보(Electronic Program Guide) 정보일 수 있다.
한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일 실시예를 위한 블록도일 뿐, 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
특히, 프레임 레이트 변환부(350), 및 포맷터(360)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비되거나, 하나의 모듈로서 별도로 구비될 수도 있다.
도 4는, 도 2의 원격제어장치의 제어 방법을 도시한 도면이다.
도 4를 참조하면, 영상표시장치(100)의 디스플레이(180)에, 원격제어장치(200)에 대응하는 포인터(205)가 표시되는 것을 확인할 수 있다.
도 4의 (a)를 참조하면, 사용자는 원격제어장치(200)를 상하, 좌우, 앞뒤로 움직이거나 회전시킬 수 있다. 이때, 영상표시장치(100)의 디스플레이(180)에 표시된 포인터(205)는, 원격제어장치(200)의 움직임에 대응하여 표시될 수 있다. 이러한 원격제어장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘 또는 3D 포인팅 장치라 명명할 수 있다.
도 4의 (b)를 참조하면, 사용자가 원격제어장치(200)를 왼쪽으로 이동시키는 경우, 영상표시장치(100)의 디스플레이(180)에 표시된 포인터(205)도 원격제어장치(200)의 움직임에 대응하여 왼쪽으로 이동하는 것을 확인할 수 있다.
원격제어장치(200)의 센서를 통하여 감지된 원격제어장치(200)의 움직임에 관한 정보는 영상표시장치(100)로 전송될 수 있다. 영상표시장치(100)는 원격제어장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 영상표시장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)를 참조하면, 원격제어장치(200)에 구비된 특정 버튼을 누른 상태에서, 사용자가 원격제어장치(200)를 디스플레이(180)에서 멀어지도록 이동시킬 수 있다. 이에 의해, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌-인(zoom-in)되어 확대 표시될 수 있다. 이와 반대로, 원격제어장치(200)에 구비된 특정 버튼을 누른 상태에서, 사용자가 원격제어장치(200)를 디스플레이(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌-아웃(zoom-out)되어 축소 표시될 수 있다.
한편, 원격제어장치(200)가 디스플레이(180)에서 멀어지는 경우, 선택 영역이 줌-아웃되고, 원격제어장치(200)가 디스플레이(180)에 가까워지는 경우, 선택 영역이 줌-인될 수도 있다.
한편, 사용자가 원격제어장치(200) 내의 특정 버튼을 누른 상태에서는 상하 및 좌우 이동의 인식이 배제될 수 있다. 즉, 원격제어장치(200)가 디스플레이(180)에서 멀어지거나 접근하도록 이동하는 경우, 상,하,좌,우 이동은 인식되지 않고, 앞뒤 이동만 인식될 수 있다. 사용자가 원격제어장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격제어장치(200)의 상,하,좌,우 이동만 인식할 수 있고, 이에 따라 포인터(205)만 이동할 수 있다.
한편, 포인터(205)의 이동속도나 이동방향은 원격제어장치(200)의 이동속도나 이동방향에 대응할 수 있다.
도 5는, 도 2의 원격제어장치의 내부 블록도이다.
도 5를 참조하면, 원격제어장치(200)는, 무선통신부(420), 사용자 입력부(430), 센서부(440), 출력부(450), 전원공급부(460), 저장부(470), 및/또는 제어부(480)를 포함할 수 있다.
무선통신부(420)는, 영상표시장치(100)와 상호 간에 신호를 송수신할 수 있다.
본 실시예에서, 원격제어장치(200)는 RF(Radio frequency) 통신규격에 따라 영상표시장치(100)와 신호를 송수신할 수 있는 RF 모듈(421)을 구비할 수 있다. 또한 원격제어장치(200)는 IR(Infrared radiation) 통신규격에 따라 영상표시장치(100)와 신호를 송수신할 수 있는 IR 모듈(423)을 구비할 수 있다.
원격제어장치(200)는, 영상표시장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보를 포함하는 신호를 RF 모듈(421)을 통해 전송할 수 있다. 원격제어장치(200)는, 영상표시장치(100)가 전송한 신호를 RF 모듈(421)을 통하여 수신할 수 있다.
원격제어장치(200)는, IR 모듈(423)을 통해, 영상표시장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(430)는, 키패드, 버튼, 터치 패드, 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(430)를 조작하여 원격제어장치(200)로 영상표시장치(100)와 관련된 명령을 입력할 수 있다.
사용자 입력부(430)가 하드키 버튼을 구비하는 경우, 사용자는 하드키 버튼의 푸쉬(push) 동작을 통하여 원격제어장치(200)로 영상표시장치(100)와 관련된 명령을 입력할 수 있다.
사용자 입력부(430)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 영상표시장치(100)와 관련된 명령을 입력할 수 있다.
한편, 사용자 입력부(430)는 스크롤 키나, 조그 키, 마이크 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수도 있으며 본 실시예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(440)는, 자이로 센서(441) 또는 가속도 센서(443)를 구비할 수 있다. 자이로 센서(441)는, 원격제어장치(200)의 움직임을 센싱할 수 있다.
자이로 센서(441)는, 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있다. 가속도 센서(443)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 센서부(440)는, 디스플레이(180)와의 거리를 센싱할 수 있는 거리측정센서를 더 구비할 수 있다.
출력부(450)는, 사용자 입력부(430)의 조작에 대응하거나 영상표시장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(450)를 통하여 사용자는 사용자 입력부(430)의 조작 여부 또는 영상표시장치(100)의 제어 여부를 인지할 수 있다.
출력부(450)는 사용자 입력부(430)가 조작되거나 무선 통신부(420)을 통하여 영상표시장치(100)와 신호가 송수신되면 점등되는 LED 모듈(451), 진동을 발생하는 진동 모듈(453), 음향을 출력하는 음향 출력 모듈(455), 및/또는 영상을 출력하는 디스플레이 모듈(457)을 구비할 수 있다.
전원공급부(460)는, 원격제어장치(200)의 구비된 각 구성에 전원을 공급할 수 있다. 전원공급부(460)는, 원격제어장치(200)가 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단하여, 전원 낭비를 줄일 수 있다. 전원공급부(460)는, 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(470)는, 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.
원격제어장치(200)가 영상표시장치(100)와 RF 모듈(421)을 통하여 무선으로 신호를 송수신하는 경우, 원격제어장치(200)와 영상표시장치(100)는 소정 주파수 대역을 통하여 신호를 송수신할 수 있다. 원격제어장치(200)의 제어부(480)는, 원격제어장치(200)와 페어링된 영상표시장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(470)에 저장하고 참조할 수 있다.
제어부(480)는, 적어도 하나의 프로세서를 포함할 수 있고, 이에 포함된 프로세서를 이용하여, 원격제어장치(200)의 동작 전반을 제어할 수 있다.
제어부(480)는, 사용자 입력부(430)의 소정 키 조작에 대응하는 신호 또는 센서부(440)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를, 무선 통신부(420)를 통해 영상표시장치(100)로 전송할 수 있다.
영상표시장치(100)의 사용자 입력 인터페이스부(150)는, 원격제어장치(200)와 무선으로 신호를 송수신할 수 있는 무선통신부(151)와, 원격제어장치(200)의 동작에 대응하는 포인터의 좌표값을 산출할 수 있는 좌표값 산출부(415)를 구비할 수 있다.
사용자 입력 인터페이스부(150)는, RF 모듈(412)을 통하여 원격제어장치(200)와 무선으로 신호를 송수신할 수 있다. 또한 IR 모듈(413)을 통하여 원격제어장치(200)이 IR 통신 규격에 따라 전송한 신호를 수신할 수 있다.
좌표값 산출부(415)는 무선통신부(151)를 통하여 수신된 원격제어장치(200)의 동작에 대응하는 신호로부터, 손떨림이나 오차를 수정하여 디스플레이(170)에 표시할 포인터(205)의 좌표값(x,y)을 산출할 수 있다.
사용자 입력 인터페이스부(150)를 통하여 영상표시장치(100)로 입력된 원격제어장치(200) 전송 신호는, 영상표시장치(100)의 제어부(180)로 전달될 수 있다. 영상표시장치(100)의 제어부(180)는 원격제어장치(200)에서 전송한 신호로부터 원격제어장치(200)의 동작 및 키 조작에 관한 정보를 판별하고, 그에 대응하여 영상표시장치(100)를 제어할 수 있다.
또 다른 예로, 원격제어장치(200)는, 그 동작에 대응하는 포인터 좌표값을 산출하여 영상표시장치(100)의 사용자 입력 인터페이스부(150)로 출력할 수 있다. 이 경우, 영상표시장치(100)의 사용자 입력 인터페이스부(150)는 별도의 손떨림이나 오차 보정 과정 없이 수신된 포인터 좌표값에 관한 정보를 제어부(180)로 전송할 수 있다.
또한, 다른 예로, 좌표값 산출부(415)가, 도면과 달리 사용자 입력 인터페이스부(150)가 아닌, 제어부(170) 내부에 구비되는 것도 가능하다.
도 6a 및 6b는, 본 발명의 일 실시예에 따른 영상표시장치의 동작방법에 대한 순서도이고, 도 7 내지 도 15는, 영상표시장치의 동작방법의 설명에 참조되는 도면이다.
도 6a을 참조하면, 영상표시장치(100)는, S601 동작에서, 음성 입력이 수신되는지 여부를 판단할 수 있다. 예를 들어, 영상표시장치(100)는, 입력부(160)에 포함된 마이크를 통해 음성 입력이 수신할 수 있다. 예를 들어, 영상표시장치(100)는, 사용자입력 인터페이스부(150)를 통해 원격제어장치(200)로부터 음성 입력에 대응하는 신호를 수신할 수 있다.
영상표시장치(100)는, S602 동작에서, 음성 입력의 수신에 기초하여, 음성 입력에 대응하는 데이터를 네트워크 인터페이스부(135)를 통해 제1 서버에 전송할 수 있다. 예를 들어, 영상표시장치(100)는, 음성 입력에 대응하는 오디오 데이터를 제1 서버에 전송할 수 있다. 여기서, 제1 서버는, 처리 기술(natural language processing, NLP)을 이용하는 음성인식을 수행하여 음성에 포함된 단어를 추출하는 서버일 수 있다. 일 실시예에 따르면, 제1 서버는, 복수의 서버로 구성될 수도 있다. 예를 들어, 제1 서버는, 음성 입력에 대응하는 오디오 데이터를 텍스트로 변환하는 STT(Speech-to-Text) 서버와, 변환된 텍스트에 기초하여 키워드를 결정하는 키워드 서버로 구성될 수 있다. 이때, 영상표시장치(100)는, 오디오 데이터에 대응하는 텍스트 데이터를 STT 서버로부터 수신한 후, 텍스트 데이터를 키워드 서버에 전송할 수도 있다.
영상표시장치(100)는, S603 동작에서, 음성을 처리한 결과에 대한 데이터를 네트워크 인터페이스부(135)를 통해 외부 서버로부터 수신할 수 있다. 여기서, 음성을 처리한 결과에 대한 데이터는, 음성에 포함된 단어에 대응하는 키워드(이하, 입력 키워드)를 적어도 하나 포함할 수 있다. 예를 들어, 수신된 음성 입력이 "유튜브에서 아기상어 검색해줘"인 경우, 음성을 처리한 결과에 대한 데이터에는 "유튜브", "아기상어", "검색"이 각각 입력 키워드로 포함될 수 있다.
일 실시예에 따르면, 음성을 처리한 결과에 대한 데이터는, 음성에 포함된 단어와 관련된 키워드(이하, 연관 키워드)를 적어도 하나 포함할 수 있다. 연관 키워드는, 음성에 포함된 단어 중 동작 수행의 대상의 타입을 포함할 수 있다. 예를 들어, 음성을 처리한 결과에 대한 데이터에 "유튜브", "아기상어", "검색"이 포함된 경우, "유튜브"는 실행 대상인 애플리케이션, "검색"은 애플리케이션을 통해 수행하는 동작, "아기상어"는 동작 수행의 대상에 각각 해당할 수 있다. 이때, 동작 수행의 대상인 "아기상어"의 타입에 해당하는 "어린이(kids)"가 연관 키워드로 음성을 처리한 결과에 대한 데이터에 포함될 수 있다.
한편, 본 개시에서는, 제1 서버로부터 음성을 처리한 결과에 대한 데이터를 수신하는 것으로 설명하나, 이에 제한되지 않는다. 예를 들어, 영상표시장치(100)는, 자연어 처리 기술(NLP)을 이용하는 음성인식을 통해 음성에 포함된 단어를 판단할 수 있다. 예를 들어, 영상표시장치(100)는, 음성에 포함된 단어와 관련된 연관 키워드를 결정할 수 있다.
영상표시장치(100)는, S604 동작에서, 음성을 처리한 결과에 대한 데이터에 기초하여, 디스플레이(180)를 통해 콘텐츠를 출력할 수 있다. 예를 들어, 영상표시장치(100)는, 음성을 처리한 결과에 대한 데이터에 실행 대상인 애플리케이션에 해당하는 "유튜브"가 입력 키워드로 포함된 것에 기초하여, "유튜브"에 대응하는 애플리케이션을 실행할 수 있다. 또한, 영상표시장치(100)는, 음성을 처리한 결과에 대한 데이터에 동작에 해당하는 "검색"과 동작 수행의 대상인 "아기상어"가 입력 키워드로 포함된 것에 기초하여, "유튜브"에 대응하는 애플리케이션을 통해 "아기상어"에 대한 검색 동작을 수행한 결과에 대응하는 화면을 디스플레이(180)를 통해 출력할 수 있다.
일 실시예에 따르면, 영상표시장치(100)는, 음성을 처리한 결과에 대한 데이터에 실행 대상인 애플리케이션에 대응하는 특정 단어가 입력 키워드로 포함된 경우, 특정 단어에 대응하는 애플리케이션을 실행하여 소정 동작을 수행할 수 있다. 한편, 영상표시장치(100)는, 음성을 처리한 결과에 대한 데이터에 실행 대상인 애플리케이션에 대응하는 특정 단어가 입력 키워드로 포함되지 않은 경우, 현재 실행 중인 애플리케이션을 통해 소정 동작을 수행할 수 있다.
영상표시장치(100)는, S605 동작에서, 음성에 대응하는 데이터를 데이터베이스에 추가할 수 있다. 예를 들어, 음성에 대응하는 데이터는, 음성에 포함된 단어 중 동작 수행의 대상인 입력 키워드 및 음성에 포함된 단어와 관련된 연관 키워드 중 적어도 하나와, 음성 입력이 수신된 시점을 포함할 수 있다. 예를 들어, 저장부(140)는 애플리케이션에 대응하는 데이터베이스를 적어도 하나 저장할 수 있다. 이때, 영상표시장치(100)는, 저장부(140)에 저장된 데이터베이스 중 음성에 대응하는 것으로 결정된 애플리케이션에 대응하는 데이터베이스에 음성에 대응하는 데이터를 추가할 수 있다.
일 실시예에 따르면, 저장부(140)는 애플리케이션에 대응하는 데이터베이스를 적어도 하나 저장할 수 있다. 이때, 영상표시장치(100)는, 저장부(140)에 저장된 데이터베이스 중 음성에 대응하는 애플리케이션을 결정할 수 있다. 예를 들어, 음성을 처리한 결과에 대한 데이터에 실행 대상인 애플리케이션에 대응하는 특정 단어가 입력 키워드로 포함된 경우, 특정 단어에 대응하는 애플리케이션이 음성에 대응하는 애플리케이션으로 결정될 수 있다. 예를 들어, 음성을 처리한 결과에 대한 데이터에 실행 대상인 애플리케이션에 대응하는 특정 단어가 입력 키워드로 포함되지 않은 경우, 현재 실행 중인 애플리케이션이 음성에 대응하는 애플리케이션으로 결정될 수 있다.
도 6b를 참조하면, 영상표시장치(100)는, S606 동작에서, 특정 애플리케이션과 관련된 소정 입력이 수신되는지 여부를 판단할 수 있다. 예를 들어, 영상표시장치(100)는, 원격제어장치(200)에 구비된 특정 버튼을 누르는 소정 입력이 사용자입력 인터페이스부(150)를 통해 수신되는지 여부를 판단할 수 있다.
도 7을 참조하면, 영상표시장치(100)는 복수의 애플리케이션에 대응하는 오브젝트가 포함된 홈 화면(700)을 출력할 수 있다. 예를 들어, 홈 화면(700)은, 콘텐츠를 제공하는 OTT 서비스와 관련된 애플리케이션에 대응하는 오브젝트를 적어도 하나 포함할 수 있다.
원격제어장치(200)에 대응하는 포인터(205)가 특정 OTT 서비스(예: YouTube)를 제공하는 특정 애플리케이션에 대응하는 오브젝트(710)에 표시된 상태에서, 사용자가 원격제어장치(200)의 사용자 입력부(430)에 포함된 특정 버튼을 누르는 경우, 영상표시장치(100)는 특정 OTT 서비스를 제공하는 특정 애플리케이션과 관련된 소정 입력이 수신된 것으로 판단할 수 있다.
일 실시예에 따르면, 영상표시장치(100)는, 특정 애플리케이션의 실행에 따라 특정 OTT 서비스를 제공하는 화면이 디스플레이(180)를 통해 출력된 상태에서 수신되는 입력에 기초하여, 특정 애플리케이션과 관련된 소정 입력의 수신 여부를 판단할 수 있다. 예를 들어, 특정 OTT 서비스를 제공하는 화면이 디스플레이(180)를 통해 출력되는 상태에서, 사용자가 원격제어장치(200)의 사용자 입력부(430)에 포함된 특정 버튼을 누르는 경우, 영상표시장치(100)는 특정 OTT 서비스를 제공하는 특정 애플리케이션과 관련된 소정 입력이 수신된 것으로 판단할 수도 있다.
영상표시장치(100)는, S607동작에서, 특정 애플리케이션과 관련된 소정 입력의 수신에 기초하여, 특정 애플리케이션에 대응하는 데이터베이스에서, 소정 입력이 수신된 시점에 대응하는 데이터를 결정할 수 있다.
영상표시장치(100)는, 저장부(140)에 저장된 데이터베이스 중 특정 애플리케이션에 대응하는 데이터베이스를 결정할 수 있다. 또한, 영상표시장치(100)는, 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 소정 입력이 수신된 시점에 대응하는 데이터를 추출할 수 있다. 예를 들어, 영상표시장치(100)는, 소정 입력이 수신된 시점이 오후 3시에 대응하는 것에 기초하여, 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 오후 3시에 대응하는 시점을 포함하는 데이터를 추출할 수 있다.
영상표시장치(100)는, S608 동작에서, 특정 애플리케이션에 대응하는 제1 키워드를 네트워크 인터페이스부(135)를 통해 제2 서버에 전송할 수 있다. 여기서, 제1 서버 및 제2 서버는 동일한 하나의 서버로 구성될 수도 있고, 서로 상이한 서버로 구성될 수도 있다.
일 실시예에 따르면, 영상표시장치(100)는, 소정 입력이 수신된 시점에 대응하는 데이터에 포함된 키워드의 빈도에 기초하여, 제1 키워드를 결정할 수 있다. 예를 들어, 영상표시장치(100)는, 소정 입력이 수신된 시점에 대응하는 데이터에 포함된 동작 수행의 대상인 입력 키워드 중, 가장 빈도가 높은 단어를 제1 키워드에 포함시킬 수 있다. 이때, 영상표시장치(100)는, 가장 빈도가 높은 것으로 판단된 단어와 관련된 연관 키워드로 데이터베이스에 포함된 단어를 제1 키워드에 함께 포함시킬 수도 있다. 예를 들어, 데이터에 포함된 동작 수행의 대상인 입력 키워드 중 "아기상어"의 빈도가 가장 높은 경우, 영상표시장치(100)는, "아기상어" 및 "아기상어"와 관련된 연관 키워드인 "어린이(kids)"를 제1 키워드로 결정할 수 있다.
영상표시장치(100)는, S609 동작에서, 제2 서버로부터 제1 키워드와 연관된 제2 키워드를 수신할 수 있다.
도 8을 참조하면, 영상표시장치(100)는, 홈 화면(700)이 출력된 상태에서 수신된 특정 애플리케이션과 관련된 소정 입력에 기초하여, 제2 서버(400)에 특정 애플리케이션에 대응하는 제1 키워드를 전송할 수 있다(810). 영상표시장치(100)는, 홈 화면(700)이 출력된 상태에서 제2 서버(400)로부터 제1 키워드와 연관된 제2 키워드를 수신할 수 있다(820).
예를 들어, 제2 서버(400)는, 동작 수행의 대상인 입력 키워드와 함께 발화된 이력이 있는 적어도 하나의 단어에 대한 데이터베이스를 포함할 수 있다. 이때, 제2 서버(400)는, 영상표시장치(100)로부터 수신되는 제1 키워드에 포함된 입력 키워드와 함께 발화된 이력이 있는 적어도 하나의 단어를, 제2 키워드로 영상표시장치(100)에 전송할 수 있다. 한편, 제2 키워드에 포함되는 입력 키워드와 함께 발화된 이력이 있는 단어는, 입력 키워드와 함께 발화된 빈도에 기초하여 결정될 수 있다.
예를 들어, 제2 서버(400)는, 특정 타입에 해당하는 콘텐츠에 대한 데이터베이스를 포함할 수 있다. 여기서, 특정 타입은, 콘텐츠의 장르, 콘텐츠 제공자, 방송 채널, 애플리케이션 등을 포함할 수 있다. 이때, 제2 서버(400)는, 영상표시장치(100)로부터 수신되는 제1 키워드에 포함된 연관 키워드인 특정 타입에 해당하는 특정 콘텐츠에 대응하는 적어도 하나의 단어를, 제2 키워드로 영상표시장치(100)에 전송할 수 있다. 한편, 제2 키워드에 포함되는 특정 콘텐츠에 대응하는 단어는, 콘텐츠의 재생 빈도에 기초하여 결정될 수 있다.
영상표시장치(100)는, S610 동작에서, 제2 키워드에 대응하는 추천 키워드가 적어도 하나 포함된 화면을 디스플레이(180)를 통해 출력할 수 있다.
일 실시예에 따르면, 영상표시장치(100)는, 제2 서버로부터 수신된 제2 키워드에 입력 키워드와 함께 발화된 이력이 있는 적어도 하나의 단어가 포함된 경우, 제1 키워드에 포함된 동작 수행의 대상인 입력 키워드와 제2 키워드에 포함된 단어를, 하나의 추천 키워드로 결정할 수 있다.
일 실시예에 따르면, 영상표시장치(100)는, 제2 서버로부터 수신된 제2 키워드에 특정 타입에 해당하는 특정 콘텐츠에 대응하는 적어도 하나의 단어가 포함된 경우, 특정 콘텐츠에 대응하는 단어를 각각 추천 키워드로 결정할 수 있다.
도 9 및 도 10을 참조하면, 영상표시장치(100)는, 사용자의 사용 이력에 대응하는 추천 키워드를 포함하는 제1 화면(900)을 출력할 수 있다. 제1 화면(900)은, 제1 키워드에 포함된 동작 수행의 대상인 입력 키워드에 대응하는 추천 키워드(910)를 적어도 하나 포함할 수 있다. 예를 들어, 제1 키워드에 포함된 동작 수행의 대상인 입력 키워드가 "아기상어"이고, 제2 키워드에 포함된 단어가 "핑크퐁", "장난감" 및 "노래"인 경우, 영상표시장치(100)는, "아기상어 핑크퐁", "아기상어 장난감" 및 "아기상어 노래"를 각각 추천 키워드로 결정할 수 있다.
제1 화면(900)은, 사용자의 사용 이력에 대응하는 오브젝트(920) 및/또는 다음 화면에 대응하는 오브젝트(930)를 포함할 수 있다. 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 사용자의 사용 이력에 대응하는 오브젝트(920)를 선택하는 경우, 영상표시장치(100)는, 사용자의 사용 이력에 대응하는 화면(1000)을 출력할 수 있다.
사용자의 사용 이력에 대응하는 화면(1000)은, 저장부(140)에 저장된 데이터베이스에 포함된 데이터에 기초한 적어도 하나의 인디케이터를 포함할 수 있다. 사용자의 사용 이력에 대응하는 화면(1000)은, 음성에 포함된 동작 수행의 대상의 타입에 대한 시간대별 빈도를 나타내는 인디케이터(1010), 특정 시간대에서 음성 입력에 대응하여 실행된 애플리케이션에 대한 빈도를 나타내는 인디케이터(1020), 특정 시간대에서 특정 애플리케이션을 통해 검색한 대상에 대한 빈도를 나타내는 인디케이터(1030) 등을 포함할 수 있다. 이를 통해, 사용자는, 특정 시간대에서 음성 입력을 통해 빈번하게 실행한 애플리케이션을 확인할 수 있다. 또한, 사용자는, 특정 시간대에서 특정 애플리케이션과 관련하여 빈번하게 검색한 키워드를 확인할 수 있다.
사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 입력 키워드에 대응하는 추천 키워드(910) 중 어느 하나를 선택하는 경우, 영상표시장치(100)는, 추천 키워드(910) 중 사용자가 선택한 추천 키워드를 특정 애플리케이션을 통해 검색할 수 있다.
한편, 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 다음 화면에 대응하는 오브젝트(930)를 선택하는 경우, 영상표시장치(100)는, 특정 타입에 대응하는 추천 키워드를 포함하는 제2 화면(1100)을 출력할 수 있다.
도 11을 참조하면, 제2 화면(1100)은, 제1 키워드에 포함된 동작 수행의 대상의 타입인 연관 키워드에 대응하는 추천 키워드(1110)를 적어도 하나 포함할 수 있다. 예를 들어, 제1 키워드에 포함된 연관 키워드인 특정 타입이 "어린이(kids)"이고, 제2 키워드에 포함된 단어가 "쥬니버", "핑크퐁" 및 "슈퍼 조조"인 경우, 영상표시장치(100)는, "쥬니버", "핑크퐁" 및 "슈퍼 조조"을 각각 추천 키워드로 결정할 수 있다.
사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 연관 키워드에 대응하는 추천 키워드(1110) 중 어느 하나를 선택하는 경우, 영상표시장치(100)는, 사용자가 선택한 추천 키워드를 특정 애플리케이션을 통해 검색할 수 있다.
제2 화면(1100)은, 이전 화면에 대응하는 오브젝트(1120) 및/또는 다음 화면에 대응하는 오브젝트(1130)를 포함할 수 있다. 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 이전 화면에 대응하는 오브젝트(1120)를 선택하는 경우, 영상표시장치(100)는, 제1 화면(900)을 다시 출력할 수 있다. 한편, 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 다음 화면에 대응하는 오브젝트(1130)를 선택하는 경우, 영상표시장치(100)는, 기능 및 애플리케이션에 대응하는 추천 키워드를 포함하는 제3 화면(1200)을 출력할 수 있다.
도 12를 참조하면, 제3 화면(1200)은, 제1 키워드에 포함된 동작 수행의 대상의 타입인 연관 키워드와 관련된 애플리케이션 및/또는 기능에 대응하는 추천 키워드(1210)를 적어도 하나 포함할 수 있다. 예를 들어, 제1 키워드에 포함된 연관 키워드인 특정 타입이 "어린이(kids)"인 경우, 영상표시장치(100)는 "어린이(kids)"와 관련된 OTT 서비스(예: YouTube Kids)를 제공하는 애플리케이션을 추천 키워드로 결정할 수 있다.
사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 애플리케이션 및/또는 기능에 대응하는 추천 키워드(1210) 중 어느 하나를 선택하는 경우, 영상표시장치(100)는, 사용자가 선택한 추천 키워드에 대응하는 애플리케이션 또는 기능을 실행할 수 있다.
제3 화면(1200)은, 이전 화면에 대응하는 오브젝트(1220) 및/또는 다음 화면에 대응하는 오브젝트(1230)를 포함할 수 있다. 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 이전 화면에 대응하는 오브젝트(1220)를 선택하는 경우, 영상표시장치(100)는, 제2 화면(1100)을 다시 출력할 수 있다. 한편, 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 다음 화면에 대응하는 오브젝트(1230)를 선택하는 경우, 영상표시장치(100)는, 특정 애플리케이션에 대응하는 추천 키워드를 포함하는 제4 화면(1300)을 출력할 수 있다.
도 13을 참조하면, 제4 화면(1300)은, 특정 애플리케이션에 대응하는 추천 키워드(1310)를 적어도 하나 포함할 수 있다. 예를 들어, 특정 애플리케이션이 특정 OTT 서비스(예: YouTube)를 제공하는 애플리케이션인 경우, 소정 입력이 수신된 시점에서 특정 OTT 서비스(예: YouTube)가 제공하는 검색어를 추천 키워드로 결정할 수 있다.
사용자가 원격제어장치(200)에 대응하는 포인터(205)를 특정 애플리케이션에 대응하는 추천 키워드(1310) 중 어느 하나를 선택하는 경우, 영상표시장치(100)는, 사용자가 선택한 추천 키워드를 특정 애플리케이션을 통해 검색할 수 있다.
제4 화면(1300)은, 이전 화면에 대응하는 오브젝트(1320) 및/또는 다음 화면에 대응하는 오브젝트(1330)를 포함할 수 있다. 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 이전 화면에 대응하는 오브젝트(1320)를 선택하는 경우, 영상표시장치(100)는, 제3 화면(1200)을 다시 출력할 수 있다. 한편, 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 다음 화면에 대응하는 오브젝트(1330)를 선택하는 경우, 영상표시장치(100)는, 타 애플리케이션에 대응하는 추천 키워드를 포함하는 제5 화면(1400)을 출력할 수 있다.
도 14를 참조하면, 제5 화면(1400)은, 타 애플리케이션에 대응하는 추천 키워드(1410)를 적어도 하나 포함할 수 있다. 예를 들어, 타 애플리케이션이 타 OTT 서비스(예: Netflix)를 제공하는 애플리케이션인 경우, 소정 입력이 수신된 시점에서 타 OTT 서비스(예: Netflix)가 제공하는 검색어를 추천 키워드로 결정할 수 있다.
사용자가 원격제어장치(200)에 대응하는 포인터(205)를 타 애플리케이션에 대응하는 추천 키워드(1410) 중 어느 하나를 선택하는 경우, 영상표시장치(100)는, 타 애플리케이션을 실행할 수 있다. 또한, 사용자가 선택한 추천 키워드를 타 애플리케이션을 통해 검색할 수 있다.
제5 화면(1400)은, 이전 화면에 대응하는 오브젝트(1420) 및/또는 다음 화면에 대응하는 오브젝트(1430)를 포함할 수 있다. 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 이전 화면에 대응하는 오브젝트(1420)를 선택하는 경우, 영상표시장치(100)는, 제4 화면(1300)을 다시 출력할 수 있다. 한편, 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 다음 화면에 대응하는 오브젝트(1430)를 선택하는 경우, 영상표시장치(100)는, 음성 입력에 대한 가이드를 포함하는 제6 화면(1500)을 출력할 수 있다.
도 15를 참조하면, 제6 화면(1500)은, 음성 입력에 대한 예시(1510), 이전 화면에 대응하는 오브젝트(1520) 및/또는 상세보기에 대응하는 오브젝트(1530)를 포함할 수 있다.
사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 이전 화면에 대응하는 오브젝트(1520)를 선택하는 경우, 영상표시장치(100)는, 제5 화면(1400)을 다시 출력할 수 있다. 한편, 사용자가 원격제어장치(200)에 대응하는 포인터(205)를 이용하여 상세보기에 대응하는 오브젝트(1530)를 선택하는 경우, 영상표시장치(100)는, 음성 입력에 대한 전체 예시를 출력할 수 있다.
상기와 같이, 본 발명의 다양한 실시예에 따르면, 사용자의 사용 이력에 기초하여, 개인정보 유출에 대한 걱정 없이, 사용자가 선호할 가능성이 높은 콘텐츠에 대한 키워드를 보다 빠르고 정확하게 추천할 수 있다.
또한, 본 발명의 다양한 실시예에 따르면, 복수의 애플리케이션 각각에 대하여 최적화된 키워드를 추천할 수 있다.
첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.

Claims (14)

  1. 디스플레이;
    적어도 하나의 서버와 통신을 수행하는 네트워크 인터페이스부;
    애플리케이션에 대응하는 데이터베이스를 적어도 하나 저장하는 메모리; 및
    제어부를 포함하고,
    상기 제어부는,
    특정 애플리케이션과 관련된 소정 입력의 수신에 기초하여, 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 상기 소정 입력이 수신된 시점에 대응하는 데이터를 적어도 하나 결정하고,
    상기 결정된 적어도 하나의 데이터에 기초하여, 상기 특정 애플리케이션에 대응하는 제1 키워드를 상기 네트워크 인터페이스부를 통해 서버에 전송하고,
    상기 네트워크 인터페이스부를 통해 상기 제1 키워드와 연관된 제2 키워드가 상기 서버로부터 적어도 하나 수신되는 것에 기초하여, 상기 수신된 제2 키워드에 대응하는 추천 키워드가 적어도 하나 포함된 화면을 상기 디스플레이를 통해 출력하는 것을 특징으로 하는 영상표시장치.
  2. 제1항에 있어서,
    마이크를 더 포함하고,
    상기 제어부는,
    상기 마이크를 통한 음성의 수신에 기초하여, 상기 수신된 음성에 대응하는 애플리케이션을 결정하고,
    상기 결정된 애플리케이션에 대응하는 데이터베이스에 상기 음성에 대응하는 데이터를 추가하고,
    상기 음성에 대응하는 데이터는, 상기 음성에 포함된 단어에 대응하는 입력 키워드 및 상기 입력 키워드와 관련된 연관 키워드 중 적어도 하나와, 상기 음성이 수신된 시점을 포함하는 것을 특징으로 하는 영상표시장치.
  3. 제2항에 있어서,
    상기 입력 키워드는, 상기 음성에 포함된 단어 중 동작 수행의 대상에 해당하는 단어를 포함하고,
    상기 연관 키워드는, 상기 대상의 타입을 포함하는 것을 특징으로 하는 영상표시장치.
  4. 제2항에 있어서,
    상기 제어부는,
    상기 음성에 애플리케이션에 대응하는 특정 단어가 포함된 경우, 상기 특정 단어에 대응하는 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하고,
    상기 음성에 애플리케이션에 대응하는 특정 단어가 포함되지 않은 경우, 상기 음성이 수신된 시점에 실행 중인 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하는 것을 특징으로 하는 영상표시장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 소정 입력이 수신된 시점에 대응하는 상기 적어도 하나의 데이터에 포함된 키워드의 빈도에 기초하여, 상기 제1 키워드를 결정하는 것을 특징으로 하는 영상표시장치.
  6. 제1항에 있어서,
    상기 제1 키워드는, 검색 대상에 대응하는 제1 단어를 포함하고,
    상기 제2 키워드는, 상기 제1 단어와 연관된 제2 단어를 적어도 하나 포함하고,
    상기 제어부는,
    상기 제1 단어 및 상기 제2 단어를 하나의 상기 추천 키워드로 결정하는 것을 특징으로 하는 영상표시장치.
  7. 제1항에 있어서,
    상기 제1 키워드는, 콘텐츠의 특정 타입을 포함하고,
    상기 제2 키워드는, 상기 특정 타입에 해당하는 특정 콘텐츠에 대응하는 단어를 적어도 하나 포함하고,
    상기 제어부는,
    상기 특정 콘텐츠에 대응하는 단어를 상기 추천 키워드로 결정하는 것을 특징으로 하는 영상표시장치.
  8. 영상표시장치의 동작방법에 있어서,
    특정 애플리케이션과 관련된 소정 입력의 수신에 기초하여, 메모리에 저장된 특정 애플리케이션에 대응하는 데이터베이스에 포함된 데이터 중, 상기 소정 입력이 수신된 시점에 대응하는 데이터를 적어도 하나 결정하는 동작;
    상기 결정된 적어도 하나의 데이터에 기초하여, 상기 특정 애플리케이션에 대응하는 제1 키워드를 서버에 전송하는 동작; 및
    상기 제1 키워드와 연관된 제2 키워드가 상기 서버로부터 적어도 하나 수신되는 것에 기초하여, 디스플레이를 통해 상기 수신된 제2 키워드에 대응하는 추천 키워드가 적어도 하나 포함된 화면을 출력하는 동작을 포함하는 영상표시장치의 동작방법.
  9. 제8항에 있어서,
    마이크를 통한 음성의 수신에 기초하여, 상기 수신된 음성에 대응하는 애플리케이션을 결정하는 동작; 및
    상기 결정된 애플리케이션에 대응하는 데이터베이스에 상기 음성에 대응하는 데이터를 추가하는 동작을 더 포함하고,
    상기 음성에 대응하는 데이터는, 상기 음성에 포함된 단어에 대응하는 입력 키워드 및 상기 입력 키워드와 관련된 연관 키워드 중 적어도 하나와, 상기 음성이 수신된 시점을 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  10. 제9항에 있어서,
    상기 입력 키워드는, 상기 음성에 포함된 단어 중 동작 수행의 대상에 해당하는 단어를 포함하고,
    상기 연관 키워드는, 상기 대상의 타입을 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  11. 제9항에 있어서,
    상기 음성에 애플리케이션에 대응하는 특정 단어가 포함된 경우, 상기 특정 단어에 대응하는 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하는 동작; 및
    상기 음성에 애플리케이션에 대응하는 특정 단어가 포함되지 않은 경우, 상기 음성이 수신된 시점에 실행 중인 애플리케이션을 상기 음성에 대응하는 애플리케이션으로 결정하는 동작을 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  12. 제8항에 있어서,
    상기 제1 키워드를 서버에 전송하는 동작은, 상기 소정 입력이 수신된 시점에 대응하는 상기 적어도 하나의 데이터에 포함된 키워드의 빈도에 기초하여, 상기 제1 키워드를 결정하는 동작을 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  13. 제8항에 있어서,
    상기 제1 키워드는, 검색 대상에 대응하는 제1 단어를 포함하고,
    상기 제2 키워드는, 상기 제1 단어와 연관된 제2 단어를 적어도 하나 포함하고,
    상기 화면을 출력하는 동작은, 상기 제1 단어 및 상기 제2 단어를 하나의 상기 추천 키워드로 결정하는 동작을 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
  14. 제8항에 있어서,
    상기 제1 키워드는, 콘텐츠의 특정 타입을 포함하고,
    상기 제2 키워드는, 상기 특정 타입에 해당하는 특정 콘텐츠에 대응하는 단어를 적어도 하나 포함하고,
    상기 화면을 출력하는 동작은, 상기 특정 콘텐츠에 대응하는 단어를 상기 추천 키워드로 결정하는 동작을 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
PCT/KR2022/005489 2022-04-15 2022-04-15 영상표시장치 및 그 동작방법 WO2023200033A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/005489 WO2023200033A1 (ko) 2022-04-15 2022-04-15 영상표시장치 및 그 동작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/005489 WO2023200033A1 (ko) 2022-04-15 2022-04-15 영상표시장치 및 그 동작방법

Publications (1)

Publication Number Publication Date
WO2023200033A1 true WO2023200033A1 (ko) 2023-10-19

Family

ID=88329686

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/005489 WO2023200033A1 (ko) 2022-04-15 2022-04-15 영상표시장치 및 그 동작방법

Country Status (1)

Country Link
WO (1) WO2023200033A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130125064A (ko) * 2012-05-08 2013-11-18 김경서 키워드 음성 인식을 통해 관련 어플리케이션을 실행시키는 음성 통화 처리 방법 및 이를 실행하는 모바일 단말
KR20160006464A (ko) * 2014-07-09 2016-01-19 삼성전자주식회사 멀티-레벨 음성 인식 방법 및 장치
KR20190070145A (ko) * 2017-12-12 2019-06-20 삼성전자주식회사 전자 장치 및 그의 제어방법
KR20210093019A (ko) * 2020-01-17 2021-07-27 주식회사 카카오 추천 알림을 제공하는 방법 및 장치
KR20220043534A (ko) * 2020-09-29 2022-04-05 삼성전자주식회사 컨텐츠 추천 서비스를 제공하는 전자 장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130125064A (ko) * 2012-05-08 2013-11-18 김경서 키워드 음성 인식을 통해 관련 어플리케이션을 실행시키는 음성 통화 처리 방법 및 이를 실행하는 모바일 단말
KR20160006464A (ko) * 2014-07-09 2016-01-19 삼성전자주식회사 멀티-레벨 음성 인식 방법 및 장치
KR20190070145A (ko) * 2017-12-12 2019-06-20 삼성전자주식회사 전자 장치 및 그의 제어방법
KR20210093019A (ko) * 2020-01-17 2021-07-27 주식회사 카카오 추천 알림을 제공하는 방법 및 장치
KR20220043534A (ko) * 2020-09-29 2022-04-05 삼성전자주식회사 컨텐츠 추천 서비스를 제공하는 전자 장치 및 그 방법

Similar Documents

Publication Publication Date Title
WO2013103224A1 (en) Image display apparatus and method for operating the same
WO2011074794A2 (en) Image display apparatus and method for operating the image display apparatus
WO2014046411A1 (en) Image display apparatus, server and method for operating the same
WO2014010871A1 (en) Image display apparatus and menu display method
WO2019035657A1 (en) IMAGE DISPLAY APPARATUS
WO2021033796A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2012102592A9 (ko) 영상 표시 장치 및 그 동작방법
WO2011028073A2 (en) Image display apparatus and operation method therefore
WO2013151368A1 (ko) 매직 리모컨용 디지털 방송 수신기 및 이의 제어 방법
WO2011021854A2 (en) Image display apparatus and method for operating an image display apparatus
WO2011059220A2 (en) Image display apparatus and operation method therefor
WO2014208854A1 (ko) 영상표시기기
WO2020235698A1 (ko) 유기 발광 다이오드 표시 장치
EP3433850A1 (en) Image display apparatus
WO2023200033A1 (ko) 영상표시장치 및 그 동작방법
WO2013058543A2 (ko) 원격제어장치
WO2021010529A1 (ko) 디스플레이 장치
WO2021029469A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2024143615A1 (ko) 영상표시장치 및 그 동작방법
WO2024143616A1 (ko) 영상표시장치 및 그 동작방법
WO2021261612A1 (ko) 영상표시장치 및 그 동작방법
WO2020130233A1 (ko) 유기 발광 다이오드 표시 장치
WO2023042927A1 (ko) 영상표시장치 및 그 동작방법
WO2021221213A1 (ko) 영상표시장치 및 그 동작방법
WO2023249131A1 (ko) 영상표시장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22937546

Country of ref document: EP

Kind code of ref document: A1