WO2015046650A1 - 영상표시장치 및 영상표시장치 동작 방법 - Google Patents

영상표시장치 및 영상표시장치 동작 방법 Download PDF

Info

Publication number
WO2015046650A1
WO2015046650A1 PCT/KR2013/008707 KR2013008707W WO2015046650A1 WO 2015046650 A1 WO2015046650 A1 WO 2015046650A1 KR 2013008707 W KR2013008707 W KR 2013008707W WO 2015046650 A1 WO2015046650 A1 WO 2015046650A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
signal
information
biosignal
image display
Prior art date
Application number
PCT/KR2013/008707
Other languages
English (en)
French (fr)
Inventor
최지호
김정도
김현희
장세훈
박시화
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2013/008707 priority Critical patent/WO2015046650A1/ko
Publication of WO2015046650A1 publication Critical patent/WO2015046650A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver

Definitions

  • the present invention relates to an image display apparatus capable of determining a user's state by using a user's biosignal and a method of operating the same.
  • the video display device includes both a device for receiving and displaying a broadcast, recording and playing a video, and a device for recording and playing audio.
  • Such an image display apparatus may be, for example, a television, a computer monitor, a projector, a tablet, a navigation device, a digital television receiver, or the like.
  • a video display device is diversified, a multimedia player having a complex function such as taking a picture or video, playing a game or receiving a broadcast, in addition to a broadcast, a music or a video file playback function, etc. It is implemented in the form.
  • image display devices have been implemented as smart devices (eg, smart televisions). Accordingly, the image display device may operate in conjunction with a mobile terminal or a computer as well as executing the Internet.
  • the image display device receives a digital broadcast and takes charge of a server function in a home network environment or a ubiquitous environment.
  • an external input device separate from the image display apparatus for example, a spatial remote controller
  • the user may move the cursor or the pointer displayed on the image display device by using the spatial remote controller.
  • the image display apparatus has been developed to recognize a voice input to a main body and execute a corresponding function.
  • an object of the present invention is to provide an image display apparatus and an operation method capable of automatically switching the operation mode according to the user's sleep state.
  • One object of the present invention is to provide an image display apparatus and an operation method capable of providing contents suitable for a psychological state of a user even without direct control by a user.
  • an image display apparatus for displaying at least one content;
  • An audio output unit for outputting an audio signal;
  • An interface unit configured to receive biosignal information related to a biosignal of a user from an external input device having a biosignal detection sensor; When the bio-signal information is received, the first determination is made whether the user is in a sleep state, and when the user determines that the user is in a sleep state or the bio-signal information is not received, driving the camera to detect the movement of the user.
  • a second control unit determining whether the user is in a sleep state, wherein the control unit is further configured to determine whether the user is in a sleep state, when the user determines that the user is in a sleep state, at least one of the volume of the audio output unit and the illuminance of the display unit. It is characterized by controlling the level of.
  • the control unit may reduce the level of at least one of the volume of the audio output unit and the illuminance of the display unit when it is determined that the user is in the sleep state.
  • the controller gradually decreases at least one level of the volume and the illuminance with time.
  • the controller may be configured to turn off the power of the image display apparatus when it is determined that the user is in a sleep state, when at least one of the volume and the illumination is reduced to a predetermined level or less. It is characterized by.
  • the controller if it is determined that the user is in a sleep state, the controller turns on the image display device at a preset alarm time, and at least one of the volume and illuminance is preset. And control the audio output unit and the display unit to be set to a level.
  • control unit if it is determined that the user is in the sleep state as a result of the second determination, characterized in that for recording the currently displayed content.
  • the bio-signal is at least one of the user's pulse, respiratory rate or the body temperature of the user sensed for a predetermined time, the control unit, at least one of the bio-signals included in the bio-signal information When the number decreases below a predetermined value, it is determined that the user is in a sleeping state.
  • the controller decreases at least one level of the volume and the illuminance based on whether a specific user based on a preset priority is in a sleep state. .
  • the apparatus may further include a camera for detecting the movement of the user, and the controller may detect the movement of the user through the camera even when it is determined that the user is not in the sleep state. And performing the second judgment.
  • the controller detects the movement of the user at a predetermined time interval, and when the detected degree of movement of the user is less than or equal to a preset level, or when the number of times the movement of a predetermined level or more is detected is less than a preset number of times. And determine that the user is in a sleep state.
  • the controller detects a separation distance between the external input device and the image display device, and if the detected separation distance is within a reference range, the controller uses the biosignal information according to a preset control mode. Selectively determining whether the user is in a sleep state by performing only the difference judgment or the first judgment and the second judgment using the motion detection information of the user, and if the detected separation distance exceeds a reference range And only performing the second determination using the motion detection information of the user.
  • the controller determines whether the user is in a sleep state by using the biosignal information and the user's motion detection result. When there is no external input device within a predetermined distance from the user, it is determined whether the user is in the sleep state by using only the motion detection result of the user.
  • the controller determines the mental state of the user from the biosignal information and determines the content currently output on the display unit. And store the content information corresponding to the mental state of the user.
  • the controller determines a psychological state of the user from the biosignal information and corresponds to the determined psychological state of the user. Characterized in that the control to output a message asking whether or not.
  • the content provided in response to the output message corresponds to any one of at least one of the previously stored content information among contents previously stored in a memory or contents stored in an external server or a broadcasting station server. It features.
  • the controller may determine the mental state of the user differently based on at least one of the biosignals included in the biosignal information.
  • the remote controller for transmitting the user's input signal to the image display device includes a bio-signal detection sensor for detecting a bio-signal from the user located within a predetermined distance; Based on the detected biosignal, a first determination is made whether the user is in a sleep state, and if the user is in a sleep state or the biosignal is not detected as a result of the first determination, a camera provided in the image display apparatus
  • the controller may be configured to transmit a control signal to the video display device to reduce the level of at least one of the audio output volume and the display illuminance of the video display device according to the second determination result using the user's motion information.
  • control unit when the user is in the sleep state as a result of the first determination, gradually increases the time interval for detecting the bio-signals, and when the time interval is more than a predetermined time the bio-signal detection sensor It characterized in that the off.
  • the controller determines a psychological state of the user based on the biosignal, and provides information on content corresponding to the psychological state of the user. It characterized in that for transmitting to the image display device.
  • the remote controller A mobile communication terminal or a wearable device.
  • an image display apparatus and a method of operating the same may determine whether the user is in a sleep state through a bio signal or a movement of the user, and switch the operation mode accordingly, thereby allowing the user to sleep more comfortably. To be taken.
  • an image display apparatus and a method of operating the same may determine a user's psychological state by using a user's biosignal, and allow content to be recommended accordingly, thereby allowing the user to fit his / her mental state. Allow content to be provided.
  • FIG. 1 is a block diagram illustrating an image display device and an external input device according to the present invention.
  • FIG. 2 is a detailed block diagram illustrating the external input device of FIG. 1.
  • FIG. 3 is a conceptual diagram illustrating an operation of an image display device and an external input device according to the present invention.
  • FIG. 4 is a flowchart illustrating a method of operating an image display apparatus according to an exemplary embodiment.
  • FIG. 5 is a conceptual diagram illustrating a method of operating an image display apparatus of FIG. 4.
  • FIG. 6 is a conceptual view illustrating an operation method of an image display apparatus according to an exemplary embodiment of the present invention when a separation distance between a user and an external input device exceeds a predetermined distance.
  • FIG. 7 is a conceptual diagram illustrating an operation mode that may be set together when the image display apparatus is switched to the sleep mode according to an embodiment of the present disclosure.
  • FIG. 8 is a conceptual diagram illustrating an example of an operation of a sleep mode in an image display device according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a method of providing content suitable for a mental state of a user in an image display device according to an exemplary embodiment.
  • FIG. 10 is a conceptual diagram illustrating a content providing method of FIG. 9.
  • FIG. 11 is a conceptual diagram illustrating a method of providing content suitable for a mental state of a user through an image display device or an external input device according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an example in which content corresponding to a mental state of a user is provided in an image display apparatus according to an exemplary embodiment of the present invention.
  • FIG. 13 is an exemplary diagram illustrating an implementation example of a remote controller according to an embodiment of the present invention.
  • an image display apparatus includes both an apparatus for receiving and displaying a broadcast, recording and reproducing a moving image, and an apparatus for recording and reproducing audio.
  • the video display device 100 includes a tuner 110, a demodulator 120, a signal input / output unit 130, an interface unit 140, a controller 150, a storage unit 160, a display unit 170, and an audio. It includes an output unit 180.
  • the external input device 200 may be a separate device from the image display apparatus 100 or may be included as one component of the image display apparatus 100.
  • the tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user from a radio frequency (RF) broadcast signal received through an antenna, and converts the RF broadcast signal into an intermediate frequency signal or a baseband image. Convert to voice signal. For example, if the RF broadcast signal is a digital broadcast signal, the tuner 110 converts the RF broadcast signal into a digital IF signal (DIF). On the other hand, if the RF broadcast signal is an analog broadcast signal, the tuner 110 converts the RF broadcast signal into an analog baseband video / audio signal (CVBS / SIF). As such, the tuner 110 may be a hybrid tuner capable of processing digital broadcast signals and analog broadcast signals.
  • RF radio frequency
  • the digital IF signal DIF output from the tuner 110 is input to the demodulator 120, and the analog baseband video / audio signal CVBS / SIF output from the tuner 110 is input to the controller 160. Can be.
  • the tuner 110 may receive an RF broadcast signal of a single carrier according to an Advanced Television Systems Committee (ATSC) scheme or an RF broadcast signal of multiple carriers according to a digital video broadcasting (DVB) scheme.
  • ATSC Advanced Television Systems Committee
  • DVD digital video broadcasting
  • the present invention is not limited thereto, and the image display apparatus 100 may include a plurality of tuners, for example, first and second tuners.
  • the first tuner may receive a first RF broadcast signal corresponding to a broadcast channel selected by a user
  • the second tuner may sequentially or periodically receive a second RF broadcast signal corresponding to a previously stored broadcast channel.
  • the second tuner may convert the RF broadcast signal into a digital IF signal (DIF) or an analog baseband video / audio signal (CVBS / SIF) in the same manner as the first tuner.
  • DIF digital IF signal
  • CVBS / SIF analog baseband video / audio signal
  • the demodulator 120 receives the converted digital IF signal DIF from the tuner 110 and performs a demodulation operation.
  • the demodulator 120 performs 8-VSB (8-Vestigal Side Band) demodulation.
  • 8-VSB (8-Vestigal Side Band) demodulation is a demodulation by the residual sideband modulation of single carrier amplitude modulation using the National Television System Committee (NTSC) frequency band.
  • the demodulator 120 may perform channel decoding such as trellis decoding, de-interleaving, Reed Solomon decoding, and the like.
  • the demodulator 120 may include a trellis decoder, a de-interleaver, a reed solomon decoder, and the like.
  • the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation.
  • the demodulator 120 may perform channel decoding such as convolutional decoding, deinterleaving, and Reed Solomon decoding.
  • the demodulator 120 may include a convolution decoder, a deinterleaver and a Reed-Solomon decoder.
  • the demodulator 120 may output a stream signal TS after demodulation and channel decoding.
  • the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal.
  • the stream signal TS may be an MPEG-2 TS (Transprt Stream) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like.
  • the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.
  • the signal output from the demodulator 120 may be input to the controller 170 to perform demultiplexing, image / audio signal processing, and the like.
  • the signal input / output unit 130 may be connected to an external device, for example, a DVD (Digital Veratile Disk), a Blu-ray (Blu ray), a game device, a camera, a camcorder, a computer (laptop), a set-top box, a mobile device, a smart phone, or the like. Wirelessly connected to perform signal input and output operations. To this end, it may include an A / V input / output unit for connecting to a wired network and a wireless communication unit for connecting to a wireless network.
  • the A / V input / output part includes an Ethernet terminal, a USB terminal, a Composite Video Banking Sync (CVBS) terminal, a component terminal, an S-video terminal (analog), a DVI (Digital Visual Interface) terminal, and an HDMI (High) terminal. And a definition multimedia interface (MHL) terminal, a mobile high-definition link (MHL) terminal, an RGB terminal, a D-SUB terminal, an IEEE 1394 terminal, an SPDIF terminal, a liquid HD terminal, and the like.
  • the digital signal input through these terminals may be transmitted to the controller 150.
  • an analog signal input through the CVBS terminal and the S-video terminal may be converted into a digital signal through an analog-digital converter (not shown) and transmitted to the controller 150.
  • the wireless communication unit (not shown) may perform a wireless internet connection.
  • the wireless communication unit (not shown) may use wireless LAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), or the like. Internet access can be made.
  • the wireless communication unit (not shown) may perform short-range wireless communication with other electronic devices.
  • the wireless communication unit (not shown) uses short-range wireless communication using Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, or the like. Can be performed.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the signal input / output unit 130 may access and transmit data with a corresponding web page through a wired / wireless network and transmit and receive data with a corresponding server.
  • contents or data provided by a content provider or a network operator such as a movie, may be used.
  • Content such as advertisements, games, VODs, broadcast signals, and related information.
  • the signal input / output unit 130 may receive firmware update information and update files provided by a network operator through a wired / wireless network, and may select and receive a desired application from among applications that are open to the public. have.
  • the signal input / output unit 130 may transmit the video signal, the audio signal, and the data signal provided from the external device to the controller 150.
  • the signal input / output unit 130 may transmit image signals, audio signals, and data signals of various media files stored in an external storage device such as a memory device or a hard disk to the controller 150.
  • the signal input / output unit 130 may transmit the image signal, the audio signal, and the data signal processed by the controller 150 to the external device or another external device.
  • the signal input / output unit 130 may be connected to a set-top box, for example, a set-top box for an IPTV (Internet Protocol TV) through at least one of the various terminals described above, to perform signal input and output operations. .
  • the signal input / output unit 130 may transmit the video signal, the audio signal, and the data signal processed by the set-top box for IPTV to the controller 150 to enable bidirectional communication, and transmit the signals processed by the controller 150. You can also pass it back to a set-top box for IPTV.
  • the IPTV may include ADSL-TV, VDSL-TV, FTTH-TV, etc. classified according to a transmission network, and may include TV over DSL, Video over DSL, TV over IP (TVIP), and Broadband TV (BTV). It may include, and may further include an Internet TV, a full browsing TV with Internet access.
  • the digital signal output from the signal input / output unit 130 may also include a stream signal (TS).
  • TS may be a signal multiplexed with a video signal, an audio signal, and a data signal.
  • the interface unit 140 may transmit a signal input by the user to the controller 150, or may transmit a signal transmitted from the controller 150 to the user.
  • the interface unit 140 may transmit a user input signal input to a power key, a channel key, a volume key, a setting key, or the like to the controller 150.
  • the interface unit 140 may be provided with a sensor unit (not shown) for sensing a user's gesture, a user's position, a touch, and the like.
  • the sensor unit may include a touch sensor, a voice sensor, a position sensor, a motion sensor, a gyro sensor, and the like. In such a case, the interface unit 140 may transmit an input signal input from the sensor unit to the controller 150 or transmit a signal from the controller 150 to the sensor unit.
  • the interface unit 140 receives an input signal input by a user for power control, channel selection, screen setting, etc. from an external input device 200, for example, a spatial remote controller, or a signal processed by the controller 160. It may be transmitted to the external input device 200. In this case, the interface unit 140 and the external input device 200 may be connected by wire or wirelessly.
  • the interface unit 140 may receive personal information from the external input device 200 and / or receive web server information that is being accessed through such personal information.
  • the external input device 200 may receive personal information stored in the mobile terminal.
  • the personal information may be information necessary to log in to a predetermined account in order to access an electronic device or use a service.
  • the interface unit 140 may receive the biosignal information related to the biosignal from the external input device 200.
  • the biosignal information may include at least one biosignal such as pulse rate, body temperature, and respiratory rate detected from the user.
  • the bio signals may be detected from a bio signal detecting sensor provided in the external input device 200.
  • the biosignal information may be received from at least one user, and when there are a plurality of users, the biosignal information may be received separately for each user.
  • the controller 150 controls the overall operation of the image display apparatus 100. Specifically, the controller 150 demultiplexes the stream signal TS received through the tuner 110, the demodulator 120, and / or the signal input / output unit 130, or processes the demultiplexed signals, A signal for video or audio output can be generated and output. For example, the controller 150 may control the tuner 110 to tune an RF broadcast signal corresponding to a channel selected by a user or a previously stored channel.
  • the image signal processed by the controller 150 may be transmitted to the display unit 170 to output an image corresponding to the sea image signal, and the audio signal processed by the controller 150 may be transmitted to the audio output unit 180. Can output sound.
  • the image signal and / or audio signal processed by the controller 150 may be input to the output device of the external device through the signal input / output unit 130.
  • the controller 150 may demultiplex the stream signal TS, or generate and output a signal for video or audio output by processing the demultiplexed signals, although not shown in the drawing.
  • the image processor may include an image processor, an on screen display (OSD) generator, an audio processor, a data processor, and a channel browsing processor.
  • OSD on screen display
  • the demultiplexer demultiplexes the input stream signal TS.
  • the demultiplexing may demultiplex the MPEG-2 stream signal TS, for example, into a video signal, an audio signal, and a data signal, respectively.
  • the stream signal TS may be output from the tuner 110, the demodulator 120, and / or the signal input output 130 as described above.
  • the image processor may perform image processing, for example, decoding of the demultiplexed image signal. More specifically, the image processing unit decodes an encoded video signal of MPEG-2 standard using an MPEG-2 decoder, and uses a digital multimedia broadcasting (DMB) method or a digital video broadcast- DVB using an H.264 decoder. The video signal of the H.264 standard can be decoded according to the handheld method.
  • the image processor may process the image such that brightness, tint, color, etc. of the image signal are adjusted.
  • the image processor may scale the demultiplexed image signal to be output from the display unit 170. As described above, the image signal processed by the image processor may be transmitted to the display unit 170 or may be transmitted to an external output device (not shown) through an external output terminal.
  • the OSD generator may generate an OSD signal according to a user input or itself.
  • the OSD generator may graphically display various information on a screen of the display unit 170 based on at least one of an image signal and a data signal or an input signal received from the external input device 200. You can create a signal for display in text or text.
  • the generated OSD signal may include various data such as a user interface screen of the image display apparatus 100, various menu screens, a widget, an icon, a pointer corresponding to a pointing signal transmitted from the external input device 200, and the like.
  • the generated OSD signal may include a 2D object or a 3D object.
  • the controller 150 may mix the OSD signal generated by the OSD generator and the decoded image signal processed by the image processor.
  • the mixed image signal may change the frame rate of the image through a frame rate converter (FRC).
  • the mixed video signal may be output by changing the format of the video signal through a formatter, separating the 2D video signal and the 3D video signal for 3D video display, or converting the 2D video signal into a 3D video signal. .
  • the speech processor may perform a speech signal, for example, decoding on the demultiplexed speech signal. More specifically, the voice processing unit may decode the encoded voice signal of the MPEG-2 standard using the MPEG-2 decoder, and the MPEG 4 bit sliced arithmetic coding (BSAC) standard according to the DMB method using the MPEG 4 decoder.
  • the encoded audio signal can be decoded, and the AAC decoder can decode the encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB method or the Digital Video Broadcast-Handheld (DVB-H) method. Can be.
  • the voice processing unit may process a base, treble, volume control, and the like.
  • the voice signal processed by the voice processor may be transmitted to the audio output unit 180, for example, a speaker, or may be transmitted to an external output device.
  • the data processor may perform data processing, for example, decoding on the demultiplexed data signal.
  • the data signal may include EPG (Electronic Program Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcast in each channel.
  • the EPG information may include, for example, ATSC-PSIP (ATSC-Program and System Information Protocol) information in the ATSC scheme and DVB-Service Information (DVB-SI) in the DVB scheme.
  • ATSC-PSIP ATSC-Program and System Information Protocol
  • DVB-SI DVB-Service Information
  • the ATSC-PSIP information or the DVB-SI information may be included in the header (4 bytes) of the MPEG-2 stream signal TS.
  • the channel browsing processor receives the stream signal TS output from the demodulator 120 or the stream signal TS output from the signal input / output unit 130, extracts an image therefrom, and generates a thumbnail image.
  • the generated thumbnail image may be input as it is or encoded to the controller 150.
  • the controller 150 may display the thumbnail list including the plurality of thumbnail images on the display unit 170 using the input thumbnail image.
  • the thumbnail image in the thumbnail list may be displayed in the entire area of the display unit 170 or may be displayed in a partial view of the display unit 170 in a simple view.
  • the thumbnail images in the thumbnail list may be updated sequentially.
  • the controller 150 may also perform signal processing on the analog baseband video / audio signal CVBS / SIF.
  • the analog baseband video / audio signal CVBS / SIF input to the controller 150 may be an analog baseband video / audio signal output from the tuner 110 or the signal input / output unit 130.
  • the controller 150 processes the input analog baseband video / audio signal (CVBS / SIF), displays the processed video signal on the display unit 170, and processes the processed audio signal through the audio output unit ( 180) to control the output.
  • the controller 150 may control the operation of the image display apparatus 100 by a user command or an internal program input through the signal input / output unit 130 or the interface unit 140. More specifically, the controller 150 is received from the signal input and output unit 130 or the interface unit 140, the device information of the adjacent external device around the image display device 100, the channel information capable of remote control of other external devices, On the basis of the frequency information or the code information, it is determined whether or not each external device is connected according to the personal information from the external input device 200, and control to display an object indicating that the external device is connected on the display 170. can do.
  • the controller 150 may display at least one object displayed on the display unit 170 as a 3D object.
  • the object may be, for example, at least one of a connected web screen (newspaper, magazine, etc.), an electronic program guide (EPG), and various menus, widgets, icons, still images, videos, and text.
  • EPG electronic program guide
  • the controller 150 detects a user's gesture by combining or combining an image captured by the camera 190, a sensed signal from a sensing unit (not shown), or an input signal transmitted from the external input device 200. can do.
  • the controller 150 may recognize the location of the user based on the image captured by the camera 190. For example, the distance (z-axis coordinate) between the user and the image display apparatus 100 may be determined, and in addition, the x-axis coordinate and the y-axis coordinate in the display unit 170 corresponding to the user position may be determined. .
  • the controller 150 may detect the movement of the user based on the image captured by the camera 190. For example, the controller 150 may capture an image of the user at a predetermined time interval and detect whether there is a movement of the user by comparing the photographed image. Alternatively, the controller 150 may detect how much the user has moved, that is, the degree of movement of the user, through the images photographed at each time interval.
  • the controller 150 may include a motion detector 156 to detect whether the user moves.
  • the motion detector 156 may be implemented in the controller 150 or may be implemented separately from the controller 150.
  • the controller 150 may determine the user's state by using the biosignal information received from the external input device 200. For example, the controller 150 may determine whether the user is currently in a sleep state based on at least one of the bio signals included in the bio signal information. Alternatively, the controller 150 may determine the current mental state of the user by using the received biosignal information.
  • the controller 150 may use the detection result of the motion detector 156 to determine whether the user is currently in a sleep state. For example, the controller 150 may determine that the user is in the sleep state when the movement of the user is less than or equal to a preset level as a result of detecting the movement of the user by the motion detector 156. As such, the controller 150 may include a determiner 152 to determine whether the user is in a sleep state or a psychological state of the user. The determination unit 152 may be implemented in the control unit 150 or may be implemented separately from the control unit 150.
  • the controller 150 may switch the operation mode of the image display apparatus 100 based on the determination result of the determination unit 152. For example, when the determination unit 152 determines that the user is in the sleep state, the controller 150 may switch the operation mode to the sleep mode.
  • the controller 150 may provide the user with content suitable for the psychological state of the user by using the determination result of the determination unit 152.
  • the controller 150 may include a content searcher 154.
  • the content search unit 154 may search for content corresponding to the determined psychological state of the user through the storage unit 160, an external server (eg, a cloud server), a broadcasting station server, or the like. have.
  • the controller 150 may use content information previously stored in the storage 160 to search for content corresponding to the mental state of the user.
  • the content information may be information about content corresponding to a specific mental state of the user.
  • the controller 150 may determine the psychological state of the user and perform the search based on content information corresponding to the determined psychological state of the user.
  • the searched content may be provided to the user as content corresponding to the mental state of the user.
  • the storage unit 160 may store a program for signal processing and control of the controller 150, and may store a program related to a predetermined broadcast channel through a channel memory function such as a video signal, an audio signal, a data signal, and a channel map which have been processed. Information can also be stored.
  • a channel memory function such as a video signal, an audio signal, a data signal, and a channel map which have been processed. Information can also be stored.
  • the storage 160 may store content information collected by the controller 150.
  • the content information may be information about specific content corresponding to each mental state of the user.
  • the content information may be information about a category of the specific content, or information about a producer, a producer, or a director of the specific content.
  • the storage unit 160 may include a flash memory, a hard disk, a multimedia card micro type, a card type memory (for example, SD or XD memory), random access (RAM), and the like.
  • memory RAM
  • static random access memory SRAM
  • read-only memory ROM
  • EEPROM electrically erasable programmable read-only memory
  • PROM programmable read-only memory
  • magnetic memory magnetic disk
  • optical disk At least one of the storage medium may include.
  • the storage 160 may store IR format key codes for controlling other external devices, and may store IR format key databases of a plurality of external devices.
  • the display unit 170 outputs an image signal, a data signal, an OSD signal, or an image signal, a data signal, a control signal, etc. received from the signal input / output unit 130 or the interface unit 140 processed by the controller 150.
  • the driving signal is converted into a signal to generate a driving signal, and through this, an image is output.
  • the display unit 170 may include a plasma display panel (PDP), a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT-LCD), and an organic light emitting diode (Organic).
  • Light Emitting Diode OLED, flexible display, 3D display, e-ink display, etc. can be implemented in various forms.
  • the display unit 170 when the display unit 170 is a 3D display, the display unit 170 may be implemented by an additional display method or a single display method for viewing a 3D image.
  • the independent display method may implement a 3D image by the display unit 170 alone without a separate display, for example, without glasses, for example, a lenticular method, a parallax barrier, or the like. This can be applied.
  • the additional display method may implement a 3D image using a 3D viewing device in addition to the display unit 170. For example, a method such as a head mounted display (HND) type or a glasses type may be applied.
  • HND head mounted display
  • the display unit 170 when the display unit 170 is implemented as a touch screen with a touch sensor, the display unit 170 may also function as an input device.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 170 or capacitance generated at a specific portion of the display unit 170 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area where the touch object is touched on the touch sensor but also the pressure at the touch.
  • the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like. If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller. As a result, the controller 150 may determine which area of the display unit 170 is touched.
  • the audio output unit 180 receives a voice signal processed by the controller 150, for example, a stereo signal or a 5.1 channel signal, and outputs a sound corresponding thereto. To this end, the audio output unit 180 may be implemented as various types of speakers.
  • the microphone may receive a predetermined voice command from the user.
  • the microphone may include various noise canceling algorithms for removing noise generated in the process of inputting an external sound signal.
  • the user's voice command or external sound input through the microphone may be input to the controller 150. Then, the controller 150 may process the received voice command or sound to recognize the corresponding meaning or function.
  • the camera 190 is taken outside or the user, generally one is provided, but two or more may be provided according to the use environment.
  • Image information photographed through the camera may be input to the controller 150. Then, the controller 150 may process the input image information to detect the location or operation of the user or a specific object.
  • the image display apparatus 100 may include an image communication unit (not shown) including a camera 190 and a microphone (not shown).
  • the controller 150 may signal-process image information photographed by a camera and audio information collected by a microphone (not shown) and transmit the signal to a video communication device of the other party through the signal input / output unit 130 or the interface 140. .
  • the power supply unit (not shown) supplies the corresponding power throughout the image display apparatus 100.
  • power may be supplied to the controller 150, which may be implemented in the form of a System On Chip (SOC), a display unit 170 for displaying an image, and an audio output unit 180 for audio output. Can be.
  • SOC System On Chip
  • the power supply unit may include a converter (not shown) for converting AC power into DC power.
  • the inverter further includes an inverter (not shown) capable of PWM operation in order to drive the variable brightness or dimming (dimming) You may.
  • the external input device 200 is connected to the interface unit 140 by wire or wirelessly, and transmits an input signal generated according to a user input to the interface unit 140.
  • the biosignal information including at least one biosignal detected by the user is transmitted to the interface unit 140.
  • the external input device 200 may include a remote controller (eg, a space remote controller), a mouse, a keyboard, a wheel, and the like.
  • the remote controller may transmit the input signal to the interface unit 140 through Bluetooth, RF communication, infrared communication (IR communication), UWB (Ultra Wideband), ZigBee (ZigBee) scheme, and the like.
  • a predetermined input signal may be generated by detecting an operation of the main body.
  • the image display apparatus 100 may be implemented as a fixed digital broadcast receiver or a mobile digital broadcast receiver.
  • ATSC 8-VSB digital broadcasting using a single carrier and terrestrial DVB-T method using a plurality of carriers (COFDM)
  • COFDM a plurality of carriers
  • the image display device 100 When the image display device 100 is implemented as a mobile digital broadcast receiver, terrestrial DMB digital broadcasting, satellite DMB digital broadcasting, ATSC-M / H digital broadcasting, DVB-H (Digital Video Broadcast-Handheld) ) Can be implemented to receive at least one of the digital broadcast of the media method, the digital broadcast of the Media Flow Link Only method.
  • DVB-H Digital Video Broadcast-Handheld
  • the image display apparatus 100 may also be implemented as a digital broadcast receiver for cable, satellite communication, and IPTV.
  • the image display apparatus 100 described above may be applied to a mobile terminal.
  • the mobile terminal includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, a slate PC, a tablet PC ( tablet PC), ultrabook, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • navigation a slate PC, a tablet PC ( tablet PC), ultrabook, and the like.
  • a wireless communication unit When the image display apparatus is used as a mobile terminal, a wireless communication unit may be further added in addition to the above-described configuration.
  • the wireless communication unit enables wireless communication between the mobile terminal and the wireless communication system or between the mobile terminal and the network in which the mobile terminal is located.
  • the wireless communication unit may include at least one of a broadcast receiving module, a mobile communication module, a wireless internet module, a short range communication module, and a location information module.
  • the broadcast reception module may receive a broadcast signal and / or broadcast related information from a broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel, a terrestrial channel, and the like.
  • the broadcast management server may refer to a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal. .
  • broadcast associated information may mean information related to a broadcast channel, a broadcast program or a broadcast service provider, and such broadcast related information may be provided through a mobile communication network.
  • broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
  • EPG Electronic Program Guide
  • DMB Digital Multimedia Broadcasting
  • ESG Electronic Service Guide
  • DVD-H Digital Video Broadcast-Handheld
  • the broadcast receiving module may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast-Handheld (DVB-H).
  • DMB-T Digital Multimedia Broadcasting-Terrestrial
  • DMB-S Digital Multimedia Broadcasting-Satellite
  • MediaFLO Media Forward Link Only
  • DVD-H Digital Video Broadcast-Handheld
  • DMB-CBMS Digital Multimedia Broadcasting-Terrestrial
  • DMB-S Digital Multimedia Broadcasting-Satellite
  • MediaFLO Media Forward Link Only
  • DVD-H Digital Video Broadcast-Handheld
  • DVD-CBMS Convergence of Broadcasting and Mobile Service
  • OMA-BCAST Open Mobile Alliance-BroadCAST
  • CMMB China Multimedia Mobile Broadcasting
  • MBBMS Mobile Broadcasting Business Management System
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the storage 160.
  • the mobile communication module transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the mobile communication module is configured to implement a video call mode and a voice call mode.
  • the video call mode refers to a state of making a call while viewing the other party's video
  • the voice call mode refers to a state of making a call without viewing the other party's image.
  • the mobile communication module is configured to transmit and receive at least one of audio and video to implement a video call mode and a voice call mode.
  • the wireless internet module is a module for wireless internet access and may be embedded or external to the mobile terminal.
  • Wireless Internet technologies include Wireless LAN (WLAN), Wireless Fidelity (WiFi) Direct, Digital Living Network Alliance (DLNA), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), GSM, CDMA, WCDMA, Long Term Evolution (LTE) and the like can be used.
  • the short range communication module refers to a module for short range communication.
  • Short range communication technology enables Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi Direct And the like can be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee Near Field Communication
  • NFC Near Field Communication
  • the location information module is a module for acquiring a location of a mobile terminal, and a representative example thereof is a global position system (GPS) module or a wireless fidelity (WiFi) module.
  • GPS global position system
  • WiFi wireless fidelity
  • the external input device 200 includes a wireless communication unit 210, a user input unit 220, a detection unit 230, an output unit 240, a power supply unit 250, a storage unit 260, and a control unit 270. It can be made, including.
  • the external input device 200 may be a remote controller which transmits various control signals including a user signal to the image display apparatus 100.
  • the wireless communication unit 210 transmits a signal to the image display apparatus 100 or receives a signal from the image display apparatus 100.
  • the wireless communication unit 210 may include an RF module 211 and an IR module 212.
  • the RF module 211 is connected to the interface unit 140 of the image display device 100 according to the RF communication standard, and transmits and receives a signal, and the IR module 212 interfaces of the image display device 100 according to the IR communication standard.
  • the unit 140 may transmit and receive a signal.
  • the wireless communication unit 210 may transmit a signal including information such as movement of the external input device 200 to the image display apparatus 100 through the RF module 211.
  • the external input device 200 further includes an NFC module (not shown) for short-range magnetic field communication with an external device, and is connected to a predetermined external device by short-range magnetic field communication with personal information or personal information.
  • the server information may be received, and the received information may be transmitted to the image display apparatus 100 through the RF module 211 or the IR module 212.
  • the external input device 200 uses the Bluetooth, infrared (IR) communication, UWB (Ultra Wideband), ZigBee, near field communication (NFC) method, etc.
  • a signal may be sent to 140.
  • the external input device 200 may receive an image, audio, or data signal output from the interface unit 140 of the image display apparatus 100.
  • the external input device 200 may display or output the audio on the external input device 200 based on the received video, audio, or data signal.
  • the external input device 200 may receive device information of another external device, channel information, frequency information, code information, etc. for remote control of another external device, or the like from another adjacent external device. Based on the information, remote control may be performed by allocating a channel, a frequency, or a code to the corresponding external device.
  • the user input unit 220 may be provided as, for example, a keypad, a key button, a touch screen, a scroll key, a jog key, or the like.
  • the user may input a control command related to the image display apparatus 100 by manipulating the user input unit 220.
  • the control command may be input by the user through a push operation of a hard key button of the user input unit 200.
  • the command may be input, for example, when the user input unit 220 includes a touch screen, by the user touching a soft key of the touch screen.
  • the user input unit 220 may include, for example, an ok key, a menu key, a four-way key, a channel control key, a volume control key, a back key, a home key, and the like. have.
  • An OK key (not shown) may be used to select a menu or item, and a menu key (not shown) may be used to display a predetermined menu.
  • the four-way key (not shown) may be used to move the pointer or indicator displayed on the display unit 170 of the image display apparatus 100 up, down, left, or right.
  • the channel adjustment key (not shown) may be used to adjust the channel up and down
  • the volume adjustment key (not shown) may be used to adjust the volume up and down.
  • a back key (not shown) may be used when moving to a previous screen
  • a home key (not shown) may be used when moving to a home screen.
  • the confirmation key may be implemented by adding a scroll function.
  • the confirmation key may be implemented in the form of a wheel key. That is, when the user pushes the confirmation key up / down or left / right, it can be used as a menu or item selection. When the user rotates the provided wheel up / down, the image display device in a direction corresponding to the rotation of the wheel
  • the screen output to the display unit 170 of FIG. 100 may be scrolled or switched to the next list page. For example, when only a part of the screen to be output is displayed on the display unit 170, when the wheel of the confirmation key is scrolled to search for the desired part of the screen, the screen that is not currently output to the display unit 170 The area may be output to the display unit 170.
  • the list page is displayed on the display unit 170
  • the wheel of the confirmation key is scrolled, the previous page or the next page of the current page displayed on the display unit 170 may be displayed.
  • the channel can be raised or lowered according to the rotation of the wheel when the broadcasting channel is switched, and the volume can be increased by the volume corresponding to the rotation of the wheel when adjusting the volume. You can print at a higher volume or at a lower volume.
  • the scroll function of the confirmation key may be implemented as a separate key.
  • the detector 230 may include a gyro sensor 231, an acceleration sensor 232, an acoustic sensor 233, and a biosignal detection sensor 234.
  • the gyro sensor 231 may detect the spatial movement of the external input device 200 based on the x, y, and z axes.
  • the acceleration sensor 232 may detect a moving speed of the external input device 200 and the like.
  • the acoustic sensor 233 may detect voice information input to the external input device 200 and transmit the voice information to the controller 170 or the image display apparatus 100. Then, the controller 170 or the image display apparatus 100 may recognize the voice corresponding to the voice information and / or recognize the recognized voice as a control command for controlling the operation of the image display apparatus 100. .
  • the biosignal detection sensor 234 detects at least one biosignal from a user.
  • the biosignal detection sensor 234 may detect a user's pulse rate, respiration rate, or body temperature.
  • the biosignal detection sensor 234 may detect the biosignal not only in direct contact with the user, but also when the user is located within a predetermined distance.
  • the biosignal detection sensor 234 may be implemented using various forms, for example, an electric potential integrated circuit (EPIC) sensor or an infrared sensor.
  • EPIC electric potential integrated circuit
  • the sensing unit 230 may further include a distance measuring sensor, whereby the distance to the display unit 170 may be detected.
  • the output unit 240 outputs information corresponding to the operation of the user input unit 220 and information corresponding to the transmission signal of the image display apparatus 100.
  • the user may recognize an operation state of the user input unit 220 or a control state of the image display apparatus 100 through the output unit 240.
  • the output unit 240 outputs the LED module 241 that is turned on, the vibration module 242 that generates the vibration, and the sound in response to an operation of the user input unit 220 or a signal transmitted and received through the wireless communication unit 210.
  • a sound output module 243 and a display module 244 for outputting an image may be provided.
  • the power supply unit 250 supplies power to various electronic devices of the external input device 200.
  • the power supply unit 250 may reduce the waste of power by stopping the power supply, and supply power when a predetermined key of the external input device 200 is operated. Can be resumed.
  • the storage unit 260 may store various programs, applications, and frequency band information related to the control or operation of the external input device 200.
  • the storage unit 260 may store IR format key codes for controlling other external devices with an IR signal, and may store IR format key databases of a plurality of external devices.
  • the controller 270 generally controls the general matters related to the control of the external input device 200.
  • the controller 270 may transmit a signal corresponding to a predetermined key manipulation of the user input unit 220 to the image display apparatus 100 through the communication unit 210.
  • the controller 270 may transmit a signal corresponding to the movement of the external input device 200 sensed by the detector 230 to the image display apparatus 100 through the wireless communication unit 210, and the image display apparatus ( 100 may calculate a coordinate value of a pointer corresponding to the movement of the external input device 200.
  • the controller 270 may further include a determiner 272.
  • the determination unit 272 determines the state of the user based on the biosignal detected by the biosignal sensor 234. For example, the determination unit 152 may determine whether the user is currently in a sleep state or what mental state the user is in based on the detected biosignal. Therefore, if the external input device 200 includes the determination unit 152, the external input device 200 may transmit information about the determined state of the user to the image display device 100. In this case, the controller 150 of the image display apparatus 100 does not need to determine a user's state, and accordingly, the controller 150 of the image display apparatus 100 needs to include the determination unit 152. It may not be.
  • the controller 150 of the external input device 200 may further include a content search unit 154.
  • the controller 270 of the external input device 200 may search for content corresponding to the psychological state determination result of the user from the broadcasting station server. Accordingly, the external input device 200 may transmit only the search result to the image display apparatus 100, and the image display apparatus 100 may merely serve to provide a user with content corresponding to the received search result. In this case, the image display device 100 may not need the content search unit 274.
  • FIG. 3 is a conceptual diagram illustrating the mutual operation of the image display apparatus 100 and the external input device 200 according to the present invention.
  • a TV receiver is shown as an example of the image display apparatus 100 for the purpose of explanation
  • a spatial remote controller is shown as an example of the external input device 200.
  • the external input device 200 may transmit / receive a signal with the image display device 100 according to an RF communication standard.
  • the control menu may be displayed on the screen of the image display apparatus 100 according to a control signal of the external input device 200.
  • the external input device 200 may include a plurality of buttons, and generate an external input signal according to a user's button manipulation.
  • the external input device 200 may transmit information about the movement of the external input device 200 in the 3D space sensed by the detector 230 to the image display device 100.
  • the screen of the image display apparatus 100 may be moved by the movement of the external input device 200.
  • the corresponding pointer 101 is displayed.
  • the external input device 200 may be referred to as a spatial remote controller because the corresponding pointer 101 is moved and displayed on the screen of the image display apparatus 100 according to the movement in 3D space.
  • the image display apparatus 100 may calculate the X and Y coordinates of the pointer from the information about the movement of the external input device 200. Then, the image display apparatus 100 may display the pointer 101 at a position corresponding to the calculated coordinates.
  • the user moves the external input device 200 away from the screen of the image display apparatus 100 while pressing a specific button provided in the external input device 200, the user corresponds to the pointer 101 displayed on the screen.
  • the selected area in the screen can be zoomed in (zoom out) and displayed (zoom in).
  • the selection area in the screen corresponding to the pointer 101 displayed on the screen is zoomed out (zoom in) and reduced (expanded). ) Can be displayed.
  • the recognition of the up / down, left / right movement of the external input device 200 can be excluded. That is, when the external input device 200 moves away from or near the screen of the image display apparatus 100, the up, down, left, and right movements are not recognized, and only the front / rear movements may be recognized.
  • the moving speed, the moving direction, and the screen scrolling speed according to the movement of the pointer 101 displayed on the screen of the image display apparatus 100 may be determined according to the moving speed and / or the moving direction of the external input device 200.
  • the pointer 101 may be formed in the shape of an object of various shapes, for example, a point, a cursor, a prompt, an outline, etc. in addition to the arrow shape shown in FIG. 3.
  • FIG. 4 is an exemplary flowchart for describing an operating method of an image display apparatus according to an exemplary embodiment of the present invention
  • FIG. 5 is a conceptual diagram for describing an operating method of the image display apparatus of FIG. 4.
  • the image display apparatus 100 receives biosignal information from an external input device 200 (S400).
  • the biosignal information is information including at least one detected from the user, for example, at least one of a pulse, a respiratory rate, and a body temperature detected from the user.
  • FIG. 5A illustrates this example.
  • the external input device 200 may detect a biosignal of a user through the biosignal detection sensor 234.
  • the external input device 200 detects a biosignal from a user, generates biosignal information including the biosignal, and transmits the biosignal information to the image display apparatus 100.
  • the image display apparatus 100 determines whether the user is in the sleep state by using the transmitted biosignal information (S402). For example, the controller 150 of the image display apparatus 100 may determine that the user is in the sleep state when at least one of the user's pulse rate or the respiratory rate is reduced to a predetermined value or less. Alternatively, the controller 150 may detect a change in body temperature of the user together with the pulse rate or the respiratory rate and determine whether the user is in a sleep state by using the correlations thereof.
  • the user in order for the external input device 200 to detect the user's biosignal, the user must be located within a predetermined distance from the external input device 200. That is, the biosignal of the user may be detected only when the user is located within the effective sensing distance of the biosignal detection sensor 234 of the external input device 200.
  • the external input device 200 or the image display device 100 may notify the user of the method in various ways.
  • the image display apparatus 100 may determine whether the user is in a sleep state by a method different from the method of using the biosignal sensor 234. This example will be described later with reference to FIG. 6.
  • the controller 150 of the image display apparatus 100 may switch the operation mode of the image display apparatus 100 to the sleep mode (S404).
  • the sleep mode refers to a mode of driving the image display apparatus at the lowest power, and an operation mode for reducing the audio output level of the audio output unit 180 or the illumination level of the display unit 170 to a predetermined level or less.
  • the sleep mode may be an operation mode in which at least one of the audio output unit 180 and the display unit 170 or the power of the image display apparatus 100 are turned off when a predetermined time elapses. .
  • the controller 150 of the image display apparatus 100 when the user falls asleep while watching content, the controller 150 of the image display apparatus 100 is based on the biosignal information of the user received from the external input device 200. It can be determined that the user is in the sleep state. Then, the controller 150 of the image display apparatus 100 switches the operation mode to the sleep mode to reduce the audio output level of the audio output unit 180 to a predetermined level or less. In addition, the controller 150 may also reduce the illuminance level of the display 170 to a predetermined level or less.
  • the present invention may be applied to automatically switch to a sleep mode by detecting a user's biosignal.
  • the controller 150 may automatically switch to the sleep mode when it is determined that all the users detected by the biosignal detection sensor 234 are in the sleep state.
  • the controller 150 may automatically enter a sleep mode when it is determined that a specific user or at least one user is in a sleep state based on the preset priority. have.
  • the control unit may receive bio signal information classified for each user from the external input device 200.
  • FIG. 6 is a conceptual diagram illustrating an operation method of an image display apparatus or an external input device according to an exemplary embodiment of the present invention when the separation distance between the user and the external input device exceeds a predetermined distance.
  • the external input device 200 may notify the user that the user is out of an effective sensing distance by using a beep sound 600.
  • the image display apparatus 100 may include an on-screen display (OSD) screen including a guide image 620 for displaying a position at which the external input device 200 is detected. May be displayed.
  • OSD on-screen display
  • the controller 150 of the image display apparatus 100 determines whether the user is in the sleep state by means other than the user's biosignal. You may. That is, as shown in (c) of FIG. 6, in the case of the image display apparatus 100 having the camera 190, whether or not the user sleep state is detected from the movement of the user sensed through the camera 190. You can also judge.
  • the controller 150 may store an image of a user photographed within the camera viewing angle 650 at predetermined time intervals. In addition, it is possible to determine whether there is a movement of the user by comparing the image of the user photographed at each time interval. That is, as shown in FIG. 6C, when the user's hand moves 654 and 652, the controller 150 may detect the degree of movement 656. In addition, the controller 150 may determine whether the user is in a sleep state by using the detected degree of movement 656 of the user. For example, when the movement degree 656 of the user is less than or equal to a preset level, or when the movement of the predetermined level or more does not exceed the preset number of times, the controller 150 may determine that the user is currently in a sleeping state.
  • the controller 150 may use either a method of using a biosignal detected through the external input device 200 or a method of detecting a user's movement through the camera 190 of the image display apparatus 100 based on a user's selection. Only one can be used to determine if the user is sleeping.
  • the controller 150 may determine whether the user is in the sleep state by using the methods complementarily. For example, the controller 150 may determine the state of the user in different ways according to the separation distance between the user and the external input device 200. That is, when the user is within the effective detection distance of the biosignal detection sensor 234, the controller 150 determines the user's state through the biosignal detected by the biosignal detection sensor 234, and otherwise, the camera. The state of the user may be determined using the result of detecting the movement of the user through the 190.
  • the controller 150 may use both the method of using the biosignal sensor 234 and the method of using the camera 190 to more accurately determine a user's state. That is, the controller 150 first determines whether the user is in the sleep state by first using one of the two methods, and if the user is in the sleep state as a result of the first determination, the other method The second state of the user can be determined using. As a result of the second determination, when it is determined that the user is in the sleep state, the controller 150 may finally determine that the user is in the sleep state.
  • the controller 150 only refers to automatically switching the operation mode of the image display apparatus 100 to the sleep mode when the user is in the sleep state.
  • various operation settings are possible as well.
  • the controller 150 may set the alarm mode to operate while switching to the sleep mode. That is, when the user sets an alarm at which a specific time is preset, the controller 150 may switch to the sleep mode and set an alarm at the same time.
  • Fig. 7A is a diagram showing such an example.
  • the controller 150 may set an alarm mode as shown in FIG. 7A while switching to the sleep mode.
  • the controller 150 may reduce at least one level of display illuminance or audio volume to a preset level until the alarm set time.
  • the controller 150 may turn off at least one power of the display 170 or the audio output unit 180 until the alarm is set.
  • the controller 150 may increase the level of at least one of the display illuminance and the audio volume to a preset level according to the time set by the alarm.
  • the image display apparatus 100 may automatically record content currently provided when it is determined that the user is in a sleeping state.
  • FIG. 7B is a diagram illustrating this example. For example, if it is determined that the user is in the sleep state, the control unit 150 is automatically displayed from the time when it is determined that the user is in the sleep state to the end of the currently provided content, as shown in FIG. Recording can be performed with Accordingly, even if the user falls asleep unknowingly, the user can subsequently watch the content from the time when he sleeps to the end of the content.
  • the controller 150 when the controller 150 is switched to the sleep mode, the controller 150 may gradually reduce the level of at least one of the audio volume and the display illuminance.
  • FIG. 8 is a diagram illustrating this example.
  • the controller 150 may switch to the sleep mode as shown in FIGS. 8A and 8B.
  • the controller 150 may reduce the audio volume level to a preset level according to the change of the sleep mode (800, 802).
  • the controller 150 may gradually decrease the audio volume level as shown in FIG. 8C (804). Accordingly, the longer the user is in the sleep state, the longer the audio volume level may gradually decrease.
  • the controller 150 may turn off the power of the image display apparatus 100 as shown in FIG. For example, when the audio volume decreases gradually to become “0” 806, the controller 150 may turn off the power of the image display apparatus 100. Alternatively, the controller 150 may turn off only the audio output unit 180.
  • the audio volume level is reduced, but the display illuminance level may be reduced instead of the audio volume level.
  • the audio volume level and the display illuminance level may be reduced together.
  • power of at least one of the audio output unit 180 and the display unit 170 may be turned off.
  • the psychological state of the user is determined by using the biosignal detected by the user, and the content suitable for the psychological state of the user will be described in detail with reference to the accompanying drawings. do.
  • FIG. 9 is a flowchart illustrating a method of providing content suitable for a psychological state of a user in an image display device according to an exemplary embodiment.
  • FIG. 10 is a conceptual diagram illustrating the content providing method of FIG. 9.
  • the controller 150 may collect content information corresponding to the psychological state of the user by using the user's biosignal and content currently being provided ( S900).
  • the controller 150 receives the biosignal information 1000 from the external input device 200 as shown in FIG. 10A while the user watches the content.
  • the controller 150 may determine the mental state of the user based on the received biosignal information.
  • the controller 150 may determine that the psychological state of the user is in an excited state or an arousal state when at least one of the detected pulse rate, respiratory rate, or body temperature increases by a certain level or more.
  • the controller 150 may determine that the psychological state of the user is in a depressed state or a quiet state when at least one of the detected pulse rate, respiratory rate, or body temperature decreases by a predetermined level or more.
  • the controller 150 may detect that the pulse rate or the respiratory rate is increased, but when it is detected that the body temperature is decreased, the controller 150 may determine that the psychological state of the user is in a state of feeling tension or fear.
  • the controller 150 may determine that the currently provided content is the content corresponding to the determined psychological state of the user. have. As shown in (b) of FIG. 10, the information 1010 about the mental state of the user and the content corresponding thereto may be displayed on the image display apparatus 100 or the external input device 200.
  • the information on the content may be information including at least one of information on a category of the currently provided content or information on a producer and a producer.
  • the controller 150 determines the psychological state of the user who is watching the content and collects the content information.
  • the collected content information may be used to provide the user with content corresponding to the mental state of the user.
  • the controller 150 determines whether a "content recommendation” function is selected by the user. When the "content recommendation” function is selected, the controller 150 receives the biosignal information of the user from the external input device 200 to determine the mental state of the user (S902).
  • FIG. 10C illustrates this example.
  • the external input device 200 detects the user's biosignal 1000 and transmits the biosignal information 1050 related to the biosignal to the image display apparatus 100. Then, the controller 150 of the image display apparatus 100 determines the mental state of the user by using the received biosignal information of the user (S904).
  • the controller 150 of the image display apparatus 100 may provide content suitable for the determined mental state of the user (S906).
  • 10D illustrates this example. That is, the controller 150 may determine the psychological state of the user from the biosignal information 1022 of the user (1024), and recommend content suitable for the determined user psychological state to the user (1026). The recommended content may be provided to the user according to the user's selection.
  • the controller 150 may first determine a psychological state of the user and output a message asking the user whether to provide content corresponding to the currently determined psychological state. In this case, the controller 150 may recommend content suitable for the psychological state of the user to the user in response to the output message.
  • the controller 150 may recommend content, which is pre-stored in a storage unit (not shown) or content retrieved from contents stored in an external server or a broadcasting station server, to be suitable for the determined user mental state.
  • the controller 150 may use predetermined search information to search for a content suitable for the user mental state from the storage 160, an external server, or a broadcasting station server.
  • the predetermined search information may be content related information set to correspond to the psychological state of the determined user in advance. For example, if the user's psychological state is "pleasure”, “action”, the user's psychological state is “sorrow”, “depressed”, “comedy”, or the user's psychological state is "tense", "fear” As such, the category information set corresponding to each user mental state may be the predetermined search information. In this case, the controller 150 may search for contents of a category corresponding to the mental state of the user from the storage 160, an external server, or a broadcasting station server, and provide the search result to the user.
  • the predetermined search information may be content information collected in step S900. That is, the controller 150 stores content information corresponding to each user's psychological state in advance, and according to a user's selection, the controller 150 stores the content information corresponding to the psychological state of the current user among the stored content information. Can be used as search information.
  • the controller 150 displays the content information corresponding to the psychological state "excitement” of the user.
  • the control unit 150 includes a category for the action movie "sprint of anger", that is, an "action” category.
  • the included contents may be retrieved from the storage 160, an external server, or a broadcasting station server and provided to the user. Accordingly, even if the user does not directly select the content, the user may be provided with the content most suitable for his / her mental state, that is, the content corresponding to his / her mental state.
  • searching for contents corresponding to 'category' among contents information has been described as an example.
  • various contents included in the content information such as a star actor, a producer, a producer, etc. according to a user's selection or preset priority Of course, the search may be performed using at least one of the information.
  • the image display apparatus 100 determines the mental state of the user by receiving the biosignal information from the external input device 200 and searches for the content information corresponding to the mental state of the user.
  • the image display apparatus 100 determines the mental state of the user by receiving the biosignal information from the external input device 200 and searches for the content information corresponding to the mental state of the user.
  • the image display apparatus 100 determines the mental state of the user by receiving the biosignal information from the external input device 200 and searches for the content information corresponding to the mental state of the user.
  • the image display apparatus 100 determines the mental state of the user by receiving the biosignal information from the external input device 200 and searches for the content information corresponding to the mental state of the user.
  • the image display apparatus 100 determines the mental state of the user by receiving the biosignal information from the external input device 200 and searches for the content information corresponding to the mental state of the user.
  • the external input device 200 may determine the psychological state of the user, and may transmit only the determined result to the image display device 100.
  • the external input device 200 may also search content information corresponding to the mental state of the user.
  • 11 is a diagram for describing such implementations.
  • FIG. 11A illustrates an example in which the external input device 200 includes only the biosignal detection sensor 234.
  • the external input device 200 transmits 1110 the biosignal information including the biosignal detected by the user to the image display apparatus 100, and the image display apparatus 100 determines and determines the mental state of the user. The content corresponding to the mental state may be searched for.
  • FIG. 11B illustrates an example in which the external input device 200 includes a determination unit 272.
  • the external input device 200 may detect the biosignal from the user and directly determine the mental state of the user based on the detected biosignal.
  • the external input device 200 transmits the result of determining the mental state of the user to the image display apparatus 100 (1120), and the image display apparatus 100 determines the determined psychology. The content corresponding to the state may be searched.
  • the external input device 200 may also search for content corresponding to the mental state of the user. That is, as shown in (c) of FIG. 11, when the external input device 200 can search for a content corresponding to the mental state of the user, the content search information 1130 simply received from the external input device 200.
  • the device providing the searched contents to the user may be used as the image display apparatus 100.
  • the controller 150 of the image display apparatus 100 may provide content corresponding to the psychological state of the user as content corresponding to the psychological state of the user, but on the contrary, content for alleviating the psychological state of the user. Of course it can also provide.
  • the controller 150 of the image display apparatus 100 may determine a user's state and recommend content corresponding to the determined state to the user. That is, if it is assumed that the psychological state of the user is in a state of feeling "tense" or "fear," the controller 150 may recommend content of a category corresponding to the psychological state of the user, that is, "fear" movie content to the user. Can be.
  • the controller 150 may provide content for mitigating a mental state of the user. For example, when it is determined that the mental state of the user is extremely "excited” as shown in (b) of FIG. 12, the control unit 150 has a content opposite to the psychological state of the user in order to alleviate this. I can recommend it.
  • the controller 150 may determine content corresponding to the mental state of the user or to alleviate the mental state of the user, according to the mental state of the user. That is, in the case of a positive psychological state (for example, pleasure, joy, happiness, etc.), the controller 150 may recommend content corresponding to the psychological state of the user, but a negative psychological state (for example, depression, sadness, In the case of depression, the controller 150 may recommend content for alleviating the mental state of the user to the user.
  • a positive psychological state for example, pleasure, joy, happiness, etc.
  • a negative psychological state for example, depression, sadness, In the case of depression
  • the controller 150 may recommend content for alleviating the mental state of the user to the user.
  • the image display apparatus determines the psychological state of the user and provides the user with contents corresponding to the psychological state of the user with reference to the drawings.
  • the external input device 200 includes a biosignal detection sensor 234 for detecting a biosignal from a user, and the external input device 200 includes the biosignal of the user. It has been described that it may include a determination unit 272 for determining the psychological state of the user and a content search unit 274 for searching the content corresponding to the determined psychological state.
  • the biosignal sensor 234, the determination unit 152, and the content search unit 154 may be provided in, for example, a mobile terminal or a wearable device.
  • the mobile terminal or the wearable device may serve as the external input device 200, that is, the remote controller.
  • FIG. 13 shows an example of such a remote controller.
  • FIG. 13A illustrates an example in which a mobile terminal plays a role of a remote controller according to an exemplary embodiment of the present invention.
  • the mobile terminal 1300 may include the biosignal sensor 234, a determination unit 272 for determining a psychological state of a user, and a content search unit 274 for searching for content corresponding to the determined psychological state. ) May be provided.
  • the controller of the mobile terminal 1300 may determine the mental state of the user based on the detected biosignal.
  • the controller of the mobile terminal 1300 may output a screen including the determined mental state of the user to the display unit 1302.
  • the controller of the mobile terminal 1300 may search for content to be recommended to the user through content information corresponding to the determined mental state of the user. As shown in FIG. 13A, the searched content may be included in the screen including the mental state of the user and output.
  • the user may check his or her current state and the recommended content through the display unit screen 1302 of the mobile terminal 1300.
  • the controller of the mobile terminal 1300 may transmit information about the recommended content to the image display apparatus 100 based on the psychological state of the user according to the user's selection.
  • the image display apparatus 100 may receive the received content and the recommended content from a storage unit or an external server or a broadcasting station server, and provide the same to a user through the display unit 170 and the audio output unit 180.
  • the external input device 200 may be implemented as a wearable device as well as a mobile terminal.
  • the external input device 200 may be implemented in the form of a watch worn on the user's body, as shown in FIG.
  • the external input device 1350 implemented in the form of a watch may detect a user's biosignal more accurately since the separation distance from the user is almost close to '0'.
  • the display unit screen 1352 of the external input device 1350 implemented in the form of a watch may output information about a psychological state of the user and recommended content.
  • the external input device 1350 may transmit information about the recommended content to the image display apparatus 100 according to a user's selection, and the recommended content may be provided to the user through the image display apparatus 100. Can be.
  • the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded.
  • processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Social Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 실시 예에 따른 영상표시장치는 적어도 하나의 컨텐츠를 디스플레이하는 디스플레이부와, 음향 신호를 출력하는 오디오 출력부와, 생체 신호 감지 센서를 구비한 외부입력기기로부터, 사용자의 생체 신호와 관련된 생체 신호 정보를 수신하는 인터페이스부와, 상기 생체 신호 정보가 수신되면 상기 사용자가 수면 상태에 있는지를 1차 판단하고, 상기 1차 판단 결과 상기 사용자가 수면 상태이거나 또는 상기 생체 신호 정보가 수신되지 않으면 사용자의 움직임을 감지하기 위한 카메라를 구동하여 상기 사용자가 수면 상태에 있는지를 2차 판단하는 제어부를 포함한다. 여기서, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 오디오 출력부의 볼륨 및 상기 디스플레이부의 조도 중 적어도 하나의 레벨을 제어한다.

Description

영상표시장치 및 영상표시장치 동작 방법
본 발명은 사용자의 생체 신호를 이용하여 사용자의 상태를 판단할 수 있는 영상표시장치 및 그것의 동작 방법에 관한 것이다.
영상표시장치는 방송을 수신하여 표시하거나, 동영상을 기록 및 재생하는 장치와 오디오를 기록 및 재생하는 장치를 모두 포함한다. 이러한 영상표시장치로는 예를 들어, 텔레비전, 컴퓨터 모니터, 프로젝터, 태블릿, 네비게이션, 디지털 방송 수신 장치(Digital Television) 등일 수 있다.
*이와 같은 영상표시장치는 기능이 다양화됨에 따라, 방송이나, 음악이나 동영상 파일의 재생 기능 외에도, 사진이나 동영상의 촬영, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가, 최근에는 영상표시장치가 스마트 기기(예를 들어, 스마트 텔레비전)로서 구현되고 있다. 그에 따라서, 영상표시장치는 인터넷 등의 실행은 물론 이동 단말기나 컴퓨터와 연동하여 동작할 수도 있다. 또한, 상기 영상표시장치는 디지털 방송을 수신하여 홈 네트워크 환경이나 유비쿼터스(ubiquitous) 환경에서 서버의 기능까지 담당하게 되었다.
한편, 영상표시장치를 동작시키기 위하여 영상표시장치와 분리된 외부입력기기, 예를 들어 공간 리모콘이 사용될 수 있다. 사용자는 이와 같은 공간 리모컨을 사용하여 영상표시장치에 표시되는 커서나 포인터를 이동할 수 있다. 또한, 최근, 영상표시장치는 본체에 입력된 음성을 인식하여 대응되는 기능을 실행할 수 있는데 까지 발전하였다.
이처럼 사용자의 편의를 위해 영상표시장치가 보다 다양한 동작이나 기능, 또는 서비스를 제공할 수 있도록 하는 연구가 활발하게 진행되고 있는 실정이다.
이에, 본 발명의 일 목적은, 사용자가 수면 상태에 있는 경우 그에 따라 자동으로 동작 모드가 전환되는 것이 가능한 영상표시장치 및 동작 방법을 제공하는 것이다.
본 발명의 일 목적은, 사용자가 직접적인 제어를 하지 않더라도, 사용자의 심리 상태에 적합한 컨텐츠를 제공하는 것이 가능한 영상표시장치 및 동작 방법을 제공하는 것이다.
이에, 본 발명의 일 실시 예에 따른 영상표시장치는, 적어도 하나의 컨텐츠를 디스플레이하는 디스플레이부와; 음향 신호를 출력하는 오디오 출력부와; 생체 신호 감지 센서를 구비한 외부입력기기로부터, 사용자의 생체 신호와 관련된 생체 신호 정보를 수신하는 인터페이스부와; 상기 생체 신호 정보가 수신되면 상기 사용자가 수면 상태에 있는지를 1차 판단하고, 상기 1차 판단 결과 상기 사용자가 수면 상태이거나 또는 상기 생체 신호 정보가 수신되지 않으면 사용자의 움직임을 감지하기 위한 카메라를 구동하여 상기 사용자가 수면 상태에 있는지를 2차 판단하는 제어부를 포함하고, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 오디오 출력부의 볼륨 및 상기 디스플레이부의 조도 중 적어도 하나의 레벨을 제어하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 오디오 출력부의 볼륨 및 상기 디스플레이부의 조도 중 적어도 하나의 레벨을 감소시키는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 볼륨 및 조도 중 적어도 하나의 레벨을 시간의 경과에 따라 점차적으로 감소시키는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 볼륨 및 조도 중 적어도 하나의 레벨이 기 설정된 레벨 이하로 감소되면 상기 영상표시장치의 전원을 오프시키는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 기설정된 알람(Alarm) 시각에 상기 영상표시장치를 온 시키고, 상기 볼륨 및 조도 중 적어도 하나가 기 설정된 레벨로 설정되도록 상기 오디오 출력부 및 디스플레이부를 제어하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 현재 디스플레이 되고 있는 컨텐츠를 녹화하는 것을 특징으로 한다.
일 실시예에서, 상기 생체 신호는, 기 설정된 시간 동안 감지된 상기 사용자의 맥박, 호흡수 또는 상기 사용자의 체온 중 적어도 하나이고, 상기 제어부는, 상기 생체 신호 정보에 포함된 생체 신호들 중 적어도 하나가 기 설정된 수치 이하로 감소하는 경우, 상기 사용자가 수면 상태에 있는 것으로 판단하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 복수의 사용자가 감지되는 경우, 기 설정된 우선순위에 근거한 특정 사용자가 수면 상태에 있는지 여부에 근거하여 상기 볼륨 및 조도 중 적어도 하나의 레벨을 감소시키는 것을 특징으로 한다.
일 실시예에서, 상기 사용자의 움직임을 감지하기 위한 카메라를 더 구비하고, 상기 제어부는, 상기 1차 판단 결과 상기 사용자가 수면 상태가 아닌 것으로 판단된 경우에도 상기 카메라를 통해 상기 사용자의 움직임을 감지하여 상기 2차 판단을 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 기설정된 시간 간격으로 상기 사용자의 움직임을 감지하고, 감지된 사용자의 움직임 정도가 기 설정된 수준 이하인 경우, 또는 일정 수준 이상의 움직임이 감지된 횟수가 기 설정된 횟수 미만인 경우에 상기 사용자가 수면 상태에 있는 것으로 판단하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 외부 입력 장치와 상기 영상표시장치간의 이격거리를 검출하고, 상기 검출된 이격거리가 기준범위 이내이면, 기설정된 제어모드에 따라 상기 생체 신호 정보를 이용한 상기 1차 판단만을 수행하거나 또는 상기 1차 판단과 상기 사용자의 움직임 감지 정보를 이용한 상기 2차 판단을 수행하여 상기 사용자가 수면 상태에 있는지를 선택적으로 판단하고, 상기 검출된 이격거리가 기준범위를 초과하면, 상기 사용자의 움직임 감지 정보를 이용한 상기 2차 판단만을 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 사용자로부터 기 설정된 거리 이내에 상기 외부입력기기가 있는 경우이면, 상기 생체 신호 정보와 상기 사용자의 움직임 감지 결과를 이용하여 상기 사용자가 수면 상태에 있는지를 판단하고, 상기 사용자로부터 기 설정된 거리 이내에 상기 외부입력기기가 없는 경우이면, 상기 사용자의 움직임 감지 결과만을 이용하여 상기 사용자가 수면 상태에 있는지를 판단하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과, 상기 사용자가 수면 상태에 있지 않는 경우, 상기 생체 신호 정보로부터 상기 사용자의 심리 상태를 판단하고, 상기 디스플레이부에 현재 출력되는 컨텐츠를 상기 판단된 사용자의 심리 상태에 대응되는 컨텐츠 정보로 저장하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 2차 판단 결과, 상기 사용자가 수면 상태에 있지 않는 경우, 상기 생체 신호 정보로부터 상기 사용자의 심리 상태를 판단하고, 상기 판단된 사용자의 심리 상태에 대응되는 컨텐츠의 제공 여부를 묻는 메시지를 출력하도록 제어하는 것을 특징으로 한다.
일 실시예에서, 상기 출력된 메시지에 응답하여 제공되는 컨텐츠는, 메모리에 기 저장된 컨텐츠들 또는 외부 서버나 방송국 서버에 저장된 컨텐츠들 중, 기 저장된 적어도 하나의 상기 컨텐츠 정보 중 어느 하나에 대응되는 것임을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 생체 신호 정보에 포함된 생체 신호들 중 적어도 하나에 근거하여 상기 사용자의 심리 상태를 서로 다르게 판단하는 것을 특징으로 한다.
또한, 본 발명의 실시예에 따른 영상표시장치에 사용자의 입력 신호를 전송하는 리모트 컨트롤러는 기설정된 거리이내에 위치한 사용자로부터 생체 신호를 감지하는 생체 신호 감지 센서와; 상기 감지된 생체 신호에 근거하여 상기 사용자가 수면 상태에 있는지 여부를 1차 판단하고, 상기 1차 판단 결과 상기 사용자가 수면 상태에 있거나 상기 생체 신호가 감지되지 않으면, 상기 영상표시장치에 구비된 카메라를 활성화하여 사용자의 움직임 정보를 이용한 2차 판단 결과에 따라 상기 영상표시장치의 오디오 출력 볼륨 및 디스플레이 조도 중 적어도 하나의 레벨을 감소시키기 위한 제어 신호를 상기 영상표시장치에 전송하는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 1차 판단 결과 상기 사용자가 수면 상태에 있는 경우, 상기 생체 신호를 감지하는 시간 간격을 점차적으로 늘리고, 상기 시간 간격이 기 설정된 시간 이상인 경우 상기 생체 신호 감지 센서를 오프시키는 것을 특징으로 한다.
일 실시예에서, 상기 제어부는, 상기 1차 판단 결과 상기 사용자가 수면 상태에 있지 않는 경우, 상기 생체 신호에 근거하여 사용자의 심리 상태를 판단하고, 상기 사용자의 심리 상태에 대응되는 컨텐츠에 대한 정보를 상기 영상표시장치에 전송하는 것을 특징으로 한다.
일 실시예에서, 상기 리모트 컨트롤러는. 이동 통신 단말기 또는 착용형(wearable) 기기임을 특징으로 한다.
본 발명의 일 실시 예에 따른 영상표시장치 및 그 동작 방법은, 사용자의 생체 신호나 움직임을 통해 사용자가 수면 상태에 있는지를 판단하고, 그에 따라 동작 모드가 전환되도록 함으로써, 사용자가 보다 안락한 수면을 취할 수 있도록 한다.
본 발명의 일 실시 예에 따른 영상표시장치 및 그 동작 방법은, 사용자의 생체 신호를 이용하여 사용자의 심리 상태를 판단하고, 그에 따른 컨텐츠가 추천될 수 있도록 함으로써, 사용자가 자신의 심리 상태에 적합한 컨텐츠를 제공받을 수 있도록 한다.
도 1은 본 발명과 관련된 영상표시장치 및 외부입력기기를 보여주는 블록도이다.
도 2는 도 1의 외부입력기기를 상세하게 보여주는 블록도이다.
도 3은 본 발명과 관련된 영상표시장치 및 외부입력기기의 상호 동작을 보여주는 개념도이다.
도 4는 본 발명의 실시 예에 따른 영상표시장치의 동작 방법을 설명하기 위한 흐름도이다.
도 5는 도 4의 영상표시장치 동작 방법을 설명하기 위한 개념도이다.
도 6은 사용자와 외부입력기기 사이의 이격겨리가 일정 거리를 초과하는 경우 본 발명의 일 실시 에에 따른 영상표시장치의 동작 방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시 예에 따른 영상표시장치에서 슬립 모드로 전환되는 경우 함께 설정될 수 있는 동작 모드를 설명하기 위한 개념도이다.
도 8은 본 발명의 일 실시 예에 따른 영상표시장치에서 슬립 모드의 동작 예를 설명하기 위한 개념도이다.
도 9는 본 발명의 일 실시 예에 따른 영상표시장치에서 사용자의 심리 상태에 적합한 컨텐츠가 제공되는 방법을 설명하기 위한 흐름도이다.
도 10은 도 9의 컨텐츠 제공 방법을 설명하기 위한 개념도이다.
도 11은 본 발명의 실시 예에 따른 영상표시장치 또는 외부입력기기를 통해 사용자의 심리 상태에 적합한 컨텐츠가 제공되는 방법을 설명하기 위한 개념도이다.
도 12는 본 발명의 실시 예에 따른 영상표시장치에서 사용자의 심리 상태에 대응되는 컨텐츠가 제공되는 예를 도시한 도면이다.
도 13은 본 발명의 실시 예에 따른 리모컨 컨트롤러의 구현 예를 도시한 예시도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대해 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
본 명세서에서, 영상표시장치는 방송을 수신하여 표시하거나, 동영상을 기록 및 재생하는 장치와 오디오를 기록 및 재생하는 장치를 모두 포함한다.
도 1은 본 발명과 관련된 영상표시장치(100) 및 외부입력기기(200)를 보여주는 블록도이다. 영상표시장치(100)는, 튜너(110), 복조부(120), 신호 입출력부(130), 인터페이스부(140), 제어부(150), 저장부(160), 디스플레이부(170) 및 오디오 출력부(180)를 포함한다. 외부입력기기(200)는 영상표시장치(100)와 별도의 장치이나, 영상표시장치(100)의 일 구성요소로 포함될 수 있다.
도 1을 참조하면, 튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 대응하는 RF 방송 신호를 선택하고, RF 방송 신호를 중간 주파수 신호 또는 베이스 밴드 영상/음성 신호로 변환한다. 예를 들어, RF 방송 신호가 디지털 방송 신호이면, 튜너(110)는 RF 방송 신호를 디지털 IF 신호(DIF)로 변환한다. 반면, RF 방송 신호가 아날로그 방송 신호이면, 튜너(110)는 RF 방송 신호를 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)로 변환된다. 이와 같이, 튜너(110)는 디지털 방송 신호와 아날로그 방송 신호를 처리할 수 있는 하이브리드 튜너일 수 있다.
*튜너(110)에서 출력되는 디지털 IF 신호(DIF)는 복조부(120)로 입력되고, 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 제어부(160)로 입력될 수 있다.
튜너(110)는 ATSC(Advanced Television Systems Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
비록 도면에는 하나의 튜너(110)가 도시되나, 이에 한정되지 않고, 영상표시장치(100)는 다수의 튜너, 예를 들어, 제 1 및 제 2 튜너를 구비할 수 있다. 이런 경우, 제 1 튜너는 사용자가 선택한 방송 채널에 대응하는 제 1 RF 방송 신호를 수신하고, 제 2 튜너는 기저장된 방송 채널에 대응하는 제 2 RF 방송 신호를 순차적으로 또는 주기적으로 수신할 수 있다. 제 2 튜너는 제 1 튜너와 마찬가지 방식으로 RF 방송 신호를 디지털 IF 신호(DIF) 또는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)로 변환할 수 있다.
복조부(120)는 튜너(110)에서 변환 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
튜너(110)로부터 출력되는 디지털 IF 신호(DIF)가 ATSC 방식이면, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 8-VSB(8-Vestigal Side Band) 복조는 NTSC(National Television System Committee) 주파수 대역을 사용하는 단일 반송파 진폭변조의 잔류측파대 변조방식에 의한 복조이다. 이때, 복조부(120)는 트렐리스 복호화, 디인터리빙(de-interleaving), 리드 솔로몬 복호화 등의 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는 트렐리스 디코더(Trellis decoder), 디인터리버(de-interleaver) 및 리드 솔로몬 디코더(Reed Solomon decoder) 등을 구비할 수 있다.
튜너(110)로부터 출력되는 디지털 IF 신호(DIF)가 DVB 방식이면, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 이때, 복조부(120)는 컨벌루션 복호화, 디인터리빙, 리드 솔로몬 복호화 등의 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는 컨벌루션 디코더(convolution decoder), 디인터리버 및 리드-솔로몬 디코더 등을 구비할 수 있다.
복조부(120)는 이와 같이 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 예를 들어, 스트림 신호(TS)는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transprt Stream)일 수 있다. 여기서, MPEG-2 TS는 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
이와 같이 복조부(120)에서 출력된 신호는 제어부(170)로 입력되어 역다중화, 영상/음성 신호 처리 등이 수행될 수 있다.
신호 입출력부(130)는 외부 기기, 예를 들어 DVD(Digital Veratile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북), 셋탑 박스, 휴대기기, 스마트 폰 등과 유/무선으로 연결되어 신호 입력 및 출력 동작을 수행한다. 이를 위해, 유선 네트워크와의 접속을 위한 A/V 입출력부 및 무선 네트워크와의 접속을 위한 무선 통신부를 포함할 수 있다.
A/V 입출력부(미도시)는 이더넷(Ethernet) 단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, MHL (Mobile High-definition Link) 단자, RGB 단자, D-SUB 단자, IEEE 1394 단자, SPDIF 단자, 리퀴드(Liquid) HD 단자 등을 포함할 수 있다. 이러한 단자들을 통해 입력되는 디지털 신호는 제어부(150)에 전달될 수 있다. 이때, CVBS 단자 및 S-비디오 단자를 통해 입력되는 아날로그 신호는 아날로그-디지털 변환부(미도시)를 통해 디지털 신호로 변환되어 제어부(150)로 전달될 수 있다.
무선 통신부(미도시)는 무선 인터넷 접속을 수행할 수 있다. 예를 들어, 무선 통신부(미도시)는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등을 이용하여 무선 인터넷 접속을 수행할 수 있다. 또한, 무선 통신부(미도시)는 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 예를 들어, 무선 통신부(미도시)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등을 이용하여 근거리 무선 통신을 수행할 수 있다.
신호 입출력부(130)는 유/무선 네트워크를 통해, 소정 웹 페이지에 접속하여 해당 서버와 데이터를 송수신할 수 있고, 그 외에도, 콘텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들, 예를 들어 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보들을 수신할 수 있다. 신호 입출력부(130)는 유/무선 네트워크를 통해, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있고, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수도 있다.
신호 입출력부(130)는 상기한 외부 기기로부터 제공되는 영상 신호, 음성 신호 및 데이터 신호를 제어부(150)로 전달할 수 있다. 또한, 신호 입출력부(130)는 메모리 장치, 하드디스크 등과 같은 외부 저장 장치에 저장된 다양한 미디어 파일의 영상 신호, 음성 신호 및 데이터 신호를 제어부(150)로 전달할 수 있다. 또한, 신호 입출력부(130)는 제어부(150)에 의해 처리된 영상 신호, 음성 신호 및 데이터 신호를 상기한 외부 기기 또는 다른 외부 기기로 전달할 수 있다.
좀 더 구체적으로, 신호 입출력부(130)가 상술한 각종 단자 중 적어도 하나를 통해 셋톱 박스, 예를 들어, IPTV(Internet Protocol TV)용 셋톱 박스와 연결되어서 신호 입력 및 출력 동작을 수행할 수 있다. 또한, 신호 입출력부(130)는 양방향 통신이 가능하도록 IPTV용 셋톱 박스에 의해 처리된 영상 신호, 음성 신호 및 데이터 신호를 제어부(150)로 전달할 수 있고, 제어부(150)에 의해 처리된 신호들을 IPTV용 셋톱 박스로 다시 전달할 수도 있다. 여기서, IPTV는 전송 네트워크에 따라 구분되는 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함할 수 있고, TV over DSL, Video over DSL, TV over IP(TVIP), Broadband TV(BTV) 등을 포함할 수 있고, 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 더 포함할 수 있다.
신호 입출력부(130)에서 출력되는 디지털 신호도 스트림 신호(TS : Transport Stream)를 포함할 수 있다. 이와 같은 스트림 신호(TS)는 상술한 바와 같이 영상 신호, 음성 신호 및 데이터 신호가 다중화된 신호일 수 있다.
인터페이스부(140)는 사용자가 입력한 신호를 제어부(150)로 전달하거나, 제어부(150)로부터 전달된 신호를 사용자에게 전달할 수 있다.
인터페이스부(140)는 전원키, 채널키, 볼륨키, 설정키 등에 입력되는 사용자 입력 신호를 제어부(150)에 전달할 수 있다. 또한, 인터페이스부(140)는 사용자의 제스처, 사용자의 위치, 터치 등을 센싱하기 위한 센서부(미도시)가 구비될 수 있다. 이를 위해, 센서부는 터치 센서, 음성 센서, 위치 센서, 동작 센서, 자이로 센서 등을 포함할 수 있다. 그러한 경우 인터페이스부(140)는 센서부로부터 입력되는 입력 신호를 제어부(150)에 전달하거나 제어부(150)로부터의 신호를 센서부로 송신할 수 있다.
인터페이스부(140)는 외부입력기기(200), 예를 들어 공간 리모콘으로부터의 전원 제어, 채널 선택, 화면 설정 등을 위해 사용자가 입력한 입력 신호를 수신하거나, 제어부(160)에 의해 처리된 신호를 외부입력기기(200)로 전송할 수 있다. 이때, 인터페이스부(140)와 외부입력기기(200)는 유선 또는 무선으로 연결될 수 있다.
또한, 인터페이스부(140)는 외부입력기기(200)로부터 개인 정보를 수신하거나 그리고/또는 그러한 개인 정보를 통해 접속 중인 웹 서버 정보를 수신할 수 있다. 예를 들어, 이동 단말기가 외부입력기기(200)에 소정 거리 이내로 접근하여 근거리 자기장 통신(NFC)를 수행하는 경우에, 외부입력기기(200)는 이동 단말기내에 저장된 개인 정보 등을 수신할 수 있다. 여기서, 개인 정보는 전자기기에 접속하거나 또는 서비스를 이용하기 위해 소정 계정으로 로그인하기 위해 필요한 정보일 수 있다.
또한, 인터페이스부(140)는 외부입력기기(200)로부터 생체 신호와 관련된 생체 신호 정보를 수신할 수 있다. 예를 들어 상기 생체 신호 정보는 사용자로부터 감지된 맥박수, 체온, 호흡수와 같은 생체 신호를 적어도 하나 이상 포함할 수 있다. 이러한 생체 신호들은 상기 외부입력기기(200)에 구비된 생체 신호 감지 센서로부터 감지될 수 있다. 그리고 상기 생체 신호 정보는 적어도 한 명 이상의 사용자로부터 수신될 수 있으며, 상기 사용자가 복수인 경우 상기 생체 신호 정보는 각 사용자별로 구분되어 수신될 수 있다.
제어부(150)는 영상표시장치(100)의 전반적인 동작을 제어한다. 구체적으로, 제어부(150)는 튜너(110), 복조부(120), 및/또는 신호 입출력부(130)를 통해서 수신되는 스트림 신호(TS)를 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. 예를 들어, 제어부(150)는 사용자가 선택한 채널 또는 기저장된 채널에 대응하는 RF 방송 신호를 튜닝하도록 튜너(110)를 제어할 수 있다.
제어부(150)에서 영상 처리된 영상 신호는 디스플레이부(170)로 전달되어 해상 영상 신호에 대응하는 영상을 출력할 수 있고, 제어부(150)에서 처리된 음성 신호는 오디오 출력부(180)로 전달되어 음향을 출력할 수 있다. 또한, 제어부(150)에서 처리된 영상 신호 및/또는 음성 신호는 신호 입출력부(130)를 통해 외부 기기의 출력장치로 입력될 수 있다.
제어부(150)는 예를 들어 스트림 신호(TS)를 역다중화하거나, 역다중화된 신호들을 처리하여 영상 또는 음성 출력을 위한 신호를 생성 및 출력하기 위해, 비록 도면에는 도시되지 않았으나, 역다중화부, 영상 처리부, OSD(On Screen Display) 생성부, 음성 처리부, 데이터 처리부, 채널 브라우징 처리부 등을 포함할 수 있다.
역다중화부(미도시)는 입력된 스트림 신호(TS)를 역다중화한다. 역다중화는 예를 들어, MPEG-2 스트림 신호(TS)가 입력되는 경우 이를 역다중화하여, 각각 영상 신호, 음성 신호 및 데이터 신호로 분리할 수 있다. 여기에서, 스트림 신호(TS)는 상술한 바와 같이, 튜너(110), 복조부(120), 및/또는 신호 입력출력(130)로부터 출력되는 것 일 수 있다.
영상 처리부(미도시)는 역다중화된 영상 신호의 영상 처리, 예를 들어 복호화를 수행할 수 있다. 좀더 상세하게, 영상 처리부는 MPEG-2 디코더를 이용하여 MPEG-2 규격의 부호화된 영상 신호를 복호화하고, H.264 디코더를 이용하여 DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H(Digital Video Broadcast-Handheld) 방식에 따라 H.264 규격의 부호화된 영상 신호를 복호화할 수 있다. 또한, 영상 처리부는 영상 신호의 밝기(brightness), 틴트(tint) 및 색조(color) 등이 조절되도록 영상 처리할 수 있다. 또한, 영상 처리부는 역다중화된 영상 신호가 디스플레이부(170)에서 출력가능하도록 스케일링(scalling) 할 수 있다. 이와 같이 영상 처리부에서 영상 처리된 영상 신호는 디스플레이부(170)로 전달되거나, 외부 출력 단자를 통해 외부 출력 장치(미도시)로 전달될 수 있다.
OSD 생성부(미도시)는 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성할 수 있다. 좀 더 상세하게, OSD 생성부는 예를 들어, 영상 신호 및 데이터 신호 중 적어도 하나 또는 외부입력기기(200)로부터 수신되는 입력 신호에 기초하여, 디스플레이부(170)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘, 외부입력기기(200)로부터 송신되는 포인팅 신호에 대응하는 포인터 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다.
제어부(150)는 상술한 OSD 생성부에서 생성된 OSD 신호와 영상 처리부에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(Frame Rate Conveter, FRC)를 거쳐 영상의 프레임 레이트를 변경할 수 있다. 또한, 믹싱된 영상 신호는 포맷터(Formatter)를 거쳐 영상 신호의 포맷을 변경하여 출력하거나 3D 영상 표시를 위해 2D 영상 신호와 3D 영상 신호를 분리하거나 또는 2D 영상 신호를 3D 영상 신호로 전환할 수 있다.
음성 처리부(미도시)는 역다중화된 음성 신호에 대한 음성 신호 예를 들어, 복호화를 수행할 수 있다. 좀더 상세하게, 음성 처리부는 MPEG-2 디코더를 이용하여 MPEG-2 규격의 부호화된 음성 신호를 복호화할 수 있고, MPEG 4 디코더를 이용하여 DMB 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호를 복호화할 수 있고, AAC 디코더를 이용하여 위성 DMB 방식 또는 DVB-H(Digital Video Broadcast-Handheld) 방식에 따라 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호를 복호화할 수 있다. 또한, 음성 처리부는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. 이와 같이 음성 처리부에서 처리된 음성 신호는 오디오 출력부(180), 예를 들어, 스피커로 전달되거나, 또는 외부 출력 장치로 전달될 수 있다.
데이터 처리부(미도시)는 역다중화된 데이터 신호에 대한 데이터 처리, 예를 들어, 복호화를 수행할 수 있다. 여기서, 데이터 신호는 각각의 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Program Guide) 정보를 포함할 수 있다. EPG 정보는, 예를 들어, ATSC 방식에서는 ATSC-PSIP(ATSC-Program and System Information Protocol) 정보를 포함할 수 있고, DVB 방식에서는 DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. 여기서, ATSC-PSIP 정보 또는 DVB-SI 정보는 MPEG-2 스트림 신호(TS)의 헤더(4 byte)에 포함될 수 있다.
채널 브라우징 처리부(미도시)는 복조부(120)에서 출력된 스트림 신호(TS) 또는 신호 입출력부(130)에서 출력된 스트림 신호(TS)를 입력받아, 그로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(150)에 입력될 수 있다. 그러한 경우, 제어부(150)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이부(170)에 표시할 수 있다. 이때, 썸네일 리스트내의 썸네일 영상은 디스플레이부(170)의 전체 영역에 표시될 수도 있고 디스플레이부(170)의 일부 영역에 간편 보기 방식으로 표시될 수도 있다. 또한, 썸네일 리스트내의 썸네일 영상은 순차적으로 업데이트될 수 있다.
한편, 제어부(150)는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)에 대한 신호 처리도 수행할 수 있다. 예를 들어, 제어부(150)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(110) 또는 신호 입출력부(130)에서 출력되는 아날로그 베이스 밴드 영상/음성신호일 수 있다. 제어부(150)는 입력된 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)를 처리하고, 신호 처리된 영상 신호는 디스플레이부(170)를 통해 표시되도록 하고, 신호 처리된 음성 신호는 오디오 출력부(180)를 통해 출력되도록 제어한다.
또한, 제어부(150)는 신호 입출력부(130) 또는 인터페이스부(140)를 통해 입력된 사용자 명령이나 또는 내부 프로그램 등에 의하여 영상표시장치(100)의 동작을 제어할 수 있다. 좀더 상세하게, 제어부(150)는 신호 입출력부(130) 또는 인터페이스부(140)로부터 수신되는, 영상표시장치(100) 주변의 인접 외부 기기의 기기 정보, 다른 외부 기기의 원격제어 가능한 채널 정보, 주파수 정보 또는 코드 정보 등에 기초하여, 외부입력기기(200)로부터의 개인 정보에 따라, 각 외부 기기 등이 접속되었는지 여부를 판단하고, 외부 기기가 접속되었음을 나타내는 오브젝트를 디스플레이(170)에 표시하도록 제어할 수 있다.
또한, 제어부(150)는 디스플레이부(170)에 표시되는 적어도 하나의 오브젝트에 대해 3D 오브젝트로 표시되도록 할 수 있다. 여기서, 오브젝트는 예를 들어, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 이 외에 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다.
또한, 제어부(150)는 카메라(190)로부터 촬영된 영상, 센싱부(미도시)로부터의 감지된 신호, 또는 외부입력기기(200)로부터 송신된 입력 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다.
또한, 제어부(150)는 카메라(190)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식할 수 있다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있고, 이 외에도, 사용자 위치에 대응하는 디스플레이부(170) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.
또한, 제어부(150)는 카메라(190)로부터 촬영된 영상에 기초하여 사용자의 움직임을 감지할 수 있다. 예를 들어 제어부(150)는 기 설정된 시간 간격에 따라 사용자의 이미지를 촬영하여, 촬영된 이미지를 비교함으로써 사용자의 움직임이 있는지를 감지할 수 있다. 또는 제어부(150)는 상기 각 시간 간격에 따라 촬영된 이미지를 통해 사용자가 얼마나 움직였는지, 즉 사용자의 움직임 정도를 감지할 수도 있다. 제어부(150)는 이처럼 사용자의 움직임 여부를 감지하기 위해 동작 감지부(156)를 구비할 수 있다. 동작 감지부(156)는 제어부(150)의 내에 구현될 수도 있고, 제어부(150)와 별도로 구현될 수 있다.
또한 제어부(150)는 외부입력기기(200)로부터 수신된 생체 신호 정보를 이용하여 사용자의 상태를 판단할 수 있다. 예를 들어 제어부(150)는 상기 생체 신호 정보에 포함된 생체 신호 중 적어도 하나에 근거하여 사용자가 현재 수면 상태에 있는지 여부를 판단할 수 있다. 또는 제어부(150)는 수신된 생체 신호 정보를 이용하여 사용자의 현재 심리 상태를 판단할 수 있다.
또한 제어부(150)는 상기 사용자가 현재 수면 상태에 있는지 여부를 판단하기 위해, 동작 감지부(156)의 감지 결과를 이용할 수도 있다. 예를 들어 제어부(150)는 동작 감지부(156)의 사용자 움직임 감지 결과, 사용자의 움직임 정도가 기 설정된 수준 이하인 경우, 사용자가 수면 상태에 있는 것으로 판단할 수도 있다. 이처럼 제어부(150)는 사용자가 수면 상태에 있는지 여부 또는 사용자의 심리 상태를 판단하기 위해 판단부(152)를 구비할 수 있다. 판단부(152)는 제어부(150)의 내에 구현될 수도 있고, 제어부(150)와 별도로 구현될 수도 있다.
제어부(150)는 판단부(152)의 판단 결과에 근거하여, 영상표시장치(100)의 동작 모드를 전환할 수 있다. 예를 들어 제어부(150)는 판단부(152)의 판단 결과 사용자가 수면 상태에 있는 경우, 동작 모드를 슬립 모드(sleep mode)로 전환할 수 있다.
또는, 제어부(150)는 판단부(152)의 판단 결과를 이용하여 사용자의 심리 상태에 적합한 컨텐츠를 사용자에게 제공할 수도 있다. 이를 위해 제어부(150)는 컨텐츠 검색부(154)를 구비할 수 있다. 컨텐츠 검색부(154)는 사용자의 심리 상태가 판단되면, 판단된 사용자의 심리 상태에 대응되는 컨텐츠를 저장부(160)나 외부 서버(예를 들어 클라우드 서버) 또는 방송국 서버등을 통해 검색할 수 있다.
제어부(150)는 사용자의 심리 상태에 대응되는 컨텐츠를 검색하기 위해, 저장부(160)에 기 저장된 컨텐츠 정보들을 이용할 수 있다. 여기서 상기 컨텐츠 정보는 사용자의 특정 심리 상태에 대응되는 컨텐츠에 대한 정보일 수 있다. 예를 들어 제어부(150)는 사용자의 심리 상태를 판단하고, 판단된 사용자의 심리 상태에 대응되는 컨텐츠 정보에 근거하여 상기 검색을 수행할 수 있다. 그리고 검색된 컨텐츠를 상기 사용자의 심리 상태에 대응되는 컨텐츠로 사용자에게 제공할 수 있다.
저장부(160)는 제어부(150)의 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상 신호, 음성 신호 및 데이터 신호, 채널 맵 등의 채널 기억 기능을 통해 소정 방송 채널에 관한 정보 등을 저장할 수도 있다.
또한 저장부(160)는 상기 제어부(150)에 의해 수집된 컨텐츠 정보들이 저장될 수 있다. 여기서 컨텐츠 정보는 사용자의 각 심리 상태에 대응되는 특정한 컨텐츠에 대한 정보일 수 있다. 예를 들어 상기 컨텐츠 정보는 상기 특정한 컨텐츠의 카테고리에 대한 정보일 수 있고, 상기 특정 컨텐츠의 제작사 또는 제작자나 감독에 대한 정보일 수 있다.
저장부(160)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다.
또한, 저장부(160)는 다른 외부 기기들을 제어하기 위한 IR 포맷 키(key) 코드들을 저장할 수 있고, 복수의 외부 기기의 IR 포맷 키 데이터베이스를 저장할 수도 있다.
디스플레이부(170)는 제어부(150)에 의해 처리된 영상 신호, 데이터 신호, OSD 신호, 또는 신호 입출력부(130)나 인터페이스부(140)로부터 수신된 영상 신호, 데이터 신호, 제어 신호 등을 RGB 신호로 변환하여 구동 신호를 생성하고, 이를 통해, 영상을 출력한다. 디스플레이부(170)는 플라즈마 디스플레이 패널(Plasma Display Panel: PDP), 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT- LCD), 유기 발광 다이오드(Organic Light Emitting Diode: OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 등의 다양한 형태로 구현될 수 있다
예를 들어, 디스플레이부(170)가 3차원 디스플레이(3D display)인 경우에는, 3차원 영상 시청을 위하여 추가 디스플레이 방식 또는 단독 디스플레이 방식에 의하여 구현될 수 있다. 단독 디스플레이 방식은 별도의 디스플레이 없이, 예를 들어 안경(glass) 등이 없이 디스플레이부(170) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등의 방식이 적용될 수 있다. 또한, 추가 디스플레이 방식은 디스플레이부(170) 외에 3D 시청장치를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로 헤드 마운트 디스플레이(HND) 타입, 안경 타입 등의 방식이 적용될 수 있다.
또한, 디스플레이부(170)가 터치 센서를 구비한 터치 스크린으로 구현되는 경우에는 출력 장치 외에 입력 장치의 기능도 수행할 수 있다.
터치 센서는 디스플레이부(170)의 특정 부위에 가해진 압력 또는 디스플레이부(170)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부로 전송한다. 이로써, 제어부(150)는 디스플레이부(170)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
오디오 출력부(180)는 제어부(150)에 의해 처리된 음성 신호, 예를 들어, 스테레오 신호 또는 5.1 채널 신호를 입력받아 그에 대응하는 음향을 출력한다. 이를 위해, 오디오 출력부(180)는 다양한 형태의 스피커로 구현될 수 있다.
마이크(미도시)는 사용자로부터 소정의 음성명령을 수신할 수 있다. 또한, 마이크(미도시)는 외부의 음향 신호가 입력되는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 포함할 수 있다. 마이크(미도시)를 통해 입력된 사용자의 음성명령이나 외부 음향은 제어부(150)로 입력될 수 있다. 그러면, 상기 제어부(150)는 입력받은 음성명령이나 음향을 신호 처리하여 대응되는 의미나 기능을 인식할 수 있다.
한편, 비록 도시되지는 않았지만, 카메라(190)는 외부 또는 사용자를 촬영하고, 일반적으로는 1개가 구비되나 사용 환경에 따라 2개 이상이 구비될 수 있다. 카메라를 통해 촬영된 영상 정보는 제어부(150)로 입력될 수 있다. 그러면, 제어부(150)는 입력받은 영상 정보를 신호처리하여 사용자 또는 특정 객체의 위치나 동작을 감지할 수 있다.
또한, 영상표시장치(100)는 카메라(190)와 마이크(미도시)를 포함하여 이루어지는 화상통신부(미도시)를 구비할 수 있다. 제어부(150)는 카메라에 의하여 촬영된 영상 정보와 마이크(미도시)에 의하여 수집된 오디오 정보를 신호 처리하여 신호 입출력부(130) 또는 인터페이스(140)를 통하여 상대방의 화상통신 기기로 전송할 수 있다.
전원 공급부(미도시)는, 영상표시장치(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 제어부(150)와, 영상 표시를 위한 디스플레이부(170), 및 오디오 출력을 위한 오디오 출력부(180)에 전원을 공급할 수 있다.
이를 위해, 전원 공급부(미도시)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이부(170)가 다수의 백라이트 램프를 구비하는 액정패널로서 구현되는 경우에는, 휘도 가변 또는 디밍(dimming) 구동을 위하여, PWM 동작이 가능한 인버터(미도시)를 더 구비할 수도 있다.
외부입력기기(200)는 유선 또는 무선으로 인터페이스부(140)와 연결되어서, 사용자 입력에 따라 생성되는 입력 신호를 인터페이스부(140)로 전송한다. 그리고 사용자로부터 감지되는 생체 신호를 적어도 하나 이상 포함하는 생체 신호 정보를 상기 인터페이스부(140)로 전송한다.
외부입력기기(200)는 원격조정기(예, 공간 리모콘), 마우스, 키보드, 휠 등을 포함할 수 있다. 원격조정기는 블루투스(Bluetooth), RF 통신, 적외선 통신(IR 통신), UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 통해 입력 신호를 인터페이스부(140)로 전송할 수 있다. 외부입력기기(200)가 특히 공간 리모콘으로 구현된 경우에는 본체의 동작을 감지하여서 소정의 입력 신호를 생성할 수 있다.
한편, 영상표시장치(100)는 고정형 디지털 방송 수신기로 구현되거나 또는 이동형 디지털 방송 수신기로 구현될 수 있다.
영상표시장치(100)가 고정형 디지털 방송 수신기로 구현되는 경우에는, 단일의 캐리어를 사용하는 ATSC 방식(8-VSB 방식)의 디지털 방송, 복수의 캐리어를 사용하는 지상파 DVB-T 방식(COFDM 방식)의 디지털 방송, 사용자의 권한에 따라 각기 다른 방송 채널을 사용할 수 있도록 하는 ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신할 수 있도록 구현 가능하다.
영상표시장치(100)가 이동형 디지털 방송 수신기로 구현되는 경우에는, 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H(Digital Video Broadcast-Handheld) 방식의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신할 수 있도록 구현 가능하다.
한편, 영상표시장치(100)는 케이블, 위성 통신, IPTV용 디지털 방송 수신기로도 구현될 수 있다.
또한, 상기에서 설명한 영상표시장치(100)는 이동 단말기에도 적용될 수 있다. 상기 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook) 등이 포함될 수 있다.
영상표시장치가 이동 단말기로서 사용되는 경우에는 상술한 구성 이외에, 무선 통신부가 더 추가될 수 있다. 무선 통신부는 이동 단말기와 무선 통신 시스템 사이 또는 이동 단말기와 이동 단말기가 위치한 네트워크 사이에 무선 통신을 가능하게 한다.
이를 위해, 무선 통신부는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
방송 수신 모듈은 방송 채널을 통해 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신할 수 있다.
여기서, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 또한, 여기서, 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 또한, 여기서, 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, 이 외에도 TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
여기서, 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있고, 이러한 방송 관련 정보는, 이동 통신망을 통하여 제공될 수 있다. 또한, 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), DVB-CBMS(Convergence of Broadcasting and Mobile Service), OMA-BCAST(Open Mobile Alliance-BroadCAST), CMMB(China Multimedia Mobile Broadcasting), MBBMS(Mobile Broadcasting Business Management System), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 방식을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 저장부(160)에 저장될 수 있다.
이동 통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
상기 이동 통신 모듈은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 이동통신 모듈은 화상통화모드 및 음성통화모드를 구현하기 위해 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈로서, 이동 단말기에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE(Long Term Evolution) 등이 이용될 수 있다.
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetoot), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), 와이-파이 다이렉트 등이 이용될 수 있다.
위치정보 모듈은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.
도 2는 도 1에 도시된 외부입력기기(200)를 상세하게 보여주는 블록도이다. 외부입력기기(200)는 무선 통신부(210), 사용자 입력부(220), 감지부(230), 출력부(240), 전원 공급부(250), 저장부(260) 및 제어부(270)를 등을 포함하여 이루어질 수 있다. 여기서 외부입력기기(200)는 상기 영상표시장치(100)에 사용자 신호를 비롯한 각종 제어 신호를 전송하는 리모트 컨트롤러(remote controler)일 수 있다.
도 2를 참조하면, 무선 통신부(210)는 영상표시장치(100)로 신호를 송신하거나 영상표시장치(100)로부터 신호를 수신한다. 이를 위해, 무선 통신부(210)는 RF 모듈(211) 및 IR 모듈(212)을 구비할 수 있다. RF 모듈(211)은 RF 통신 규격에 따라 영상표시장치(100)의 인터페이스부(140)와 연결되어 신호를 송수신하고, IR 모듈(212)은 IR 통신 규격에 따라 영상표시장치(100)의 인터페이스부(140)와 신호를 송수신할 수 있다. 예를 들어, 무선 통신부(210)는 영상표시장치(100)로 외부입력기기(200)의 움직임 등의 정보를 포함하는 신호를 RF 모듈(211)을 통해 전송할 수 있다.
한편, 외부입력기기(200)는, 외부 기기와의 근거리 자기장 통신을 위한, NFC 모듈(미도시)을 더 구비하여 소정 외부 기기와 근거리 자기장 통신에 의해, 개인 정보, 개인 정보에 의해 접속 중인 웹 서버 정보 등을 수신하고, 수신된 정보들을 RF 모듈(211) 또는 IR 모듈(212)을 통해 영상표시장치(100)로 전송할 수 있다.
이외에도 외부입력기기(200)는 블루투스(Bluetooth), 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee), 근거리 자기장 통신(NFC) 방식 등을 사용하여 영상표시장치(100)의 인터페이스부(140)로 신호를 송신할 수도 있다.
외부입력기기(200)는 영상표시장치(100)의 인터페이스부(140)에서 출력되는 영상, 음성 또는 데이터 신호 등을 수신할 수 있다. 그리고 외부입력기기(200)는, 수신되는 영상, 음성 또는 데이터 신호에 기초하여, 외부입력기기(200)에서 이를 표시하거나 음성 출력할 수 있다.
또한, 외부입력기기(200)는 주변의 인접 외부 기기로부터, 다른 외부 기기의 기기 정보, 다른 외부 기기의 원격제어가 가능한 채널 정보, 주파수 정보 또는 코드 정보 등을 수신할 수도 있고, 이러한 다른 외부 기기 정보에 기초하여, 해당 외부 기기로 채널, 주파수 또는 코드를 할당하여 원격제어를 수행할 수도 있다.
사용자 입력부(220)는 입력 수단으로서, 예를 들어 키 패드, 키 버튼, 터치 스크린, 스크롤 키, 조그 키 등을 구비할 수 있다. 사용자는 사용자 입력부(220)를 조작하여 영상표시장치(100)와 관련된 제어명령을 입력할 수 있다. 이러한 제어명령은, 예를 들어, 사용자가 사용자 입력부(200)의 하드 키 버튼의 푸쉬 동작을 통해 입력될 수 있다. 또한, 이러한 명령은 예를 들어, 사용자 입력부(220)가 터치스크린을 구비할 경우 사용자가 터치스크린의 소프트키를 터치하는 것으로 입력될 수 있다.
사용자 입력부(220)는, 예를 들어, 확인키(Okay key), 메뉴키, 사방향키, 채널 조정키, 볼륨조정키, 백 키(back key), 홈 키(home key) 등을 구비할 수 있다. 확인키(Okay key)(미도시)는 메뉴 또는 항목 선택시 사용 가능하며, 메뉴키(미도시)는 소정 메뉴 표시를 위해 사용 가능하다. 또한, 사방향키(미도시)는 영상표시장치(100)의 디스플레이부(170)에 표시되는 포인터 또는 인디케이터를 상,하,좌,우 이동시 사용될 수 있다. 또한, 채널 조정키(미도시)는 채널의 상, 하 조정시 사용 가능하고, 볼륨 조정키(미도시)는, 볼륨 업, 다운 조정 시 사용될 수 있다. 또한, 백 키(back key)(미도시)는 이전 화면으로의 이동시 사용 가능하며, 홈 키(미도시)는, 홈 화면으로의 이동시 사용될 수 있다.
확인키는, 스크롤 기능을 추가하여 구현될 수 있다. 이를 위해, 확인키는 휠 키 형태로 구현될 수 있다. 즉, 사용자가 확인키를 상/하 또는 좌/우로 푸쉬하는 경우에는 해당 메뉴 또는 항목 선택으로 사용될 수 있고, 구비된 휠을 상/하로 회전시키는 경우에는 휠의 회전에 대응하는 방향으로 영상표시장치(100)의 디스플레이부(170)에 출력된 화면이 스크롤링 또는 다음 리스트 페이지로 전환될 수 있다. 예를 들어, 디스플레이부(170)에 출력된 화면이 전체 출력될 화면의 일부만 표시된 경우, 원하는 부분의 화면을 탐색하기 위하여 확인키의 휠을 스크롤링하면, 현재 디스플레이부(170)에 출력되지 않던 화면 영역이 디스플레이부(170)에 출력될 수 있다. 다른 예로, 디스플레이부(170)에 리스트 페이지가 표시되는 경우, 확인키의 휠을 스크롤링하면, 디스플레이부(170)에 표시되는 현재 페이지의 이전 페이지 또는 다음 페이지가 표시될 수 있다.
또한, 이와 같은 확인키의 스크롤 기능을 이용하여, 방송 채널 전환시 채널을 휠의 회전에 대응하는 만큼 채널을 업시키거나 다운시킬 수 있고, 음량 조절시 음량을 휠의 회전에 대응하는 만큼 볼륨을 높여서 출력하거나 또는 볼륨을 작게하여 출력할 수 있다.
또한, 이와 같은 확인키의 스크롤 기능은, 별도의 키로 구비되어 구현될 수도 있다.
감지부(230)는 자이로 센서(231), 가속도 센서(232), 및 음향 센서(233), 생체 신호 감지 센서(234)를 구비할 수 있다. 자이로 센서(231)는 외부입력기기(200)의 공간 움직임을 x축, y축 및 z축을 기준으로 감지할 수 있다. 가속도 센서(232)는 외부입력기기(200)의 이동 속도 등을 감지할 수 있다. 음향 센서(233)는 외부입력기기(200)에 입력된 음성 정보를 감지하고, 이를 제어부(170)나 영상표시장치(100)에 전달할 수 있다. 그러면, 상기 제어부(170)나 영상표시장치(100)는 음성 정보에 대응되는 음성을 인식하거나 그리고/또는 인식된 음성을 영상표시장치(100)의 동작을 제어하기 위한 제어명령으로 인식할 수 있다.
또한 상기 생체 신호 감지 센서(234)는 사용자로부터 적어도 하나의 생체 신호를 감지한다. 예를 들어 상기 생체 신호 감지 센서(234)는 사용자의 맥박수, 호흡수 또는 체온등을 감지할 수 있다. 상기 생체 신호 감지 센서(234)는 사용자에게 직접 접촉되는 경우는 물론, 기 설정된 거리 이내에 상기 사용자가 위치하는 경우에도 상기 생체 신호를 감지할 수 있다. 상기 생체 신호 감지 센서(234)는 다양한 형태, 예를 들어 EPIC(Electric Potential Integrated Circuit) 센서 또는 적외선 센서 등을 이용하여 구현될 수 있다.
또한, 감지부(230)는 거리측정센서를 더 구비할 수 있으며, 이에 의하여, 디스플레이부(170)와의 거리를 감지할 수 있다.
출력부(240)는 사용자 입력부(220)의 조작에 따른 정보 및 영상표시장치(100)의 전송 신호에 대응하는 정보를 출력한다. 사용자는 출력부(240)를 통하여 사용자 입력부(220)의 조작 상태 또는 영상표시장치(100)의 제어 상태를 인지할 수 있다. 출력부(240)는, 사용자 입력부(220)의 조작 또는 무선 통신부(210)을 통해 송수신되는 신호에 응답하여, 점등되는 LED 모듈(241), 진동을 발생하는 진동 모듈(242), 음향을 출력하는 음향 출력 모듈(243) 및 영상을 출력하는 디스플레이 모듈(244)을 구비할 수 있다.
전원 공급부(250)는 외부입력기기(200)의 각종 전자 소자에 전원을 공급한다. 전원 공급부(250)는 외부입력기기(200)가 소정 시간 동안 움직이지 않은 경우, 전원 공급을 중단하여 전원의 낭비를 줄일 수 있으며, 외부입력기기(200)의 소정 키가 조작되는 경우에 전원 공급을 재개할 수 있다.
저장부(260)는 외부입력기기(200)의 제어 또는 동작과 관련된 각종 프로그램, 애플리케이션, 주파수 대역 정보 등을 저장할 수 있다. 또한, 저장부(260)는 IR 신호로 다른 외부 기기들을 제어하기 위한 IR 포맷 키(key) 코드들을 저장할 수 있고, 복수의 외부 기기의 IR 포맷 키 데이터베이스를 저장할 수 있다.
제어부(270)는 외부입력기기(200)의 제어와 관련된 제반사항을 전반적으로 제어한다. 제어부(270)는 사용자 입력부(220)의 소정 키 조작에 대응하는 신호를 통신부(210)를 통해 영상표시장치(100)로 전송할 수 있다. 또한, 제어부(270)는 감지부(230)에서 감지한 외부입력기기(200)의 움직임에 대응하는 신호를 무선 통신부(210)를 통해 영상표시장치(100)로 전송할 수 있으며, 영상표시장치(100)는 외부입력기기(200)의 움직임에 대응하는 포인터의 좌표값을 산출할 수 있다.
또한 제어부(270)는 판단부(272)를 더 구비할 수 있다. 판단부(272)는 상기 생체 신호 센서(234)로부터 감지된 생체 신호에 근거하여 사용자의 상태를 판단하기 위한 것이다. 예를 들어 판단부(152)는 상기 감지된 생체 신호에 근거하여 사용자가 현재 수면 상태에 있는지, 또는 사용자는 어떤 심리 상태에 있는지를 판단할 수 있다. 따라서 만약 외부입력기기(200)가 판단부(152)를 구비하는 경우, 외부입력기기(200)는 상기 판단된 사용자의 상태에 대한 정보를 영상표시장치(100)에 전송할 수 있다. 이 경우 영상표시장치(100)의 제어부(150)는 사용자의 상태를 판단할 필요가 없고, 이에 따라 상기 영상표시장치(100)의 제어부(150)는 상기 판단부(152)를 구비할 필요가 없을 수 있다.
뿐만 아니라, 외부입력기기(200)의 제어부(150)는 컨텐츠 검색부(154)를 더 구비할 수도 있다. 이 경우 외부입력기기(200)의 제어부(270)는 사용자의 심리 상태 판단 결과에 대응되는 컨텐츠를 방송국 서버등으로부터 검색할 수 있다. 따라서 외부입력기기(200)는 그 검색 결과만을 상기 영상표시장치(100)에 전송하고, 영상표시장치(100)는 단지 수신된 검색 결과에 대응되는 컨텐츠를 사용자에게 제공하는 역할만을 할 수도 있다. 이러한 경우 상기 영상표시장치(100)에는 컨텐츠 검색부(274)가 필요 없을 수 있음은 물론이다.
도 3은 본 발명과 관련된 영상표시장치(100)와 외부입력기기(200)의 상호 동작을 보여주는 개념도이다. 여기에서는, 설명하기 위한 목적으로 영상표시장치(100)의 예로 TV 수상기를 도시하고, 외부입력기기(200)의 예로 공간 리모콘을 도시하였다.
도 3을 참조하면, 외부입력기기(200)는 RF 통신 규격에 따라서 영상표시장치(100)와 신호를 송수신할 수 있다. 영상표시장치(100)의 화면에는 외부입력기기(200)의 제어 신호에 따라 제어 메뉴가 표시될 수 있다. 이를 위해, 외부입력기기(200)는 다수의 버튼을 구비할 수 있고, 사용자의 버튼 조작에 따라 외부 입력 신호를 생성할 수 있다. 또한, 외부입력기기(200)는 감지부(230)를 통해서 감지된 외부입력기기(200)의 3D 공간상에서의 움직임에 관한 정보를 영상표시장치(100)로 전송할 수 있다.
도 3에서, 사용자가 외부입력기기(200)를 상/하, 좌/우, 앞/뒤로 움직이거나 회전하는 것에 응답하여, 영상표시장치(100)의 화면에는 외부입력기기(200)의 움직임에 대응하는 포인터(101)가 표시된다. 이러한 외부입력기기(200)는, 3D 공간상의 움직임에 따라 해당 포인터(101)가 이동되어 영상표시장치(100)의 화면에 표시되므로, 공간 리모콘이라 명명할 수 있다.
외부입력기기(200)의 감지부(230)를 통해 감지된 외부입력기기(200)의 움직임에 관한 정보는 영상표시장치(100)로 전송된다. 그러면, 영상표시장치(100)는 외부입력기기(200)의 움직임에 관한 정보로부터 포인터의 X, Y 좌표를 산출할 수 있다. 그러면, 영상표시장치(100)는 산출한 좌표에 대응하는 위치에 포인터(101)를 표시할 수 있다.
한편, 외부입력기기(200)에 구비된 특정 버튼을 누른 상태에서, 사용자가 외부입력기기(200)를 영상표시장치(100)의 화면에서 멀어지도록 이동시키면, 화면에 표시된 포인터(101)에 대응하는 화면내의 선택 영역이 줌인되어(줌아웃되어), 확대(축소) 표시될 수 있다. 이와 반대로, 사용자가 외부입력기기(200)를 영상표시장치(100)의 화면에서 가까워지도록 이동시키면, 화면에 표시된 포인터(101)에 대응하는 화면내의 선택 영역이 줌아웃(줌인)되어, 축소(확대) 표시될 수 있다.
한편, 외부입력기기(200)에 구비된 특정 버튼을 누른 상태에서는 외부입력기기(200)의 상/하, 좌/우 움직임의 인식이 배제될 수 있다. 즉, 외부입력기기(200)가 영상표시장치(100)의 화면에서 멀어지거나 접근하도록 이동하는 경우, 상,하,좌,우 이동은 인식되지 않고, 앞/뒤 이동만 인식될 수 있다.
또한, 외부입력기기(200)의 이동속도 및/또는 이동방향에 따라 영상표시장치(100)의 화면에 표시되는 포인터(101)의 이동속도, 이동방향, 및 이동에 따른 화면 스크롤 속도가 결정될 수 있다. 여기서, 포인터(101)는 도 3에 도시된 화살표 형상 이외에 다양한 형상의 오브젝트, 예를 들어 점, 커서, 프롬프트, 외곽선 등의 형상으로 이루어질 수 있다.
이하에서는, 도 1에서 살펴본 영상표시장치(100)의 구성을 참조하여 사용자가 수면 상태에 있는 경우 동작 모드를 슬립 모드로 전환하거나, 사용자의 심리 상태를 판단하고, 사용자의 심리 상태에 적합한 컨텐츠를 제공할 수 있도록 하는 방법에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴보기로 한다.
도 4는 본 발명의 실시 예에 따른 영상표시장치의 동작 방법을 설명하기 위한 예시 흐름도이고, 도 5는 도 4의 영상표시장치 동작 방법을 설명하기 위한 개념도이다.
*도 4를 참조하여 살펴보면, 먼저 본 발명의 실시 예에 따른 영상표시장치(100)는 외부입력기기(200)로부터 생체 신호 정보를 수신한다(S400). 여기서 상기 생체 신호 정보는 사용자로부터 감지되는 적어도 하나, 예를 들어 사용자로부터 감지된 맥박, 호흡수, 체온 중 적어도 하나를 포함하는 정보이다.
도 5의 (a)는 이러한 예를 도시한 것이다. 예를 들어 도 5의 (a)에서 도시하고 있는 것과 같이, 외부입력기기(200)는 생체 신호 감지 센서(234)를 통해 사용자의 생체 신호를 감지할 수 있다. 그리고 외부입력기기(200)는 사용자로부터 생체 신호를 감지하여 이를 포함하는 생체 신호 정보를 생성하여 영상표시장치(100)에 전송한다.
그러면 영상표시장치(100)는 전송된 사용자의 생체 신호 정보를 이용하여 사용자가 수면 상태에 있는지 여부를 판단한다(S402). 예를 들어 영상표시장치(100)의 제어부(150)는 사용자의 맥박수 또는 호흡수 중 적어도 하나가 일정 수치 이하로 줄어든 경우, 상기 사용자가 수면 상태에 있는 것으로 판단할 수 있다. 또는 제어부(150)는 상기 맥박수 또는 호흡수와 더불어 상기 사용자의 체온 변화를 감지하고 이들의 상관관계를 이용하여 사용자가 수면 상태에 있는지 여부를 판단할 수 있다.
그러나 상기 도 5의 (a)에서 보이고 있는 것처럼, 외부입력기기(200)가 사용자의 생체 신호를 감지하기 위해서는, 사용자가 외부입력기기(200)로부터 일정 거리 이내에 위치하여 있어야 한다. 즉, 상기 외부입력기기(200)의 생체 신호 감지 센서(234)의 유효 감지 거리 이내에 사용자가 위치하고 있는 경우에만 사용자의 생체 신호가 감지될 수 있다.
만약, 상기 생체 신호 감지 센서(234)의 유효 감지 거리 이내에 사용자가 위치하고 있지 않는 경우 외부입력기기(200) 또는 영상표시장치(100)는 다양한 방법으로 이를 사용자에게 알릴 수 있다. 또는 영상표시장치(100)는 상기 생체 신호 감지 센서(234)를 이용하는 방법과는 다른 방법으로 사용자가 수면 상태에 있는지 여부를 판단할 수 있다. 이러한 예는 하기 도 6에서 후술하기로 한다.
한편 상기 S402 단계의 판단 결과, 사용자가 수면 상태에 있는 것으로 판단되는 경우, 영상표시장치(100)의 제어부(150)는 영상표시장치(100)의 동작 모드를 슬립 모드로 전환할 수 있다(S404). 여기서 슬립 모드는 최저 전력으로 상기 영상표시장치를 구동하는 모드를 말하는 것으로, 오디오 출력부(180)의 오디오 출력 레벨 또는 디스플레이부(170)의 조도(illumination) 레벨을 일정 수준 이하로 감소시키는 동작 모드가 될 수 있다. 또는 상기 슬립 모드는, 일정 시간이 경과하는 경우 상기 오디오 출력부(180)나 디스플레이부(170) 중 적어도 하나 또는 상기 영상표시장치(100)의 전원을 오프(off)하는 동작 모드가 될 수도 있다.
도 5의 (b)는 이러한 예를 도시한 것이다. 도 5의 (b)를 참조하여 살펴보면, 사용자가 컨텐츠를 시청하다가 잠이 든 경우, 영상표시장치(100)의 제어부(150)는 외부입력기기(200)로부터 수신된 사용자의 생체 신호 정보에 근거하여 상기 사용자가 수면 상태에 있는 것으로 판단할 수 있다. 그러면 영상표시장치(100)의 제어부(150)는 동작 모드를 슬립 모드로 전환하여 오디오 출력부(180)의 오디오 출력 레벨을 일정 수준 이하로 감소시킨다. 이와 더불어 제어부(150)는 디스플레이부(170)의 조도 레벨 역시 일정 수준 이하로 감소시킬 수 있다.
뿐만 아니라 사용자가 복수인 경우에도 사용자의 생체 신호를 감지하여 슬립 모드로 자동 전환하는 본 발명이 적용될 수 있음은 물론이다.
사용자가 복수인 경우, 예를 들어 제어부(150)는 생체 신호 감지 센서(234)를 통해 감지되는 모든 사용자들이 수면 상태에 있다고 판단되는 경우 자동으로 슬립 모드로 전환될 수 있다. 또는 제어부(150)는 상기 복수의 사용자들에게 기 설정된 우선 순위가 있는 경우, 기 설정된 우선 순위에 근거하여 특정 사용자 또는 적어도 한명 이상의 사용자가 수면 상태에 있다고 판단되는 경우 자동으로 슬립 모드로 전환될 수 있다. 이를 위해 제어부()는 외부입력기기(200)로부터 각 사용자별로 구분된 생체 신호 정보를 수신할 수도 있음은 물론이다.
한편 상술한 설명에서는 사용자와 외부입력기기 사이의 이격겨리가 일정 거리를 초과하는 경우 다양한 방법을 이용하여 사용자에게 이를 알리거나 또는 다른 방법으로 사용자가 수면 상태에 있는지 여부를 판단할 수 있음을 밝힌바 있다. 도 6은 이처럼 사용자와 외부입력기기 사이의 이격겨리가 일정 거리를 초과하는 경우에 본 발명의 실시 에에 따른 영상표시장치 또는 외부입력기기의 동작 방법을 설명하기 위한 개념도이다.
예를 들어 도 6의 (a)에서 보이고 있는 것과 같이, 외부입력기기(200)는 비프음(Beep Sound)(600)을 이용하여 사용자가 유효 감지 거리를 벗어난 상태라는 것을 사용자에게 알릴 수 있다. 또는 도 6의 (b)에서 보이고 있는 것과 같이, 영상표시장치(100)는 상기 외부입력기기(200)가 감지되는 위치를 표시하는 가이드 이미지(620)등을 포함하는 OSD(On Screen Display) 화면을 디스플레이할 수도 있다.
또는 상기 생체 신호 감지 센서(234)의 유효 감지 거리 이내에 사용자가 위치하고 있지 않는 경우, 영상표시장치(100)의 제어부(150)는 사용자의 생체 신호 외에 다른 방법으로 사용자가 수면상태에 있는지 여부를 판단할 수도 있다. 즉, 도 6의 (c)에서 보이고 있는 것처럼, 카메라(190)를 구비하고 있는 영상표시장치(100)의 경우, 상기 카메라(190)를 통해 감지되는 사용자의 움직임으로부터 상기 사용자의 수면 상태 여부를 판단할 수도 있다.
예를 들어 제어부(150)는 카메라 시야각(650) 내에서 촬영되는 사용자의 영상을 일정 시간 간격으로 저장할 수 있다. 그리고 각 시간 간격마다 촬영된 사용자의 영상을 비교하여 사용자의 움직임이 있는지 여부를 판단할 수 있다. 즉, 도 6의 (c)에서 보이고 있는 것처럼, 사용자의 손이 움직인(654, 652) 경우, 제어부(150)는 그 움직임 정도(656)를 감지할 수 있다. 그리고 제어부(150)는 감지된 사용자의 움직임 정도(656)를 이용하여 사용자가 수면 상태인지 여부를 판단할 수 있다. 예를 들어 사용자의 움직임 정도(656)가 기 설정된 수준 이하인 경우, 또는 일정 수준 이상의 움직임이 기 설정된 횟수를 초과하지 않는 경우, 제어부(150)는 사용자가 현재 수면 상태에 있는 것으로 판단할 수 있다.
제어부(150)는, 사용자의 선택에 근거하여 외부입력기기(200)를 통해 감지되는 생체 신호를 이용하는 방법 또는 영상표시장치(100)의 카메라(190)를 통해 사용자의 움직임을 감지하는 방법 중 어느 하나만을 사용하여 사용자가 수면 상태에 있는지를 판단할 수 있다.
또한 제어부(150)는 상기 방법들을 상호 보완적으로 사용하여 사용자가 수면 상태에 있는지를 판단할 수 있다. 예를 들어, 제어부(150)는 사용자와 외부입력기기(200) 사이의 이격 거리에 따라 각각 다른 방법으로 사용자의 상태를 판단할 수 있다. 즉, 제어부(150)는 사용자가 생체 신호 감지 센서(234)의 유효 감지 거리 이내에 있는 경우에는 생체 신호 감지 센서(234)로부터 감지되는 생체 신호를 통해 사용자의 상태를 판단하고, 그렇지 않은 경우에는 카메라(190)를 통한 사용자의 움직임을 감지한 결과를 이용하여 사용자의 상태를 판단할 수 있다.
또는 제어부(150)는 사용자의 상태 판단을 더욱 정확하게 하기 위해 상기 생체 신호 감지 센서(234)를 이용하는 방법과 카메라(190)를 이용하는 방법을 모두 사용할 수도 있다. 즉, 제어부(150)는 상기 두 방법 중, 어느 하나의 방법을 우선적으로 사용하여 사용자가 수면 상태에 있는지 여부를 1차 판단하고, 1차 판단 결과 사용자가 수면 상태에 있는 경우, 다른 하나의 방법을 사용하여 사용자의 상태를 2차 판단할 수 있다. 그리고 2차 판단 결과, 사용자가 수면 상태에 있다고 판단되는 경우에, 제어부(150)는 사용자가 수면 상태에 있는 것으로 최종 판단할 수 있다.
한편 상술한 예에서는 사용자가 수면 상태에 있는 경우 제어부(150)가 영상표시장치(100)의 동작 모드를 슬립 모드로 자동 전환하는 것만을 언급하였으나, 이와 함께 다양한 동작 설정이 가능함은 물론이다.
도 7은 이러한 예를 도시한 도면이다. 예를 들어, 사용자가 수면 상태에 있는 경우, 제어부(150)는 슬립 모드로 전환함과 동시에 알람 모드가 동작되도록 설정할 수도 있다. 즉, 사용자가 특정 시각이 미리 설정된 알람이 설정되도록 한 경우, 제어부(150)는 상기 슬립 모드로 전환함과 동시에 알람이 설정되도록 할 수 있다.
도 7의 (a)는 이러한 예를 도시한 도면이다. 도 7의 (a)를 참조하여 살펴보면, 제어부(150)는 사용자가 수면 상태에 있다고 판단되는 경우, 슬립 모드로 전환하면서, 도 7의 (a)에서 보이고 있는 것과 같이 알람 모드를 설정할 수 있다. 이러한 경우 제어부(150)는, 상기 알람이 설정된 시각까지 디스플레이 조도 또는 오디오 볼륨 중 적어도 하나의 레벨을 기 설정된 수준으로 감소시킬 수 있다. 또한, 상기 제어부(150)는 상기 알람이 설정된 시각까지 디스플레이부(170) 또는 오디오 출력부(180)의 전원을 적어도 하나 이상 오프(off)할 수도 있다.
그리고 제어부(150)는 상기 알람이 설정한 시각에 맞추어, 상기 디스플레이 조도 또는 오디오 볼륨 중 적어도 하나의 레벨을 기 설정된 수준으로 증가시킬 수 있다.
뿐만 아니라 본 발명의 실시 예에 따른 영상표시장치(100)는 사용자가 수면 상태에 있는 것으로 판단되는 경우, 자동으로 현재 제공되고 있는 컨텐츠의 녹화를 수행할 수도 있음은 물론이다.
도 7의 (b)는 이러한 예를 도시한 도면이다. 예를 들어 사용자가 수면 상태에 있다고 판단되는 경우, 제어부(150)는 도 7의 (b)에서 보이고 있는 것처럼, 사용자가 수면 상태에 있다고 판단되는 시점부터 현재 제공되고 있는 컨텐츠가 종료되는 시점까지 자동으로 녹화를 수행할 수 있다. 이에 따라 사용자는 자신도 모르게 잠이 든 경우라 할지라도, 자신이 잠든 시점부터 해당 컨텐츠의 종료 시점까지의 컨텐츠를 나중에 이어서 시청할 수 있다.
또한, 상기 제어부(150)는 슬립 모드로 전환되는 경우, 오디오 볼륨 또는 디스플레이 조도 중 적어도 하나의 레벨을 점차적으로 감소시킬 수도 있음은 물론이다.
도 8은 이러한 예를 도시한 도면이다. 도 8을 참조하여 살펴보면, 사용자의 상태를 판단한 결과 사용자가 수면 상태에 있는 경우, 제어부(150)는 도 8의 (a) 및 (b)에서 보이고 있는 것과 같이 슬립 모드로 전환할 수 있다. 그리고 제어부(150)는 슬립 모드의 전환에 따라 오디오 볼륨 레벨을 기 설정된 수준으로 감소(800, 802)시킬 수 있다.
*이러한 상태에서 제어부(150)는 사용자가 일정 시간 이상 동안 수면 상태에 있는 경우 도 8의 (c)에서 보이고 있는 것처럼 오디오 볼륨 레벨을 점차적으로 감소시킬 수 있다(804). 이에 따라 사용자가 수면 상태에 있는 시간이 길어지면 길어질수록 오디오 볼륨 레벨은 점차적으로 감소될 수 있다.
또한 이러한 상태에서 제어부(150)는, 오디오 볼륨이 기 설정된 수준 이하로 감소되는 경우, 도 8의 (d)에서 보이고 있는 것처럼 영상표시장치(100)의 전원을 오프할 수도 있음은 물론이다. 예를 들어 오디오 볼륨이 점차 줄어들어 "0"(806)이 되는 경우, 제어부(150)는 영상표시장치(100)의 전원을 오프시킬 수 있다. 또는 제어부(150)는 오디오 출력부(180)만 전원을 오프시킬 수도 있다.
또한 도 8의 (a), (b), (c), (d)에서는 오디오 볼륨 레벨이 감소되는 것을 예로 들었으나, 상기 오디오 볼륨 레벨 대신 디스플레이 조도 레벨이 감소될 수도 있음은 물론이다. 또한 상기 오디오 볼륨 레벨과 상기 디스플레이 조도 레벨이 함께 감소될 수도 있음은 물론이다. 그리고 상기 오디오 볼륨 또는 디스플레이 조도 중 적어도 하나의 레벨이 일정 수준이하로 감소되는 경우 오디오 출력부(180)나 디스플레이부(170) 중 적어도 하나의 전원이 오프될 수도 있음은 물론이다.
한편, 이상에서는 사용자로부터 감지되는 생체 신호를 이용하여 사용자가 수면 상태에 있는지를 판단하고, 수면 상태에 있는 경우 슬립 모드로 동작 모드를 전환하는 것을 설명하였다.
이하에서는, 사용자가 수면 상태에 있지 않는 경우, 사용자로부터 감지되는 생체 신호를 이용하여 사용자의 심리 상태를 판단하고, 사용자의 심리 상태에 적합한 컨텐츠를 사용자에게 제공하는 것을 도면을 참조하여 자세히 설명하기로 한다.
도 9는 본 발명의 일 실시 예에 따른 영상표시장치에서, 사용자의 심리 상태에 적합한 컨텐츠가 제공되는 방법을 설명하기 위한 흐름도이고, 도 10은 도 9의 컨텐츠 제공 방법을 설명하기 위한 개념도이다.
도 9를 참조하여 살펴보면, 사용자가 수면 상태에 있지 않는 경우, 제어부(150)는 사용자의 생체 신호 및 현재 제공되고 있는 컨텐츠를 이용하여, 사용자의 심리 상태에 대응되는 컨텐츠 정보를 수집할 수 있다(S900).
S900 단계에서 제어부(150)는 사용자가 컨텐츠를 시청하는 동안, 도 10의 (a)에서 보이고 있는 것처럼 외부입력기기(200)로부터 생체 신호 정보(1000)를 수신한다. 그리고 제어부(150)는 수신된 생체 신호 정보에 근거하여 사용자의 심리 상태를 판단할 수 있다.
예를 들어 제어부(150)는 감지된 맥박수나 호흡수 또는 체온 중 적어도 하나가 일정 수준 이상 증가하는 경우 상기 사용자의 심리 상태가 흥분 상태 또는 각성(arousal) 상태에 있다고 판단할 수 있다. 또는 제어부(150)는 감지된 맥박수나 호흡수 또는 체온 중 적어도 하나가 일정 수준 이상 감소하는 경우 상기 사용자의 심리 상태가 우울한 상태 또는 조용한 상태에 있다고 판단할 수 있다. 또는 제어부(150)는 맥박수나 호흡수가 증가한 것으로 감지되었으나, 체온이 감소된 것으로 감지되는 경우 사용자의 심리 상태가 긴장 상태 또는 무서움을 느끼는 상태라고 판단할 수 있다.
사용자가 컨텐츠를 시청하는 도중, 사용자가 이러한 특정 심리 상태 중 어느 하나에 있다고 판단되는 경우, 제어부(150)는 현재 제공되고 있는 컨텐츠를 상기 판단된 사용자의 특정 심리 상태에 대응되는 컨텐츠라고 판단할 수 있다. 그리고 도 10의 (b)에서 보이고 있는 것처럼, 사용자의 심리 상태 및 그에 대응되는 컨텐츠에 대한 정보(1010)는 영상표시장치(100) 또는 외부입력기기(200)에 표시될 수 있다.
여기서 상기 컨텐츠에 대한 정보는, 상기 현재 제공되고 있는 컨텐츠의 카테고리에 대한 정보, 또는 제작사 및 제작자에 대한 정보를 적어도 하나 포함하는 정보일 수 있다. 제어부(150)는 컨텐츠를 시청하고 있는 사용자의 심리 상태를 판단하여 이러한 컨텐츠 정보를 수집한다. 그리고 상기 수집된 컨텐츠 정보는 차후 사용자의 심리 상태에 대응되는 컨텐츠를 사용자에게 제공하기 위해 사용될 수 있다.
한편 제어부(150)는 사용자로부터 "컨텐츠 추천"기능이 선택되었는지 여부를 판단한다. 그리고 "컨텐츠 추천"기능이 선택된 경우, 제어부(150)는 사용자의 심리 상태를 판단하기 위해 외부입력기기(200)로부터 사용자의 생체 신호 정보를 수신한다(S902).
도 10의 (c)는 이러한 예를 도시한 것이다. 도 10의 (c)를 참조하여 살펴보면, 외부입력기기(200)는 사용자의 생체 신호를 감지(1000)하고 상기 생체 신호와 관련된 생체 신호 정보(1050)를 영상표시장치(100)에 전송한다. 그러면 상기 영상표시장치(100)의 제어부(150)는 수신한 사용자의 생체 신호 정보를 이용하여 사용자의 심리 상태를 판단한다(S904).
그리고 영상표시장치(100)의 제어부(150)는 판단된 사용자의 심리 상태에 적합한 컨텐츠를 제공할 수 있다(S906). 도 10의 (d)는 이러한 예를 도시한 것이다. 즉, 제어부(150)는 사용자의 생체 신호 정보(1022)로부터 사용자의 심리 상태를 판단하고(1024), 판단된 사용자 심리 상태에 적합한 컨텐츠를 사용자에게 추천할 수 있다(1026). 그리고 추천된 컨텐츠는 사용자의 선택에 따라 사용자에게 제공될 수 있다.
또는 상기 제어부(150)는 사용자의 심리 상태를 먼저 판단하고, 사용자에게 현재 판단된 심리 상태에 대응되는 컨텐츠의 제공 여부를 묻는 메시지를 출력할 수도 있다. 이러한 경우 제어부(150)는 상기 출력된 메시지에 대한 응답으로 상기 판단된 사용자의 심리 상태에 적합한 컨텐츠를 사용자에게 추천할 수도 있다.
한편 S906단계에서 제어부(150)는, 저장부(도시되지 않음)에 기 저장된 컨텐츠 또는 외부 서버나 방송국 서버에 저장된 컨텐츠들로부터 검색된 컨텐츠를 상기 판단된 사용자 심리 상태에 적합한 것으로 사용자에게 추천할 수 있다. 여기서 제어부(150)는 저장부(160)나 외부 서버 또는 방송국 서버로부터, 상기 사용자 심리 상태에 적합한 컨텐츠를 검색하기 위해 소정의 검색 정보를 사용할 수도 있다.
여기서 상기 소정의 검색 정보는, 상기 판단된 사용자의 심리 상태에 미리 대응되게 설정된 컨텐츠 관련 정보일 수 있다. 예를 들어 사용자의 심리 상태가 '즐거움'일 때는 '액션', 사용자의 심리 상태가 '슬픔', '우울함'일 때는 '코미디', 또는 사용자의 심리 상태가 '긴장'상태일 때는 '공포'와 같이, 각각의 사용자 심리 상태에 대응되게 설정된 카테고리 정보가 상기 소정의 검색 정보가 될 수 있다. 이 경우, 제어부(150)는 사용자의 심리 상태에 대응되는 카테고리의 컨텐츠들을, 저장부(160), 외부 서버, 또는 방송국 서버로부터 검색하고, 그 검색 결과를 사용자에게 제공할 수 있다.
또는 상기 소정의 검색 정보는, 상기 S900단계에서 수집된 컨텐츠 정보가 될 수 있다. 즉, 제어부(150)는 각각의 사용자 심리 상태에 대응되는 컨텐츠 정보들을 미리 저장하고 있다가, 사용자의 선택에 따라, 상기 저장된 컨텐츠 정보들 중 현재 사용자의 심리 상태에 대응되는 컨텐츠 정보를 상기 소정의 검색 정보로 사용할 수 있다.
예를 들어 사용자가 액션 영화 "분노의 질주"를 시청할 때에, 사용자의 심리 상태가 "흥분"상태에 도달한 경우라면, 제어부(150)는 사용자의 심리 상태 "흥분"에 대응되는 컨텐츠 정보로서 상기 액션 영화 "분노의 질주"에 대한 세부 정보, 즉 "액션"카테고리, 제작자, 제작사, 주연 배우등에 대한 정보들을 저장할 수 있다.
그리고 제어부(150)는 사용자가 "컨텐츠 추천"을 선택하는 경우, 사용자의 심리 상태가 "흥분"상태로 판단되는 경우라면, 상기 액션 영화 "분노의 질주"에 대한 카테고리 즉, "액션"카테고리에 포함되는 컨텐츠들을 저장부(160), 외부 서버 또는 방송국 서버로부터 검색하여 사용자에게 제공할 수 있다. 이에 따라 사용자는 직접 컨텐츠를 선택하지 않더라도, 자신의 심리 상태에 가장 적합한, 즉 자신의 심리 상태에 대응되는 컨텐츠를 제공받을 수 있다. 또한, 위의 예에서는 컨텐츠 정보 중 '카테고리'에 대응되는 컨텐츠들을 검색하는 경우를 예로 들어 설명하였으나, 사용자의 선택 또는 기 설정된 우선 순위에 따라 주연 배우, 제작자, 제작사 등 상기 컨텐츠 정보에 포함된 다양한 정보 중 적어도 하나 이상을 이용하여 검색을 수행할 수도 있음은 물론이다.
한편 상술한 설명에서는, 외부입력기기(200)로부터 생체 신호 정보를 수신하여 영상표시장치(100)가 사용자의 심리 상태를 판단 및, 사용자의 심리 상태에 대응되는 컨텐츠 정보들을 검색하였으나, 이와는 다른 형태로도 구현될 수 있음은 물론이다.
예를 들어 만약 상기 외부입력기기(200)가 판단부(272)를 구비하는 경우에는 외부입력기기(200)가 사용자의 심리 상태를 판단하고, 영상표시장치(100)에는 판단된 결과만을 전송할 수도 있음은 물론이다. 또는 만약 상기 외부입력기기(200)가 컨텐츠 검색부(274)까지 구비하는 경우에는 외부입력기기(200)가 사용자의 심리 상태에 대응되는 컨텐츠 정보까지도 검색할 수 있음은 물론이다.
도 11은 이러한 구현 예들을 설명하기 위한 도면이다.
우선 도 11의 (a)는 외부입력기기(200)가 생체 신호 감지 센서(234)만을 구비하고 있는 예를 도시한 것이다. 이러한 경우 외부입력기기(200)가 사용자로부터 감지된 생체 신호를 포함하는 생체 신호 정보를 영상표시장치(100)로 전송(1110)하고, 영상표시장치(100)가 사용자의 심리 상태 판단 및 판단된 심리 상태에 대응되는 컨텐츠를 검색할 수 있다.
한편, 도 11의 (b)는 외부입력기기(200)가 판단부(272)를 구비하는 구현 예를 도시한 것이다. 이러한 경우 외부입력기기(200)는 사용자로부터 생체 신호를 감지하고, 감지된 생체 신호에 근거하여 사용자의 심리 상태를 직접 판단할 수 있다. 이러한 경우 외부입력기기(200)는 도 11의 (b)에서 보이고 있는 것처럼 사용자의 심리 상태를 판단한 결과를 영상표시장치(100)에 전송(1120)하고, 영상표시장치(100)는 판단된 심리 상태에 대응되는 컨텐츠를 검색할 수 있다.
또한 만약 외부입력기기(200)에 컨텐츠 검색부(274)를 구비하는 경우에는 외부입력기기(200)가 사용자의 심리 상태에 대응되는 컨텐츠를 검색까지도 할 수 있음은 물론이다. 즉, 도 11의 (c)에서 보이고 있는 것처럼, 외부입력기기(200)가 사용자의 심리 상태에 대응되는 컨텐츠의 검색이 가능한 경우, 단순히 외부입력기기(200)로부터 수신한 컨텐츠 검색정보(1130)에 따라 검색된 컨텐츠를 사용자에게 제공하는 기기를 영상표시장치(100)로 사용할 수도 있음은 물론이다.
한편, 영상표시장치(100)의 제어부(150)는 사용자의 심리 상태에 대응되는 컨텐츠로서 사용자의 심리 상태에 부합되는 컨텐츠를 제공할 수도 있지만, 이와는 정반대로 상기 사용자의 심리 상태를 완화시키기 위한 컨텐츠를 제공할 수도 있음은 물론이다.
도 12는 이러한 예를 도시한 도면이다.
예를 들어 도 12의 (a)에서 보이고 있는 것과 같이, 영상표시장치(100)의 제어부(150)는 사용자의 상태를 판단하고, 판단된 상태에 부합되는 컨텐츠를 사용자에게 추천할 수 있다. 즉, 사용자의 심리 상태가 "긴장" 상태 또는 "무서움"을 느끼는 상태라고 가정할 경우, 제어부(150)는 사용자의 심리 상태에 부합되는 카테고리의 컨텐츠, 즉 "공포"영화 컨텐츠를 사용자에게 추천할 수 있다.
그러나 이와는 정반대로, 제어부(150)는 사용자의 심리 상태를 완화시키기 위한 컨텐츠를 제공할 수 있다. 예를 들어 도 12의 (b)에서 보이고 있는 것처럼 사용자의 심리 상태가 극도의 "흥분"상태라고 판단되는 경우, 제어부(150)는 이를 완화시키기 위해 상기 사용자의 심리 상태와는 반대되는 성향의 컨텐츠를 추천할 수 있다.
이처럼 제어부(150)는 사용자의 심리 상태에 부합 또는 사용자의 심리 상태를 완화시키는 컨텐츠를, 사용자의 심리 상태에 따라 결정할 수 있다. 즉, 긍정적인 심리 상태(예를 들어 즐거움, 기쁨, 행복함 등)의 경우 제어부(150)는 사용자의 심리 상태에 부합되는 컨텐츠를 추천할 수 있으나, 부정적인 심리 상태(예를 들어 침울함, 슬픔, 우울함 등)의 경우 제어부(150)는 사용자의 심리 상태를 완화시키는 컨텐츠를 사용자에게 추천할 수 있다.
이상에서는 본 발명의 실시 예에 따른 영상표시장치가 사용자의 심리 상태를 판단하고 사용자의 심리 상태에 대응되는 컨텐츠를 사용자에게 제공하는 것을 도면을 참조하여 상세히 설명하였다.
상술한 설명에 있어서, 외부입력기기(200)는 사용자로부터 생체 신호를 감지하기 위한 생체 신호 감지 센서(234)를 구비하고 있는 것을 설명하였으며, 이와 더불어 상기 외부입력기기(200)가 사용자의 생체 신호를 기반으로 사용자의 심리 상태를 판단하기 위한 판단부(272)와, 판단된 심리 상태에 대응되는 컨텐츠를 검색하기 위한 컨텐츠 검색부(274)를 포함할 수 있음을 설명하였다.
그런데 이처럼, 생체 신호 감지 센서(234)와 판단부(152), 그리고 컨텐츠 검색부(154)등은, 예를 들어 이동 단말기 또는 착용형(wearable) 기기에 구비될 수 있음은 물론이다. 그리고 이러한 경우 이동 단말기 또는 착용형 기기가 상기 외부입력기기(200), 즉 리모트 컨트롤러의 역할을 수행할 수도 있음은 물론이다.
도 13은 이러한 리모컨 컨트롤러의 예를 도시한 것이다.
도 13의 (a)는 이동 단말기가 본 발명의 실시 예에 따른 리모트 컨트롤러의 역할을 하는 예를 도시한 것이다. 예를 들어 이동 단말기(1300)는 상기 생체 신호 감지 센서(234)와 사용자의 심리 상태를 판단하기 위한 판단부(272), 그리고 판단된 심리 상태에 대응되는 컨텐츠를 검색하기 위한 컨텐츠 검색부(274)등을 구비할 수 있다.
이러한 경우 이동 단말기(1300)의 제어부는 감지된 생체 신호에 근거하여 사용자의 심리 상태를 판단할 수 있다. 그리고 이동 단말기(1300)의 제어부는 표시부(1302)에 상기 판단된 사용자의 심리 상태를 포함하는 화면을 출력할 수 있다.
뿐만 아니라 상기 이동 단말기(1300)의 제어부는 상기 판단된 사용자의 심리 상태에 대응되는 컨텐츠 정보를 통해 사용자에게 추천할 컨텐츠를 검색할 수 있다. 그리고 도 13의 (a)에서 보이고 있는 것처럼 사용자의 심리 상태를 포함하는 화면에 상기 검색된 컨텐츠를 포함시켜 출력할 수 있다.
따라서 사용자는 현재 자신의 심리 상태와, 그에 따라 추천된 컨텐츠를 이동 단말기(1300)의 표시부 화면(1302)을 통해 확인할 수 있다. 그리고 이동 단말기(1300)의 제어부는 사용자의 선택에 따라, 사용자의 심리 상태에 기반하여 추천된 컨텐츠에 대한 정보를 영상표시장치(100)에 전송할 수 있다. 그러면 영상표시장치(100)는 이를 수신 및 상기 추천된 컨텐츠를 저장부 또는 외부 서버나 방송국 서버로부터 수신하여 디스플레이부(170) 및 오디오 출력부(180)를 통해 사용자에게 제공할 수 있다.
한편, 이러한 외부입력기기(200)는 이동 단말기뿐만 아니라 착용형(wearable) 형태의 기기로도 구현될 수 있다. 예를 들어 외부입력기기(200)는 도 13의 (b)에서 보이고 있는 것처럼, 사용자의 신체에 착용되는 시계의 형태로도 구현될 수 있다. 이처럼 시계 형태로 구현된 외부입력기기(1350)는 사용자와의 이격 거리가 거의 '0'에 가까우므로 보다 정확하게 사용자의 생체 신호를 감지할 수 있음은 물론이다.
그리고 시계 형태로 구현된 외부입력기기(1350)의 표시부 화면(1352)에는 사용자의 심리 상태와, 그에 따라 추천되는 컨텐츠에 대한 정보들이 출력될 수 있다. 이러한 경우 외부입력기기(1350)는 사용자의 선택에 따라 상기 추천된 컨텐츠에 대한 정보를 영상표시장치(100)에 전송할 수 있고, 영상표시장치(100)를 통해 상기 추천된 컨텐츠는 사용자에게 제공될 수 있다.
또한, 본 명세서에 개시된 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
한편 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (20)

  1. 적어도 하나의 컨텐츠를 디스플레이하는 디스플레이부;
    음향 신호를 출력하는 오디오 출력부;
    생체 신호 감지 센서를 구비한 외부입력기기로부터, 사용자의 생체 신호와 관련된 생체 신호 정보를 수신하는 인터페이스부; 및,
    상기 생체 신호 정보가 수신되면 상기 사용자가 수면 상태에 있는지를 1차 판단하고, 상기 1차 판단 결과 상기 사용자가 수면 상태이거나 또는 상기 생체 신호 정보가 수신되지 않으면 사용자의 움직임을 감지하기 위한 카메라를 구동하여 상기 사용자가 수면 상태에 있는지를 2차 판단하는 제어부를 포함하고,
    상기 제어부는,
    상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 오디오 출력부의 볼륨 및 상기 디스플레이부의 조도 중 적어도 하나의 레벨을 제어하는 것을 특징으로 하는 영상표시장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 오디오 출력부의 볼륨 및 상기 디스플레이부의 조도 중 적어도 하나의 레벨을 감소시키는 것을 특징으로 하는 영상표시장치.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 볼륨 및 조도 중 적어도 하나의 레벨을 시간의 경과에 따라 점차적으로 감소시키는 것을 특징으로 하는 영상표시장치.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 상기 볼륨 및 조도 중 적어도 하나의 레벨이 기 설정된 레벨 이하로 감소되면 상기 영상표시장치의 전원을 오프시키는 것을 특징으로 하는 영상표시장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 기설정된 알람(Alarm) 시각에 상기 영상표시장치를 온 시키고, 상기 볼륨 및 조도 중 적어도 하나가 기 설정된 레벨로 설정되도록 상기 오디오 출력부 및 디스플레이부를 제어하는 것을 특징으로 하는 영상표시장치.
  6. 제1항에 있어서, 상기 제어부는,
    상기 2차 판단 결과 상기 사용자가 수면 상태인 것으로 확정되면, 현재 디스플레이 되고 있는 컨텐츠를 녹화하는 것을 특징으로 하는 영상표시장치.
  7. 제1항에 있어서,
    상기 생체 신호는, 기 설정된 시간 동안 감지된 상기 사용자의 맥박, 호흡수 또는 상기 사용자의 체온 중 적어도 하나이고,
    상기 제어부는,
    상기 생체 신호 정보에 포함된 생체 신호들 중 적어도 하나가 기 설정된 수치 이하로 감소하는 경우, 상기 사용자가 수면 상태에 있는 것으로 판단하는 것을 특징으로 하는 영상표시장치.
  8. 제1항에 있어서,
    상기 제어부는,
    복수의 사용자가 감지되는 경우, 기 설정된 우선순위에 근거한 특정 사용자가 수면 상태에 있는지 여부에 근거하여 상기 볼륨 및 조도 중 적어도 하나의 레벨을 감소시키는 것을 특징으로 하는 영상표시장치.
  9. 제1항에 있어서,
    상기 사용자의 움직임을 감지하기 위한 카메라를 더 구비하고,
    상기 제어부는,
    상기 1차 판단 결과 상기 사용자가 수면 상태가 아닌 것으로 판단된 경우에도 상기 카메라를 통해 상기 사용자의 움직임을 감지하여 상기 2차 판단을 수행하는 것을 특징으로 하는 영상표시장치.
  10. 제9항에 있어서,
    상기 제어부는,
    기설정된 시간 간격으로 상기 사용자의 움직임을 감지하고,
    감지된 사용자의 움직임 정도가 기 설정된 수준 이하인 경우, 또는 일정 수준 이상의 움직임이 감지된 횟수가 기 설정된 횟수 미만인 경우에 상기 사용자가 수면 상태에 있는 것으로 판단하는 것을 특징으로 하는 영상표시장치.
  11. 제9항에 있어서,
    상기 제어부는,
    상기 외부 입력 장치와 상기 영상표시장치간의 이격거리를 검출하고,
    상기 검출된 이격거리가 기준범위 이내이면, 기설정된 제어모드에 따라 상기 생체 신호 정보를 이용한 상기 1차 판단만을 수행하거나 또는 상기 1차 판단과 상기 사용자의 움직임 감지 정보를 이용한 상기 2차 판단을 수행하여 상기 사용자가 수면 상태에 있는지를 선택적으로 판단하고,
    상기 검출된 이격거리가 기준범위를 초과하면, 상기 사용자의 움직임 감지 정보를 이용한 상기 2차 판단만을 수행하는 것을 특징으로 하는 영상표시장치.
  12. 제9항에 있어서,
    상기 제어부는,
    상기 사용자로부터 기 설정된 거리 이내에 상기 외부입력기기가 있는 경우이면, 상기 생체 신호 정보와 상기 사용자의 움직임 감지 결과를 이용하여 상기 사용자가 수면 상태에 있는지를 판단하고,
    상기 사용자로부터 기 설정된 거리 이내에 상기 외부입력기기가 없는 경우이면, 상기 사용자의 움직임 감지 결과만을 이용하여 상기 사용자가 수면 상태에 있는지를 판단하는 것을 특징으로 하는 영상표시장치.
  13. 제1항에 있어서,
    상기 제어부는,
    상기 2차 판단 결과, 상기 사용자가 수면 상태에 있지 않는 경우,
    상기 생체 신호 정보로부터 상기 사용자의 심리 상태를 판단하고, 상기 디스플레이부에 현재 출력되는 컨텐츠를 상기 판단된 사용자의 심리 상태에 대응되는 컨텐츠 정보로 저장하는 것을 특징으로 하는 영상표시장치.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 2차 판단 결과, 상기 사용자가 수면 상태에 있지 않는 경우,
    상기 생체 신호 정보로부터 상기 사용자의 심리 상태를 판단하고, 상기 판단된 사용자의 심리 상태에 대응되는 컨텐츠의 제공 여부를 묻는 메시지를 출력하도록 제어하는 것을 특징으로 하는 영상표시장치.
  15. 제14항에 있어서,
    상기 출력된 메시지에 응답하여 제공되는 컨텐츠는,
    메모리에 기 저장된 컨텐츠들 또는 외부 서버나 방송국 서버에 저장된 컨텐츠들 중, 기 저장된 적어도 하나의 상기 컨텐츠 정보 중 어느 하나에 대응되는 것임을 특징으로 하는 영상표시장치.
  16. 제13항에 있어서, 상기 제어부는,
    상기 생체 신호 정보에 포함된 생체 신호들 중 적어도 하나에 근거하여 상기 사용자의 심리 상태를 서로 다르게 판단하는 것을 특징으로 하는 영상표시장치.
  17. 영상표시장치에 사용자의 입력 신호를 전송하는 리모트 컨트롤러에 있어서,
    기 설정된 거리이내에 위치한 사용자로부터 생체 신호를 감지하는 생체 신호 감지 센서; 및
    상기 감지된 생체 신호에 근거하여 상기 사용자가 수면 상태에 있는지 여부를 1차 판단하고,
    상기 1차 판단 결과 상기 사용자가 수면 상태에 있거나 상기 생체 신호가 감지되지 않으면, 상기 영상표시장치에 구비된 카메라를 활성화하여 사용자의 움직임 정보를 이용한 2차 판단 결과에 따라 상기 영상표시장치의 오디오 출력 볼륨 및 디스플레이 조도 중 적어도 하나의 레벨을 감소시키기 위한 제어 신호를 상기 영상표시장치에 전송하는 것을 특징으로 하는 리모트 컨트롤러.
  18. 제17항에 있어서,
    상기 제어부는,
    상기 1차 판단 결과 상기 사용자가 수면 상태에 있는 경우, 상기 생체 신호를 감지하는 시간 간격을 점차적으로 늘리고,
    상기 시간 간격이 기 설정된 시간 이상인 경우 상기 생체 신호 감지 센서를 오프시키는 것을 특징으로 하는 리모트 컨트롤러.
  19. 제17항에 있어서,
    상기 제어부는,
    상기 1차 판단 결과 상기 사용자가 수면 상태에 있지 않는 경우, 상기 생체 신호에 근거하여 사용자의 심리 상태를 판단하고, 상기 사용자의 심리 상태에 대응되는 컨텐츠에 대한 정보를 상기 영상표시장치에 전송하는 것을 특징으로 하는 리모트 컨트롤러.
  20. 제17항에 있어서, 상기 리모트 컨트롤러는. 이동 통신 단말기 또는 착용형(wearable) 기기임을 특징으로 하는 리모트 컨트롤러.
PCT/KR2013/008707 2013-09-27 2013-09-27 영상표시장치 및 영상표시장치 동작 방법 WO2015046650A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/008707 WO2015046650A1 (ko) 2013-09-27 2013-09-27 영상표시장치 및 영상표시장치 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/008707 WO2015046650A1 (ko) 2013-09-27 2013-09-27 영상표시장치 및 영상표시장치 동작 방법

Publications (1)

Publication Number Publication Date
WO2015046650A1 true WO2015046650A1 (ko) 2015-04-02

Family

ID=52743769

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/008707 WO2015046650A1 (ko) 2013-09-27 2013-09-27 영상표시장치 및 영상표시장치 동작 방법

Country Status (1)

Country Link
WO (1) WO2015046650A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106998499A (zh) * 2017-04-28 2017-08-01 张青 能够智能待机的智能电视机及其控制系统和控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050108258A (ko) * 2004-05-12 2005-11-16 엘지전자 주식회사 수면감지장치 및 그 제어방법
KR20060048641A (ko) * 2004-07-05 2006-05-18 소니 가부시끼 가이샤 생체정보의 처리장치 및 영상음향 재생장치
US20060155389A1 (en) * 2003-07-03 2006-07-13 Francesco Pessolano Method of controlling an electronic device
US20080123332A1 (en) * 2002-06-15 2008-05-29 Searfoss Robert L Nightlight for phototherapy
JP2009056075A (ja) * 2007-08-31 2009-03-19 Seiko Epson Corp 環境機器制御システム、および環境機器制御装置
KR20120051125A (ko) * 2010-11-12 2012-05-22 디노플러스 (주) 유비쿼터스를 이용한 수면 환경 제공 시스템 및 그 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080123332A1 (en) * 2002-06-15 2008-05-29 Searfoss Robert L Nightlight for phototherapy
US20060155389A1 (en) * 2003-07-03 2006-07-13 Francesco Pessolano Method of controlling an electronic device
KR20050108258A (ko) * 2004-05-12 2005-11-16 엘지전자 주식회사 수면감지장치 및 그 제어방법
KR20060048641A (ko) * 2004-07-05 2006-05-18 소니 가부시끼 가이샤 생체정보의 처리장치 및 영상음향 재생장치
JP2009056075A (ja) * 2007-08-31 2009-03-19 Seiko Epson Corp 環境機器制御システム、および環境機器制御装置
KR20120051125A (ko) * 2010-11-12 2012-05-22 디노플러스 (주) 유비쿼터스를 이용한 수면 환경 제공 시스템 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106998499A (zh) * 2017-04-28 2017-08-01 张青 能够智能待机的智能电视机及其控制系统和控制方法

Similar Documents

Publication Publication Date Title
WO2015046649A1 (ko) 영상표시장치 및 영상표시장치 동작방법
WO2016122151A1 (ko) 싱크 디바이스 및 그 제어 방법
WO2013103224A1 (en) Image display apparatus and method for operating the same
WO2011062335A1 (en) Method for playing contents
WO2017052143A1 (en) Image display device and method of operating the same
WO2015030347A1 (ko) 영상 표시 기기 및 그 동작 방법
WO2011059260A2 (en) Image display apparatus and image display method thereof
WO2011074794A2 (en) Image display apparatus and method for operating the image display apparatus
WO2014163279A1 (en) Image display device and control method thereof
WO2015050300A1 (ko) 영상 표시 장치 및 그것의 제어 방법
WO2017047942A1 (ko) 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법
WO2011021854A2 (en) Image display apparatus and method for operating an image display apparatus
WO2011062333A1 (en) Method for displaying contents information
WO2012102592A9 (ko) 영상 표시 장치 및 그 동작방법
WO2018062754A1 (en) Digital device and data processing method in the same
WO2014046411A1 (en) Image display apparatus, server and method for operating the same
WO2014208854A1 (ko) 영상표시기기
WO2016080700A1 (en) Display apparatus and display method
WO2011059220A2 (en) Image display apparatus and operation method therefor
WO2016111455A1 (en) Image display apparatus and method
WO2017010602A1 (ko) 단말기 및 그것을 포함한 시스템
KR20150005131A (ko) 영상표시장치 및 영상표시장치 동작방법
WO2011136402A1 (ko) 영상표시기기 및 그 동작방법
WO2017007051A1 (ko) 멀티미디어 디바이스
WO2016182319A1 (en) Image display device and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13894214

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13894214

Country of ref document: EP

Kind code of ref document: A1