WO2012043910A1 - Image display device and image displaying method thereof - Google Patents

Image display device and image displaying method thereof Download PDF

Info

Publication number
WO2012043910A1
WO2012043910A1 PCT/KR2010/006733 KR2010006733W WO2012043910A1 WO 2012043910 A1 WO2012043910 A1 WO 2012043910A1 KR 2010006733 W KR2010006733 W KR 2010006733W WO 2012043910 A1 WO2012043910 A1 WO 2012043910A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
feature data
information
display
Prior art date
Application number
PCT/KR2010/006733
Other languages
French (fr)
Korean (ko)
Inventor
최지호
이종수
홍승범
박은영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2010/006733 priority Critical patent/WO2012043910A1/en
Publication of WO2012043910A1 publication Critical patent/WO2012043910A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts

Definitions

  • the present specification relates to an electronic device and a method for controlling the operation of the electronic device, and more particularly, to an image display device having an image display function and an image display method in such an image display device.
  • An image display device is a device having a function of displaying an image that a user can watch. The user can watch the broadcast through the image display device.
  • the video display device displays a broadcast selected by a user on a display among broadcast signals transmitted from a broadcasting station.
  • broadcasting is shifting from analog broadcasting to digital broadcasting worldwide.
  • Digital broadcasting refers to broadcasting for transmitting digital video and audio signals. Digital broadcasting is more resistant to external noise than analog broadcasting, so it has less data loss, is advantageous for error correction, has a higher resolution, and provides a clearer picture. In addition, unlike analog broadcasting, digital broadcasting is capable of bidirectional services.
  • the present specification compares feature data included in a reference image with feature data extracted from an image of the user to determine whether the feature data match and provides a determination result to the user, thereby providing a user with the feature data included in the reference image. It is a technical problem to provide an image display device and a method of displaying the image, which monitor the compliance of the system and allow the user to take an accurate action according to the reference image, thereby enabling systematic exercise management.
  • the image display device for solving the technical problem, the photographing unit for obtaining a photographed image of the user; A communication unit which receives a reference image including first feature data; An output unit configured to output the captured image and the reference image; And extracting second feature data from the captured image, comparing the first feature data with the second feature data, and outputting an indicator indicating the comparison result superimposed on the captured image or the reference image. It characterized in that it comprises a control unit for controlling.
  • the output unit may display the captured image and the reference image at the same time.
  • the output unit may display the captured image and the reference image in a superimposed manner.
  • the output unit may display the captured image and the reference image in a picture in picture (PIP) manner.
  • the output unit may display the captured image and the reference image on each of divided regions of the screen.
  • the control unit may control the communication unit to transmit the comparison result to an external device.
  • the control unit may generate guide information based on the comparison result and control the output unit to output the guide information.
  • the guide information may include posture correction information.
  • the guide information characterized in that it comprises information about the moving direction and / or the moving distance of the body part of the user.
  • the controller may compare the first feature data and the second feature data to determine a match, and control the output unit to output a message indicating the match.
  • the controller may measure the progression amount of the user based on the first characteristic data or the second characteristic data, and control the output unit to output the progression quantity or the communication unit to an external device. It characterized in that the control to transmit the amount of exercise.
  • the image display apparatus may further include a storage unit configured to store a target exercise amount of the user, and the controller may control the output unit to output the target exercise amount.
  • the controller may further include controlling the output unit to output a notification message or controlling the communication unit to transmit the notification message to an external device when the progressed exercise amount reaches the target exercise amount.
  • the communication unit may receive a broadcast image, and the controller may acquire health information related to content included in the broadcast image, and control the output unit to output the health information, or the communication unit may be external. Control to transmit the health information to a device.
  • the communication unit may monitor the connection between the video display device and an external device, and the controller may extract identification information of the external device when the video display device is connected to the external device. Obtaining user information based on identification information, and obtaining health information of the user based on the user information.
  • the controller may further include detecting a face region of the user from the captured image, obtaining user information based on the detected face region, and obtaining health information of the user based on the user information. It is characterized by.
  • the communication unit may receive the reference image based on the health information.
  • the communication unit may receive a broadcast video and receive the reference video based on a type of content included in the broadcast video.
  • the communication unit may receive the reference image when the content included in the broadcast image is an advertisement content.
  • the first feature data may be feature data reflecting exercise prescription information for the user.
  • the exercise prescription information is characterized in that the exercise prescription information for any one of aerobic, muscular strength and stretching exercises.
  • the comparison result may include information about a body part of the user who does not match in the first feature data and the second feature data.
  • the image display method for solving the technical problem the step of obtaining a photographed image of the user; Receiving a reference image including first feature data; Outputting the captured image and the reference image; Extracting second feature data from the captured image; Comparing the first feature data and the second feature data; And displaying an indicator indicating the comparison result by overlapping the photographed image or the reference image.
  • the image display device compares the feature data of the reference image and the captured image to determine the accuracy of the operation and provide the user with information on the accuracy of the operation, thereby allowing the user to perform the correct operation. To make it possible. Accordingly, the user can easily and conveniently learn the operations included in the reference image, and accurately monitor the result of performing the operations.
  • FIG. 1 is a view schematically showing a video display device system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an image display device according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a device capable of transmitting and receiving data with the image display device of FIG. 2.
  • FIG. 4 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
  • FIG. 5 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
  • FIG. 6 is a diagram illustrating a display screen of an indicator according to a first embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating an image display process according to the first embodiment of the present invention.
  • FIG. 8 is a diagram illustrating an output screen of guide information according to the second embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating an image display process according to a second embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a display screen of a message according to a third embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating an image display process according to a third embodiment of the present invention.
  • FIG. 12 is a view showing a display screen of the exercise amount according to the fourth embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
  • FIG. 14 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
  • 15 is a diagram illustrating an output screen of a notification message according to a fifth embodiment of the present invention.
  • 16 is a flowchart illustrating an image display process according to a fifth embodiment of the present invention.
  • 17 is a diagram illustrating an output screen of health information according to a sixth embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating an image display process according to a sixth embodiment of the present invention.
  • FIG. 19 is a view showing a user authentication screen according to the seventh and eighth embodiments of the present invention.
  • FIG. 20 is a flowchart illustrating an image display process according to a seventh embodiment of the present invention.
  • 21 is a flowchart illustrating an image display process according to an eighth embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a screen for checking whether an image is displayed according to the ninth embodiment of the present invention.
  • FIG. 23 is a flowchart illustrating an image display process according to a ninth embodiment of the present invention.
  • a professional such as a fitness trainer provides a schedule for exercise information, and the user manages the exercise by performing the provided schedule.
  • a professional such as a fitness trainer provides a schedule for exercise information
  • the user manages the exercise by performing the provided schedule.
  • it is important to accurately determine whether the user fulfills the predetermined schedule.
  • it is important to accurately perform an operation included in an exercise according to a predetermined schedule.
  • the video display device described in this specification is an intelligent video display device that adds a computer support function to the broadcast reception function, and is faithful to the broadcast reception function, but the Internet function is added, the handwriting type input device, touch screen or It can be equipped with a more convenient interface such as a space remote control.
  • the Internet by being connected to the Internet and a computer with the support of a wired or wireless Internet function, it is possible to perform functions such as email, web browsing, banking or gaming. Standardized general-purpose operating systems can be used for these various functions.
  • various applications can be freely added or deleted on the general-purpose OS kernel, and thus various user-friendly functions can be performed.
  • it may be a smart TV.
  • feature data described herein is data that reflects a feature of a user's motion or posture included in each image, and may mean data that is preset in the image or extracted from the image.
  • the feature data may include relative position information between one or more feature objects preset in order to compare a user's motion observed in the plurality of images.
  • the feature object may correspond to a body part of the user.
  • reference image described herein may refer to an image representing feature data reflecting an operation performed by a user.
  • the reference image may include a real image, a virtual image, or an image obtained by combining the real image and the virtual image.
  • FIG. 1 is a view schematically showing a video display device system according to an embodiment of the present invention.
  • the video display device system when viewed in terms of providing a content service on a broadcast sender basis, a content provider (CP) 10, a service provider (Service) It may be divided into a provider (SP) 20, a network provider (NP) 30, and a user 40.
  • CP content provider
  • Service service provider
  • SP provider
  • NP network provider
  • the content provider 10 produces and provides various contents. As shown in FIG. 1, the content provider 10 includes a terrestrial broadcaster, a cable system operator or a multiple system operator, a satellite broadcaster, and an internet broadcaster. An internet broadcaster, etc. may be exemplified, etc. In addition, the content provider 10 may provide various applications and the like in addition to the broadcast content.
  • the service provider 20 may provide a service package of contents provided by the content provider 10.
  • the service provider 20 of FIG. 1 may package and provide a first terrestrial broadcast, a second terrestrial broadcast, a cable MSO, satellite broadcast, various internet broadcasts, applications, and the like to a user.
  • the service provider 20 may provide a service to the user 40 using a unicast or multicast scheme.
  • the unicast method is a method of transmitting data 1: 1 between one sender and one receiver.
  • the server may transmit data to the receiver according to the request.
  • Multicasting is a method of transmitting data to a plurality of recipients of a specific group.
  • the server can send data to multiple pre-registered receivers at once.
  • the Internet Group Management Protocol (IGMP) protocol may be used.
  • the network provider 30 may provide a network for providing a service to the user 40.
  • the user 40 may be provided with a service by building a home network end user (HNED).
  • HNED home network end user
  • a conditional access or a content protection may be used.
  • a scheme such as a cable card or a downloadable conditional access system (DCAS) may be used.
  • the user 40 can also provide content through the network.
  • the user 40 may be a content provider, and the content provider 10 may receive content from the user 40. Accordingly, an interactive content service or a data service may be possible.
  • FIG. 2 is a block diagram illustrating an image display device according to an exemplary embodiment of the present invention.
  • the video display device 100 may include a broadcast receiver 105, an external device interface 135, a storage 140, a user input interface 150,
  • the controller 170 may include a display unit 180, an audio output unit 185, and a power supply unit 190.
  • the broadcast receiving unit 105 may include a tuner 110, a demodulator 120, and a network interface unit 130. Among them, the tuner 110 and the demodulator 120 may be provided with the network interface unit 130 selectively.
  • the tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through an antenna.
  • the selected RF broadcast signal is converted into an intermediate frequency signal or a baseband video or audio signal.
  • the selected RF broadcast signal is a digital broadcast signal
  • it is converted into a digital IF signal (DIF).
  • the analog broadcast signal is converted into an analog baseband video or audio signal (CVBS / SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal.
  • the analog baseband video or audio signal CVBS / SIF output from the tuner 110 may be directly input to the controller 170.
  • the tuner 110 may receive an RF broadcast signal of a single carrier according to an Advanced Television System Committee (ATSC) scheme or an RF broadcast signal of multiple carriers according to a digital video broadcasting (DVB) scheme.
  • ATSC Advanced Television System Committee
  • DVD digital video broadcasting
  • the tuner 110 may sequentially select RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna and convert them to intermediate frequency signals or baseband video or audio signals. have.
  • the demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.
  • the demodulator 120 when the digital IF signal output from the tuner 110 is an ATSC scheme, the demodulator 120 performs 8-VSB (8-Vestigal Side Band) demodulation. In addition, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, a reed solomon decoder, and the like, for trellis decoding, deinterleaving, and read. Soloman decryption can be performed.
  • the demodulator 120 when the digital IF signal output from the tuner 110 is a DVB scheme, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation. In addition, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 may include a convolution decoder, a deinterleaver, a reed-soloman decoder, and the like to perform convolutional decoding, deinterleaving, and reed soloman decoding.
  • COFDMA coded orthogonal frequency division modulation
  • the demodulator 120 may output a stream signal TS after performing demodulation and channel decoding.
  • the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal.
  • the stream signal may be an MPEG-2 Transport Stream (TS) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like.
  • the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.
  • the demodulator 120 described above can be provided separately according to the ATSC system and the DVB system. That is, it can be provided with an ATSC demodulation part and a DVB demodulation part.
  • the stream signal output from the demodulator 120 may be input to the controller 170.
  • the controller 170 After performing demultiplexing, image / audio signal processing, and the like, the controller 170 outputs an image to the display 180 and outputs audio to the audio output unit 185.
  • the external device interface unit 135 may connect the external device to the image display device 100.
  • the external device interface unit 135 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).
  • the external device interface unit 135 may be connected to an external device such as a digital versatile disk (DVD), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or the like by wire or wireless.
  • the external device interface unit 135 transmits an externally input image, audio or data signal to the controller 170 of the image display device 100 through a connected external device.
  • the controller 170 may output an image, audio, or data signal processed by the controller 170 to a connected external device.
  • the external device interface unit 135 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).
  • the A / V input / output unit may use a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), and a DVI to input video and audio signals from an external device to the video display device 100.
  • CVBS Composite Video Banking Sync
  • component terminal an S-video terminal (analog)
  • DVI Digital Visual Interface
  • HDMI High Definition Multimedia Interface
  • RGB terminal High Definition Multimedia Interface
  • D-SUB terminal D-SUB terminal and the like.
  • the wireless communication unit may perform near field communication with another electronic device.
  • the image display device 100 may communicate with Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Digital Living Network Alliance (DLNA). Depending on the specification, it can be networked with other electronic devices.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • DLNA Digital Living Network Alliance
  • the external device interface unit 135 may be connected through at least one of the various set top boxes and the various terminals described above, and perform input / output operations with the set top box.
  • the external device interface unit 135 may receive an application or a list of applications in a neighboring external device and transmit the received application or list to the controller 170 or the storage 140.
  • the network interface unit 130 provides an interface for connecting the video display device 100 to a wired / wireless network including an internet network.
  • the network interface unit 130 may include an Ethernet terminal for connecting to a wired network, and for connecting to a wireless network, a WLAN (Wi-Fi) or Wibro (Wireless). Broadband, Wimax (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA) communication standards, and the like may be used.
  • the network interface unit 130 may access a predetermined web page through a network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server.
  • content or data provided by a content provider or a network operator may be received. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider may be received through a network.
  • the network interface unit 130 may select and receive a desired application from among applications that are open to the public through the network.
  • the storage 140 may store a program for processing and controlling each signal in the controller 170, or may store a signal processed video, audio, or data signal.
  • the storage 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface 135 or the network interface 130.
  • the storage 140 may store information on a predetermined broadcast channel through a channel storage function.
  • the storage 140 may store an application or a list of applications input from the external device interface 135 or the network interface 130.
  • the storage unit 140 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), It may include at least one type of storage medium such as RAM, ROM (EEPROM, etc.).
  • the video display device 100 may provide a user with a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage 140.
  • FIG 2 illustrates an embodiment in which the storage 140 is provided separately from the controller 170, but the scope of the present invention is not limited thereto.
  • the storage unit 140 may be included in the control unit 170.
  • the user input interface unit 150 transmits a signal input by the user to the controller 170 or transmits a signal from the controller 170 to the user.
  • the user input interface unit 150 may be powered on / off, channel selection, and screen from the remote controller 200 according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method.
  • the controller may receive and process a user input signal or a control signal such as a setting, or transmit a control signal from the controller 170 to the remote controller 200.
  • the user input interface unit 150 may transmit a user input signal or a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170. have.
  • a local key such as a power key, a channel key, a volume key, and a set value
  • the user input interface unit 150 may transmit a user input signal or a control signal input from a sensing unit (not shown) that senses a user's gesture to the controller 170 or from the controller 170.
  • the signal of may be transmitted to a sensing unit (not shown).
  • the sensing unit may include a touch sensor, a voice sensor, a position sensor, an operation sensor, and the like.
  • the control unit 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner 110, the demodulator 120, or the external device interface unit 135, and outputs a video or audio signal. You can create and output.
  • the image signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the image signal.
  • the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • the audio signal processed by the controller 170 may be audio output to the audio output unit 185.
  • the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • the controller 170 may include a demultiplexer for demultiplexing an input stream and an image processor for performing image processing of the demultiplexed video signal.
  • the image processor may include a video decoder for decoding the demultiplexed video signal, a scaler for scaling the resolution of the decoded video signal on the display 180, and the like.
  • controller 170 may control overall operations of the image display device 100.
  • the controller 170 may control the tuner 110 to control the tuner 110 to select an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
  • controller 170 may control the image display device 100 by a user command or an internal program input through the user input interface unit 150.
  • the user may access the network to download the desired application or application list into the video display device 100.
  • the controller 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 150. Then, the video, audio, or data signal of the selected channel is processed. The controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display 180 or the audio output unit 185.
  • the controller 170 may, for example, receive an external device image playback command received through the user input interface unit 150, from an external device input through the external device interface unit 135, for example, a camera or a camcorder.
  • the video signal or the audio signal may be output through the display 180 or the audio output unit 185.
  • the controller 170 may control the display 180 to display an image.
  • the display 180 displays a broadcast image input through the tuner 110, an external input image input through the external device interface unit 135, or an image input through the network interface unit, or an image stored in the storage unit 140.
  • the image displayed on the display 180 may be a still image or a video, and may be a 2D image or a 3D image.
  • the controller 170 may control to display a list of applications or applications that can be downloaded from the video display device 100 or from an external network.
  • the controller 170 may control to install and run an application downloaded from an external network along with various user interfaces. In addition, by selecting a user, an image related to an executed application may be controlled to be displayed on the display 180.
  • the channel browsing processor may receive a stream signal TS output from the demodulator 120 or a stream signal output from the external device interface 135, extract a video from the input stream signal, and generate a thumbnail image. Can be.
  • the generated thumbnail image may be input as it is or encoded to the controller 170.
  • the generated thumbnail image may be encoded in a stream form and input to the controller 170.
  • the controller 170 may display a thumbnail list including a plurality of thumbnail images on the display 180 by using the input thumbnail image. Meanwhile, the thumbnail images in the thumbnail list may be updated sequentially or simultaneously. Accordingly, the user can easily grasp the contents of the plurality of broadcast channels.
  • the display 180 converts an image signal, a data signal, an OSD signal processed by the controller 170, or an image signal, data signal, etc. received from the external device interface unit 135 into R, G, and B signals, respectively. Generate a signal.
  • the display 180 may be a PDP, an LCD, an OLED, a flexible display, a 3D display, or the like.
  • the display 180 may be configured as a touch screen and used as an input device in addition to the output device.
  • the audio output unit 185 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs a voice signal.
  • the voice output unit 185 may be implemented by various types of speakers.
  • a photographing unit (not shown) for photographing the user may be further provided.
  • the photographing unit (not shown) may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras.
  • the image information photographed by the photographing unit (not shown) is input to the controller 170.
  • a sensing unit including at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image display apparatus 100. have.
  • the signal detected by the sensing unit may be transmitted to the controller 170 through the user input interface unit 150.
  • the controller 170 may detect a gesture of a user by combining or combining an image captured by a photographing unit (not shown) or a detected signal from a sensing unit (not shown).
  • the power supply unit 190 supplies the corresponding power throughout the image display device 100.
  • power may be supplied to the controller 170, which may be implemented in the form of a System On Chip (SOC), a display 180 for displaying an image, and an audio output unit 185 for audio output.
  • SOC System On Chip
  • the power supply unit 190 may include a converter (not shown) for converting AC power into DC power.
  • a converter for converting AC power into DC power.
  • an inverter capable of PWM operation may be further provided for driving of variable brightness or dimming. have.
  • the remote control apparatus 200 transmits the user input to the user input interface unit 150.
  • the remote control device 200 may use Bluetooth, RF (Radio Frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee (ZigBee) method and the like.
  • the remote control apparatus 200 may receive an image, an audio or a data signal output from the user input interface unit 150, display it on the remote control apparatus 200 or output an audio or vibration.
  • the video display device 100 described above is a fixed type of ATSC (8-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, and the like. It may be a digital broadcast receiver capable of receiving at least one.
  • the image display device described herein is an image display device in which the display 180 and the audio output unit 185 shown in FIG. 2 are excluded, and through the wireless communication, the display 180 and the audio output unit ( 185 may be of a wireless type.
  • a block diagram of the image display apparatus 100 shown in FIG. 2 is a block diagram for an embodiment of the present invention.
  • Each component of the block diagram may be integrated, added, or omitted according to the specification of the image display device 100 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • the image display device 100 unlike shown in Figure 2, does not include the tuner 110 and the demodulator 120 shown in Figure 2, the network interface unit 130 or the external device interface unit 135 ), The video content may be received and played back.
  • the photographing unit may obtain a photographed image photographing the user.
  • the photographing unit may acquire an image captured by the user by processing an image frame such as a still image or a moving image of the user acquired by an image sensor such as a CCD.
  • the image sensor may be provided inside the image display apparatus 100, and in another embodiment, the image sensor may be provided outside the image display apparatus 100 so that the image sensor is a still image or a video for the user in the photographing unit. Can output an image frame.
  • the photographing unit may store the photographed image photographing the user in the storage 140 or output it to the controller 170.
  • the broadcast receiving unit 105 may receive a reference image including the first feature data.
  • the broadcast receiving unit 105 may receive a reference image from a broadcasting station or a network server under the control of the controller 170, and store the received reference image in the storage 140 or output the received reference image to the controller 170.
  • the controller 170 may extract second feature data from the captured image.
  • the controller 170 may extract the user region by removing noise, which is not related to the user, through edge extraction or pattern extraction from the captured image stored in the storage 140 or output from the photographing unit.
  • the controller 170 may extract second feature data, which is relative position information between feature objects corresponding to a user's body part, from the user region extracted from the captured image.
  • controller 170 may compare the first feature data and the second feature data.
  • the controller 170 may compare the relative position information between the feature objects included in the first feature data and the relative position information between the feature objects included in the second feature data.
  • the controller 170 may control the display 180 to display the indicator indicating the comparison result on the captured image or the reference image.
  • the controller 170 generates an indicator indicating a feature object having different positional information relative to the feature object included in the first feature data among the feature objects included in the second feature data, and photographs the generated indicator.
  • the display 180 may be controlled to display in a superimposed manner.
  • the controller 170 may generate an indicator indicating a feature object that is different from the feature object included in the second feature data among the feature objects included in the first feature data, and refers to the generated indicator.
  • the display 180 may be controlled to overlap the image.
  • the first feature data may be feature data reflecting exercise prescription information for the user.
  • the exercise prescription information may be exercise prescription information regarding any one of aerobic, muscular strength and stretching exercise.
  • FIG. 3 is a diagram illustrating a device capable of transmitting and receiving data with the image display device of FIG. 2.
  • the image display device 100 may communicate with the broadcasting station 210, the network server 220, or the external device 230.
  • the video display device 100 may receive a broadcast signal including a video signal transmitted from the broadcast station 210.
  • the video display device 100 may process a video signal, an audio signal, or a data signal included in a broadcast signal so as to be suitable for outputting from the video display device 100.
  • the image display device 100 may output an image or audio based on the processed image signal.
  • the image display apparatus 100 may communicate with the network server 220.
  • the network server 220 is a device capable of transmitting and receiving a signal with the image display device 100 through an arbitrary network 310.
  • the network server 220 may be a mobile phone terminal that may be connected to the image display device 100 through a wired or wireless base station.
  • the network server 220 may be a device capable of providing content to the image display device 100 through an Internet network.
  • the content provider may provide content to the video display device 100 using a network server.
  • the image display device 100 may communicate with the external device 230.
  • the external device 230 is a device capable of directly transmitting and receiving a signal with the image display device 100 by wire or wireless 320.
  • the external device 230 may be a media storage device or a playback device used by a user. That is, the external device 230 may be a camera, a DVD or a Blu-ray player, a personal computer, or the like.
  • the broadcasting station 210, the network server 220, or the external device 230 may transmit a signal including a video signal to the video display device 100.
  • the image display device 100 may display an image based on an image signal included in an input signal.
  • the image display device 100 may transmit a signal transmitted from the broadcasting station 210 or the network server 220 to the image display device 100 to the external device 230.
  • the signal transmitted from the external device 230 to the image display device 100 may be transmitted to the broadcasting station 210 or the network server 220. That is, the video display device 100 may transmit content included in a signal transmitted from the broadcasting station 210, the network server 220, and the external device 230 in addition to directly playing the content on the video display device 100.
  • FIG. 4 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
  • the display 180 may simultaneously display the captured image and the reference image.
  • the display 180 may display the captured image and the reference image in each of the divided regions of the screen.
  • the display 180 may display the captured image and the reference image by overlapping them.
  • the display 180 may divide a screen into two areas and display the screen.
  • the display 180 may display the reference image 410 in the first area of the two divided areas.
  • the display 180 may display the captured image 420 in the second area of the divided two areas.
  • the display 180 may superimpose and display a captured image and a reference image 430 on a screen.
  • the controller 170 may extract the user region from the captured image, and adjust the size of the captured image so that the size of the user region corresponds to the size of the user region included in the reference image.
  • the display 180 may superimpose and display the reference image on the adjusted image.
  • FIG. 5 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
  • the display 180 may display the captured image and the reference image in a picture in picture (PIP) manner.
  • the PIP method may mean a method in which one program (image) is displayed in full screen and another program (image) is displayed in an internal window inserted in the full screen.
  • the display 180 may display the reference image 510 in full screen. At the same time, the display 180 may display the captured image 520 in a window inserted into a partial region of the full screen.
  • the display 180 may display the captured image 530 in full screen.
  • the display 180 may display the reference image 540 in a window inserted into a portion of the full screen.
  • FIG. 6 is a diagram illustrating a display screen of an indicator according to a first embodiment of the present invention.
  • the feature data is data reflecting characteristics of a user's motion or posture included in each image, and may be preset in the image or extracted from the image.
  • the feature data may include relative position information between each feature object corresponding to a predetermined body part.
  • the feature data may further include relative position information between the same objects in two or more frames having a front-rear relationship.
  • the controller 170 generates an indicator indicating a feature object among the feature objects included in the second feature data, and a feature object whose relative position information does not coincide with the feature object included in the first feature data, and generates the indicator.
  • the display 180 may be controlled to overlap the captured image.
  • the display 180 may divide and display a screen into two regions.
  • the display 180 may display the reference images 610 and 630 in the first area among the two divided areas.
  • the display 180 may display the captured images 620 and 640 in the second area of the divided two areas.
  • the display 180 may superimpose the indicator 622 generated by the controller 170 on the captured image 620.
  • the display 180 may display the indicator 622 so as to correspond to the position of the feature object included in the second feature data whose position information relative to the feature object included in the first feature data is different.
  • the display 180 may display the indicator 632 generated by the controller 170 overlapping the reference image 630.
  • the display 180 may display the indicator 632 so as to correspond to the position of the feature object included in the first feature data having different positional information relative to the feature object included in the second feature data.
  • FIG. 7 is a flowchart illustrating an image display process according to the first embodiment of the present invention.
  • the photographing unit may acquire a photographed image photographing the user (S200).
  • the photographing unit may store the photographed image photographing the user in the storage 140 or output it to the controller 170.
  • the broadcast receiving unit 105 may receive a reference image including the first feature data (S300).
  • the broadcast receiving unit 105 receives a reference image from the broadcasting station 210 or the network server 220 under the control of the controller 170, and stores the received reference image in the storage unit 140 or outputs it to the control unit 170. can do.
  • the display 180 and the audio output unit 185 may output a captured image and a reference image.
  • the controller 170 may extract the second feature data from the captured image (S400).
  • the controller 170 may extract the user region by removing noise, which is not related to the user, through edge extraction or pattern extraction from the captured image stored in the storage 140 or output from the photographing unit.
  • the controller 170 may extract second feature data including relative position information between feature objects corresponding to a body part of the user, from the user region extracted from the captured image.
  • controller 170 may compare the first feature data and the second feature data (S500).
  • the controller 170 may compare the relative position information between the feature objects included in the first feature data and the relative position information between the feature objects included in the second feature data.
  • the controller 170 may control the display 180 to display the indicator indicating the comparison result in a superimposed image or reference image (S600). For example, the controller 170 generates an indicator indicating a feature object whose relative position information does not match the feature object included in the first feature data among the feature objects included in the second feature data, and generates the indicator.
  • the display 180 may be controlled to overlap the captured image.
  • the controller 170 may control the network interface 130 or the external device interface 135 to transmit the comparison result to the external device 230.
  • FIG. 8 is a diagram illustrating an output screen of guide information according to the second embodiment of the present invention.
  • the display 180 may divide a screen into two regions and display the screen.
  • the display 180 may display the reference image 710 in the first region of the divided two regions.
  • the display 180 may display the captured image 720 in the second area of the divided two areas.
  • the display 180 may superimpose and display the guide information 724 and 726 generated by the controller 170 on the captured image 720.
  • the display 180 stores the guide information 724 and 726 between the feature object included in the first feature data and the position of the feature object included in the second feature data whose position information relative to the feature object is different. I can display it.
  • the guide information 724 may reflect a moving direction according to the position of the feature object included in the first feature data and the feature object included in the corresponding second feature data, and the moving direction may be, for example, an arrow. Direction can be indicated.
  • the guide information 724 may reflect a movement distance according to the position of the feature object included in the first feature data and the feature object included in the corresponding second feature data, and the movement distance may be, for example, the length of the arrow. Or the like.
  • the guide information 726 may include an image of a feature object included in the first feature data.
  • the guide information 730 may further include text information regarding a name and a moving direction (and / or a moving distance) of a body part representing a feature object included in the second feature data.
  • the display 180 may display the guide information 730 on the screen, and the audio output unit 185 may output the guide information 730 as a voice.
  • FIG. 9 is a flowchart illustrating an image display process according to a second embodiment of the present invention.
  • the controller 170 may generate guide information based on a comparison result of the first feature data and the second feature data (S710).
  • the controller 170 may identify a feature object from which feature information included in the first feature data does not match relative position information among feature objects included in the second feature data. Also, the controller 170 may move the identified feature object to the corresponding feature object based on a difference (including a direction or a distance) of position information of the identified feature object and the corresponding feature object in the first feature data. Guide information may be generated.
  • the guide information may include information about a direction or distance for moving the body part of the user corresponding to the feature object to the position of the corresponding body part included in the feature data of the reference image.
  • the guide information may include information for correcting the posture of the user included in the captured image to the posture of the user included in the reference image.
  • the display 180 or the audio output unit 185 may output the guide information generated by the controller 170 (S720).
  • the display 180 may visually output the superimposed guide information on the captured image.
  • the audio output unit 185 may acoustically output the guide information.
  • FIG. 10 is a diagram illustrating a display screen of a message according to a third embodiment of the present invention.
  • the display 180 may divide a screen into two regions and display the screen.
  • the display 180 may display the reference image 810 in the first region of the divided two regions.
  • the display 180 may display the captured image 820 in the second area of the divided two areas.
  • the controller 170 may generate a message 830 indicating that the operation does not match.
  • the display 180 may display the message 830 on the screen, and the audio output unit 185 may output the message 830 as a voice.
  • the controller 170 may generate a message 840 indicating that the operation matches.
  • the display 180 may display the message 840 on the screen, and the audio output unit 185 may output the message 840 as a voice.
  • FIG. 11 is a flowchart illustrating an image display process according to a third embodiment of the present invention.
  • the controller 170 may determine whether the feature data match by comparing the first feature data and the second feature data (S810). The controller 170 compares the relative position information between the feature objects included in the first feature data and the relative position information between the feature objects included in the second feature data, and based on whether the relative position information matches. It may be determined whether the feature data match.
  • the controller 170 When the first feature data and the second feature data do not match in operation 810, the controller 170 generates a message indicating that the operation does not match, and displays the generated message on the display 180 or the audio output unit 185. ) May be controlled to output (S820).
  • the controller 170 When the first feature data and the second feature data match in operation 810, the controller 170 generates a message indicating that the operations match, and displays the generated message by the display 180 or the audio output unit 185. It may be controlled to output (S830).
  • FIG. 12 is a view showing a display screen of the exercise amount according to the fourth embodiment of the present invention.
  • the display 180 may divide a screen into two regions and display the screen.
  • the display 180 may display the reference image 910 in the first area of the two divided areas.
  • the display 180 may display the captured image 920 in the second area of the divided two areas.
  • the controller 170 may measure the amount of exercise based on the feature data included in the captured image 920 or the feature data included in the reference image 910.
  • the progression exercise amount may mean a calorie consumed by the exercise until the user starts the exercise and the exercise amount is measured.
  • the controller 170 may control the display 180 or the audio output unit 185 to output the progress momentum, or the network interface unit 130 or the external device interface unit 135 may output the progress momentum to the external device 230. It may also be controlled to transmit to.
  • the storage unit 140 may store the target exercise amount, and the controller 170 may control the display 180 or the audio output unit 185 to output the target exercise amount.
  • the target exercise amount may mean a calorie amount that the user should consume for a predetermined period of time.
  • the controller 170 measures the amount of exercise in progress, and the display 180 may display information 930 on the amount of exercise in the screen, and the audio output unit 185 may measure the amount of exercise in progress.
  • Information 930 may be output as voice.
  • the controller 170 measures the progression exercise amount, and the storage 140 stores the target exercise amount.
  • the display 180 may display information 940 on the progression exercise and the target exercise amount on the screen, and the audio output unit 185 may output information 940 on the progression exercise and the target exercise quantity as a voice.
  • FIG. 13 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
  • the controller 170 may measure the amount of progression based on the feature data included in the captured image or the feature data included in the reference image (S910).
  • the feature data included in the reference image may include the type of exercise, and the controller 170 may determine the type of exercise from the feature data included in the captured image.
  • the controller 170 may measure the amount of calories consumed by the exercise after receiving a progression exercise, for example, after receiving the reference image or after obtaining the captured image, based on the type of exercise.
  • the storage 140 may store information about the weight of the user, and the controller 170 may measure the amount of progression based on the information about the weight of the user.
  • controller 170 may control the display 180 or the audio output unit 185 to output information about the progression exercise amount, or the network interface unit 130 or the external device interface unit 135 may perform the information on the progression exercise amount. It may be controlled to transmit to the external device 230 (S920).
  • FIG. 14 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
  • the controller 170 may measure the progression exercise amount based on the feature data included in the captured image or the feature data included in the reference image, and may obtain a target exercise amount of the user from the storage 140 (S1010). In addition, the controller 170 may control the display 180 or the audio output unit 185 to output information about the progression exercise amount and the target exercise amount, or the network interface unit 130 or the external device interface unit 135 may perform the progression exercise amount. And transmitting information about the target exercise amount to the external device 230 (S1020). In this case, the display 180 may display information about the progression exercise information and the target exercise amount together on the screen.
  • 15 is a diagram illustrating an output screen of a notification message according to a fifth embodiment of the present invention.
  • the display 180 may divide a screen into two areas and display the screen.
  • the display 180 may display the reference image 1010 in the first region of the divided two regions.
  • the display 180 may display the captured image 1020 in the second area among the two divided areas.
  • the controller 170 generates a notification message when the progress exercise amount reaches the target exercise amount, and controls the display 180 or the audio output unit 185 to output the notification message or the network interface unit 130 or the external device interface.
  • the unit 135 may control to transmit the notification message to the external device.
  • the controller 170 compares the measured progress exercise amount with the target exercise amount stored in the storage 140, and when the progress exercise amount reaches the target exercise amount, the controller 170 displays a notification message 1030 indicating that the goal has been reached. Can be generated.
  • the display 180 may display the notification message 1030 on the screen, and the audio output unit 185 may output the notification message 1030 as a voice.
  • 16 is a flowchart illustrating an image display process according to a fifth embodiment of the present invention.
  • the controller 170 may measure the progression exercise amount based on the feature data included in the captured image or the feature data included in the reference image, and may obtain a target exercise amount of the user from the storage 140. In addition, the controller 170 may determine whether the amount of exercise reaches the target amount of exercise by comparing the measured amount of exercise with the target amount of exercise (S1110).
  • the controller 170 In the case where the progressed exercise amount reaches the target exercise amount in step 1120, for example, when the progressed exercise amount is greater than or equal to the target exercise amount, the controller 170 generates a notification message indicating that the progressed exercise amount has reached the target exercise amount,
  • the display 180 may control to display the notification message on the screen or control the audio output unit 185 to output the notification message as a voice.
  • the controller 170 may control the network interface 130 or the external device interface 135 to transmit a notification message to the external device.
  • step 1120 when the progression exercise amount does not reach the target exercise amount, for example, when the progress exercise amount is smaller than the target exercise amount, the controller 170 re-measures the progress exercise amount and uses the remeasured amount of exercise amount as the target exercise amount. Can be compared with
  • 17 is a diagram illustrating an output screen of health information according to a sixth embodiment of the present invention.
  • the broadcast receiver 105 may acquire a broadcast image, and the display 180 may output the broadcast image.
  • the broadcast image may include the content 1110, and the controller 170 may obtain health information related to the content, for example, information about calories, from the metadata of the content 1110.
  • the display 180 may display health information 1120 related to the content on the screen.
  • the health information 1120 related to the content may further include dietary information of the user, for example, a target intake amount, a daily intake amount, and the like, and may further include information about a recommended exercise program according to the content.
  • the health information 1120 related to the content may further include an object 1122 configured to call a function of receiving a reference image reflecting the recommended exercise program. When the object 1122 is selected, the captured image and the reference image are received, and the user may perform an operation according to the feature data according to the recommended exercise program.
  • the broadcast receiver 105 may acquire a broadcast image, and the display 180 may output the broadcast image.
  • the broadcast image may include the content 1110, and the controller 170 may obtain health information related to the content, for example, information about calories, from the metadata of the content 1110.
  • the display 180 may display health information 1130 related to the content on the screen.
  • the health information 1130 related to the content may further include user's exercise information, for example, a target exercise amount, a daily exercise amount, and the like, and may further include information about a recommended exercise program according to the content.
  • the health information 1130 related to the content may further include an object 1132 configured to call a function of receiving a reference image reflecting the recommended exercise program. When the object 1132 is selected, the captured image and the reference image are received, and the user may perform an operation according to the feature data according to the recommended exercise program.
  • FIG. 18 is a flowchart illustrating an image display process according to a sixth embodiment of the present invention.
  • the broadcast receiving unit 105 may receive a broadcast image (S112).
  • the display 180 and the audio output unit 185 may output the received broadcast image.
  • the controller 170 may obtain health information related to the content included in the broadcast image based on the metadata included in the broadcast image, and control the display 180 to output the checked health information (S114). ).
  • the network interface unit 130 may transmit health information to the network server 220 or the external device 230 (S116).
  • the broadcast receiving unit 105 may receive a reference image including the first characteristic data based on the health information from the network server 220 (S300).
  • the first characteristic data may reflect exercise prescription information generated according to the health information.
  • FIG. 19 is a view showing a user authentication screen according to the seventh and eighth embodiments of the present invention.
  • the display 180 displays user information 1210. can do.
  • the user information 1210 may include identification information of the external device 230, identification information of the user, and health information of the user.
  • the health information of the user may include a user's goal, daily intake, exercise amount, and the like.
  • the display 180 may display user information 1220 and 1230.
  • User information 1220 may include an image (virtual or real image) identifying the user.
  • the user information 1230 may include identification information of the user and health information of the user.
  • the health information of the user may include a user's goal, daily intake, exercise amount, and the like.
  • FIG. 20 is a flowchart illustrating an image display process according to a seventh embodiment of the present invention.
  • the network interface unit 130 or the external device interface unit 135 may monitor the connection with the external device 230 (S122).
  • the network interface unit 130 may monitor a connection with the external device 230 through Wi-Fi, Bluetooth, ZigBee, or the like.
  • the external device interface unit 135 may monitor the connection with the external device 230 through USB, Firewire, and the like.
  • the controller 170 may obtain identification information of the external device 230 connected from the network interface unit 130 or the external device interface unit 135. There is (S126).
  • the identification information of the external device 230 may include a device ID, a MAC address or an IP address.
  • the controller 170 may identify the user based on the identification information of the external device 230 (S128).
  • the storage 140 may store health information including identification information of the external device, identification information of the user, dietary information of the user, exercise information, and the like.
  • the controller 170 may check the identification information of the user and the health information of the user corresponding to the identification information of the external device 230.
  • the broadcast receiving unit 105 may receive a reference image including the first characteristic data based on the health information from the network server 220 (S300).
  • the first characteristic data may reflect exercise prescription information generated according to the health information.
  • 21 is a flowchart illustrating an image display process according to an eighth embodiment of the present invention.
  • the photographing unit may acquire a photographed image photographing the user (S200).
  • the controller 170 may detect a face region of the user through edge extraction or pattern extraction from the captured image (S210).
  • the controller 170 may identify the user based on the detected face area (S220).
  • the storage 140 may store health information including information on a face area of the user, identification information of the user, dietary information of the user, exercise information, and the like.
  • the controller 170 may check the identification information of the corresponding user and the health information of the user by comparing the detected face area with edges or patterns extracted from the face area of the user stored in the storage 140.
  • the broadcast receiving unit 105 may receive a reference image including the first characteristic data based on the health information from the network server 220 (S300).
  • the first characteristic data may reflect exercise prescription information generated according to the health information.
  • FIG. 22 is a diagram illustrating a screen for checking whether an image is displayed according to the ninth embodiment of the present invention.
  • the display 180 may display content 1300 included in a broadcast image.
  • the display 180 may display an object 1310 for checking whether the exercise is performed.
  • the object 1310 confirming whether the exercise is performed may include an object 1312 configured to call a function of receiving a reference image reflecting exercise prescription information included in the exercise schedule of the user.
  • the object 1312 is selected, the captured image and the reference image are received, and the user may perform an operation according to the reference image reflecting the exercise prescription information included in the exercise schedule of the user.
  • FIG. 23 is a flowchart illustrating an image display process according to a ninth embodiment of the present invention.
  • the broadcast receiving unit 105 receives a broadcast image (S132), and the controller 170 outputs the broadcast image received through the display 180 and the audio output unit 185, and the controller 170 receives the received broadcast image.
  • the type of the content being output through the display 180 and the audio output unit 185 is determined based on the metadata included in the.
  • the controller 170 may monitor whether the type of the content being output through the display 180 and the audio output unit 185 is advertisement content (S134).
  • the photographing unit acquires a photographed image photographing the user in operation S200. Since the description of the steps 300 to 600 may be the same as the description of the steps 300 to 600 of FIG. 7, the description thereof will be omitted.
  • the mobile terminal described herein transmits and receives text messages as well as mobile phones, such as smart phones, laptop computers, digital broadcasting terminals, PDAs (Personal Digital Assistants), Portable Multimedia Players (PMPs), navigation devices, and the like. It can be any terminal that can do it.
  • mobile phones such as smart phones, laptop computers, digital broadcasting terminals, PDAs (Personal Digital Assistants), Portable Multimedia Players (PMPs), navigation devices, and the like. It can be any terminal that can do it.
  • image display apparatus and the image display method described herein is not limited to the configuration and method of the embodiments described as described above, the embodiments of the embodiments can be modified in various ways All or part may be optionally combined.
  • the image display method of the image display device described herein can be implemented as a processor-readable code on a processor-readable recording medium provided in the image display device.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. .
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

The present invention relates to an image display device that compares a feature data included in a reference image with a feature data extracted from an image photographed of a user to assess the congruency of the feature data and provide the assessment result to a user, thereby enabling a systematic exercise management by monitoring whether a user adapts to the feature data included in the reference image and guiding a user to perform an accurate movement according to the reference image, and an image displaying method thereof. To this end, the image display device according to one embodiment of the present invention comprises: a photographing unit for obtaining the photographed image of a user; a communication unit for receiving the reference image including a first feature data; a output unit for outputting the photographed image and the reference image; and a control unit for extracting a second feature data from the photographed image, comparing the first feature data and the second feature data, and controlling the output unit to overlap and display an indicator showing the comparison result on the photographed image or the reference image.

Description

영상표시기기 및 그 영상표시방법Image display device and image display method
본 명세서는 전자기기 및 전자기기의 동작제어방법에 관한 것으로서, 더욱 상세하게는 영상표시기능을 구비하는 영상표시기기와 이와 같은 영상표시기기에서의 영상표시방법에 관한 것이다.The present specification relates to an electronic device and a method for controlling the operation of the electronic device, and more particularly, to an image display device having an image display function and an image display method in such an image display device.
영상표시기기는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시기기를 통하여 방송을 시청할 수 있다. 영상표시기기는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. An image display device is a device having a function of displaying an image that a user can watch. The user can watch the broadcast through the image display device. The video display device displays a broadcast selected by a user on a display among broadcast signals transmitted from a broadcasting station. Currently, broadcasting is shifting from analog broadcasting to digital broadcasting worldwide.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다. Digital broadcasting refers to broadcasting for transmitting digital video and audio signals. Digital broadcasting is more resistant to external noise than analog broadcasting, so it has less data loss, is advantageous for error correction, has a higher resolution, and provides a clearer picture. In addition, unlike analog broadcasting, digital broadcasting is capable of bidirectional services.
본 명세서는 참조 영상에 포함된 특징 데이터와 사용자를 촬영한 영상에서 추출되는 특징 데이터를 비교하여 특징 데이터의 일치 여부를 판단하고 판단 결과를 사용자에게 제공함으로써, 참조 영상에 포함된 특징 데이터에 대한 사용자의 순응 여부를 모니터링하고 사용자가 참조 영상에 따라 정확한 동작을 취할 수 있게 유도하여 체계적인 운동 관리를 가능하게 해주는 영상표시기기 및 그 영상표시방법을 제공하는 것을 기술적 과제로 한다.The present specification compares feature data included in a reference image with feature data extracted from an image of the user to determine whether the feature data match and provides a determination result to the user, thereby providing a user with the feature data included in the reference image. It is a technical problem to provide an image display device and a method of displaying the image, which monitor the compliance of the system and allow the user to take an accurate action according to the reference image, thereby enabling systematic exercise management.
상기 기술적 과제를 해결하기 위한 영상표시기기는, 사용자를 촬영한 촬영 영상을 획득하는 촬영부; 제 1 특징 데이터를 포함하는 참조 영상을 수신하는 통신부; 상기 촬영 영상 및 상기 참조 영상을 출력하는 출력부; 및 상기 촬영 영상으로부터 제 2 특징 데이터를 추출하며, 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터를 비교하고, 상기 출력부가 상기 비교 결과를 나타내는 인디케이터를 상기 촬영 영상 또는 상기 참조 영상에 중첩하여 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.The image display device for solving the technical problem, the photographing unit for obtaining a photographed image of the user; A communication unit which receives a reference image including first feature data; An output unit configured to output the captured image and the reference image; And extracting second feature data from the captured image, comparing the first feature data with the second feature data, and outputting an indicator indicating the comparison result superimposed on the captured image or the reference image. It characterized in that it comprises a control unit for controlling.
일 실시예에 있어서 상기 출력부는, 상기 촬영 영상 및 상기 참조 영상을 동시에 표시하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 출력부는, 상기 촬영 영상 및 상기 참조 영상을 중첩하여 표시하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 출력부는, 상기 촬영 영상 및 상기 참조 영상을 PIP(Picture In Picture) 방식으로 표시하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 출력부는, 상기 촬영 영상 및 상기 참조 영상을 화면의 분할된 영역 각각에 표시하는 것을 특징으로 한다.The output unit may display the captured image and the reference image at the same time. The output unit may display the captured image and the reference image in a superimposed manner. The output unit may display the captured image and the reference image in a picture in picture (PIP) manner. In an exemplary embodiment, the output unit may display the captured image and the reference image on each of divided regions of the screen.
또한 일 실시예에 있어서 상기 제어부는, 상기 통신부가 외부 장치에 상기 비교 결과를 송신하도록 제어하는 것을 특징으로 한다.The control unit may control the communication unit to transmit the comparison result to an external device.
또한 일 실시예에 있어서 상기 제어부는, 상기 비교 결과에 근거하여 가이드 정보를 생성하고, 상기 출력부가 상기 가이드 정보를 출력하도록 제어하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 가이드 정보는, 자세 교정 정보를 포함하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 가이드 정보는, 상기 사용자의 신체 부위의 이동 방향 및/또는 이동 거리에 관한 정보를 포함하는 것을 특징으로 한다.The control unit may generate guide information based on the comparison result and control the output unit to output the guide information. In another embodiment, the guide information may include posture correction information. In addition, in one embodiment, the guide information, characterized in that it comprises information about the moving direction and / or the moving distance of the body part of the user.
또한 일 실시예에 있어서 상기 제어부는, 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터를 비교하여 일치 여부를 판단하고, 상기 출력부가 상기 일치 여부를 나타내는 메시지를 출력하도록 제어하는 것을 특징으로 한다.In an exemplary embodiment, the controller may compare the first feature data and the second feature data to determine a match, and control the output unit to output a message indicating the match.
또한 일 실시예에 있어서 상기 제어부는, 상기 제 1 특징 데이터 또는 상기 제 2 특징 데이터에 근거하여 상기 사용자의 진행 운동량을 측정하고, 상기 출력부가 상기 진행 운동량을 출력하도록 제어하거나 상기 통신부가 외부 장치에 상기 진행 운동량을 송신하도록 제어하는 것을 특징으로 한다.In an embodiment, the controller may measure the progression amount of the user based on the first characteristic data or the second characteristic data, and control the output unit to output the progression quantity or the communication unit to an external device. It characterized in that the control to transmit the amount of exercise.
또한 일 실시예에 있어서 상기 영상표시기기는 상기 사용자의 목표 운동량을 저장하는 저장부를 더 포함하고, 상기 제어부는, 상기 출력부가 상기 목표 운동량을 출력하도록 제어하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 제어부는, 상기 진행 운동량이 상기 목표 운동량에 도달한 경우에 상기 출력부가 알림 메시지를 출력하도록 제어하거나 상기 통신부가 외부 장치에 상기 알림 메시지를 송신하도록 제어하는 것을 특징으로 한다.The image display apparatus may further include a storage unit configured to store a target exercise amount of the user, and the controller may control the output unit to output the target exercise amount. The controller may further include controlling the output unit to output a notification message or controlling the communication unit to transmit the notification message to an external device when the progressed exercise amount reaches the target exercise amount. .
또한 일 실시예에 있어서 상기 통신부는, 방송 영상을 수신하고, 상기 제어부는, 상기 방송 영상에 포함된 컨텐츠와 관련된 건강 정보를 획득하고, 상기 출력부가 상기 건강 정보를 출력하도록 제어하거나 상기 통신부가 외부 장치에 상기 건강 정보를 송신하도록 제어하는 것을 특징으로 한다.In an embodiment, the communication unit may receive a broadcast image, and the controller may acquire health information related to content included in the broadcast image, and control the output unit to output the health information, or the communication unit may be external. Control to transmit the health information to a device.
또한 일 실시예에 있어서 상기 통신부는, 상기 영상표시기기와 외부 장치와의 연결을 모니터링하고, 상기 제어부는, 상기 영상표시기기가 상기 외부 장치와 연결되면 상기 외부 장치의 식별 정보를 추출하고, 상기 식별 정보에 근거하여 사용자 정보를 획득하고 상기 사용자 정보에 근거하여 상기 사용자의 건강 정보를 획득하는 것을 특징으로 한다.The communication unit may monitor the connection between the video display device and an external device, and the controller may extract identification information of the external device when the video display device is connected to the external device. Obtaining user information based on identification information, and obtaining health information of the user based on the user information.
또한 일 실시예에 있어서 상기 제어부는, 상기 촬영 영상으로부터 상기 사용자의 얼굴 영역을 검출하고, 상기 검출된 얼굴 영역에 근거하여 사용자 정보를 획득하고 상기 사용자 정보에 근거하여 상기 사용자의 건강 정보를 획득하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 통신부는, 상기 건강 정보에 근거하여 상기 참조 영상을 수신하는 것을 특징으로 한다.The controller may further include detecting a face region of the user from the captured image, obtaining user information based on the detected face region, and obtaining health information of the user based on the user information. It is characterized by. In an embodiment, the communication unit may receive the reference image based on the health information.
또한 일 실시예에 있어서 상기 통신부는, 방송 영상을 수신하고, 상기 방송 영상에 포함된 콘텐츠의 타입에 근거하여 상기 참조 영상을 수신하는 것을 특징으로 한다. 또한 일 실시예에 있어서 상기 통신부는, 상기 방송 영상에 포함된 콘텐츠가 광고 콘텐츠인 경우에 상기 참조 영상을 수신하는 것을 특징으로 한다.In an exemplary embodiment, the communication unit may receive a broadcast video and receive the reference video based on a type of content included in the broadcast video. The communication unit may receive the reference image when the content included in the broadcast image is an advertisement content.
또한 일 실시예에 있어서 상기 제 1 특징 데이터는, 상기 사용자에 대한 운동 처방 정보를 반영하는 특징 데이터인 것을 특징으로 한다.The first feature data may be feature data reflecting exercise prescription information for the user.
또한 일 실시예에 있어서 상기 운동 처방 정보는, 유산소, 근력 및 스트레칭 운동 중 어느 하나에 관한 운동 처방 정보인 것을 특징으로 한다.In addition, in one embodiment, the exercise prescription information is characterized in that the exercise prescription information for any one of aerobic, muscular strength and stretching exercises.
또한 일 실시예에 있어서 상기 비교 결과는, 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터에서 일치하지 않는 상기 사용자의 신체 부위에 관한 정보를 포함하는 것을 특징으로 한다.In an exemplary embodiment, the comparison result may include information about a body part of the user who does not match in the first feature data and the second feature data.
또한, 상기 기술적 과제를 해결하기 위한 영상표시방법은, 사용자를 촬영한 촬영 영상을 획득하는 단계; 제 1 특징 데이터를 포함하는 참조 영상을 수신하는 단계; 상기 촬영 영상 및 상기 참조 영상을 출력하는 단계; 상기 촬영 영상으로부터 제 2 특징 데이터를 추출하는 단계; 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터를 비교하는 단계; 및 상기 비교 결과를 나타내는 인디케이터를 상기 촬영 영상 또는 상기 참조 영상에 중첩하여 표시하는 단계를 포함하는 것을 특징으로 한다.In addition, the image display method for solving the technical problem, the step of obtaining a photographed image of the user; Receiving a reference image including first feature data; Outputting the captured image and the reference image; Extracting second feature data from the captured image; Comparing the first feature data and the second feature data; And displaying an indicator indicating the comparison result by overlapping the photographed image or the reference image.
본 발명의 일 실시예에 따르면, 영상표시기기가 참조 영상 및 촬영 영상의 특징 데이터를 비교함으로써 동작의 정확성을 판단하고 동작의 정확성에 관한 정보를 사용자에게 제공함으로써, 사용자가 올바른 동작을 수행할 수 있게 해준다. 이에 따라, 사용자는 참조 영상에 포함된 동작을 쉽고 편리하게 학습할 수 있고, 동작 수행의 결과를 정확하게 모니터링 할 수 있게 된다. According to an embodiment of the present invention, the image display device compares the feature data of the reference image and the captured image to determine the accuracy of the operation and provide the user with information on the accuracy of the operation, thereby allowing the user to perform the correct operation. To make it possible. Accordingly, the user can easily and conveniently learn the operations included in the reference image, and accurately monitor the result of performing the operations.
도 1은 본 발명의 일 실시예에 따른 영상표시기기 시스템을 개략적으로 나타낸 도면이다.1 is a view schematically showing a video display device system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 영상표시기기의 내부 블록도이다.2 is a block diagram illustrating an image display device according to an exemplary embodiment of the present invention.
도 3은 도 2의 영상표시기기와 데이터 송수신이 가능한 장치를 보여주는 도면이다.3 is a diagram illustrating a device capable of transmitting and receiving data with the image display device of FIG. 2.
도 4는 본 발명의 실시예들에 따른 촬영 영상 및 참조 영상의 출력 화면을 나타내는 도면이다.4 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
도 5는 본 발명의 실시예들에 따른 촬영 영상 및 참조 영상의 출력 화면을 나타내는 도면이다.5 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
도 6은 본 발명의 제 1 실시예에 따른 인디케이터의 표시 화면을 나타내는 도면이다.6 is a diagram illustrating a display screen of an indicator according to a first embodiment of the present invention.
도 7은 본 발명의 제 1 실시예에 따른 영상표시과정을 나타내는 흐름도이다.7 is a flowchart illustrating an image display process according to the first embodiment of the present invention.
도 8은 본 발명의 제 2 실시예에 따른 가이드 정보의 출력 화면을 나타내는 도면이다.8 is a diagram illustrating an output screen of guide information according to the second embodiment of the present invention.
도 9는 본 발명의 제 2 실시예에 따른 영상표시과정을 나타내는 흐름도이다.9 is a flowchart illustrating an image display process according to a second embodiment of the present invention.
도 10은 본 발명의 제 3 실시예에 따른 메시지의 표시 화면을 나타내는 도면이다.10 is a diagram illustrating a display screen of a message according to a third embodiment of the present invention.
도 11은 본 발명의 제 3 실시예에 따른 영상표시과정을 나타내는 흐름도이다.11 is a flowchart illustrating an image display process according to a third embodiment of the present invention.
도 12는 본 발명의 제 4 실시예에 따른 운동량의 표시 화면을 나타내는 도면이다.12 is a view showing a display screen of the exercise amount according to the fourth embodiment of the present invention.
도 13은 본 발명의 제 4 실시예에 따른 영상표시과정을 나타내는 흐름도이다.13 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
도 14는 본 발명의 제 4 실시예에 따른 영상표시과정을 나타내는 흐름도이다.14 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
도 15는 본 발명의 제 5 실시예에 따른 알림 메시지의 출력 화면을 나타내는 도면이다.15 is a diagram illustrating an output screen of a notification message according to a fifth embodiment of the present invention.
도 16은 본 발명의 제 5 실시예에 따른 영상표시과정을 나타내는 흐름도이다.16 is a flowchart illustrating an image display process according to a fifth embodiment of the present invention.
도 17은 본 발명의 제 6 실시예에 따른 건강 정보의 출력 화면을 나타내는 도면이다.17 is a diagram illustrating an output screen of health information according to a sixth embodiment of the present invention.
도 18은 본 발명의 제 6 실시예에 따른 영상표시과정을 나타내는 흐름도이다.18 is a flowchart illustrating an image display process according to a sixth embodiment of the present invention.
도 19는 본 발명의 제 7 실시예 및 제 8 실시예에 따른 사용자 인증 화면을 나타내는 도면이다.19 is a view showing a user authentication screen according to the seventh and eighth embodiments of the present invention.
도 20은 본 발명의 제 7 실시예에 따른 영상표시과정을 나타내는 흐름도이다.20 is a flowchart illustrating an image display process according to a seventh embodiment of the present invention.
도 21은 본 발명의 제 8 실시예에 따른 영상표시과정을 나타내는 흐름도이다. 21 is a flowchart illustrating an image display process according to an eighth embodiment of the present invention.
도 22는 본 발명의 제 9 실시예에 따른 영상표시여부를 확인하는 화면을 나타내는 도면이다.22 is a diagram illustrating a screen for checking whether an image is displayed according to the ninth embodiment of the present invention.
도 23은 본 발명의 제 9 실시예에 따른 영상표시과정을 나타내는 흐름도이다.23 is a flowchart illustrating an image display process according to a ninth embodiment of the present invention.
일반적으로 피트니스 센터 등에서 제공하는 운동 관리 프로그램에 의하면, 헬스 트레이너 등의 전문가가 운동 정보에 대한 스케줄을 제공하고, 사용자가 제공된 스케줄을 이행함으로써 사용자의 운동 관리가 이루어진다. 한편, 사용자가 보다 효율적으로 운동을 수행하기 위해서는 정해진 스케줄에 대한 사용자의 이행 여부를 정확하게 판단하는 것이 중요하다. 또한, 사용자가 보다 효율적으로 운동을 수행하기 위해서는 정해진 스케줄에 따른 운동에 포함된 동작을 정확하게 수행하는 것이 중요하다.In general, according to an exercise management program provided by a fitness center or the like, a professional such as a fitness trainer provides a schedule for exercise information, and the user manages the exercise by performing the provided schedule. On the other hand, in order for the user to perform the exercise more efficiently, it is important to accurately determine whether the user fulfills the predetermined schedule. In addition, in order for a user to perform an exercise more efficiently, it is important to accurately perform an operation included in an exercise according to a predetermined schedule.
이하, 본 발명의 일실시예와 관련된 영상표시기기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, an image display device according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other.
한편, 본 명세서에서 기술되는 영상표시기기는, 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상표시기기로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.On the other hand, the video display device described in this specification is an intelligent video display device that adds a computer support function to the broadcast reception function, and is faithful to the broadcast reception function, but the Internet function is added, the handwriting type input device, touch screen or It can be equipped with a more convenient interface such as a space remote control. In addition, by being connected to the Internet and a computer with the support of a wired or wireless Internet function, it is possible to perform functions such as email, web browsing, banking or gaming. Standardized general-purpose operating systems can be used for these various functions.
즉, 본 명세서에서 기술되는 영상표시기기는, 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 예를 들어, 스마트 TV일 수 있다. That is, in the image display device described herein, various applications can be freely added or deleted on the general-purpose OS kernel, and thus various user-friendly functions can be performed. For example, it may be a smart TV.
또한, 본 명세서에서 설명되는 특징 데이터라는 용어는 각 영상에 포함된 사용자의 동작 또는 자세의 특징을 반영하는 데이터로서 영상에 미리 설정되거나 영상으로부터 추출되는 데이터를 의미할 수 있다. 예를 들어 특징 데이터는 복수의 영상에서 관찰되는 사용자의 동작을 비교하기 위하여 미리 설정된 하나 이상의 특징 오브젝트 간의 상대적인 위치 정보를 포함할 수 있다. 일 실시예에서 특징 오브젝트는 사용자의 신체 부위에 대응될 수 있다.In addition, the term feature data described herein is data that reflects a feature of a user's motion or posture included in each image, and may mean data that is preset in the image or extracted from the image. For example, the feature data may include relative position information between one or more feature objects preset in order to compare a user's motion observed in the plurality of images. In an embodiment, the feature object may correspond to a body part of the user.
또한, 본 명세서에서 설명되는 참조 영상이라는 용어는 사용자가 수행하기 위한 동작을 반영하는 특징 데이터를 이미지로 나타낸 영상을 의미할 수 있다. 참조 영상은 실제 이미지, 가상 이미지 또는 실제 이미지와 가상 이미지가 합성된 이미지를 포함할 수 있다.In addition, the term reference image described herein may refer to an image representing feature data reflecting an operation performed by a user. The reference image may include a real image, a virtual image, or an image obtained by combining the real image and the virtual image.
영상표시기기 시스템Video Display System
도 1은 본 발명의 일 실시예에 따른 영상표시기기 시스템을 개략적으로 나타낸 도면이다.1 is a view schematically showing a video display device system according to an embodiment of the present invention.
도면을 참조하여 설명하면, 본 발명의 실시예에 따른 영상표시기기 시스템은, 방송 송출자 기준으로 컨텐츠 서비스의 제공 측면에서 볼 때, 컨텐츠 제공자(Content Provider;CP)(10), 서비스 제공자(Service Provider;SP)(20), 네트워크 제공자(Network Provider; NP)(30) 및 사용자(Customer)(40)로 구분될 수 있다.Referring to the drawings, the video display device system according to an embodiment of the present invention, when viewed in terms of providing a content service on a broadcast sender basis, a content provider (CP) 10, a service provider (Service) It may be divided into a provider (SP) 20, a network provider (NP) 30, and a user 40.
컨텐츠 제공자(10)는, 각종 컨텐츠를 제작하여 제공한다. 컨텐츠 제공자(10)에는 도 1에서와 같이 지상파 방송 송출자(terrestrial broadcaster), 케이블 방송 사업자(cable SO(System Operator) 또는 MSO(Multiple System Operator), 위성 방송 송출자(satellite broadcaster), 인터넷 방송 송출자(Internet broadcaster) 등이 예시될 수 있다. 또한, 컨텐츠 제공자(10)는, 방송 컨텐츠 외에, 다양한 애플리케이션 등을 제공할 수도 있다.The content provider 10 produces and provides various contents. As shown in FIG. 1, the content provider 10 includes a terrestrial broadcaster, a cable system operator or a multiple system operator, a satellite broadcaster, and an internet broadcaster. An internet broadcaster, etc. may be exemplified, etc. In addition, the content provider 10 may provide various applications and the like in addition to the broadcast content.
서비스 제공자(20)는, 컨텐츠 제공자(10)가 제공하는 컨텐츠들을 서비스 패키지화하여 제공할 수 있다. 예를 들어, 도 1의 서비스 제공자(20)는, 제1 지상파 방송, 제2 지상파 방송, 케이블 MSO, 위성 방송, 다양한 인터넷 방송, 애플리케이션 등을 패키지화하여 사용자에게 제공할 수 있다.The service provider 20 may provide a service package of contents provided by the content provider 10. For example, the service provider 20 of FIG. 1 may package and provide a first terrestrial broadcast, a second terrestrial broadcast, a cable MSO, satellite broadcast, various internet broadcasts, applications, and the like to a user.
한편, 서비스 제공자(20)는, 유니캐스트(unicast) 또는 멀티캐스트(multicast) 방식을 이용하여 사용자(40) 측에 서비스를 제공할 수 있다. 유니캐스트 방식은 하나의 송신자와 하나의 수신자 사이에 데이터를 1:1로 전송하는 방식이다. 예를 들어, 유니캐스트 방식의 경우 수신기에서 서버에 데이터를 요청하면, 서버는 요청에 따라 데이터를 수신기에 전송할 수 있다. 멀티캐스트 방식은 특정한 그룹의 다수의 수신자에게 데이터를 전송하는 방식이다. 예를 들어, 서버는 데이터를 미리 등록된 다수의 수신기에 한꺼번에 전송할 수 있다. 이러한 멀티캐스트 등록을 위해 IGMP(Internet Group Management Protocol) 프로토콜 등이 사용될 수 있다.Meanwhile, the service provider 20 may provide a service to the user 40 using a unicast or multicast scheme. The unicast method is a method of transmitting data 1: 1 between one sender and one receiver. For example, in the unicast method, when a receiver requests data from a server, the server may transmit data to the receiver according to the request. Multicasting is a method of transmitting data to a plurality of recipients of a specific group. For example, the server can send data to multiple pre-registered receivers at once. For such multicast registration, the Internet Group Management Protocol (IGMP) protocol may be used.
네트워크 제공자(30)는, 서비스를 사용자(40)에게 제공하기 위한 네트워크 망을 제공할 수 있다. 사용자(40)는 홈 네트워크(Home Network End User;HNED)를 구축하여 서비스를 제공받을 수도 있다.The network provider 30 may provide a network for providing a service to the user 40. The user 40 may be provided with a service by building a home network end user (HNED).
상기와 같은 영상표시기기 시스템에서 전송되는 컨텐츠를 보호하기 위한 수단으로, 제한 수신(Conditional Access) 또는 컨텐츠 보호(Content Protection) 등이 사용될 수 있다. 이러한 제한 수신이나 컨텐츠 보호를 위한 하나의 예로서, 케이블카드(CableCARD), DCAS(Downloadable Conditional Access System)와 같은 방식이 사용될 수 있다.As a means for protecting the content transmitted from the video display device system, a conditional access or a content protection may be used. As one example for such a restriction reception or content protection, a scheme such as a cable card or a downloadable conditional access system (DCAS) may be used.
한편, 사용자(40)도 네트워크를 통해, 컨텐츠를 제공하는 것이 가능하다. 이러한 경우, 상술한 바와 달리, 역으로, 사용자(40)가 컨텐츠 제공자가 될 수 있으며, 컨텐츠 제공자(10)가 사용자(40)로부터의 컨텐츠를 수신할 수도 있다. 이에 따라 양방향 컨텐츠 서비스 또는 데이터 서비스가 가능할 수 있다.On the other hand, the user 40 can also provide content through the network. In this case, unlike the above, the user 40 may be a content provider, and the content provider 10 may receive content from the user 40. Accordingly, an interactive content service or a data service may be possible.
도 2는 본 발명의 일 실시예에 따른 영상표시기기의 내부 블록도이다.2 is a block diagram illustrating an image display device according to an exemplary embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 의한 영상표시기기(100)는, 방송 수신부(105), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 디스플레이(180), 오디오 출력부(185), 및 전원공급부(190)를 포함할 수 있다. 이 중 방송 수신부(105)는, 튜너(110), 복조부(120), 및 네트워크 인터페이스부(130)를 포함할 수 있다. 이 중 튜너(110)와 복조부(120)는, 네트워크 인터페이스부(130)와, 선택적으로 구비되는 것도 가능하다. Referring to FIG. 2, the video display device 100 according to an embodiment of the present invention may include a broadcast receiver 105, an external device interface 135, a storage 140, a user input interface 150, The controller 170 may include a display unit 180, an audio output unit 185, and a power supply unit 190. The broadcast receiving unit 105 may include a tuner 110, a demodulator 120, and a network interface unit 130. Among them, the tuner 110 and the demodulator 120 may be provided with the network interface unit 130 selectively.
튜너(110)는, 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through an antenna. In addition, the selected RF broadcast signal is converted into an intermediate frequency signal or a baseband video or audio signal.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the analog broadcast signal is converted into an analog baseband video or audio signal (CVBS / SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal CVBS / SIF output from the tuner 110 may be directly input to the controller 170.
또한, 튜너(110)는, ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. In addition, the tuner 110 may receive an RF broadcast signal of a single carrier according to an Advanced Television System Committee (ATSC) scheme or an RF broadcast signal of multiple carriers according to a digital video broadcasting (DVB) scheme.
한편, 튜너(110)는, 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. Meanwhile, the tuner 110 may sequentially select RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna and convert them to intermediate frequency signals or baseband video or audio signals. have.
복조부(120)는, 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.For example, when the digital IF signal output from the tuner 110 is an ATSC scheme, the demodulator 120 performs 8-VSB (8-Vestigal Side Band) demodulation. In addition, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, a reed solomon decoder, and the like, for trellis decoding, deinterleaving, and read. Soloman decryption can be performed.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the tuner 110 is a DVB scheme, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation. In addition, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 may include a convolution decoder, a deinterleaver, a reed-soloman decoder, and the like to perform convolutional decoding, deinterleaving, and reed soloman decoding.
복조부(120)는, 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때, 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulator 120 may output a stream signal TS after performing demodulation and channel decoding. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal. For example, the stream signal may be an MPEG-2 Transport Stream (TS) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like. In more detail, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.On the other hand, the demodulator 120 described above can be provided separately according to the ATSC system and the DVB system. That is, it can be provided with an ATSC demodulation part and a DVB demodulation part.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the demodulator 120 may be input to the controller 170. After performing demultiplexing, image / audio signal processing, and the like, the controller 170 outputs an image to the display 180 and outputs audio to the audio output unit 185.
외부장치 인터페이스부(135)는 외부 장치와 영상표시기기(100)를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(135)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 135 may connect the external device to the image display device 100. To this end, the external device interface unit 135 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).
외부장치 인터페이스부(135)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(135)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시기기(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(135)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 135 may be connected to an external device such as a digital versatile disk (DVD), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or the like by wire or wireless. The external device interface unit 135 transmits an externally input image, audio or data signal to the controller 170 of the image display device 100 through a connected external device. In addition, the controller 170 may output an image, audio, or data signal processed by the controller 170 to a connected external device. To this end, the external device interface unit 135 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시기기(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. The A / V input / output unit may use a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), and a DVI to input video and audio signals from an external device to the video display device 100. (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminal, RGB terminal, D-SUB terminal and the like.
무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시기기(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA (Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. The wireless communication unit may perform near field communication with another electronic device. The image display device 100 may communicate with Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Digital Living Network Alliance (DLNA). Depending on the specification, it can be networked with other electronic devices.
또한, 외부장치 인터페이스부(135)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. In addition, the external device interface unit 135 may be connected through at least one of the various set top boxes and the various terminals described above, and perform input / output operations with the set top box.
한편, 외부장치 인터페이스부(135)는, 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다. Meanwhile, the external device interface unit 135 may receive an application or a list of applications in a neighboring external device and transmit the received application or list to the controller 170 or the storage 140.
네트워크 인터페이스부(130)는, 영상표시기기(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(130)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. The network interface unit 130 provides an interface for connecting the video display device 100 to a wired / wireless network including an internet network. The network interface unit 130 may include an Ethernet terminal for connecting to a wired network, and for connecting to a wireless network, a WLAN (Wi-Fi) or Wibro (Wireless). Broadband, Wimax (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA) communication standards, and the like may be used.
네트워크 인터페이스부(130)는, 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. The network interface unit 130 may access a predetermined web page through a network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server. In addition, content or data provided by a content provider or a network operator may be received. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider may be received through a network. In addition, it is possible to receive the update information and the update file of the firmware provided by the network operator. It may also transmit data to the Internet or content provider or network operator.
또한, 네트워크 인터페이스부(130)는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다. In addition, the network interface unit 130 may select and receive a desired application from among applications that are open to the public through the network.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다. The storage 140 may store a program for processing and controlling each signal in the controller 170, or may store a signal processed video, audio, or data signal.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(130)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface 135 or the network interface 130. In addition, the storage 140 may store information on a predetermined broadcast channel through a channel storage function.
또한, 저장부(140)는, 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(130)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다. In addition, the storage 140 may store an application or a list of applications input from the external device interface 135 or the network interface 130.
저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시기기(100)는, 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.The storage unit 140 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), It may include at least one type of storage medium such as RAM, ROM (EEPROM, etc.). The video display device 100 may provide a user with a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage 140.
도 2는 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수도 있다. 2 illustrates an embodiment in which the storage 140 is provided separately from the controller 170, but the scope of the present invention is not limited thereto. The storage unit 140 may be included in the control unit 170.
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 150 transmits a signal input by the user to the controller 170 or transmits a signal from the controller 170 to the user.
예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호 또는 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다. For example, the user input interface unit 150 may be powered on / off, channel selection, and screen from the remote controller 200 according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method. The controller may receive and process a user input signal or a control signal such as a setting, or transmit a control signal from the controller 170 to the remote controller 200.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호 또는 제어 신호를 제어부(170)에 전달할 수 있다.In addition, for example, the user input interface unit 150 may transmit a user input signal or a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170. have.
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호 또는 제어 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. In addition, for example, the user input interface unit 150 may transmit a user input signal or a control signal input from a sensing unit (not shown) that senses a user's gesture to the controller 170 or from the controller 170. The signal of may be transmitted to a sensing unit (not shown). Here, the sensing unit may include a touch sensor, a voice sensor, a position sensor, an operation sensor, and the like.
제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(135)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The control unit 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner 110, the demodulator 120, or the external device interface unit 135, and outputs a video or audio signal. You can create and output.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다. The image signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the image signal. In addition, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다. The audio signal processed by the controller 170 may be audio output to the audio output unit 185. In addition, the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
도 2에는 도시되어 있지 않으나, 제어부(170)는 입력되는 스트림을 역다중화하는 역다중화부, 역다중화된 영상 신호의 영상 처리를 수행하는 영상 처리부를 포함할 수 있다. 또한, 영상처리부는, 역다중화된 영상신호를 복호화하는 영상 디코더, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행하는 스케일러 등을 포함할 수 있다. Although not shown in FIG. 2, the controller 170 may include a demultiplexer for demultiplexing an input stream and an image processor for performing image processing of the demultiplexed video signal. The image processor may include a video decoder for decoding the demultiplexed video signal, a scaler for scaling the resolution of the decoded video signal on the display 180, and the like.
그 외, 제어부(170)는, 영상표시기기(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는, 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the controller 170 may control overall operations of the image display device 100. For example, the controller 170 may control the tuner 110 to control the tuner 110 to select an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시기기(100)를 제어할 수 있다. 특히, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 영상표시기기(100) 내로 다운받을 수 있도록 할 수 있다.In addition, the controller 170 may control the image display device 100 by a user command or an internal program input through the user input interface unit 150. In particular, the user may access the network to download the desired application or application list into the video display device 100.
예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다. For example, the controller 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 150. Then, the video, audio, or data signal of the selected channel is processed. The controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display 180 or the audio output unit 185.
다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다. As another example, the controller 170 may, for example, receive an external device image playback command received through the user input interface unit 150, from an external device input through the external device interface unit 135, for example, a camera or a camcorder. The video signal or the audio signal may be output through the display 180 or the audio output unit 185.
한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부를 통해 입력되는 영상 또는 저장부(140)에 저장된 영상을 디스플레이(180)에 표시하도록 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.The controller 170 may control the display 180 to display an image. For example, the display 180 displays a broadcast image input through the tuner 110, an external input image input through the external device interface unit 135, or an image input through the network interface unit, or an image stored in the storage unit 140. ) Can be displayed. In this case, the image displayed on the display 180 may be a still image or a video, and may be a 2D image or a 3D image.
한편, 제어부(170)는, 애플리케이션 보기 항목에 진입하는 경우, 영상표시기기(100) 내 또는 외부 네트워크로부터 다운로드 가능한 애플레케이션 또는 애플리케이션 목록을 표시하도록 제어할 수 있다. Meanwhile, when entering an application view item, the controller 170 may control to display a list of applications or applications that can be downloaded from the video display device 100 or from an external network.
제어부(170)는, 다양한 유저 인터페이스와 더불어, 외부 네트워크로부터 다운로드되는 애플리케이션을 설치 및 구동하도록 제어할 수 있다. 또한, 사용자의 선택에 의해, 실행되는 애플리케이션에 관련된 영상이 디스플레이(180)에 표시되도록 제어할 수 있다.The controller 170 may control to install and run an application downloaded from an external network along with various user interfaces. In addition, by selecting a user, an image related to an executed application may be controlled to be displayed on the display 180.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(135)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. 한편, 이러한 썸네일 리스트 내의 썸네일 영상들은 차례로 또는 동시에 업데이트될 수 있다. 이에 따라 사용자는 복수의 방송 채널의 내용을 간편하게 파악할 수 있게 된다. On the other hand, although not shown in the figure, it may be further provided with a channel browsing processing unit for generating a thumbnail image corresponding to the channel signal or the external input signal. The channel browsing processor may receive a stream signal TS output from the demodulator 120 or a stream signal output from the external device interface 135, extract a video from the input stream signal, and generate a thumbnail image. Can be. The generated thumbnail image may be input as it is or encoded to the controller 170. In addition, the generated thumbnail image may be encoded in a stream form and input to the controller 170. The controller 170 may display a thumbnail list including a plurality of thumbnail images on the display 180 by using the input thumbnail image. Meanwhile, the thumbnail images in the thumbnail list may be updated sequentially or simultaneously. Accordingly, the user can easily grasp the contents of the plurality of broadcast channels.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다. The display 180 converts an image signal, a data signal, an OSD signal processed by the controller 170, or an image signal, data signal, etc. received from the external device interface unit 135 into R, G, and B signals, respectively. Generate a signal.
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등이 가능할 수 있다. The display 180 may be a PDP, an LCD, an OLED, a flexible display, a 3D display, or the like.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.The display 180 may be configured as a touch screen and used as an input device in addition to the output device.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.The audio output unit 185 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs a voice signal. The voice output unit 185 may be implemented by various types of speakers.
한편, 사용자를 촬영하는 촬영부(미도시)를 더 구비할 수 있다. 촬영부(미도시)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(170)에 입력된다.On the other hand, a photographing unit (not shown) for photographing the user may be further provided. The photographing unit (not shown) may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras. The image information photographed by the photographing unit (not shown) is input to the controller 170.
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시기기(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(150)를 통해 제어부(170)로 전달될 수 있다. Meanwhile, in order to detect a gesture of a user, as described above, a sensing unit (not shown) including at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image display apparatus 100. have. The signal detected by the sensing unit (not shown) may be transmitted to the controller 170 through the user input interface unit 150.
제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수도 있다. The controller 170 may detect a gesture of a user by combining or combining an image captured by a photographing unit (not shown) or a detected signal from a sensing unit (not shown).
전원 공급부(190)는, 영상표시기기(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이(180), 및 오디오 출력을 위한 오디오 출력부(185)에 전원을 공급할 수 있다. The power supply unit 190 supplies the corresponding power throughout the image display device 100. In particular, power may be supplied to the controller 170, which may be implemented in the form of a System On Chip (SOC), a display 180 for displaying an image, and an audio output unit 185 for audio output. have.
이를 위해, 전원 공급부(190)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이(180)가 다수의 백라이트 램프를 구비하는 액정패널로서 구현되는 경우, 휘도 가변 또는 디밍(dimming) 구동을 위해, PWM 동작이 가능한 인버터(미도시)를 더 구비할 수도 있다.To this end, the power supply unit 190 may include a converter (not shown) for converting AC power into DC power. Meanwhile, for example, when the display 180 is implemented as a liquid crystal panel having a plurality of backlight lamps, an inverter (not shown) capable of PWM operation may be further provided for driving of variable brightness or dimming. have.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. The remote control apparatus 200 transmits the user input to the user input interface unit 150. To this end, the remote control device 200 may use Bluetooth, RF (Radio Frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee (ZigBee) method and the like.
또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 또는 진동을 출력할 수 있다.In addition, the remote control apparatus 200 may receive an image, an audio or a data signal output from the user input interface unit 150, display it on the remote control apparatus 200 or output an audio or vibration.
상술한 영상표시기기(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. The video display device 100 described above is a fixed type of ATSC (8-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, and the like. It may be a digital broadcast receiver capable of receiving at least one.
한편, 본 명세서에서 기술되는 영상표시기기는, 도 2에서 도시된 디스플레이(180)와 오디오 출력부(185)가 제외된 영상표시기기로서, 무선 통신을 통해, 디스플레이(180) 및 오디오 출력부(185)와 데이터를 송수신하는, 와이어리스(wireless) 타입일 수도 있다.Meanwhile, the image display device described herein is an image display device in which the display 180 and the audio output unit 185 shown in FIG. 2 are excluded, and through the wireless communication, the display 180 and the audio output unit ( 185 may be of a wireless type.
한편, 도 2에 도시된 영상표시기기(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시기기(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, a block diagram of the image display apparatus 100 shown in FIG. 2 is a block diagram for an embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specification of the image display device 100 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components. In addition, the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
한편, 영상표시기기(100)는 도 2에 도시된 바와 달리, 도 2의 도시된 튜너(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)를 통해서, 영상 컨텐츠를 수신하고, 이를 재생할 수도 있다.On the other hand, the image display device 100, unlike shown in Figure 2, does not include the tuner 110 and the demodulator 120 shown in Figure 2, the network interface unit 130 or the external device interface unit 135 ), The video content may be received and played back.
한편, 본 발명의 일 실시예에 따른 촬영부는 사용자를 촬영한 촬영 영상을 획득할 수 있다. 촬영부는 CCD 등 이미지 센서에 의해 획득되는 사용자에 대한 정지영상 또는 동영상 등의 화상 프레임을 처리하여, 사용자를 촬영한 촬영 영상을 획득할 수 있다. 일 실시예에서 이미지 센서는 영상표시기기(100)의 내부에 구비될 수 있고, 다른 실시예에서 영상표시기기(100)의 외부에 구비되어 이미지 센서가 촬영부에 사용자에 대한 정지 영상 또는 동영상 등의 화상 프레임을 출력할 수 있다. 촬영부는 사용자를 촬영한 촬영 영상을 저장부(140)에 저장하거나, 제어부(170)에 출력할 수 있다.On the other hand, the photographing unit according to an embodiment of the present invention may obtain a photographed image photographing the user. The photographing unit may acquire an image captured by the user by processing an image frame such as a still image or a moving image of the user acquired by an image sensor such as a CCD. In one embodiment, the image sensor may be provided inside the image display apparatus 100, and in another embodiment, the image sensor may be provided outside the image display apparatus 100 so that the image sensor is a still image or a video for the user in the photographing unit. Can output an image frame. The photographing unit may store the photographed image photographing the user in the storage 140 or output it to the controller 170.
또한, 방송 수신부(105)는 제 1 특징 데이터를 포함하는 참조 영상을 수신할 수 있다. 방송 수신부(105)는 제어부(170)의 제어 하에 방송국 또는 네트워크 서버로부터 참조 영상을 수신하고, 수신한 참조 영상을 저장부(140)에 저장하거나, 제어부(170)에 출력할 수 있다.In addition, the broadcast receiving unit 105 may receive a reference image including the first feature data. The broadcast receiving unit 105 may receive a reference image from a broadcasting station or a network server under the control of the controller 170, and store the received reference image in the storage 140 or output the received reference image to the controller 170.
또한, 제어부(170)는 상기 촬영 영상으로부터 제 2 특징 데이터를 추출할 수 있다. 제어부(170)는 저장부(140)에 저장되거나, 촬영부로부터 출력된 촬영 영상에서 에지 추출 또는 패턴 추출 등을 통해 사용자와 무관한 노이즈 등을 제거함으로써 사용자 영역을 추출할 수 있다. 또한, 제어부(170)는 촬영 영상으로부터 추출된 사용자 영역에서, 사용자의 신체 부위에 대응하는 특징 오브젝트들 사이의 상대적인 위치 정보인 제 2 특징 데이터를 추출할 수 있다.In addition, the controller 170 may extract second feature data from the captured image. The controller 170 may extract the user region by removing noise, which is not related to the user, through edge extraction or pattern extraction from the captured image stored in the storage 140 or output from the photographing unit. In addition, the controller 170 may extract second feature data, which is relative position information between feature objects corresponding to a user's body part, from the user region extracted from the captured image.
또한, 제어부(170)는 제 1 특징 데이터 및 제 2 특징 데이터를 비교할 수 있다. 제어부(170)는 제 1 특징 데이터에 포함된 특징 오브젝트들 사이의 상대적인 위치 정보 및 제 2 특징 데이터에 포함된 특징 오브젝트들 사이의 상대적인 위치 정보를 비교할 수 있다.In addition, the controller 170 may compare the first feature data and the second feature data. The controller 170 may compare the relative position information between the feature objects included in the first feature data and the relative position information between the feature objects included in the second feature data.
또한, 제어부(170)는 디스플레이(180)가 상기 비교 결과를 나타내는 인디케이터를 촬영 영상 또는 참조 영상에 중첩하여 표시하도록 제어할 수 있다. 예를 들어, 제어부(170)는 제 2 특징 데이터에 포함된 특징 오브젝트들 중에서 제 1 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 상이한 특징 오브젝트를 나타내는 인디케이터를 생성하고, 생성한 인디케이터를 촬영 영상에 중첩하여 표시하도록 디스플레이(180)를 제어할 수 있다. 또는 예를 들어, 제어부(170)는 제 1 특징 데이터에 포함된 특징 오브젝트들 중에서 제 2 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 상이한 특징 오브젝트를 나타내는 인디케이터를 생성하고, 생성한 인디케이터를 참조 영상에 중첩하여 표시하도록 디스플레이(180)를 제어할 수 있다.In addition, the controller 170 may control the display 180 to display the indicator indicating the comparison result on the captured image or the reference image. For example, the controller 170 generates an indicator indicating a feature object having different positional information relative to the feature object included in the first feature data among the feature objects included in the second feature data, and photographs the generated indicator. The display 180 may be controlled to display in a superimposed manner. Alternatively, for example, the controller 170 may generate an indicator indicating a feature object that is different from the feature object included in the second feature data among the feature objects included in the first feature data, and refers to the generated indicator. The display 180 may be controlled to overlap the image.
여기에서, 제 1 특징 데이터는 사용자에 대한 운동 처방 정보를 반영하는 특징 데이터일 수 있다. 또한 여기에서, 상기 운동 처방 정보는 유산소, 근력 및 스트레칭 운동 중 어느 하나에 관한 운동 처방 정보일 수 있다.Here, the first feature data may be feature data reflecting exercise prescription information for the user. In addition, the exercise prescription information may be exercise prescription information regarding any one of aerobic, muscular strength and stretching exercise.
도 3은 도 2의 영상표시기기와 데이터 송수신이 가능한 장치를 보여주는 도면이다.3 is a diagram illustrating a device capable of transmitting and receiving data with the image display device of FIG. 2.
도면을 참조하면, 본 발명의 일실시예에 의한 영상표시기기(100)는 방송국(210), 네트워크 서버(220) 또는 외부장치(230)와 통신할 수 있다. Referring to the drawings, the image display device 100 according to an embodiment of the present invention may communicate with the broadcasting station 210, the network server 220, or the external device 230.
영상표시기기(100)는 방송국(210)에서 전송하는 영상신호를 포함하는 방송신호를 수신할 수 있다. 영상표시기기(100)는 방송신호에 포함되는 영상신호 및 음성신호 또는 데이터신호를 영상표시기기(100)에서 출력하기에 적합하도록 처리(process)할 수 있다. 영상표시기기(100)는 처리한 영상신호에 기초하는 영상 또는 오디오를 출력할 수 있다.The video display device 100 may receive a broadcast signal including a video signal transmitted from the broadcast station 210. The video display device 100 may process a video signal, an audio signal, or a data signal included in a broadcast signal so as to be suitable for outputting from the video display device 100. The image display device 100 may output an image or audio based on the processed image signal.
한편, 영상표시기기(100)는 네트워크 서버(220)와 통신할 수 있다. 네트워크 서버(220)는 임의의 네트워크(310)를 통하여 영상표시기기(100)와 신호를 송수신할 수 있는 장치이다. 예를 들어, 네트워크 서버(220)는 유선 또는 무선 기지국을 통하여 영상표시기기(100)와 연결될 수 있는 휴대전화 단말기일 수 있다. 또한, 네트워크 서버(220)는 인터넷 네트워크를 통하여 영상표시기기(100)로 컨텐츠를 제공할 수 있는 장치일 수 있다. 컨텐츠 제공자는 네트워크 서버를 이용하여 영상표시기기(100)로 컨텐츠를 제공할 수 있다.The image display apparatus 100 may communicate with the network server 220. The network server 220 is a device capable of transmitting and receiving a signal with the image display device 100 through an arbitrary network 310. For example, the network server 220 may be a mobile phone terminal that may be connected to the image display device 100 through a wired or wireless base station. In addition, the network server 220 may be a device capable of providing content to the image display device 100 through an Internet network. The content provider may provide content to the video display device 100 using a network server.
한편, 영상표시기기(100)는 외부장치(230)와 통신할 수 있다. 외부장치(230)는 유선 또는 무선(320)으로 영상표시기기(100)와 직접 신호를 송수신할 수 있는 장치이다. 일예로, 외부장치(230)는 사용자가 사용하는 미디어 저장장치 또는 재생장치일 수 있다. 즉, 외부장치(230)는 카메라, DVD 또는 블루레이 플레이어, 퍼스널 컴퓨터 등일 수 있다. The image display device 100 may communicate with the external device 230. The external device 230 is a device capable of directly transmitting and receiving a signal with the image display device 100 by wire or wireless 320. For example, the external device 230 may be a media storage device or a playback device used by a user. That is, the external device 230 may be a camera, a DVD or a Blu-ray player, a personal computer, or the like.
방송국(210), 네트워크 서버(220), 또는 외부장치(230)는, 영상표시기기(100)로 영상신호를 포함하는 신호를 전송할 수 있다. 영상표시기기(100)는 입력되는 신호에 포함되는 영상신호에 기초하는 영상을 표시할 수 있다. 또한, 영상표시기기(100)는 방송국(210) 또는 네트워크 서버(220)에서 영상표시기기(100)로 전송하는 신호를 외부장치(230)로 전송할 수 있다. 또한, 외부장치(230)에서 영상표시기기(100)로 전송하는 신호를 방송국(210) 또는 네트워크 서버(220)로 전송할 수 있다. 즉, 영상표시기기(100)는 방송국(210), 네트워크 서버(220) 및 외부장치(230)에서 전송하는 신호에 포함되는 컨텐츠를 영상표시기기(100)에서 직접 재생하는 외에도 전달할 수 있다.The broadcasting station 210, the network server 220, or the external device 230 may transmit a signal including a video signal to the video display device 100. The image display device 100 may display an image based on an image signal included in an input signal. In addition, the image display device 100 may transmit a signal transmitted from the broadcasting station 210 or the network server 220 to the image display device 100 to the external device 230. In addition, the signal transmitted from the external device 230 to the image display device 100 may be transmitted to the broadcasting station 210 or the network server 220. That is, the video display device 100 may transmit content included in a signal transmitted from the broadcasting station 210, the network server 220, and the external device 230 in addition to directly playing the content on the video display device 100.
본 발명의 실시예들에 대한 설명Description of Embodiments of the Invention
도 4는 본 발명의 실시예들에 따른 촬영 영상 및 참조 영상의 출력 화면을 나타내는 도면이다.4 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
디스플레이(180)는 촬영 영상 및 참조 영상을 동시에 표시할 수 있다. 이 경우에 디스플레이(180)는 촬영 영상 및 참조 영상을 화면의 분할된 영역 각각에 표시할 수 있다. 또한, 디스플레이(180)는 촬영 영상 및 참조 영상을 중첩하여 표시할 수 있다.The display 180 may simultaneously display the captured image and the reference image. In this case, the display 180 may display the captured image and the reference image in each of the divided regions of the screen. In addition, the display 180 may display the captured image and the reference image by overlapping them.
도 4(a)를 참조하면, 디스플레이(180)는 화면을 2개의 영역으로 분할하여 표시할 수 있다. 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 1 영역에 참조 영상(410)을 표시할 수 있다. 또한, 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 2 영역에 촬영 영상(420)을 표시할 수 있다.Referring to FIG. 4A, the display 180 may divide a screen into two areas and display the screen. In this case, the display 180 may display the reference image 410 in the first area of the two divided areas. In this case, the display 180 may display the captured image 420 in the second area of the divided two areas.
도 4(b)를 참조하면, 디스플레이(180)는 화면에 촬영 영상 및 참조 영상(430)을 중첩하여 표시할 수 있다. 제어부(170)는 촬영 영상에서 사용자 영역을 추출하고, 사용자 영역의 크기가 참조 영상에 포함된 사용자 영역의 크기에 대응되도록 촬영 영상의 크기를 조절할 수 있다. 디스플레이(180)는 크기가 조절된 촬영 영상에 참조 영상을 중첩하여 표시할 수 있다.Referring to FIG. 4B, the display 180 may superimpose and display a captured image and a reference image 430 on a screen. The controller 170 may extract the user region from the captured image, and adjust the size of the captured image so that the size of the user region corresponds to the size of the user region included in the reference image. The display 180 may superimpose and display the reference image on the adjusted image.
도 5는 본 발명의 실시예들에 따른 촬영 영상 및 참조 영상의 출력 화면을 나타내는 도면이다.5 is a diagram illustrating an output screen of a captured image and a reference image according to embodiments of the present invention.
디스플레이(180)는 촬영 영상 및 참조 영상을 PIP(Picture In Picture) 방식으로 표시할 수 있다. PIP 방식은 하나의 프로그램(영상)이 풀스크린으로 표시되는 동시에 다른 프로그램(영상)(들)이 풀스크린에 삽입된 내부 윈도우에 표시되는 방식을 의미할 수 있다.The display 180 may display the captured image and the reference image in a picture in picture (PIP) manner. The PIP method may mean a method in which one program (image) is displayed in full screen and another program (image) is displayed in an internal window inserted in the full screen.
도 5(a)를 참조하면, 디스플레이(180)는 참조 영상(510)을 풀스크린으로 표시할 수 있다. 이와 동시에, 디스플레이(180)는 풀스크린의 일부 영역에 삽입된 윈도우에 촬영 영상(520)을 표시할 수 있다.Referring to FIG. 5A, the display 180 may display the reference image 510 in full screen. At the same time, the display 180 may display the captured image 520 in a window inserted into a partial region of the full screen.
이와는 반대로 도 5(b)를 참조하면, 디스플레이(180)는 촬영 영상(530)을 풀스크린으로 표시할 수 있다. 이와 동시에, 디스플레이(180)는 풀스크린의 일부 영역에 삽입된 윈도우에 참조 영상(540)을 표시할 수 있다.On the contrary, referring to FIG. 5B, the display 180 may display the captured image 530 in full screen. At the same time, the display 180 may display the reference image 540 in a window inserted into a portion of the full screen.
도 6은 본 발명의 제 1 실시예에 따른 인디케이터의 표시 화면을 나타내는 도면이다.6 is a diagram illustrating a display screen of an indicator according to a first embodiment of the present invention.
특징 데이터는 각 영상에 포함된 사용자의 동작 또는 자세의 특징을 반영하는 데이터로서 영상에 미리 설정되거나 영상으로부터 추출될 수 있다. 일 실시예에서, 특징 데이터는 미리 설정된 신체 부위에 해당하는 각 특징 오브젝트 사이의 상대적인 위치 정보를 포함할 수 있다. 또한 일 실시예에서, 특징 데이터는 전후 관계를 갖는 2개 이상의 프레임에서 동일한 오브젝트 사이의 상대적인 위치 정보를 더 포함할 수 있다.The feature data is data reflecting characteristics of a user's motion or posture included in each image, and may be preset in the image or extracted from the image. In one embodiment, the feature data may include relative position information between each feature object corresponding to a predetermined body part. In an embodiment, the feature data may further include relative position information between the same objects in two or more frames having a front-rear relationship.
제어부(170)는 제 2 특징 데이터에 포함되는 각 특징 오브젝트들 중에서, 대응하는 제 1 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 일치하지 않는 특징 오브젝트를 나타내는 인디케이터를 생성하고, 생성한 인디케이터를 촬영 영상에 중첩하여 표시하도록 디스플레이(180)를 제어할 수 있다.The controller 170 generates an indicator indicating a feature object among the feature objects included in the second feature data, and a feature object whose relative position information does not coincide with the feature object included in the first feature data, and generates the indicator. The display 180 may be controlled to overlap the captured image.
도 6(a) 및 도 6(b)를 참조하면, 디스플레이(180)는 화면을 2개의 영역으로 분할하여 표시할 수 있다. 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 1 영역에 참조 영상(610, 630)을 표시할 수 있다. 또한, 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 2 영역에 촬영 영상(620, 640)을 표시할 수 있다.Referring to FIGS. 6A and 6B, the display 180 may divide and display a screen into two regions. In this case, the display 180 may display the reference images 610 and 630 in the first area among the two divided areas. In this case, the display 180 may display the captured images 620 and 640 in the second area of the divided two areas.
또한 도 6(a)를 참조하면, 디스플레이(180)는 제어부(170)에 의해 생성된 인디케이터(622)를 촬영 영상(620)에 중첩하여 표시할 수 있다. 이 경우에, 디스플레이(180)는 인디케이터(622)를 제 1 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 상이한 제 2 특징 데이터에 포함된 특징 오브젝트의 위치에 대응하도록 표시할 수 있다.In addition, referring to FIG. 6A, the display 180 may superimpose the indicator 622 generated by the controller 170 on the captured image 620. In this case, the display 180 may display the indicator 622 so as to correspond to the position of the feature object included in the second feature data whose position information relative to the feature object included in the first feature data is different.
또한 도 6(b)를 참조하면, 디스플레이(180)는 제어부(170)에 의해 생성된 인디케이터(632)를 참조 영상(630)에 중첩하여 표시할 수 있다. 이 경우에, 디스플레이(180)는 인디케이터(632)를 제 2 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 상이한 제 1 특징 데이터에 포함된 특징 오브젝트의 위치에 대응하도록 표시할 수 있다.In addition, referring to FIG. 6B, the display 180 may display the indicator 632 generated by the controller 170 overlapping the reference image 630. In this case, the display 180 may display the indicator 632 so as to correspond to the position of the feature object included in the first feature data having different positional information relative to the feature object included in the second feature data.
도 7은 본 발명의 제 1 실시예에 따른 영상표시과정을 나타내는 흐름도이다.7 is a flowchart illustrating an image display process according to the first embodiment of the present invention.
촬영부는 사용자를 촬영한 촬영 영상을 획득할 수 있다(S200). 촬영부는 사용자를 촬영한 촬영 영상을 저장부(140)에 저장하거나, 제어부(170)에 출력할 수 있다. 또한, 방송 수신부(105)는 제 1 특징 데이터를 포함하는 참조 영상을 수신할 수 있다(S300). 방송 수신부(105)는 제어부(170)의 제어 하에 방송국(210) 또는 네트워크 서버(220)로부터 참조 영상을 수신하고, 수신한 참조 영상을 저장부(140)에 저장하거나, 제어부(170)에 출력할 수 있다. 또한, 디스플레이(180) 및 오디오 출력부(185)는 촬영 영상 및 참조 영상을 출력할 수 있다.The photographing unit may acquire a photographed image photographing the user (S200). The photographing unit may store the photographed image photographing the user in the storage 140 or output it to the controller 170. In addition, the broadcast receiving unit 105 may receive a reference image including the first feature data (S300). The broadcast receiving unit 105 receives a reference image from the broadcasting station 210 or the network server 220 under the control of the controller 170, and stores the received reference image in the storage unit 140 or outputs it to the control unit 170. can do. In addition, the display 180 and the audio output unit 185 may output a captured image and a reference image.
제어부(170)는 촬영 영상으로부터 제 2 특징 데이터를 추출할 수 있다(S400). 제어부(170)는 저장부(140)에 저장되거나, 촬영부로부터 출력된 촬영 영상에서 에지 추출 또는 패턴 추출 등을 통해 사용자와 무관한 노이즈 등을 제거함으로써 사용자 영역을 추출할 수 있다. 또한, 제어부(170)는 촬영 영상으로부터 추출된 사용자 영역에서, 사용자의 신체 부위에 대응하는 특징 오브젝트들 사이의 상대적인 위치 정보를 포함하는 제 2 특징 데이터를 추출할 수 있다.The controller 170 may extract the second feature data from the captured image (S400). The controller 170 may extract the user region by removing noise, which is not related to the user, through edge extraction or pattern extraction from the captured image stored in the storage 140 or output from the photographing unit. In addition, the controller 170 may extract second feature data including relative position information between feature objects corresponding to a body part of the user, from the user region extracted from the captured image.
또한, 제어부(170)는 제 1 특징 데이터 및 제 2 특징 데이터를 비교할 수 있다(S500). 제어부(170)는 제 1 특징 데이터에 포함된 특징 오브젝트들 사이의 상대적인 위치 정보 및 제 2 특징 데이터에 포함된 특징 오브젝트들 사이의 상대적인 위치 정보를 비교할 수 있다.In addition, the controller 170 may compare the first feature data and the second feature data (S500). The controller 170 may compare the relative position information between the feature objects included in the first feature data and the relative position information between the feature objects included in the second feature data.
또한, 제어부(170)는 디스플레이(180)가 상기 비교 결과를 나타내는 인디케이터를 촬영 영상 또는 참조 영상에 중첩하여 표시하도록 제어할 수 있다(S600). 예를 들어, 제어부(170)는 제 2 특징 데이터에 포함된 특징 오브젝트들 중에서 제 1 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 일치하지 않는 특징 오브젝트를 나타내는 인디케이터를 생성하고, 생성한 인디케이터를 촬영 영상에 중첩하여 표시하도록 디스플레이(180)를 제어할 수 있다. 또한, 제어부(170)는 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)가 상기 비교 결과를 외부 장치(230)에 송신하도록 제어할 수도 있다.In addition, the controller 170 may control the display 180 to display the indicator indicating the comparison result in a superimposed image or reference image (S600). For example, the controller 170 generates an indicator indicating a feature object whose relative position information does not match the feature object included in the first feature data among the feature objects included in the second feature data, and generates the indicator. The display 180 may be controlled to overlap the captured image. In addition, the controller 170 may control the network interface 130 or the external device interface 135 to transmit the comparison result to the external device 230.
도 8은 본 발명의 제 2 실시예에 따른 가이드 정보의 출력 화면을 나타내는 도면이다.8 is a diagram illustrating an output screen of guide information according to the second embodiment of the present invention.
도 8(a) 및 도 8(b)를 참조하면, 디스플레이(180)는 화면을 2개의 영역으로 분할하여 표시할 수 있다. 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 1 영역에 참조 영상(710)을 표시할 수 있다. 또한, 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 2 영역에 촬영 영상(720)을 표시할 수 있다.Referring to FIGS. 8A and 8B, the display 180 may divide a screen into two regions and display the screen. In this case, the display 180 may display the reference image 710 in the first region of the divided two regions. In this case, the display 180 may display the captured image 720 in the second area of the divided two areas.
또한 도 8(a)를 참조하면, 디스플레이(180)는 제어부(170)에 의해 생성된 가이드 정보(724 및 726)를 촬영 영상(720)에 중첩하여 표시할 수 있다. 이 경우에, 디스플레이(180)는 가이드 정보(724 및 726)를 제 1 특징 데이터에 포함된 특징 오브젝트와, 상기 특징 오브젝트와 상대적인 위치 정보가 상이한 제 2 특징 데이터에 포함된 특징 오브젝트의 위치 사이에 표시할 수 있다.In addition, referring to FIG. 8A, the display 180 may superimpose and display the guide information 724 and 726 generated by the controller 170 on the captured image 720. In this case, the display 180 stores the guide information 724 and 726 between the feature object included in the first feature data and the position of the feature object included in the second feature data whose position information relative to the feature object is different. I can display it.
한편, 가이드 정보(724)는 제 1 특징 데이터에 포함된 특징 오브젝트와, 대응하는 제 2 특징 데이터에 포함된 특징 오브젝트의 위치에 따른 이동 방향을 반영할 수 있고, 이동 방향은 예를 들어 화살표의 방향으로 표시될 수 있다. 또한, 가이드 정보(724)는 제 1 특징 데이터에 포함된 특징 오브젝트와, 대응하는 제 2 특징 데이터에 포함된 특징 오브젝트의 위치에 따른 이동 거리를 반영할 수 있고, 이동 거리는 예를 들어 화살표의 길이 등으로 표시될 수 있다. 또한, 가이드 정보(726)는 제 1 특징 데이터에 포함된 특징 오브젝트에 대한 영상을 포함할 수 있다.Meanwhile, the guide information 724 may reflect a moving direction according to the position of the feature object included in the first feature data and the feature object included in the corresponding second feature data, and the moving direction may be, for example, an arrow. Direction can be indicated. In addition, the guide information 724 may reflect a movement distance according to the position of the feature object included in the first feature data and the feature object included in the corresponding second feature data, and the movement distance may be, for example, the length of the arrow. Or the like. In addition, the guide information 726 may include an image of a feature object included in the first feature data.
또한 도 8(b)를 참조하면, 가이드 정보(730)는 제 2 특징 데이터에 포함된 특징 오브젝트를 나타내는 신체 부위의 명칭 및 이동 방향(및/또는 이동 거리)에 관한 텍스트 정보를 더 포함할 수 있다. 이 경우에 디스플레이(180)는 가이드 정보(730)를 화면에 표시할 수 있고, 오디오 출력부(185)는 가이드 정보(730)를 음성으로 출력할 수 있다.In addition, referring to FIG. 8B, the guide information 730 may further include text information regarding a name and a moving direction (and / or a moving distance) of a body part representing a feature object included in the second feature data. have. In this case, the display 180 may display the guide information 730 on the screen, and the audio output unit 185 may output the guide information 730 as a voice.
도 9는 본 발명의 제 2 실시예에 따른 영상표시과정을 나타내는 흐름도이다.9 is a flowchart illustrating an image display process according to a second embodiment of the present invention.
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
제어부(170)는 제 1 특징 데이터 및 제 2 특징 데이터의 비교 결과에 근거하여 가이드 정보를 생성할 수 있다(S710). 제어부(170)는 제 2 특징 데이터에 포함된 특징 오브젝트들 중에서 제 1 특징 데이터에 포함된 특징 오브젝트와 상대적인 위치 정보가 일치하지 않는 특징 오브젝트를 확인할 수 있다. 또한 제어부(170)는 상기 확인된 특징 오브젝트와 제 1 특징 데이터에서 대응하는 특징 오브젝트의 위치 정보의 차이(방향 또는 거리를 포함)에 근거하여 상기 확인된 특징 오브젝트를 상기 대응하는 특징 오브젝트로 이동시키도록 안내하는 가이드 정보를 생성할 수 있다.The controller 170 may generate guide information based on a comparison result of the first feature data and the second feature data (S710). The controller 170 may identify a feature object from which feature information included in the first feature data does not match relative position information among feature objects included in the second feature data. Also, the controller 170 may move the identified feature object to the corresponding feature object based on a difference (including a direction or a distance) of position information of the identified feature object and the corresponding feature object in the first feature data. Guide information may be generated.
가이드 정보는 특징 오브젝트에 대응하는 사용자의 신체 부위를 참조 영상의 특징 데이터에 포함된 대응하는 신체 부위의 위치로 이동 시키는 방향 또는 거리에 관한 정보를 포함할 수 있다. 예를 들어, 가이드 정보는 촬영 영상에 포함된 사용자의 자세를 참조 영상에 포함된 사용자의 자세로 교정하게 하는 정보를 포함할 수 있다.The guide information may include information about a direction or distance for moving the body part of the user corresponding to the feature object to the position of the corresponding body part included in the feature data of the reference image. For example, the guide information may include information for correcting the posture of the user included in the captured image to the posture of the user included in the reference image.
디스플레이(180) 또는 오디오 출력부(185)는 제어부(170)에 의해 생성된 가이드 정보를 출력할 수 있다(S720). 디스플레이(180)는 촬영 영상에 가이드 정보를 중첩하여 시각적으로 출력할 수 있다. 또한, 오디오 출력부(185)는 가이드 정보를 청각적으로 출력할 수 있다.The display 180 or the audio output unit 185 may output the guide information generated by the controller 170 (S720). The display 180 may visually output the superimposed guide information on the captured image. In addition, the audio output unit 185 may acoustically output the guide information.
도 10은 본 발명의 제 3 실시예에 따른 메시지의 표시 화면을 나타내는 도면이다.10 is a diagram illustrating a display screen of a message according to a third embodiment of the present invention.
도 10(a) 및 도 10(b)를 참조하면, 디스플레이(180)는 화면을 2개의 영역으로 분할하여 표시할 수 있다. 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 1 영역에 참조 영상(810)을 표시할 수 있다. 또한, 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 2 영역에 촬영 영상(820)을 표시할 수 있다.Referring to FIGS. 10A and 10B, the display 180 may divide a screen into two regions and display the screen. In this case, the display 180 may display the reference image 810 in the first region of the divided two regions. In this case, the display 180 may display the captured image 820 in the second area of the divided two areas.
도 10(a)를 참조하면, 제어부(170)는 참조 영상 및 촬영 영상 각각에 포함된 특징 데이터가 일치하지 않으면, 동작이 일치하지 않음을 나타내는 메시지(830)를 생성할 수 있다. 디스플레이(180)는 메시지(830)를 화면에 표시할 수 있고, 오디오 출력부(185)는 메시지(830)를 음성으로 출력할 수 있다.Referring to FIG. 10A, if the feature data included in each of the reference image and the captured image do not match, the controller 170 may generate a message 830 indicating that the operation does not match. The display 180 may display the message 830 on the screen, and the audio output unit 185 may output the message 830 as a voice.
도 10(b)를 참조하면, 제어부(170)는 참조 영상 및 촬영 영상 각각에 포함된 특징 데이터가 일치하면, 동작이 일치함을 나타내는 메시지(840)를 생성할 수 있다. 디스플레이(180)는 메시지(840)를 화면에 표시할 수 있고, 오디오 출력부(185)는 메시지(840)를 음성으로 출력할 수 있다.Referring to FIG. 10 (b), if the feature data included in each of the reference image and the captured image match, the controller 170 may generate a message 840 indicating that the operation matches. The display 180 may display the message 840 on the screen, and the audio output unit 185 may output the message 840 as a voice.
도 11은 본 발명의 제 3 실시예에 따른 영상표시과정을 나타내는 흐름도이다.11 is a flowchart illustrating an image display process according to a third embodiment of the present invention.
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
제어부(170)는 제 1 특징 데이터 및 제 2 특징 데이터를 비교하여 특징 데이터의 일치 여부를 판단할 수 있다(S810). 제어부(170)는 제 1 특징 데이터에 포함된 특징 오브젝트들 사이의 상대적인 위치 정보 및 제 2 특징 데이터에 포함된 특징 오브젝트들 사이의 상대적인 위치 정보를 비교하여, 상대적인 위치 정보가 일치하는지 여부에 근거하여 특징 데이터가 일치하는지 판단할 수 있다.The controller 170 may determine whether the feature data match by comparing the first feature data and the second feature data (S810). The controller 170 compares the relative position information between the feature objects included in the first feature data and the relative position information between the feature objects included in the second feature data, and based on whether the relative position information matches. It may be determined whether the feature data match.
제 810 단계에서 제 1 특징 데이터 및 제 2 특징 데이터가 일치하지 않는 경우에 제어부(170)는 동작이 일치하지 않음을 나타내는 메시지를 생성하고, 생성된 메시지를 디스플레이(180) 또는 오디오 출력부(185)가 출력하도록 제어할 수 있다(S820).When the first feature data and the second feature data do not match in operation 810, the controller 170 generates a message indicating that the operation does not match, and displays the generated message on the display 180 or the audio output unit 185. ) May be controlled to output (S820).
제 810 단계에서 제 1 특징 데이터 및 제 2 특징 데이터가 일치하는 경우에 제어부(170)는 동작이 일치함을 나타내는 메시지를 생성하고, 생성된 메시지를 디스플레이(180) 또는 오디오 출력부(185)가 출력하도록 제어할 수 있다(S830).When the first feature data and the second feature data match in operation 810, the controller 170 generates a message indicating that the operations match, and displays the generated message by the display 180 or the audio output unit 185. It may be controlled to output (S830).
도 12는 본 발명의 제 4 실시예에 따른 운동량의 표시 화면을 나타내는 도면이다.12 is a view showing a display screen of the exercise amount according to the fourth embodiment of the present invention.
도 12(a) 및 도 12(b)를 참조하면, 디스플레이(180)는 화면을 2개의 영역으로 분할하여 표시할 수 있다. 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 1 영역에 참조 영상(910)을 표시할 수 있다. 또한, 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 2 영역에 촬영 영상(920)을 표시할 수 있다.Referring to FIGS. 12A and 12B, the display 180 may divide a screen into two regions and display the screen. In this case, the display 180 may display the reference image 910 in the first area of the two divided areas. In this case, the display 180 may display the captured image 920 in the second area of the divided two areas.
제어부(170)는 촬영 영상(920)에 포함된 특징 데이터 또는 참조 영상(910)에 포함된 특징 데이터에 근거하여 진행 운동량을 측정할 수 있다. 진행 운동량은 사용자가 운동을 시작해서 운동량이 측정된 시점까지 운동에 의해 소모된 열량을 의미할 수 있다. 또한, 제어부(170)는 디스플레이(180) 또는 오디오 출력부(185)가 진행 운동량을 출력하도록 제어하거나, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)가 진행 운동량을 외부 장치(230)에 송신하도록 제어할 수도 있다.The controller 170 may measure the amount of exercise based on the feature data included in the captured image 920 or the feature data included in the reference image 910. The progression exercise amount may mean a calorie consumed by the exercise until the user starts the exercise and the exercise amount is measured. In addition, the controller 170 may control the display 180 or the audio output unit 185 to output the progress momentum, or the network interface unit 130 or the external device interface unit 135 may output the progress momentum to the external device 230. It may also be controlled to transmit to.
한편, 저장부(140)는 목표 운동량을 저장할 수 있고, 제어부(170)는 디스플레이(180) 또는 오디오 출력부(185)가 목표 운동량을 출력하도록 제어할 수 있다. 목표 운동량은 사용자가 미리 정해진 기간 동안 소모해야 할 열량을 의미할 수 있다.The storage unit 140 may store the target exercise amount, and the controller 170 may control the display 180 or the audio output unit 185 to output the target exercise amount. The target exercise amount may mean a calorie amount that the user should consume for a predetermined period of time.
도 12(a)를 참조하면, 제어부(170)는 진행 운동량을 측정하고, 디스플레이(180)는 진행 운동량에 관한 정보(930)를 화면에 표시할 수 있으며, 오디오 출력부(185)는 진행 운동량에 관한 정보(930)를 음성으로 출력할 수 있다.Referring to FIG. 12A, the controller 170 measures the amount of exercise in progress, and the display 180 may display information 930 on the amount of exercise in the screen, and the audio output unit 185 may measure the amount of exercise in progress. Information 930 may be output as voice.
도 12(b)를 참조하면, 제어부(170)는 진행 운동량을 측정하고, 저장부(140)는 목표 운동량을 저장할 수 있다. 디스플레이(180)는 진행 운동량 및 목표 운동량에 관한 정보(940)를 화면에 표시할 수 있고, 오디오 출력부(185)는 진행 운동량 및 목표 운동량에 관한 정보(940)를 음성으로 출력할 수 있다.Referring to FIG. 12B, the controller 170 measures the progression exercise amount, and the storage 140 stores the target exercise amount. The display 180 may display information 940 on the progression exercise and the target exercise amount on the screen, and the audio output unit 185 may output information 940 on the progression exercise and the target exercise quantity as a voice.
도 13은 본 발명의 제 4 실시예에 따른 영상표시과정을 나타내는 흐름도이다.13 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
제어부(170)는 촬영 영상에 포함된 특징 데이터 또는 참조 영상에 포함된 특징 데이터에 근거하여 진행 운동량을 측정할 수 있다(S910). 예를 들어, 참조 영상에 포함된 특징 데이터는 운동의 종류를 포함할 수 있고, 제어부(170)는 촬영 영상에 포함된 특징 데이터로부터 운동의 종류를 판단할 수 있다. 또한, 제어부(170)는 운동의 종류에 근거하여 진행 운동량, 예를 들어 참조 영상을 수신한 후 또는 촬영 영상을 획득한 후의 운동에 의한 칼로리 소모량을 측정할 수 있다. 또한, 저장부(140)는 사용자의 체중에 관한 정보를 저장할 수 있고, 제어부(170)는 사용자의 체중에 관한 정보에 더 근거하여 진행 운동량을 측정할 수 있다. The controller 170 may measure the amount of progression based on the feature data included in the captured image or the feature data included in the reference image (S910). For example, the feature data included in the reference image may include the type of exercise, and the controller 170 may determine the type of exercise from the feature data included in the captured image. In addition, the controller 170 may measure the amount of calories consumed by the exercise after receiving a progression exercise, for example, after receiving the reference image or after obtaining the captured image, based on the type of exercise. In addition, the storage 140 may store information about the weight of the user, and the controller 170 may measure the amount of progression based on the information about the weight of the user.
또한, 제어부(170)는 디스플레이(180) 또는 오디오 출력부(185)가 진행 운동량에 관한 정보를 출력하도록 제어하거나, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)가 진행 운동량에 관한 정보를 외부 장치(230)에 송신하도록 제어할 수도 있다(S920).In addition, the controller 170 may control the display 180 or the audio output unit 185 to output information about the progression exercise amount, or the network interface unit 130 or the external device interface unit 135 may perform the information on the progression exercise amount. It may be controlled to transmit to the external device 230 (S920).
도 14는 본 발명의 제 4 실시예에 따른 영상표시과정을 나타내는 흐름도이다.14 is a flowchart illustrating an image display process according to a fourth embodiment of the present invention.
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
제어부(170)는 촬영 영상에 포함된 특징 데이터 또는 참조 영상에 포함된 특징 데이터에 근거하여 진행 운동량을 측정하고, 저장부(140)로부터 사용자의 목표 운동량을 획득할 수 있다(S1010). 또한, 제어부(170)는 디스플레이(180) 또는 오디오 출력부(185)가 진행 운동량 및 목표 운동량에 관한 정보를 출력하도록 제어하거나, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)가 진행 운동량 및 목표 운동량에 관한 정보를 외부 장치(230)에 송신하도록 제어할 수도 있다(S1020). 이 경우에, 디스플레이(180)는 화면에 진행 운동량 및 목표 운동량에 관한 정보에 관한 정보를 함께 표시할 수 있다.The controller 170 may measure the progression exercise amount based on the feature data included in the captured image or the feature data included in the reference image, and may obtain a target exercise amount of the user from the storage 140 (S1010). In addition, the controller 170 may control the display 180 or the audio output unit 185 to output information about the progression exercise amount and the target exercise amount, or the network interface unit 130 or the external device interface unit 135 may perform the progression exercise amount. And transmitting information about the target exercise amount to the external device 230 (S1020). In this case, the display 180 may display information about the progression exercise information and the target exercise amount together on the screen.
도 15는 본 발명의 제 5 실시예에 따른 알림 메시지의 출력 화면을 나타내는 도면이다.15 is a diagram illustrating an output screen of a notification message according to a fifth embodiment of the present invention.
도 15를 참조하면, 디스플레이(180)는 화면을 2개의 영역으로 분할하여 표시할 수 있다. 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 1 영역에 참조 영상(1010)을 표시할 수 있다. 또한, 이 경우에 디스플레이(180)는 분할된 2개의 영역 중 제 2 영역에 촬영 영상(1020)을 표시할 수 있다.Referring to FIG. 15, the display 180 may divide a screen into two areas and display the screen. In this case, the display 180 may display the reference image 1010 in the first region of the divided two regions. In addition, in this case, the display 180 may display the captured image 1020 in the second area among the two divided areas.
제어부(170)는 진행 운동량이 목표 운동량에 도달한 경우에 알림 메시지를 생성하고, 디스플레이(180) 또는 오디오 출력부(185)가 알림 메시지를 출력하도록 제어하거나 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)가 외부 장치에 알림 메시지를 송신하도록 제어할 수 있다.The controller 170 generates a notification message when the progress exercise amount reaches the target exercise amount, and controls the display 180 or the audio output unit 185 to output the notification message or the network interface unit 130 or the external device interface. The unit 135 may control to transmit the notification message to the external device.
도 15를 참조하면, 제어부(170)는 측정한 진행 운동량 및 저장부(140)에 저장된 목표 운동량을 비교하고, 진행 운동량이 목표 운동량에 도달하면, 목표에 도달하였음을 나타내는 알림 메시지(1030)를 생성할 수 있다. 디스플레이(180)는 알림 메시지(1030)를 화면에 표시할 수 있고, 오디오 출력부(185)는 알림 메시지(1030)를 음성으로 출력할 수 있다.Referring to FIG. 15, the controller 170 compares the measured progress exercise amount with the target exercise amount stored in the storage 140, and when the progress exercise amount reaches the target exercise amount, the controller 170 displays a notification message 1030 indicating that the goal has been reached. Can be generated. The display 180 may display the notification message 1030 on the screen, and the audio output unit 185 may output the notification message 1030 as a voice.
도 16은 본 발명의 제 5 실시예에 따른 영상표시과정을 나타내는 흐름도이다.16 is a flowchart illustrating an image display process according to a fifth embodiment of the present invention.
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
제어부(170)는 촬영 영상에 포함된 특징 데이터 또는 참조 영상에 포함된 특징 데이터에 근거하여 진행 운동량을 측정하고, 저장부(140)로부터 사용자의 목표 운동량을 획득할 수 있다. 또한, 제어부(170)는 측정한 진행 운동량을 목표 운동량과 비교하여 진행 운동량이 목표 운동량에 도달하였는지 여부를 판단할 수 있다(S1110).The controller 170 may measure the progression exercise amount based on the feature data included in the captured image or the feature data included in the reference image, and may obtain a target exercise amount of the user from the storage 140. In addition, the controller 170 may determine whether the amount of exercise reaches the target amount of exercise by comparing the measured amount of exercise with the target amount of exercise (S1110).
제 1120 단계에서 진행 운동량이 목표 운동량에 도달한 경우, 예를 들어 진행 운동량이 목표 운동량보다 크거나 같은 경우에, 제어부(170)는 진행 운동량이 목표 운동량에 도달하였음을 나타내는 알림 메시지를 생성하고, 디스플레이(180)가 알림 메시지를 화면에 표시하도록 제어하거나, 오디오 출력부(185)가 알림 메시지를 음성으로 출력하도록 제어할 수 있다. 또는, 제어부(170)는 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)가 외부 장치에 알림 메시지를 송신하도록 제어할 수 있다.In the case where the progressed exercise amount reaches the target exercise amount in step 1120, for example, when the progressed exercise amount is greater than or equal to the target exercise amount, the controller 170 generates a notification message indicating that the progressed exercise amount has reached the target exercise amount, The display 180 may control to display the notification message on the screen or control the audio output unit 185 to output the notification message as a voice. Alternatively, the controller 170 may control the network interface 130 or the external device interface 135 to transmit a notification message to the external device.
또한 제 1120 단계에서, 진행 운동량이 목표 운동량에 도달하지 않은 경우, 예를 들어 진행 운동량이 목표 운동량보다 작은 경우에, 제어부(170)는 진행 운동량을 재측정하고, 재측정된 진행 운동량을 목표 운동량과 비교할 수 있다.Also, in step 1120, when the progression exercise amount does not reach the target exercise amount, for example, when the progress exercise amount is smaller than the target exercise amount, the controller 170 re-measures the progress exercise amount and uses the remeasured amount of exercise amount as the target exercise amount. Can be compared with
도 17은 본 발명의 제 6 실시예에 따른 건강 정보의 출력 화면을 나타내는 도면이다.17 is a diagram illustrating an output screen of health information according to a sixth embodiment of the present invention.
도 17(a)를 참조하면, 방송 수신부(105)는 방송 영상을 획득하고, 디스플레이(180)는 방송 영상을 출력할 수 있다. 이 경우에 방송 영상은 컨텐츠(1110)를 포함할 수 있고, 제어부(170)는 컨텐츠(1110)의 메타 데이터로부터 컨텐츠와 관련된 건강 정보, 예를 들어 열량에 관한 정보를 획득할 수 있다. 디스플레이(180)는 컨텐츠와 관련된 건강 정보 (1120)를 화면에 표시할 수 있다. 컨텐츠와 관련된 건강 정보(1120)는 사용자의 식이 정보, 예를 들어 목표 섭취량, 일일 섭취량 등을 더 포함할 수 있고, 컨텐츠에 따른 추천 운동 프로그램에 관한 정보를 더 포함할 수 있다. 컨텐츠와 관련된 건강 정보(1120)는 추천 운동 프로그램을 반영하는 참조 영상을 수신하는 기능을 호출하도록 설정된 오브젝트(1122)를 더 포함할 수 있다. 오브젝트(1122)가 선택되면, 촬영 영상의 획득 및 참조 영상이 수신되고, 사용자는 추천 운동 프로그램에 따른 특징 데이터에 따라 동작을 수행할 수 있다.Referring to FIG. 17A, the broadcast receiver 105 may acquire a broadcast image, and the display 180 may output the broadcast image. In this case, the broadcast image may include the content 1110, and the controller 170 may obtain health information related to the content, for example, information about calories, from the metadata of the content 1110. The display 180 may display health information 1120 related to the content on the screen. The health information 1120 related to the content may further include dietary information of the user, for example, a target intake amount, a daily intake amount, and the like, and may further include information about a recommended exercise program according to the content. The health information 1120 related to the content may further include an object 1122 configured to call a function of receiving a reference image reflecting the recommended exercise program. When the object 1122 is selected, the captured image and the reference image are received, and the user may perform an operation according to the feature data according to the recommended exercise program.
도 17(b)를 참조하면, 방송 수신부(105)는 방송 영상을 획득하고, 디스플레이(180)는 방송 영상을 출력할 수 있다. 이 경우에 방송 영상은 컨텐츠(1110)를 포함할 수 있고, 제어부(170)는 컨텐츠(1110)의 메타 데이터로부터 컨텐츠와 관련된 건강 정보, 예를 들어 열량에 관한 정보를 획득할 수 있다. 디스플레이(180)는 컨텐츠와 관련된 건강 정보(1130)를 화면에 표시할 수 있다. 컨텐츠와 관련된 건강 정보(1130)는 사용자의 운동 정보, 예를 들어 목표 운동량, 일일 운동량 등을 더 포함할 수 있고, 컨텐츠에 따른 추천 운동 프로그램에 관한 정보를 더 포함할 수 있다. 컨텐츠와 관련된 건강 정보(1130)는 추천 운동 프로그램을 반영하는 참조 영상을 수신하는 기능을 호출하도록 설정된 오브젝트(1132)를 더 포함할 수 있다. 오브젝트(1132)가 선택되면, 촬영 영상의 획득 및 참조 영상이 수신되고, 사용자는 추천 운동 프로그램에 따른 특징 데이터에 따라 동작을 수행할 수 있다.Referring to FIG. 17B, the broadcast receiver 105 may acquire a broadcast image, and the display 180 may output the broadcast image. In this case, the broadcast image may include the content 1110, and the controller 170 may obtain health information related to the content, for example, information about calories, from the metadata of the content 1110. The display 180 may display health information 1130 related to the content on the screen. The health information 1130 related to the content may further include user's exercise information, for example, a target exercise amount, a daily exercise amount, and the like, and may further include information about a recommended exercise program according to the content. The health information 1130 related to the content may further include an object 1132 configured to call a function of receiving a reference image reflecting the recommended exercise program. When the object 1132 is selected, the captured image and the reference image are received, and the user may perform an operation according to the feature data according to the recommended exercise program.
도 18은 본 발명의 제 6 실시예에 따른 영상표시과정을 나타내는 흐름도이다.18 is a flowchart illustrating an image display process according to a sixth embodiment of the present invention.
방송 수신부(105)는 방송 영상을 수신할 수 있다(S112). 디스플레이(180) 및 오디오 출력부(185)는 수신된 방송 영상을 출력할 수 있다. 또한, 제어부(170)는 방송 영상에 포함된 메타 데이터에 근거하여 방송 영상에 포함된 컨텐츠와 관련된 건강 정보를 획득하고, 디스플레이(180)가 상기 확인된 건강 정보를 출력하도록 제어할 수 있다(S114). 또한, 네트워크 인터페이스부(130)는 네트워크 서버(220) 또는 외부 장치(230)에 건강 정보를 송신할 수 있다(S116).The broadcast receiving unit 105 may receive a broadcast image (S112). The display 180 and the audio output unit 185 may output the received broadcast image. In addition, the controller 170 may obtain health information related to the content included in the broadcast image based on the metadata included in the broadcast image, and control the display 180 to output the checked health information (S114). ). In addition, the network interface unit 130 may transmit health information to the network server 220 or the external device 230 (S116).
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
다만, 제 300 단계에서 방송 수신부(105)는 네트워크 서버(220)로부터 상기 건강 정보에 근거한 제 1 특징 데이터를 포함하는 참조 영상을 수신할 수 있다(S300). 제 1 특징 데이터는 상기 건강 정보에 따라 생성된 운동 처방 정보를 반영할 수 있다.However, in operation 300, the broadcast receiving unit 105 may receive a reference image including the first characteristic data based on the health information from the network server 220 (S300). The first characteristic data may reflect exercise prescription information generated according to the health information.
도 19는 본 발명의 제 7 실시예 및 제 8 실시예에 따른 사용자 인증 화면을 나타내는 도면이다.19 is a view showing a user authentication screen according to the seventh and eighth embodiments of the present invention.
도 19(a)를 참조하면, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)를 통해 외부장치(230)와의 연결이 감지된 경우에, 디스플레이(180)는 사용자 정보(1210)를 표시할 수 있다. 사용자 정보(1210)는 외부장치(230)의 식별 정보, 사용자의 식별 정보 및 사용자의 건강 정보 등을 포함할 수 있다. 사용자의 건강 정보는 사용자의 목표 및 일일 섭취량, 운동량 등을 포함할 수 있다.Referring to FIG. 19A, when the connection with the external device 230 is detected through the network interface 130 or the external device interface 135, the display 180 displays user information 1210. can do. The user information 1210 may include identification information of the external device 230, identification information of the user, and health information of the user. The health information of the user may include a user's goal, daily intake, exercise amount, and the like.
도 19(b)를 참조하면, 촬영부를 통해 사용자의 얼굴 영역이 검출된 경우에, 디스플레이(180)는 사용자 정보(1220 및 1230)를 표시할 수 있다. 사용자 정보(1220)는 사용자를 식별하는 이미지(가상 또는 실제 이미지)를 포함할 수 있다. 또한, 사용자 정보(1230)는 사용자의 식별 정보 및 사용자의 건강 정보 등을 포함할 수 있다. 사용자의 건강 정보는 사용자의 목표 및 일일 섭취량, 운동량 등을 포함할 수 있다.Referring to FIG. 19B, when the face region of the user is detected through the photographing unit, the display 180 may display user information 1220 and 1230. User information 1220 may include an image (virtual or real image) identifying the user. In addition, the user information 1230 may include identification information of the user and health information of the user. The health information of the user may include a user's goal, daily intake, exercise amount, and the like.
도 20은 본 발명의 제 7 실시예에 따른 영상표시과정을 나타내는 흐름도이다.20 is a flowchart illustrating an image display process according to a seventh embodiment of the present invention.
네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)는 외부 장치(230)와의 연결을 모니터링할 수 있다(S122). 예를 들어, 네트워크 인터페이스부(130)는 Wi-Fi, 블루투스, 지그비(ZigBee) 등을 통해 외부 장치(230)와의 연결을 모니터링할 수 있다. 또한, 외부장치 인터페이스부(135)는 USB, Firewire 등을 통해 외부 장치(230)와의 연결을 모니터링할 수 있다.The network interface unit 130 or the external device interface unit 135 may monitor the connection with the external device 230 (S122). For example, the network interface unit 130 may monitor a connection with the external device 230 through Wi-Fi, Bluetooth, ZigBee, or the like. In addition, the external device interface unit 135 may monitor the connection with the external device 230 through USB, Firewire, and the like.
제 124 단계에서, 외부 장치(230)와의 연결이 감지된 경우에 제어부(170)는 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)로부터 연결된 외부 장치(230)의 식별 정보를 획득할 수 있다(S126). 외부 장치(230)의 식별 정보는, 디바이스 아이디, 맥 어드레스 또는 아이피 어드레스 등을 포함할 수 있다.In step 124, when the connection with the external device 230 is detected, the controller 170 may obtain identification information of the external device 230 connected from the network interface unit 130 or the external device interface unit 135. There is (S126). The identification information of the external device 230 may include a device ID, a MAC address or an IP address.
또한, 제어부(170)는 외부 장치(230)의 식별 정보에 근거하여 사용자를 식별할 수 있다(S128). 저장부(140)는 외부 장치의 식별 정보, 사용자의 식별 정보 및 사용자의 식이 정보, 운동 정보 등을 포함하는 건강 정보를 저장할 수 있다. 제어부(170)는 외부 장치(230)의 식별 정보에 대응하는 사용자의 식별 정보와 사용자의 건강 정보를 확인할 수 있다.In addition, the controller 170 may identify the user based on the identification information of the external device 230 (S128). The storage 140 may store health information including identification information of the external device, identification information of the user, dietary information of the user, exercise information, and the like. The controller 170 may check the identification information of the user and the health information of the user corresponding to the identification information of the external device 230.
제 200 단계 내지 제 600 단계에 대한 설명은 도 7의 제 200 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the 200 th through 600 th steps may be the same as the description of the 200 th through 600 th steps of FIG. 7, the description thereof will be omitted.
다만, 제 300 단계에서 방송 수신부(105)는 네트워크 서버(220)로부터 상기 건강 정보에 근거한 제 1 특징 데이터를 포함하는 참조 영상을 수신할 수 있다(S300). 제 1 특징 데이터는 상기 건강 정보에 따라 생성된 운동 처방 정보를 반영할 수 있다.However, in operation 300, the broadcast receiving unit 105 may receive a reference image including the first characteristic data based on the health information from the network server 220 (S300). The first characteristic data may reflect exercise prescription information generated according to the health information.
도 21은 본 발명의 제 8 실시예에 따른 영상표시과정을 나타내는 흐름도이다. 21 is a flowchart illustrating an image display process according to an eighth embodiment of the present invention.
촬영부는 사용자를 촬영한 촬영 영상을 획득할 수 있다(S200). 또한, 제어부(170)는 촬영 영상으로부터 에지 추출 또는 패턴 추출 등을 통해 사용자의 얼굴 영역을 검출할 수 있다(S210). The photographing unit may acquire a photographed image photographing the user (S200). In addition, the controller 170 may detect a face region of the user through edge extraction or pattern extraction from the captured image (S210).
또한, 제어부(170)는 검출된 얼굴 영역에 근거하여 사용자를 식별할 수 있다(S220). 저장부(140)는 사용자의 얼굴 영역에 관한 정보, 사용자의 식별 정보 및 사용자의 식이 정보, 운동 정보 등을 포함하는 건강 정보를 저장할 수 있다. 제어부(170)는 검출된 얼굴 영역 및 저장부(140)에 저장된 사용자의 얼굴 영역에서 추출된 에지 또는 패턴을 비교하여 대응하는 사용자의 식별 정보와 사용자의 건강 정보를 확인할 수 있다.In addition, the controller 170 may identify the user based on the detected face area (S220). The storage 140 may store health information including information on a face area of the user, identification information of the user, dietary information of the user, exercise information, and the like. The controller 170 may check the identification information of the corresponding user and the health information of the user by comparing the detected face area with edges or patterns extracted from the face area of the user stored in the storage 140.
제 300 단계 내지 제 600 단계에 대한 설명은 도 7의 제 300 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.Since the description of the steps 300 to 600 may be the same as the description of the steps 300 to 600 of FIG. 7, the description thereof will be omitted.
다만, 제 300 단계에서 방송 수신부(105)는 네트워크 서버(220)로부터 상기 건강 정보에 근거한 제 1 특징 데이터를 포함하는 참조 영상을 수신할 수 있다(S300). 제 1 특징 데이터는 상기 건강 정보에 따라 생성된 운동 처방 정보를 반영할 수 있다.However, in operation 300, the broadcast receiving unit 105 may receive a reference image including the first characteristic data based on the health information from the network server 220 (S300). The first characteristic data may reflect exercise prescription information generated according to the health information.
도 22는 본 발명의 제 9 실시예에 따른 영상표시여부를 확인하는 화면을 나타내는 도면이다.22 is a diagram illustrating a screen for checking whether an image is displayed according to the ninth embodiment of the present invention.
도 22를 참조하면, 디스플레이(180)는 방송 영상에 포함된 콘텐츠(1300)를 표시할 수 있다. 방송 영상에 포함된 콘텐츠(1300)가 광고 콘텐츠인 경우에 디스플레이(180)는 운동 수행 여부를 확인하는 오브젝트(1310)를 표시할 수 있다. 운동 수행 여부를 확인하는 오브젝트(1310)는 사용자의 운동 스케줄에 포함된 운동 처방 정보를 반영하는 참조 영상을 수신하는 기능을 호출하도록 설정된 오브젝트(1312)를 포함할 수 있다. 오브젝트(1312)가 선택되면, 촬영 영상의 획득 및 참조 영상이 수신되고, 사용자는 사용자의 운동 스케줄에 포함된 운동 처방 정보를 반영하는 참조 영상에 따라 동작을 수행할 수 있다.Referring to FIG. 22, the display 180 may display content 1300 included in a broadcast image. When the content 1300 included in the broadcast image is advertising content, the display 180 may display an object 1310 for checking whether the exercise is performed. The object 1310 confirming whether the exercise is performed may include an object 1312 configured to call a function of receiving a reference image reflecting exercise prescription information included in the exercise schedule of the user. When the object 1312 is selected, the captured image and the reference image are received, and the user may perform an operation according to the reference image reflecting the exercise prescription information included in the exercise schedule of the user.
도 23은 본 발명의 제 9 실시예에 따른 영상표시과정을 나타내는 흐름도이다.23 is a flowchart illustrating an image display process according to a ninth embodiment of the present invention.
방송 수신부(105)는 방송 영상을 수신하고(S132), 제어부(170)는 디스플레이(180) 및 오디오 출력부(185)를 통해 수신된 방송 영상을 출력한다, 제어부(170)는 수신된 방송 영상에 포함된 메타 데이터에 근거하여 디스플레이(180) 및 오디오 출력부(185)를 통해 출력 중인 컨텐츠의 타입을 판단한다. 제어부(170)는 디스플레이(180) 및 오디오 출력부(185)를 통해 출력 중인 컨텐츠의 타입이 광고 컨텐츠인지 모니터링할 수 있다(S134).The broadcast receiving unit 105 receives a broadcast image (S132), and the controller 170 outputs the broadcast image received through the display 180 and the audio output unit 185, and the controller 170 receives the received broadcast image. The type of the content being output through the display 180 and the audio output unit 185 is determined based on the metadata included in the. The controller 170 may monitor whether the type of the content being output through the display 180 and the audio output unit 185 is advertisement content (S134).
제 134 단계에서, 출력중인 컨텐츠의 타입이 광고 컨텐츠인 경우에 촬영부는 사용자를 촬영한 촬영 영상을 획득한다(S200). 제 300 단계 내지 제 600 단계에 대한 설명은 도 7의 제 300 단계 내지 제 600 단계에 대한 설명과 동일할 수 있으므로, 이에 대한 설명은 생략한다.In operation 134, when the type of the output content is the advertisement content, the photographing unit acquires a photographed image photographing the user in operation S200. Since the description of the steps 300 to 600 may be the same as the description of the steps 300 to 600 of FIG. 7, the description thereof will be omitted.
본 명세서에서 설명되는 이동 단말기는 휴대폰뿐만 아니라 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 항법 장치 등 문자 메시지를 송수신할 수 있는 모든 단말기가 될 수 있다. The mobile terminal described herein transmits and receives text messages as well as mobile phones, such as smart phones, laptop computers, digital broadcasting terminals, PDAs (Personal Digital Assistants), Portable Multimedia Players (PMPs), navigation devices, and the like. It can be any terminal that can do it.
또한, 본 명세서에서 설명되는 영상표시기기 및 영상표시방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In addition, the image display apparatus and the image display method described herein is not limited to the configuration and method of the embodiments described as described above, the embodiments of the embodiments can be modified in various ways All or part may be optionally combined.
한편, 본 명세서에서 설명되는 영상표시기기의 영상표시방법은 영상표시기기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the image display method of the image display device described herein can be implemented as a processor-readable code on a processor-readable recording medium provided in the image display device. The processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 실시예들에 따른 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 일 실시예에 불과할 뿐이고, 본 발명의 실시예들에 대한 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Here, the terms or words used in the present specification and claims should not be construed as being limited to ordinary or dictionary meanings, but should be construed as meanings and concepts corresponding to the technical idea according to the embodiments of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only one embodiment of the present invention, and do not represent all of the technical spirit of the embodiments of the present invention, these are replaced at the time of the present application It should be understood that there may be various equivalents and variations that can be made.

Claims (23)

  1. 사용자를 촬영한 촬영 영상을 획득하는 촬영부;A photographing unit obtaining a photographed image of the user;
    제 1 특징 데이터를 포함하는 참조 영상을 수신하는 통신부;A communication unit which receives a reference image including first feature data;
    상기 촬영 영상 및 상기 참조 영상을 출력하는 출력부; 및An output unit configured to output the captured image and the reference image; And
    상기 촬영 영상으로부터 제 2 특징 데이터를 추출하며, 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터를 비교하고, 상기 출력부가 상기 비교 결과를 나타내는 인디케이터를 상기 촬영 영상 또는 상기 참조 영상에 중첩하여 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 영상표시기기.Extracting second feature data from the captured image, comparing the first feature data with the second feature data, and controlling the output unit to display an indicator indicating the comparison result superimposed on the captured image or the reference image. And a control unit to control the video display device.
  2. 제 1항에 있어서, 상기 출력부는,The method of claim 1, wherein the output unit,
    상기 촬영 영상 및 상기 참조 영상을 동시에 표시하는 것을 특징으로 하는 영상표시기기.And displaying the captured image and the reference image at the same time.
  3. 제 1항에 있어서, 상기 출력부는,The method of claim 1, wherein the output unit,
    상기 촬영 영상 및 상기 참조 영상을 중첩하여 표시하는 것을 특징으로 하는 영상표시기기.And displaying the captured image and the reference image.
  4. 제 1항에 있어서, 상기 출력부는,The method of claim 1, wherein the output unit,
    상기 촬영 영상 및 상기 참조 영상을 PIP(Picture In Picture) 방식으로 표시하는 것을 특징으로 하는 영상표시기기.And displaying the captured image and the reference image in a picture in picture (PIP) manner.
  5. 제 1항에 있어서, 상기 출력부는,The method of claim 1, wherein the output unit,
    상기 촬영 영상 및 상기 참조 영상을 화면의 분할된 영역 각각에 표시하는 것을 특징으로 하는 영상표시기기.And displaying the captured image and the reference image on each divided area of the screen.
  6. 제 1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,
    상기 통신부가 외부 장치에 상기 비교 결과를 송신하도록 제어하는 것을 특징으로 하는 영상표시기기.And the communication unit controls to transmit the comparison result to an external device.
  7. 제 1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,
    상기 비교 결과에 근거하여 가이드 정보를 생성하고, 상기 출력부가 상기 가이드 정보를 출력하도록 제어하는 것을 특징으로 하는 영상표시기기.And generate guide information based on the comparison result, and control the output unit to output the guide information.
  8. 제 7항에 있어서, 상기 가이드 정보는,The method of claim 7, wherein the guide information,
    자세 교정 정보를 포함하는 것을 특징으로 하는 영상표시기기.And a posture correction information.
  9. 제 7항에 있어서, 상기 가이드 정보는,The method of claim 7, wherein the guide information,
    상기 사용자의 신체 부위의 이동 방향 및/또는 이동 거리에 관한 정보를 포함하는 것을 특징으로 하는 영상표시기기.And information about a moving direction and / or a moving distance of the body part of the user.
  10. 제 1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,
    상기 제 1 특징 데이터 및 상기 제 2 특징 데이터를 비교하여 일치 여부를 판단하고, 상기 출력부가 상기 일치 여부를 나타내는 메시지를 출력하도록 제어하는 것을 특징으로 하는 영상표시기기.And comparing the first feature data and the second feature data to determine whether they match, and controlling the output unit to output a message indicating the match.
  11. 제 1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,
    상기 제 1 특징 데이터 또는 상기 제 2 특징 데이터에 근거하여 상기 사용자의 진행 운동량을 측정하고, 상기 출력부가 상기 진행 운동량을 출력하도록 제어하거나 상기 통신부가 외부 장치에 상기 진행 운동량을 송신하도록 제어하는 것을 특징으로 하는 영상표시기기.Measure the moving exercise amount of the user based on the first feature data or the second feature data, and control the output unit to output the moving exercise amount or control the communication unit to transmit the moving exercise amount to an external device. Video display equipment.
  12. 제 11항에 있어서, 상기 사용자의 목표 운동량을 저장하는 저장부를 더 포함하고,The method of claim 11, further comprising a storage unit for storing the target exercise amount of the user,
    상기 제어부는,The control unit,
    상기 출력부가 상기 목표 운동량을 출력하도록 제어하는 것을 특징으로 하는 영상표시기기.And the output unit controls the output of the target exercise amount.
  13. 제 12항에 있어서, 상기 제어부는,The method of claim 12, wherein the control unit,
    상기 진행 운동량이 상기 목표 운동량에 도달한 경우에 상기 출력부가 알림 메시지를 출력하도록 제어하거나 상기 통신부가 외부 장치에 상기 알림 메시지를 송신하도록 제어하는 것을 특징으로 하는 영상표시기기.And the output unit controls the output unit to output a notification message when the progress exercise amount reaches the target exercise amount, or controls the communication unit to transmit the notification message to an external device.
  14. 제 1항에 있어서, 상기 통신부는,The method of claim 1, wherein the communication unit,
    방송 영상을 수신하고,Receive broadcast video,
    상기 제어부는,The control unit,
    상기 방송 영상에 포함된 컨텐츠와 관련된 건강 정보를 획득하고, 상기 출력부가 상기 건강 정보를 출력하도록 제어하거나 상기 통신부가 외부 장치에 상기 건강 정보를 송신하도록 제어하는 것을 특징으로 하는 영상표시기기.And obtaining the health information related to the content included in the broadcast image, controlling the output unit to output the health information, or controlling the communication unit to transmit the health information to an external device.
  15. 제 1항에 있어서, 상기 통신부는,The method of claim 1, wherein the communication unit,
    상기 영상표시기기와 외부 장치와의 연결을 모니터링하고,Monitor the connection between the image display device and the external device;
    상기 제어부는,The control unit,
    상기 영상표시기기가 상기 외부 장치와 연결되면 상기 외부 장치의 식별 정보를 추출하고, 상기 식별 정보에 근거하여 사용자 정보를 획득하고 상기 사용자 정보에 근거하여 상기 사용자의 건강 정보를 획득하는 것을 특징으로 하는 영상표시기기.When the image display device is connected to the external device, the identification information of the external device is extracted, user information is obtained based on the identification information, and health information of the user is obtained based on the user information. Video display device.
  16. 제 1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit,
    상기 촬영 영상으로부터 상기 사용자의 얼굴 영역을 검출하고, 상기 검출된 얼굴 영역에 근거하여 사용자 정보를 획득하고 상기 사용자 정보에 근거하여 상기 사용자의 건강 정보를 획득하는 것을 특징으로 하는 영상표시기기.And detecting the face region of the user from the captured image, obtaining user information based on the detected face region, and obtaining health information of the user based on the user information.
  17. 제 14항 내지 제 16항에 있어서, 상기 통신부는,The method of claim 14 to 16, wherein the communication unit,
    상기 건강 정보에 근거하여 상기 참조 영상을 수신하는 것을 특징으로 하는 영상표시기기.And the reference image is received based on the health information.
  18. 제 1항에 있어서, 상기 통신부는,The method of claim 1, wherein the communication unit,
    방송 영상을 수신하고, 상기 방송 영상에 포함된 콘텐츠의 타입에 근거하여 상기 참조 영상을 수신하는 것을 특징으로 하는 영상표시기기.And receiving the reference video based on the type of content included in the broadcast video.
  19. 제 18항에 있어서, 상기 통신부는,The method of claim 18, wherein the communication unit,
    상기 방송 영상에 포함된 콘텐츠가 광고 콘텐츠인 경우에 상기 참조 영상을 수신하는 것을 특징으로 하는 영상표시기기.And the reference image is received when the content included in the broadcast image is an advertisement content.
  20. 제 1항에 있어서, 상기 제 1 특징 데이터는,The method of claim 1, wherein the first feature data,
    상기 사용자에 대한 운동 처방 정보를 반영하는 특징 데이터인 것을 특징으로 하는 영상표시기기.And the feature data reflecting exercise prescription information for the user.
  21. 제 20항에 있어서, 상기 운동 처방 정보는,The exercise prescription information of claim 20, wherein
    유산소, 근력 및 스트레칭 운동 중 어느 하나에 관한 운동 처방 정보인 것을 특징으로 하는 영상표시기기.Image display device characterized in that the exercise prescription information about any one of aerobic, muscular strength and stretching exercises.
  22. 제 1항에 있어서, 상기 비교 결과는,The method of claim 1, wherein the comparison result,
    상기 제 1 특징 데이터 및 상기 제 2 특징 데이터에서 일치하지 않는 상기 사용자의 신체 부위에 관한 정보를 포함하는 것을 특징으로 하는 영상표시기기.And information on a body part of the user that does not coincide in the first feature data and the second feature data.
  23. 사용자를 촬영한 촬영 영상을 획득하는 단계;Obtaining a photographed image of the user;
    제 1 특징 데이터를 포함하는 참조 영상을 수신하는 단계;Receiving a reference image including first feature data;
    상기 촬영 영상 및 상기 참조 영상을 출력하는 단계;Outputting the captured image and the reference image;
    상기 촬영 영상으로부터 제 2 특징 데이터를 추출하는 단계;Extracting second feature data from the captured image;
    상기 제 1 특징 데이터 및 상기 제 2 특징 데이터를 비교하는 단계; 및Comparing the first feature data and the second feature data; And
    상기 비교 결과를 나타내는 인디케이터를 상기 촬영 영상 또는 상기 참조 영상에 중첩하여 표시하는 단계를 포함하는 것을 특징으로 하는 영상표시기기의 영상표시방법.And displaying an indicator indicating the comparison result by superimposing the indicator on the photographed image or the reference image.
PCT/KR2010/006733 2010-10-01 2010-10-01 Image display device and image displaying method thereof WO2012043910A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/006733 WO2012043910A1 (en) 2010-10-01 2010-10-01 Image display device and image displaying method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/006733 WO2012043910A1 (en) 2010-10-01 2010-10-01 Image display device and image displaying method thereof

Publications (1)

Publication Number Publication Date
WO2012043910A1 true WO2012043910A1 (en) 2012-04-05

Family

ID=45893332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/006733 WO2012043910A1 (en) 2010-10-01 2010-10-01 Image display device and image displaying method thereof

Country Status (1)

Country Link
WO (1) WO2012043910A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990086247A (en) * 1998-05-27 1999-12-15 박권상 Sports visual effect processor
JP2004506996A (en) * 2000-08-22 2004-03-04 バーチャルメディア カンパニー リミテッド Apparatus and method for generating synthetic face image based on form information of face image
KR20100079356A (en) * 2008-12-31 2010-07-08 갤럭시아커뮤니케이션즈 주식회사 Frame based reference frame fate distortion optimization using motion blur/deblur post filter

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990086247A (en) * 1998-05-27 1999-12-15 박권상 Sports visual effect processor
JP2004506996A (en) * 2000-08-22 2004-03-04 バーチャルメディア カンパニー リミテッド Apparatus and method for generating synthetic face image based on form information of face image
KR20100079356A (en) * 2008-12-31 2010-07-08 갤럭시아커뮤니케이션즈 주식회사 Frame based reference frame fate distortion optimization using motion blur/deblur post filter

Similar Documents

Publication Publication Date Title
WO2012070812A2 (en) Control method using voice and gesture in multimedia device and multimedia device thereof
WO2015030347A1 (en) Image display device and operation method thereof
WO2011028073A2 (en) Image display apparatus and operation method therefore
WO2011071285A2 (en) Image display apparatus and method for operating the same
WO2011074794A2 (en) Image display apparatus and method for operating the image display apparatus
WO2012093767A2 (en) Method for providing remote control service and image display apparatus thereof
WO2012005421A1 (en) Method for application extension and image display apparatus using same
WO2012074189A1 (en) Method for controlling screen display and image display device using same
EP2377310A1 (en) Apparatus for processing images and method thereof
WO2010151027A4 (en) Video display device and operating method therefor
WO2012070742A1 (en) Method for installing applications, and image display device using same
WO2012053764A2 (en) Method for moving pointer in video display apparatus and video display apparatus thereof
WO2019135433A1 (en) Display device and system comprising same
WO2016129840A1 (en) Display apparatus and information providing method thereof
WO2019137016A1 (en) Television programme recommendation method, device, and computer readable storage medium
EP3756086A1 (en) Display device and operating method thereof
WO2011152644A2 (en) User interface provision method and a system using the method
WO2020171657A1 (en) Display device and image display method of the same
WO2012020945A2 (en) Method for inputting data on image display device and image display device thereof
WO2015115850A1 (en) Broadcast receiving apparatus
WO2012150731A1 (en) Object control using heterogeneous input method
WO2012043910A1 (en) Image display device and image displaying method thereof
WO2016200078A1 (en) Method and device for sharing multimedia content
WO2016076541A1 (en) Electronic device and operation method thereof
WO2019182255A1 (en) Video display device and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10857911

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10857911

Country of ref document: EP

Kind code of ref document: A1