WO2016080603A1 - 디지털 디바이스 및 그 제어 방법 - Google Patents

디지털 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
WO2016080603A1
WO2016080603A1 PCT/KR2015/002751 KR2015002751W WO2016080603A1 WO 2016080603 A1 WO2016080603 A1 WO 2016080603A1 KR 2015002751 W KR2015002751 W KR 2015002751W WO 2016080603 A1 WO2016080603 A1 WO 2016080603A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
frequency band
gain
pixel value
image
Prior art date
Application number
PCT/KR2015/002751
Other languages
English (en)
French (fr)
Inventor
우헌배
이철주
송병철
남연오
최동윤
Original Assignee
엘지전자 주식회사
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사, 인하대학교 산학협력단 filed Critical 엘지전자 주식회사
Priority to US15/527,695 priority Critical patent/US10469789B2/en
Publication of WO2016080603A1 publication Critical patent/WO2016080603A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/63Generation or supply of power specially adapted for television receivers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers without distortion of the input signal
    • H03G3/20Automatic control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/52Automatic gain control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • H03G5/165Equalizers; Volume or gain control in limited frequency bands
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B70/00Technologies for an efficient end-user side electric power management and consumption
    • Y02B70/10Technologies improving the efficiency by using switched-mode power supplies [SMPS], i.e. efficient power electronics conversion e.g. power factor correction or reduction of losses in power supplies or efficient standby modes

Definitions

  • the present invention relates to a digital device, and more particularly, to a digital device and a control method thereof capable of improving image quality at low power.
  • the backlight portion consumes the most power and occupies about half of the total power consumption.
  • the power of the digital device is proportional to the brightness of the light source used as the backlight, and the brightness of the light source is dependent on the pixel value of the image to be output.
  • the brightness of a light source is determined according to the maximum pixel value of the area
  • the technical problem to be achieved by one embodiment of the present invention is to perform a preprocessing process for improving contrast and sharpness of an image, and a postprocessing process for adjusting a maximum pixel value of a divided screen region by dividing a screen. Accordingly, it is an object of the present invention to provide a digital device and a control method thereof capable of reducing power while minimizing deterioration of image quality.
  • the digital device by displaying the target power reduction amount setting window, according to the target power reduction amount set by the user, the digital device can reduce the power while minimizing the deterioration of image quality, and can provide convenience to the user It is intended to provide a control method.
  • a method of controlling a digital device may include receiving a video signal, separating the received video signal by a plurality of frequency bands, and gain for each of the separated video signals. adjusting the gain), synthesizing the image signals of the gain-adjusted frequency bands, displaying an enhanced image on the screen, and separating the screen on which the improved image is displayed into multiple regions. Checking whether the maximum pixel value of the improved image displayed in the separated screen area is greater than the reference value, and if the maximum pixel value of the enhanced image is greater than the reference value, And adjusting the pixel values of the improved image.
  • a communication module for receiving an image signal
  • a display module for processing the image signal to display an enhanced image (enhanced image) on the screen, and controls the operation of the digital device
  • a controller wherein the controller divides the received video signal into a plurality of frequency bands, and adjusts gain of the video signal of each frequency band separated from the frequency divider.
  • a plurality of gain control units for controlling the display module and a plurality of screens of the display module displaying the improved image are synthesized by synthesizing the image signals of the adjusted frequency bands to display the enhanced image on the screen of the display module.
  • the maximum pixel value of the improved image displayed in the separated screen area is larger than the reference value.
  • Confirmed, and the maximum pixel value of the enhanced image may include a pixel value adjusting unit for larger, adjusting the pixel values of the enhanced image that is displayed on a separate screen area than the reference value.
  • the present invention by displaying the target power reduction amount setting window, according to the target power reduction amount set by the user, it is possible to reduce the power while minimizing the degradation of the image quality, there is an effect that can provide convenience to the user.
  • FIG. 1 is a diagram schematically illustrating a service system including a digital device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a digital device according to one embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a digital device according to another embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a digital device according to the present invention.
  • FIG. 5 is a block diagram illustrating the controller of FIG. 4.
  • 6 to 8 illustrate an operation of a digital device in response to a power reduction request.
  • 9 and 10 are block diagrams illustrating the frequency separation unit of FIG. 5.
  • 11 and 12 are block diagrams illustrating the gain control unit of FIG. 5.
  • 13 to 15 are block diagrams illustrating the gain adjusting unit of FIG. 11.
  • 16 is a graph showing a gain value of a high frequency band according to a normalized variation value
  • 17 is a block diagram illustrating a pixel value adjusting unit of FIG. 5.
  • 18 is a view showing a screen area separated by a pixel value adjusting unit
  • 19 is a graph showing an increase rate of pixel values of a separated screen area.
  • 20 is a graph showing an increase rate of pixel values of pixels located in a boundary area between separated screen areas.
  • 21 to 26 are flowcharts illustrating a control method of a digital device according to the present invention.
  • the digital device described herein refers to, for example, transmitting, receiving, processing, and outputting data, content, service, application, and the like. It includes all devices that perform at least one or more.
  • the digital device may be paired or connected (hereinafter referred to as 'pairing') with another digital device, an external server, or the like through a wired / wireless network, and transmits predetermined data therethrough. Can send / receive At this time, if necessary, the data may be appropriately converted (converted) before the transmission / reception.
  • the digital device includes, for example, a standing device such as a network television (TV), a hybrid broadcast broadband TV (HBBTV), a smart television (TV), an internet protocol television (IPTV), a personal computer (PC), or the like.
  • a mobile device such as a PDA (Personal Digital Assistant), smart phone (Smart Phone), tablet PC (Tablet PC), notebook (notebook) and the like can all include.
  • a digital TV Digital TV
  • FIG. 2 an example of a digital device to help understand the present invention and for convenience of the applicant.
  • the digital device described herein may be a configuration having only a panel, or may be a set configuration such as a set-top box (STB), a device, a system, and the like. .
  • wired / wireless network described herein refers to a communication network supporting various communication standards or protocols for pairing and / or transmitting and receiving data between digital devices or digital devices and external servers.
  • wired / wireless networks include all communication networks that are currently or will be supported by the specification and are capable of supporting one or more communication protocols for them.
  • Such wired and wireless networks include, for example, Universal Serial Bus (USB), Composite Video Banking Sync (CVBS), Component, S-Video (Analog), Digital Visual Interface (DVI), High Definition Multimedia Interface (HDMI), Network for wired connection such as RGB, D-SUB and communication standard or protocol therefor, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee (ZigBee), Digital Living Network Alliance (DLNA), Wireless LAN (WLAN) (Wi-Fi), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), LTE / LTE It may be formed by a network for a wireless connection such as Long Term Evolution / LTE-Advanced (A), Wi-Fi Direct, and a communication standard or protocol therefor.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • the meaning when referred to herein only as a digital device, the meaning may mean a fixed device or a mobile device depending on the context, and may be used to include both unless specifically mentioned.
  • the digital device is, for example, an intelligent device that supports a broadcast receiving function, a computer function or support, at least one external input, and the like, and includes e-mail and web browsing through the above-described wired / wireless network. , Banking, games, applications, and the like.
  • the digital device may include an interface for supporting at least one input or control means (hereinafter, “input means”) such as a handwritten input device, a touch-screen, and a spatial remote controller. Can be.
  • the digital device may use a standardized general operating system (OS), but in particular, the digital device described in the present specification uses a web OS. Accordingly, digital devices can add, delete, modify, and update various services or applications on a general-purpose OS kernel or Linux kernel. It is possible, through which a more user-friendly environment can be constructed and provided.
  • OS general operating system
  • the digital device described in the present specification uses a web OS. Accordingly, digital devices can add, delete, modify, and update various services or applications on a general-purpose OS kernel or Linux kernel. It is possible, through which a more user-friendly environment can be constructed and provided.
  • the above-described digital device may receive and process an external input.
  • the external input may be connected to an external input device, that is, the digital device through a wired / wireless network, to transmit / receive data, and to process the external input.
  • An input means to a digital device.
  • a game device such as a high-definition multimedia interface (HDMI), a playstation or an X-box, a smartphone, a tablet PC, a pocket photo, etc. may be used as the external input.
  • digital devices such as printing devices, smart TVs, Blu-ray device devices, and the like.
  • the server described herein refers to a digital device or a system for supplying data to or receiving data from the above-described digital device, that is, a client, and also referred to as a processor.
  • a portal server for providing a web page, a web content or a web service an advertising server for providing advertising data, Providing a content server providing content, an SNS server providing a social network service (SNS), a service server provided by a manufacturer, and providing a video on demand (VOD) or streaming service
  • SNS social network service
  • VOD video on demand
  • It may include a multi-channel video programming distributor (MVDP), a service server for providing a pay service, and the like.
  • MVDP multi-channel video programming distributor
  • the meaning may be a meaning including not only an application but also a service based on the context.
  • FIG. 1 is a diagram schematically illustrating a service system including a digital device according to an embodiment of the present invention.
  • the service system includes a content provider 10, a service provider 20, a network provider 30, and a home network end user (HNED). And 40.
  • the HNED 40 comprises, for example, a client 100, ie a digital device according to the invention.
  • the content provider 10 produces and provides various contents. As shown in FIG. 1, such a content provider 10 may include a terrestrial broadcast sender, a cable SO (System Operator) or MSO (Multiple SO), a satellite broadcast sender, various Internet broadcast senders, and an individual. Content providers and the like. The content provider 10 may produce and provide various services or applications in addition to broadcast content.
  • a content provider 10 may include a terrestrial broadcast sender, a cable SO (System Operator) or MSO (Multiple SO), a satellite broadcast sender, various Internet broadcast senders, and an individual. Content providers and the like.
  • the content provider 10 may produce and provide various services or applications in addition to broadcast content.
  • the service provider 20 service packetizes the content produced by the content provider 10 and provides it to the HNED 40.
  • the service provider 20 may package at least one or more of contents produced by the first terrestrial broadcast, the second terrestrial broadcast, the cable MSO, the satellite broadcast, the various Internet broadcasts, the application, and the like for the service, and the HNED ( 40).
  • the service provider 20 provides a service to the client 100 in a uni-cast or multi-cast manner.
  • the service provider 20 may transmit data to a plurality of clients 100 registered in advance, for this purpose may use the Internet Group Management Protocol (IGMP) protocol.
  • IGMP Internet Group Management Protocol
  • the content provider 10 and the service provider 20 described above may be the same entity.
  • the content produced by the content provider 10 may be packaged as a service and provided to the HNED 40 to perform the functions of the service provider 20 together or vice versa.
  • the network provider 30 provides a network for data exchange between the content provider 10 or / and the service provider 20 and the client 100.
  • the client 100 receives a data through a network provider 30, for example, by establishing a home network, and receives data about various services or applications such as VoD and streaming. You can also send / receive.
  • the content provider 10 and / or the service provider 20 in the service system may use conditional access or content protection means to protect the transmitted content.
  • the client 100 may use a processing means such as a cable card (or point of deployment) or a downloadable casing (DCAS) in response to the limited reception or content protection.
  • a processing means such as a cable card (or point of deployment) or a downloadable casing (DCAS) in response to the limited reception or content protection.
  • the client 100 may also use a bidirectional service through a network. Accordingly, the client 100 may perform a role or function of a content provider, and the service provider 20 may receive it and transmit it to another client.
  • the content provider 10 and / or the service provider 20 may be a server that provides a service described later herein.
  • the server may mean owning or including the network provider 30 as necessary.
  • the service or service data includes not only services or applications received from the outside described above, but also internal services or applications, and the services or applications include service or application data for the Web OS-based client 100. Can mean.
  • FIG. 2 is a block diagram illustrating a digital device according to an embodiment of the present invention.
  • the digital device described herein corresponds to the client 100 of FIG. 1.
  • the digital device 200 includes a network interface 201, a TCP / IP manager 202, a service delivery manager 203, an SI decoder 204, A demux or demultiplexer 205, an audio decoder 206, a video decoder 207, a display A / V and OSD module 208, a service control manager (service control manager) 209, service discovery manager 210, SI & metadata DB 211, metadata manager 212, service manager 213, And a UI manager 214.
  • a network interface 201 includes a network interface 201, a TCP / IP manager 202, a service delivery manager 203, an SI decoder 204, A demux or demultiplexer 205, an audio decoder 206, a video decoder 207, a display A / V and OSD module 208, a service control manager (service control manager) 209, service discovery manager 210, SI & metadata DB 211, metadata manager 212, service manager 213, And a UI
  • the network interface unit 201 may be configured to perform IP packet (s) (Internet Protocol (IP) packet (s)) or IP datagram (s) (hereinafter referred to as IP packet (s) through an accessing network. Send / receive)
  • IP packet Internet Protocol
  • IP datagram IP datagram
  • Send / receive For example, the network interface unit 201 may receive a service, an application, content, and the like from the service provider 20 of FIG. 1 through a network.
  • the TCP / IP manager 202 may be configured to transfer packets between the source and the destination for IP packets received by the digital device 200 and IP packets transmitted by the digital device 200. involved in packet delivery).
  • the TCP / IP manager 202 classifies the received packet (s) to correspond to an appropriate protocol, and includes a service delivery manager 205, a service discovery manager 210, a service control manager 209, and a metadata manager 212. Output the classified packet (s).
  • the service delivery manager 203 is in charge of controlling the received service data.
  • the service delivery manager 203 may use RTP / RTCP when controlling real-time streaming data.
  • the service delivery manager 203 parses the received data packet according to the RTP and transmits it to the demultiplexer 205 or the control of the service manager 213.
  • the service delivery manager 203 feeds back the network reception information to a server that provides a service using RTCP.
  • the demultiplexer 205 demultiplexes the received packet into audio, video, SI (System Information) data, and the like, and transmits the demultiplexed unit to the audio / video decoders 206/207 and the SI decoder 204, respectively.
  • SI System Information
  • the SI decoder 204 includes demultiplexed SI data, that is, Program Specific Information (PSI), Program and System Information Protocol (PSIP), Digital Video Broadcasting-Service Information (DVB-SI), and Digital Television Terrestrial Multimedia (DTMB / CMMB). Decode service information such as Broadcasting / Coding Mobile Multimedia Broadcasting).
  • the SI decoder 204 may store the decoded service information in the SI & metadata database 211. The stored service information may be read and used by the corresponding configuration, for example, at the request of a user.
  • the audio / video decoder 206/207 decodes each demultiplexed audio data and video data.
  • the decoded audio data and video data are provided to the user through the display unit 208.
  • the application manager may include, for example, the UI manager 214 and the service manager 213 and perform a control function of the digital device 200.
  • the application manager may manage the overall state of the digital device 200, provide a user interface (UI), and manage other managers.
  • UI user interface
  • the UI manager 214 provides a Graphic User Interface (UI) / UI for a user by using an OSD (On Screen Display) and the like, and receives a key input from the user to perform a device operation according to the input. For example, the UI manager 214 transmits the key input signal to the service manager 213 when receiving a key input related to channel selection from the user.
  • UI Graphic User Interface
  • OSD On Screen Display
  • the service manager 213 controls a manager associated with a service such as a service delivery manager 203, a service discovery manager 210, a service control manager 209, and a metadata manager 212.
  • the service manager 213 generates a channel map and controls the channel selection using the generated channel map according to the key input received from the UI manager 214.
  • the service manager 213 receives service information from the SI decoder 204 and sets the audio / video packet identifier (PID) of the selected channel to the demultiplexer 205.
  • PID audio / video packet identifier
  • the PID set as described above may be used in the above demultiplexing process. Accordingly, the demultiplexer 205 filters (PID or section filtering) audio data, video data, and SI data by using the PID.
  • the service discovery manager 210 provides information necessary to select a service provider that provides a service. Upon receiving a signal regarding channel selection from the service manager 213, the service discovery manager 210 searches for a service using the information.
  • the service control manager 209 is responsible for selecting and controlling services. For example, the service control manager 209 uses IGMP or RTSP when the user selects a live broadcasting service such as a conventional broadcasting method, and uses RTSP when selecting a service such as VOD. Select and control services.
  • the RTSP protocol may provide a trick mode for real time streaming.
  • the service control manager 209 may initialize and manage a session through the IMS gateway 250 using an IP Multimedia Subsystem (IMS) or a Session Initiation Protocol (SIP).
  • IMS IP Multimedia Subsystem
  • SIP Session Initiation Protocol
  • the protocols are one embodiment, and other protocols may be used depending on implementation.
  • the metadata manager 212 manages metadata associated with the service and stores the metadata in the SI & metadata database 211.
  • the SI & metadata database 211 stores service information decoded by the SI decoder 204, metadata managed by the metadata manager 212, and information necessary to select a service provider provided by the service discovery manager 210. do.
  • the SI & metadata database 211 can store set-up data and the like for the system.
  • the SI & metadata database 211 may be implemented using non-volatile memory (NVRAM), flash memory, or the like.
  • NVRAM non-volatile memory
  • the IMS gateway 250 is a gateway that collects functions necessary for accessing an IMS-based IPTV service.
  • FIG. 3 is a block diagram illustrating a digital device according to another embodiment of the present invention.
  • Figure 3 is a mobile device to another embodiment of the digital device.
  • the mobile device 300 may include a wireless communication unit 310, an A / V input unit 320, a user input unit 330, a sensing unit 340, an output unit 350,
  • the memory 360 may include an interface unit 370, a controller 380, a power supply unit 390, and the like.
  • the wireless communication unit 310 may include one or more modules that enable wireless communication between the mobile device 300 and the wireless communication system or between the mobile device and the network in which the mobile device is located.
  • the wireless communication unit 310 may include a broadcast receiving module 311, a mobile communication module 312, a wireless internet module 313, a short range communication module 314, a location information module 315, and the like. .
  • the broadcast receiving module 311 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 312.
  • the broadcast related information may exist in various forms, for example, in the form of an electronic program guide (EPG) or an electronic service guide (ESG).
  • EPG electronic program guide
  • ESG electronic service guide
  • the broadcast receiving module 311 may be, for example, ATSC, DVB-T (Digital Video Broadcasting-Terrestrial), DVB-S (Satellite), MediaFLO (Media Forward Link Only), DVB-H (Handheld), ISDB-T ( Digital broadcasting signals may be received using a digital broadcasting system such as Integrated Services Digital Broadcast-Terrestrial.
  • the broadcast receiving module 311 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 311 may be stored in the memory 360.
  • the mobile communication module 312 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice signal, a video call signal, or a text / multimedia message.
  • the wireless internet module 313 may include a module for wireless internet access and may be embedded or external to the mobile device 300.
  • Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
  • the short range communication module 314 refers to a module for short range communication.
  • Short range communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, RS-232, and RS-485. Can be.
  • the location information module 315 may be a module for acquiring location information of the mobile device 300, and may use a Global Position System (GPS) module as an example.
  • GPS Global Position System
  • the A / V input unit 320 is for inputting an audio or / video signal, and may include a camera 321 and a microphone 322.
  • the camera 321 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the imaging mode.
  • the processed image frame may be displayed on the display unit 351.
  • the image frame processed by the camera 321 may be stored in the memory 360 or transmitted to the outside through the wireless communication unit 310. Two or more cameras 321 may be provided depending on the use environment.
  • the microphone 322 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 312 and output in the call mode.
  • the microphone 322 may be implemented with various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 330 generates input data for the user to control the operation of the terminal.
  • the user input unit 330 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
  • the sensing unit 340 may determine the current state of the mobile device 300 such as an open / closed state of the mobile device 300, a location of the mobile device 300, presence or absence of user contact, orientation of the mobile device, acceleration / deceleration of the mobile device, and the like.
  • the sensing unit generates a sensing signal for controlling the operation of the mobile device 300. For example, when the mobile device 300 is moved or tilted, the position or tilt of the mobile device may be sensed. Also, whether the power supply unit 390 is supplied with power or whether the interface unit 370 is coupled to an external device may be sensed.
  • the sensing unit 240 may include a proximity sensor 341 including near field communication (NFC).
  • the output unit 350 is to generate an output related to visual, auditory or tactile senses, and may include a display unit 351, a sound output module 352, an alarm unit 353, a haptic module 354, and the like. have.
  • the display unit 351 displays (outputs) information processed by the mobile device 300. For example, when the mobile device is in the call mode, the UI or GUI related to the call is displayed. When the mobile device 300 is in a video call mode or a photographing mode, the mobile device 300 displays a photographed and / or received image, a UI, or a GUI.
  • the display unit 351 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display ( flexible display) and three-dimensional display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • three-dimensional display three-dimensional display.
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display unit 351 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 351 of the terminal body.
  • two or more display units 351 may exist.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the mobile device 300, or may be disposed on different surfaces.
  • the display unit 351 and a sensor for detecting a touch motion form a mutual layer structure (hereinafter referred to as a touch screen)
  • the display unit 351 may be input in addition to the output device. It can also be used as a device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 351 or capacitance generated at a specific portion of the display unit 351 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 380.
  • the controller 380 may determine which area of the display unit 351 is touched.
  • the proximity sensor 341 may be disposed in an inner region of the mobile device surrounded by the touch screen or near the touch screen.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Proximity sensors have a longer life and higher utilization than touch sensors.
  • the proximity sensor examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen may be classified as a proximity sensor.
  • the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch
  • the act of actually touching the pointer on the screen is called “contact touch.”
  • the position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.
  • the proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state).
  • a proximity touch and a proximity touch pattern for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state.
  • Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
  • the sound output module 352 may output audio data received from the wireless communication unit 310 or stored in the memory 360 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 352 may output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the mobile device 300.
  • the sound output module 352 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 353 outputs a signal for notifying occurrence of an event of the mobile device 300. Examples of events occurring in the mobile device include call signal reception, message reception, key signal input, and touch input.
  • the alarm unit 353 may output a signal for notifying the occurrence of an event by vibration, in addition to a video signal or an audio signal.
  • the video signal or the audio signal may also be output through the display unit 351 or the audio output module 352, so that they 351 and 352 may be classified as part of the alarm unit 353.
  • the haptic module 354 generates various tactile effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 354.
  • the intensity and pattern of vibration generated by the haptic module 354 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.
  • the haptic module 354 may also be used to stimulate a pin array that vertically moves with respect to the contact skin surface, the blowing force or suction force of air through the jetting or suction port, the grazing to the skin surface, the contact of the electrode, the electrostatic force, and the like.
  • Various tactile effects can be generated, such as effects due to the effects of cold / warm reproduction using an element that can absorb heat or generate heat.
  • the haptic module 354 may not only deliver the haptic effect through direct contact, but also may implement the user to feel the haptic effect through muscle sensation such as a finger or an arm.
  • the haptic module 354 may be provided with two or more according to the configuration aspect of the mobile device 300.
  • the memory 360 may store a program for the operation of the controller 380 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.).
  • the memory 360 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 360 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, It may include a storage medium of at least one type of magnetic disk, optical disk.
  • the mobile device 300 may operate in association with web storage that performs a storage function of the memory 360 on the Internet.
  • the interface unit 370 serves as a path to all external devices connected to the mobile device 300.
  • the interface unit 370 receives data from an external device, receives power, transfers the power to each component inside the mobile device 300, or transmits data within the mobile device 300 to the external device.
  • wired / wireless headset port, external charger port, wired / wireless data port, memory card port, port for connecting a device with an identification module, audio input / output (I / O) port, The video I / O port, the earphone port, and the like may be included in the interface unit 370.
  • the identification module is a chip that stores various types of information for authenticating the usage rights of the mobile device 300, and includes a user identification module (UIM), a subscriber identification module (SIM), and a universal user authentication module (UI). Universal Subscriber Identity Module (USIM), and the like.
  • a device equipped with an identification module (hereinafter referred to as an “identification device”) may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 200 through a port.
  • the interface unit 370 may be a path through which power from the cradle is supplied to the mobile device 300 or may be input by the user from the cradle. It may be a passage through which a command signal is transmitted to the mobile device. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile device is correctly mounted in the cradle.
  • the controller 380 typically controls the overall operation of the mobile device 300.
  • the controller 380 performs, for example, related control and processing for voice call, data communication, video call, and the like.
  • the controller 380 may include a multimedia module 381 for multimedia playback.
  • the multimedia module 381 may be implemented in the controller 380 or may be implemented separately from the controller 380.
  • the controller 380 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on a touch-screen as a character and an image, respectively.
  • the power supply unit 390 receives an external power source and an internal power source under the control of the controller 380 to supply power for operation of each component.
  • embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of a processor, a controller, micro-controllers, microprocessors, and other electrical units for performing other functions. Examples may be implemented by the controller 380 itself.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in a suitable programming language.
  • the software code may be stored in the memory 360 and executed by the controller 380.
  • FIG. 4 is a block diagram illustrating a digital device according to the present invention.
  • the digital device 1000 may include a communication module 1100, a display module 1200, and a controller 1300.
  • the communication module 1100 receives a video signal through wired or wireless.
  • the communication module 1100 may connect a Wi-Fi Direct for performing wireless communication between devices, and in addition to Wi-Fi Direct, various communication methods such as Wi-Fi, Bluetooth, infrared communication, and Near Field Communication (NFC) communication may be used. Wireless communication can be connected.
  • Wi-Fi Direct for performing wireless communication between devices
  • Wi-Fi Direct various communication methods such as Wi-Fi, Bluetooth, infrared communication, and Near Field Communication (NFC) communication may be used.
  • NFC Near Field Communication
  • the display module 1200 may display the signal processed image on the screen.
  • the display module 1200 may include a display panel and a light source module for applying light to the display panel.
  • the controller 1300 may control the operation of the digital device 1000.
  • the controller 1300 may manage overall functions of at least one module, such as the communication module 1100 and the display module 1200. Perform the function.
  • the controller 1300 separates the received video signal into a plurality of frequency bands, adjusts a gain of the separated video signal of each frequency band, and then adjusts the gain of the video signal of each frequency band. And the preprocessing process of displaying the enhanced image on the screen, separating the screen on which the improved image is displayed into a plurality of areas, and the maximum pixel value of the improved image displayed on the separated screen area. If it is larger than the reference value, a post-processing process may be performed to adjust pixel values of the improved image displayed on the separated screen area.
  • the digital device of the present invention may include, as a backlight, a light source module having a plurality of light sources, the brightness of the light source being adjusted according to the maximum brightness of the output image, thereby reducing power consumption.
  • one light source is responsible for the luminance of a portion of the screen, and the brightness may be adjusted according to the maximum pixel value of the corresponding region.
  • the brightness of the light source is not determined according to the maximum pixel value of the entire screen area, but may be determined locally, according to the maximum pixel value of some screen areas that each light source is in charge of.
  • the present invention may divide the screen into a plurality of areas, and adjust brightness of each light source according to the maximum pixel value of each separated area.
  • the light source module is driven at low power as a whole, so that the dynamic range is reduced, the contrast of the image may be reduced, and the detail information may disappear.
  • a preprocessing process is performed to produce an enhanced image with increased sharpness and contrast, and through the postprocessing process, the maximum pixel value of the improved image is greater than the maximum pixel value of the original image.
  • the controller 1300 divides an image into a plurality of frequency bands through a preprocessing process, and adjusts contrast, sharpness, intensity, etc. of the image by using characteristics of each frequency band. Can be.
  • the high frequency component may have a great influence on the sharpness of the image
  • the mid frequency component may affect the contrast of the image
  • the low frequency component may affect the brightness of the entire image.
  • the controller 1300 divides the image into a plurality of frequency bands, adjusts gain of each frequency band through a preprocessing process, and finally synthesizes each frequency band whose gain is adjusted, Sharpness and contrast can be adjusted to improve image quality.
  • controller 1300 may perform a post-processing process, in order to perform local dimming, if the maximum pixel value of the improved image displayed in the separated screen area is larger than the maximum pixel value of the original image.
  • a post-processing process in order to perform local dimming, if the maximum pixel value of the improved image displayed in the separated screen area is larger than the maximum pixel value of the original image.
  • FIG. 5 is a block diagram illustrating the controller of FIG. 4.
  • the controller 1300 may be largely configured as a preprocessor 1302 and a post processor 1304.
  • the preprocessor 1302 may include a frequency separator 1310 and a gain controller 1320
  • the postprocessor 1304 may include a pixel value adjuster 1330.
  • the frequency separator 1310 may separate the received video signal for each of a plurality of frequency bands.
  • the frequency separator 1310 may include a filter unit for filtering the received video signals by a plurality of frequency bands, calculating a difference between the filtered video signals and the received video signals, A first calculating unit for obtaining a corresponding high frequency component, and a second calculating unit for calculating a difference value of high frequency components corresponding to adjacent frequency bands to obtain a final frequency signal corresponding to each frequency band.
  • the frequency separator 1310 may divide the received video signal into four frequency bands including a high frequency band, a medium frequency band, a medium low frequency band, and a low frequency band.
  • the reason why the frequency separation unit 1310 divides the video signal into a plurality of frequency bands is that the frequency separation unit 1310 has different influences on the video for each frequency band, and therefore, different frequency components need to be controlled differently.
  • the high frequency component may greatly affect the sharpness of the image
  • the mid frequency component may affect the contrast of the image
  • the low frequency component may affect the brightness of the entire image.
  • the gain control unit 1320 adjusts a gain of the video signal of each frequency band separated from the frequency separation unit 1310, synthesizes the video signals of each frequency band with the gain adjusted, and improves the gain.
  • the display module may be controlled to display an enhanced image on the screen of the display module.
  • the gain controller 1320 calculates and normalizes a local variance value of each pixel of the original image of the received image signal, and then normalizes the local variance.
  • the display device may include a high frequency gain determiner configured to determine the gain value and a high frequency gain adjuster configured to adjust a gain of an image signal of a high frequency band according to the determined gain value.
  • the high frequency gain control unit may increase the gain in a region where the detail component of the original image is weaker than the preset value, and block the increase in the gain in a region where the detail component of the original image is stronger than the preset value.
  • the gain control unit 1320 calculates and normalizes a detail component value of the original image of the received video signal, and then, according to the normalized detail component value, A high frequency gain determiner for determining a gain value and a high frequency gain adjuster for adjusting a gain of an image signal of a high frequency band according to the determined gain value may be included.
  • the gain control unit 1320 separates the medium frequency band into a medium frequency band and a medium frequency band, and calculates a gain value of the separated medium frequency band and a gain value of the medium frequency band.
  • the mid-frequency gain calculator and the calculated difference between the calculated high and low frequency gains of the medium and low frequency bands are greater than the reference difference value. If the difference between the gain value is greater than the reference difference value, it may include a mid-frequency gain control unit for adjusting the gain value of the mid-high frequency band or the gain value of the medium-low frequency band.
  • the gain controller 1320 may include a first compensator for increasing and compensating a pixel value for an image of a low frequency band at a first ratio, and a pixel value increased at a first ratio.
  • a second compensator which checks whether a preset threshold is reached, and if the pixel value increased by the first ratio reaches the preset threshold value, when the pixel value is increased by the second ratio, compensates by increasing the pixel value by the second ratio;
  • the first ratio may be a ratio that increases with the slope of the straight line
  • the second ratio may be a ratio that increases with the slope of the curve
  • the gain control unit 1320 may obtain an image having improved image quality by adjusting gain values differently.
  • the pixel value adjusting unit 1330 divides the screen of the display module displaying the improved image into a plurality of areas, and then checks whether the maximum pixel value of the improved image displayed in the separated screen area is larger than the reference value. If the maximum pixel value of the improved image is larger than the reference value, the pixel value of the improved image displayed on the separated screen area may be adjusted.
  • each of the separated screen areas is a screen area that one light source is responsible for in the light source module including a plurality of light sources. Can be determined.
  • the pixel value adjusting unit 1330 may determine each divided screen area as a screen area in which about 16 pixel lines are arranged, but is not limited thereto.
  • the pixel value adjusting unit 1330 may determine the reference value as the maximum pixel value of the original image when the maximum pixel value of the improved image displayed on the separated screen area is greater than the reference value.
  • the pixel value adjusting unit 1330 may further include adjusting the maximum pixel value of the improved image larger than the reference value to the reference value if the maximum pixel value of the improved image is larger than the reference value.
  • a second adjusting unit which adjusts pixel values below a predetermined threshold to increase by a first ratio, and pixel values larger than a predetermined threshold among pixel values of the improved image, are obtained. It may include a third adjustment unit for adjusting to increase in proportion.
  • the first ratio may be a ratio that increases with the slope of the straight line
  • the second ratio may be a ratio that increases with the slope of the curve
  • the pixel value adjusting unit 1330 may consume power. Therefore, the pixel value adjusting unit 1330 may determine the maximum pixel value of the improved image as the maximum pixel value of the original image. You can adjust it so that it does not exceed the pixel value.
  • the pixel value adjusting unit 1330 adjusts the maximum pixel value of the improved image to be equal to the maximum pixel value of the original image. In bright areas, saturation may occur, so that detail information of an image may disappear.
  • the pixel value adjusting unit 1330 adjusts the pixel values between the preset threshold value and the maximum pixel value of the improved image to increase at a ratio having a slope of the curve so that the detail information does not disappear even in bright areas. .
  • the image quality of the improved image may be almost the same as the image quality of the original image.
  • the pixel value adjusting unit 1330 may, when the maximum pixel value of the first screen area adjacent to each other and the maximum pixel value of the second screen area of the separated screen areas are different from each other, the first screen area and the second screen.
  • the electronic device may further include a fourth adjusting unit which adjusts the maximum pixel value of the pixels located in the boundary area between the areas to be gradientd.
  • the fourth adjustment unit may include the maximum pixel values of pixels located in the boundary area between the first screen area and the second screen area.
  • the gradient may be increased gradually from the second screen area to the first screen area.
  • the pixel value adjusting unit 1330 may remove the image noise by increasing the maximum pixel value of the pixels positioned in the boundary area between the first screen area and the second screen area gradiently.
  • the present invention performs deterioration of image quality by performing a preprocessing process for improving contrast and sharpness of an image, and a postprocessing process for adjusting a maximum pixel value of a divided screen region by dividing the screen. Reduce power while minimizing
  • FIG. 6 to 8 are diagrams illustrating an operation of a digital device according to a power reduction request.
  • FIG. 6 is a diagram illustrating an operation of a controller according to a power reduction request signal of a remote controller
  • FIG. 7 is a selection signal of a target power reduction amount setting window.
  • FIG. 8 is a diagram illustrating an operation of a controller according to a sensing signal of a sensor that senses external brightness.
  • the controller of the digital device 1410 when the user transmits a power reduction request signal through the remote controller 1430 while displaying an image on the screen 1420, the controller of the digital device 1410.
  • the image preprocessing and the postprocessing may be performed to reduce power consumption according to the received power reduction request signal.
  • the controller 1440 may control the light source driver 1460 based on preset information stored in the storage 1450 to perform a preprocessing and a postprocessing of an image.
  • the controller 1440 may perform image processing by separating the received image signal for each of a plurality of frequency bands.
  • the digital device 1510 may display the digital device ( The controller 1550 of 1510 may display the target power reduction amount setting window 1540 on the screen 1520 according to the received power reduction request signal.
  • the target power reduction amount setting window 1540 may include a target power reduction amount setting item and a plurality of selection items for selecting a target power reduction amount.
  • the controller 1550 may reduce power consumption according to the power reduction selection signal.
  • the preprocessing and postprocessing of the image may be performed.
  • the controller 1550 may control the light source driver 1570 based on preset information stored in the storage 1560 to perform a preprocessing process and a postprocessing process of the image.
  • the controller 1550 determines a target power reduction amount according to the received power reduction request signal, and receives the received image signal in a plurality of frequency bands according to the determined target power reduction amount. By separating the images, image processing can be performed.
  • the controller 1550 determines the target power reduction amount according to the received power reduction request signal
  • the controller 1550 when the controller 1550 determines the target power reduction amount according to the received power reduction request signal, the controller 1550 generates and displays a target power reduction amount setting window 1540 on the screen of the display module, and displays the displayed target power reduction amount setting window (
  • the image processing may be performed by separating the received image signal for each of a plurality of frequency bands according to the target power reduction amount set by the user through 1540.
  • the sensor 1630 may sense external brightness.
  • the controller 1640 of the digital device 1610 receives a sensing signal for the external brightness from the sensor 1630, analyzes the sensing signal, and when the external brightness reaches the preset brightness range, power consumption is reduced.
  • the pre-processing and post-processing of the image to reduce can be performed.
  • the controller 1640 may control the light source driver 1660 based on preset information stored in the storage 1650 to perform a preprocessing process and a postprocessing process of the image.
  • the controller 1640 may perform image processing by separating the received image signal for each of a plurality of frequency bands according to the external brightness.
  • 9 and 10 are block diagrams illustrating the frequency separation unit of FIG. 5.
  • the frequency separator 1310 may include a filter unit 1312, a first calculator 1314, and a second calculator 1316.
  • the filter unit 1312 filters the received video signal for each of a plurality of frequency bands and may include a plurality of low pass filters.
  • the filter unit 1312 may include a first low pass filter for filtering a high frequency band of a video signal, a second low pass filter for filtering a high frequency band of a video signal, and a second low pass filter for filtering a low and mid frequency band of a video signal.
  • the filter unit 1312 separates the video signal into four frequency bands including a high frequency band, a medium frequency band, a medium low frequency band, and a low frequency band. can do.
  • the first calculator 1314 may calculate a difference value between the filtered video signal of each frequency band and the received original video signal to obtain a high frequency component corresponding to each frequency band.
  • the second calculator 1316 may calculate a difference value of high frequency components corresponding to adjacent frequency bands to obtain a final frequency signal corresponding to each frequency band.
  • the frequency separator 1310 uses a bandpass filter having a different band to divide the video signal into a plurality of frequency bands, and processes the Fourier transform and the inverse to process the video signal in the frequency domain. Inverse fourier transform may be performed.
  • the frequency separation unit 1310 Low-pass filter in the form of two-dimensional Gaussian filter in spatial domain without conversion to signal in frequency domain
  • the low frequency component of each frequency band of an image may be obtained by using a convolution operation with an image.
  • a high frequency component of each band may be obtained by using a low-pass filter having a different band, and a signal of a specific frequency band may be obtained by using a difference between the high frequency components.
  • the filtered image signal Fn (x, y) of each frequency band may be calculated by Equations 1 and 2 below.
  • K n is determined by the following formula (2) by the condition that the sum of filter coefficients becomes one.
  • the high frequency component R ' n (x, y) corresponding to each frequency band can be calculated by the following equation (3).
  • I (x, y) is a received video signal
  • F n (x, y) is a filtered video signal of each frequency band.
  • Equation 4 the final frequency signal R n (x, y) corresponding to each frequency band may be calculated by Equation 4 below.
  • FIGS. 13 to 15 are block diagrams illustrating the gain adjuster of FIG. 11.
  • the gain controller 1320 may include a gain adjuster 510 and a combiner 520.
  • the gain adjusting unit 510 is a first gain adjusting unit for adjusting the gain of the high frequency band as shown in FIG. 13, a second gain adjusting unit for adjusting the gain of the medium frequency band as shown in FIG. 14, and as shown in FIG. 15. It may include a third gain adjusting unit for adjusting the gain of the low frequency band.
  • the first gain adjusting unit for adjusting the gain of the high frequency band may include a high frequency gain determining unit 511 and a high frequency gain adjusting unit 512.
  • the high frequency gain determiner 511 calculates and normalizes a local variance value of each pixel with respect to the original image of the received video signal, and then normalizes the localized local variant. Depending on the switch value, the gain value can be determined.
  • the high frequency gain determiner 511 calculates and normalizes a detail component value of the original image of the received video signal, and then, according to the normalized detail component value, It is also possible to determine the gain value of the band.
  • the high frequency gain adjusting unit 512 may adjust the gain of the video signal of the high frequency band according to the determined gain value.
  • the high frequency gain adjusting unit 512 increases the gain in the region where the detail component of the original image is weaker than the preset value, and increases the gain in the region where the detail component of the original image is stronger than the preset value. Can be blocked.
  • the high frequency region can affect the sharpness of the image.
  • the first gain adjusting unit for adjusting the gain of the high frequency band increases the sharpness of the image, thereby improving the sharpness of the image.
  • the gain of the high frequency component is determined according to the intensity of the detail, which can be distinguished using local variance in each region of the original image.
  • the part with low variance is a flat part, and the part with high variance has many detail elements, such as a texture and an edge component. Part.
  • a local variance value is calculated at each pixel of the original image, the calculated local variation value is normalized, and according to a normalized variance value, a high frequency band The gain of can be determined.
  • the gain is not increased, but in the area where the detail component is weak, the gain can be increased to increase the sharpness of the texture or the edge component.
  • the gain may not be increased, and an excessive increase in sharpness in a region with strong details may be prevented, thereby preventing an unnatural result of the image.
  • the first gain adjusting unit for adjusting the gain of the high frequency band may determine the detail component of the image by using a Laplacian operator instead of calculating a local variation value.
  • the high frequency gain determiner 511 calculates and normalizes a detail component value of the original image of the received video signal, and then, according to the normalized detail component value, The gain value can be determined.
  • the detail component value L (x, y) may be calculated by Equation 5 below.
  • the gain value G 1 of the high frequency band may be calculated by Equation 6 below.
  • b is a parameter for adjusting the increase amount of the high frequency component
  • m is a threshold value for determining the normalized maximum maximization gain
  • L (x, y) may be a detail component value.
  • FIG. 16 is a graph illustrating a gain value of a high frequency band according to a normalized variation value. As shown in FIG. 16, the gain values of the high frequency band may be obtained by using Equations 5 and 6 described above.
  • the second gain adjusting unit for adjusting the gain of the mid-frequency band may include a mid-frequency gain calculating unit 513 and a mid-frequency gain adjusting unit 514.
  • the medium frequency gain calculating unit 513 separates the medium frequency band into a medium frequency band and a medium frequency band, and divides the gain value of the separated medium frequency band and the gain value of the medium frequency band. Can be calculated.
  • the mid-frequency gain adjusting unit 514 confirms whether the difference between the calculated high-frequency band gain and the low-low frequency band gain is greater than the reference difference value, and confirms that the calculated high-frequency band gain is obtained. If the difference between the gain value of the low and mid frequency band is larger than the reference difference value, the gain value of the medium frequency band or the gain value of the medium frequency band can be adjusted.
  • the second gain adjusting unit for adjusting the gain of the mid-frequency band may adjust the contrast intensity of the image by dividing the mid-frequency band into the mid and low frequencies, and adjusting the gain.
  • the gain value G ' 2 (x, y) of the medium frequency band and the gain value G' 3 (x, y) of the medium / low frequency band are calculated by the following Equations 7, 8, and 9 Can be.
  • NR n (x, y) is a formula of normalizing a video signal of a corresponding frequency band, The value of is 0.1, Is a value normalized by the variance of the filter.
  • T (x, y) is brightness information of the original video.
  • the gain value G 2 (x, y) of the medium frequency band or the gain value G 3 (x, y) of the medium frequency band is It can be adjusted by the following equation (10).
  • the third gain adjusting unit for adjusting the gain of the low frequency band may include a first compensating unit 515, a second compensating unit 516, and a blocking unit 517.
  • the first compensator 515 may compensate by increasing the pixel value of the low frequency band image at a first ratio.
  • the second compensator 516 confirms whether the pixel value increased at the first ratio reaches the preset threshold value, and when it is confirmed that the pixel value increased at the first ratio reaches the preset threshold value, The pixel value can be compensated by increasing the second ratio.
  • the blocking unit 517 confirms whether the pixel value increased at the second ratio reaches the maximum pixel value of the original image, and as a result of the check, the pixel value increased at the second ratio reaches the maximum pixel value of the original image. In this case, an increase in the pixel value can be blocked.
  • the first ratio may be a ratio that increases with the slope of the straight line
  • the second ratio may be a ratio that increases with the slope of the curve
  • the low frequency video has brightness information of the entire video.
  • increasing the pixel value in the low frequency region may increase the overall brightness of the image, which is called pixel compensation.
  • the pixel value of the image in order not to be larger than the maximum pixel value of the original image, the pixel value is constantly increased below a certain threshold, and above the threshold value, has a gentle slope. According to the curve slope, the pixel value is increased, and the increased pixel value does not exceed the maximum pixel value of the original image.
  • Such a method of applying pixel compensation is as follows.
  • p is the size of the pixel value to be compensated and is determined in proportion to the limited power of the image.
  • the threshold value may be determined as shown in Equation 11 when the maximum value is 255 as an 8-bit image signal.
  • the preset threshold Th may be calculated by Equation 11 below.
  • p is the size of the pixel value to be compensated for
  • Th is an 8-bit image signal
  • the maximum value is 255.
  • the pixel value of the low frequency band image increased at the first and second ratios may be calculated by Equation 12 below.
  • the gain adjusting unit 510 may synthesize the image signals of each frequency band whose gain is adjusted by the synthesizer 520 to display an enhanced image on the screen.
  • the synthesized value I ′ (x, y) of the image signals of each frequency band in which the gain is adjusted may be calculated by Equation 13 below.
  • R n (x, y) and G n (x, y) is a video signal and the gain for each frequency band
  • R 4 .P (x, y ) is the low-frequency signal R 4 (x, y)
  • the pixel is the result of the compensation.
  • FIG. 17 is a block diagram illustrating a pixel value adjusting unit of FIG. 5
  • FIG. 18 is a view illustrating a screen area separated by the pixel value adjusting unit
  • FIG. 19 is a graph showing an increase rate of pixel values of the separated screen area.
  • 20 is a graph showing an increase rate of pixel values of pixels positioned in a boundary region between separated screen regions.
  • the pixel value adjusting unit 1330 may include first, second, and third adjusting units 1332, 1333, 1334, and 1335.
  • the pixel value adjusting unit 1330 may further include a fourth adjusting unit 1335.
  • the first adjustment unit 1332 may adjust the maximum pixel value of the improved image larger than the reference value as the reference value.
  • the reference value may be a maximum pixel value of the original image.
  • the second adjustment unit 1333 may adjust the pixel values below the predetermined threshold value among the pixel values of the improved image to increase at a first ratio.
  • the third adjusting unit 1334 may adjust pixel values larger than a predetermined threshold value among the pixel values of the improved image to increase at a second ratio.
  • the first ratio may be a ratio that increases with the slope of the straight line
  • the second ratio may be a ratio that increases with the slope of the curve
  • the fourth adjustment unit 1335 may include the first screen area and the second screen.
  • the maximum pixel value of the pixels located in the boundary region between the regions can be adjusted to be gradient.
  • the fourth adjustment unit 1335 may determine the pixels of the pixels located in the boundary area between the first screen area and the second screen area.
  • the maximum pixel value may be gradually increased from the second screen area to the first screen area.
  • the light source module 1710 includes a plurality of light sources. ), It may be determined as a screen area that one light source is in charge of.
  • the pixel value adjusting unit may determine each divided screen area as a screen area in which 16 pixel lines are arranged.
  • the pixel value adjusting unit includes a maximum pixel value of an enhanced image and an original image in a screen area in which 16 pixel lines corresponding to each light source are arranged.
  • the maximum pixel value of the original image is needed.
  • the maximum pixel value of the original image in the screen area of one light source The maximum pixel value of the enhanced image improved by the preprocessing unit Speaking of In this case, since the maximum pixel value of the improved image is not larger than the pixel value of the original image, it is not necessary to adjust the maximum pixel value of the improved image.
  • the maximum pixel value of the improved image is larger than the maximum pixel value of the original image, the maximum pixel value of the improved image is adjusted to the maximum pixel value of the original image.
  • the pixel values of the enhanced image that are larger than the maximum pixel value of the original image are all replaced by the same as the maximum pixel value of the original image, so that in the bright areas of the image, the maximum pixel value is saturated, so that the detail information disappears. do.
  • the pixel value is increased so as to have a slope of a gentle curve and not exceeding the maximum pixel value of the original image, so that the loss of detail information in the bright part of the image is prevented. It can be minimized.
  • the adjustment of the pixel value of the improved image may be calculated by Equation 14, Equation 15, Equation 16, Equation 17 and Equation 18 below.
  • MAX org is the maximum pixel value of the original image
  • MAX enhanced is the maximum pixel value of the improved image
  • Th is a predetermined threshold value.
  • the maximum pixel value of the pixels positioned in the boundary area 1726 between the first screen area 1722 and the second screen area 1724 may be adjusted to be gradient.
  • the pixel adjusting unit may determine that the maximum pixel value of the first screen area 1722 is greater than the maximum pixel value of the second screen area 1724 between the first screen area 1722 and the second screen area 1724.
  • the maximum pixel value of the pixels positioned in the boundary area 1726 of the gradient may increase gradually from the second screen area 1724 to the first screen area 1722.
  • the maximum pixel value of the original image And the maximum pixel value of the improved image
  • the maximum pixel value of the first screen area adjacent to each other among the separated screen areas is calculated.
  • Maximum pixel values for the second and second screen areas If they are different from each other, image noise may appear in the boundary region between them, such as line artifacts.
  • the maximum pixel value of the first screen area neighboring each other Maximum pixel values for the second and second screen areas may be adjusted to be gradientd.
  • the threshold value Th also affects the change in the pixel value
  • the threshold value of the pixels located in the boundary area between the first screen area 1722 and the second screen area 1724 can be gradientd. have.
  • 21 to 26 are flowcharts illustrating a control method of a digital device according to the present invention.
  • the controller of the digital device may receive an image signal (S110) and may separate the received image signal into a plurality of frequency bands (S120).
  • the controller may perform an operation of separating the received image signal for each of a plurality of frequency bands.
  • the controller may receive a power reduction request signal from the outside when the received image signal is divided into a plurality of frequency bands, determine a target power reduction amount according to the received power reduction request signal, and then determine the determined target power reduction amount. Accordingly, the received video signal may be separated for each of a plurality of frequency bands.
  • the controller when receiving a power reduction request signal from the outside (S122), the controller generates and displays a target power reduction amount setting window on the screen of the display module (S124), and displays the target power reduction amount through the displayed target power reduction amount setting window.
  • the target power reduction amount is determined (S128), and according to the determined target power reduction amount, the received video signal may be separated into a plurality of frequency bands (S129).
  • the controller filters the received video signal by a plurality of frequency bands (S22), calculates a difference value between the filtered video signal of each frequency band and the received video signal, and calculates a high frequency component corresponding to each frequency band. After calculating (S24), a difference value of high frequency components corresponding to adjacent frequency bands may be calculated to obtain a final frequency signal corresponding to each frequency band (S26).
  • the filtered image signal Fn (x, y) of each frequency band may be calculated by Equations 1 and 2 below.
  • K n is determined by the condition that the sum of the filter coefficients is 1, according to Equation 2 below.
  • the high frequency component R ' n (x, y) corresponding to each frequency band can be calculated by the following equation (3).
  • Equation 4 the final frequency signal R n (x, y) corresponding to each frequency band may be calculated by Equation 4 below.
  • the controller may divide the plurality of frequency bands into four frequency bands including a high frequency band, a medium frequency band, a medium and low frequency band, and a low frequency band when the received video signal is divided into a plurality of frequency bands. .
  • the controller adjusts a gain for the video signal of each separated frequency band (S130).
  • the controller verifies whether the separated frequency band is a high frequency band (S31).
  • a local variance value of each pixel of the original image is calculated and normalized (S32), and then a gain value is determined according to the normalized local variation value (S33), and according to the determined gain value,
  • the gain of the video signal of the band can be adjusted (S34).
  • the controller may increase the gain in an area where the detail component of the original image is weaker than the preset value, and block the increase in the gain in an area where the detail component of the original image is stronger than the preset value.
  • the controller checks whether the separated frequency band is a high frequency band (S61).
  • the detail component value of the original image of the signal is calculated and normalized (S62), and the gain value of the high frequency band is determined according to the normalized detail component value (S63), and then the video signal of the high frequency band is determined according to the determined gain value.
  • Gain can be adjusted (S64).
  • the detail component value L (x, y) may be calculated by Equation 5 below.
  • the gain value G 1 of the high frequency band may be calculated by Equation 6 below.
  • b is a parameter for adjusting the increase amount of the high frequency component
  • m is a threshold value for determining a normalized maximum maximization gain
  • L (x, y) is a detail component value
  • the controller checks whether the high frequency band is not the high frequency band (S41). If the check result is the medium frequency band, the controller divides the middle frequency band into a medium frequency band and a low frequency band (S42).
  • the controller calculates the gain value of the separated high frequency band and the gain value of the medium and low frequency bands (S43), and the difference between the calculated gain value of the high frequency band and the gain value of the medium and low frequency bands is greater than the reference difference value. After checking whether it is large (S44), if the difference between the calculated gain value of the high frequency band and the gain value of the medium low frequency band is larger than the reference difference value, the gain value of the medium frequency band or the gain value of the medium low frequency band (S45)
  • the gain value G ' 2 (x, y) of the medium frequency band and the gain value G' 3 (x, y) of the medium / low frequency band are calculated by the following Equation 7, Equation 8 and Equation 9 below. Can be.
  • NR n (x, y) is a formula of normalizing a video signal of a corresponding frequency band, The value of is 0.1, Is the value normalized by the variance of the filter)
  • the gain value G 2 (x, y) of the medium frequency band or the gain value G 3 (x, y) of the medium / low frequency band may be adjusted by the following equation (10).
  • the controller checks whether the low frequency band is found in the low frequency band (S51). If the low frequency band is determined in the low frequency band, the controller increases the pixel value of the low frequency band image at a first ratio to compensate it. )
  • the controller verifies whether the pixel value increased at the first rate reaches the preset threshold value (S53). When the pixel value increased at the first rate reaches the preset threshold value, the controller determines the pixel value. After compensating by increasing the second ratio (S54), it is checked whether the pixel value increased by the second ratio reaches the maximum pixel value of the original image (S55), and as a result, the pixel value increased by the second ratio is the original When the maximum pixel value of the image is reached, the increase of the pixel value is blocked (S56).
  • the first ratio may be a ratio that increases with the slope of the straight line
  • the second ratio may be a ratio that increases with the slope of the curve
  • the predetermined threshold Th may be calculated by Equation 11 below.
  • Th is an 8-bit video signal with a maximum value of 255)
  • the pixel value for the image of the low frequency band increased by the first and second ratios may be calculated by Equation 12 below.
  • the controller synthesizes the image signals of each frequency band whose gain is adjusted, and displays an enhanced image on the screen (S140).
  • the synthesized value I '(x, y) of the image signals of each frequency band whose gain is adjusted may be calculated by Equation 13 below.
  • R n (x, y) and G n (x, y) are video signals and gains corresponding to respective frequency bands
  • R 4 .P (x, y) is R 4 (x, which is a low frequency signal. , y) pixels are compensated results)
  • the controller divides the screen on which the improved image is displayed into a plurality of areas (S150).
  • each of the separated screen areas may be a screen area in which one light source is in a light source module including a plurality of light sources.
  • Each divided screen area may be a screen area in which about 16 pixel lines are arranged.
  • the controller checks whether the maximum pixel value of the improved image displayed in the separated screen area is larger than the reference value (S160).
  • the reference value may be a maximum pixel value of the original image.
  • the controller may adjust the pixel value of the improved image displayed on the separated screen area (S170).
  • the controller adjusts the maximum pixel value of the improved image larger than the reference value to a reference value (S71), and among the pixel values of the improved image,
  • the pixel values below the preset threshold may be adjusted to increase in the first ratio (S72), and among the pixel values of the improved image, pixel values larger than the preset threshold may be adjusted to increase in the second ratio. (S73)
  • the first ratio may be a ratio that increases with the slope of the straight line
  • the second ratio may be a ratio that increases with the slope of the curve
  • MAX org is the maximum pixel value of the original image
  • MAX enhanced is the maximum pixel value of the enhanced image
  • Th is a preset threshold
  • the controller may select between the first screen area and the second screen area.
  • the maximum pixel values of the pixels positioned in the boundary region of the gradient may be adjusted to be gradient (S75).
  • the maximum pixel value of the first screen area is greater than the maximum pixel value of the second screen area
  • the maximum pixel value of the pixels located in the boundary area between the first screen area and the second screen area may be defined as:
  • the gradient may increase gradually from the second screen area to the first screen area.
  • the present invention performs deterioration of image quality by performing a preprocessing process for improving contrast and sharpness of an image, and a postprocessing process for adjusting a maximum pixel value of a divided screen region by dividing the screen. Reduce power while minimizing
  • the present invention may display a target power reduction amount setting window, and according to the target power reduction amount set by the user, power may be reduced while minimizing deterioration of image quality, thereby providing convenience to the user.
  • the digital device and the control method disclosed herein are not limited to the configuration and method of the above-described embodiments, the embodiments may be selectively or partially all of the embodiments so that various modifications can be made It may be configured in combination.
  • the method of operating a digital device disclosed in the present specification may be embodied as processor readable codes on a processor readable recording medium included in the digital device.
  • the processor-readable recording medium includes all kinds of recording devices for storing data that can be read by the processor. Examples of processor-readable recording media include read only memory (ROM), random access memory (RAM), CD-ROM, magnetic tape, floppy disk, optical data storage devices, and the like. It also includes the implementation in the form of a wave (carrier-wave).
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention relates to a digital device capable of improving image quality at low power and a control method thereof. Therefore, the present invention has industrial applicability.

Abstract

본 명세서에서는 디지털 디바이스 및 그 제어 방법이 개시된다. 여기서, 본 발명에 따른 디지털 디바이스 및 그 제어 방법은, 영상 신호를 수신하는 단계와, 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 단계와, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하는 단계와, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 화면에 표시하는 단계와, 개선된 영상이 표시되는 화면을 다수 영역으로 분리하는 단계와, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인하는 단계와, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 분리된 화면 영역에 표시되는 개선된 영상의 픽셀값을 조정하는 단계를 포함하여 이루어질 수 있다.

Description

디지털 디바이스 및 그 제어 방법
본 발명은 디지털 디바이스에 관한 것으로, 보다 상세하게는 저전력상에서 화질을 향상시킬 수 있는 디지털 디바이스 및 그의 제어 방법에 관한 것이다.
최근, 모니터나 TV 등의 디지털 디바이스는, 대형화되어 가는 추세이며, 보급이 많이 되고 있다. 이러한 디지털 디바이스는, 대형화에 따라, 전력의 소비도 증가하고 있다. 따라서, 전력의 소모를 줄여 에너지를 절감하면서도 화질에는 영향을 주지 않는 디지털 디바이스의 개발이 요구되고 있다.
일반적으로, LCD 장치와 같은, 디지털 디바이스에서는, 백라이트 부분이 가장 많은 전력을 소비하는 부분으로서, 전체 소비전력의 약 절반을 차지하고 있다. 디지털 디바이스의 전력은, 백라이트로 사용하는 광원의 밝기에 비례하고, 광원의 밝기는, 출력하고자 하는 영상의 픽셀 값에 종속적이다. 또한, 광원의 밝기는, 해당 광원이 담당하는 영역의 최대 픽셀 값에 따라 결정된다. 따라서, 디지털 디바이스의 소비전력을 줄이기 위해서는, 영상의 최대 밝기를 낮추어, 광원의 밝기를 낮추어야 한다.
디지털 디바이스의 전력을 제한하는 기존 기법으로는, 먼저 선형적으로 영상의 픽셀 값을 줄이는 방법이 있었다. 하지만, 이 방법의 경우, 영상의 다이내믹 범위(dynamic range)가 줄어들면서, 영상의 콘트라스트(constrast)와 샤프니스(sharpness) 등이 저하되어, 전반적으로 화질이 열화되고, 영상의 전반적인 밝기 또한 떨어지게 되는 문제가 있었다. 또한, 다른 방법으로서, 히스토그램 평활화(histogram equalization) 기법을 이용하여, 전력을 제한하는 방법이 있었다. 하지만, 이 방법의 경우, 영상의 밝기와 콘트라스트는, 보상이 가능하지만, 지역적으로 영상의 최대 픽셀 값을 이용하여 광원의 밝기를 조절하는 로컬 디밍(local dimming) 방식에서는, 영역의 경계에서, 밝기의 차이가 나타나서, 아티팩트(artifact)가 발생하거나, 밝은 부분의 디테일(detail)이 사라지는 문제들이 나타나고 있었다.
따라서, 향후, 영상의 밝기를 줄여 다이내믹 범위가 줄었을 때, 발생하는 화질의 저화를 최소화하고, 전력을 감소시킬 수 있는 로컬 디밍 기법을 수행할 수 있는 디지털 디바이스의 개발이 필요할 것이다.
본 발명의 일실시예가 이루고자 하는 기술적 과제는, 영상의 콘트라스트(contrast)와 샤프니스(sharpness)를 향상시키는 전처리 과정과, 화면을 분할하여 분리된 화면 영역의 최대 픽셀값을 조정하는 후처리 과정을 수행함으로써, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있는 디지털 디바이스 및 그의 제어 방법을 제공하고자 한다.
또한, 본 발명은, 목표 전력 감소량 설정 창을 표시하여, 사용자가 설정한 목표 전력 감소량에 따라, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있어, 사용자에게 편의성을 제공할 수 있는 디지털 디바이스 및 그의 제어 방법을 제공하고자 한다.
본 발명에서 이루고자 하는 기술적 과제는 상기 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일실시예에 의한 디지털 디바이스의 제어 방법은, 영상 신호를 수신하는 단계와, 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 단계와, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하는 단계와, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 화면에 표시하는 단계와, 개선된 영상이 표시되는 화면을 다수 영역으로 분리하는 단계와, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인하는 단계와, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 분리된 화면 영역에 표시되는 개선된 영상의 픽셀값을 조정하는 단계를 포함하여 이루어질 수 있다.
또한, 본 발명의 일실시예에 의한 디지털 디바이스는, 영상 신호를 수신하는 커뮤니케이션 모듈과, 영상 신호를 처리하여 개선된 영상(enhanced image)을 화면에 표시하는 디스플레이 모듈과, 디지털 디바이스의 작동을 제어하는 컨트롤러를 포함하고, 컨트롤러는, 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 주파수 분리부와, 주파수 분리부로부터, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하고, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 디스플레이 모듈의 화면에 표시하도록, 디스플레이 모듈을 제어하는 게인 제어부와, 개선된 영상이 표시되는 디스플레이 모듈의 화면을 다수 영역으로 분리한 다음, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인하고, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 분리된 화면 영역에 표시되는 개선된 영상의 픽셀값을 조정하는 픽셀값 조정부를 포함할 수 있다.
본 발명에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일실시예에 의하면, 영상의 콘트라스트(contrast)와 샤프니스(sharpness)를 향상시키는 전처리 과정과, 화면을 분할하여 분리된 화면 영역의 최대 픽셀값을 조정하는 후처리 과정을 수행함으로써, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있는 효과가 있다.
또한, 본 발명은, 목표 전력 감소량 설정 창을 표시하여, 사용자가 설정한 목표 전력 감소량에 따라, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있어, 사용자에게 편의성을 제공할 수 있는 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 디지털 디바이스를 포함한 서비스 시스템을 개략적으로 설명하기 위해 도시한 도면
도 2는 본 발명의 일 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도
도 3은 본 발명의 다른 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도
도 4는 본 발명에 따른 디지털 디바이스를 보여주는 블럭 구성도
도 5는 도 4의 컨트롤러를 보여주는 블럭 구성도
도 6 내지 도 8은 전력 감소 요청에 따른 디지털 디바이스의 동작을 보여주는 도면
도 9 및 도 10은 도 5의 주파수 분리부를 보여주는 블럭 구성도
도 11 및 도 12는 도 5의 게인 제어부를 보여주는 블럭 구성도
도 13 내지 도 15는 도 11의 게인 조정부를 보여주는 블럭 구성도
도 16은 정규화된 베리언스값에 따른 고주파수 대역의 게인값을 보여주는 그래프
도 17은 도 5의 픽셀값 조정부를 보여주는 블럭 구성도
도 18은 픽셀값 조정부에 의해 분리되는 화면 영역을 보여주는 도면
도 19는 분리된 화면 영역의 픽셀값의 증가 비율을 보여주는 그래프
도 20은 분리된 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 픽셀값 증가 비율을 보여주는 그래프
도 21 내지 도 26은 본 발명에 따른 디지털 디바이스의 제어 방법을 설명하기 위한 흐름도
이하에서는 도면을 참조하여 본 발명에 따른 디지털 디바이스 및 그의 3차원 영상 처리 방법의 다양한 실시예(들)을 상세하게 설명한다.
본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈", "부" 등은 단지 명세서 작성의 용이함을 고려하여 부여되는 것으로서, 필요에 따라 양자는 혼용될 수도 있다. 또한, "제1-", "제2-" 등과 같이 서수로 기술한 경우에도 그것이 순서를 의미하기보다는 해당 용어의 설명 편의를 위한 것일 뿐, 그러한 용어나 서수에 한정되는 것은 아니다.
또한, 본 명세서에서 사용되는 용어도, 본 발명의 기술 사상에 따른 기능을 고려하여 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 특정한 경우는 출원인이 임의로 선정한 용어도 있으나, 이에 대해서는 관련 설명 부분에서 그 의미를 기술할 것이다. 따라서, 해당 용어를 단지 그 명칭이 아니라 그가 가진 실질적인 의미와 본 명세서 전반에 걸쳐 기술된 내용을 토대로 해석되어야 함을 밝혀 둔다.
한편, 본 명세서 또는/및 도면에 기술된 내용은, 본 발명에 따른 바람직한 일 실시 예로서 그에 한정되지 않으며, 그 권리범위는 특허청구범위를 통해 결정되어야 한다.
이하, 본 명세서에서 기술되는 디지털 디바이스(digital device)라 함은, 예를 들어, 데이터(data), 컨텐트(content), 서비스(service), 애플리케이션(application) 등을 송신, 수신, 처리 및 출력 중 적어도 하나 이상을 수행하는 모든 디바이스를 포함한다. 상기 디지털 디바이스는, 유/무선 네트워크(wire/wireless network)를 통하여 다른 디지털 디바이스, 외부 서버(external server) 등과 페어링 또는 연결(pairing or connecting)(이하 '페어링') 가능하며, 그를 통해 소정 데이터를 송/수신할 수 있다. 이때, 필요에 따라, 상기 데이터는 그 송/수신 전에 적절히 변환(converting)될 수 있다. 상기 디지털 디바이스에는 예를 들어, 네트워크 TV(Network TV), HBBTV(Hybrid Broadcast Broadband TV), 스마트 TV(Smart TV), IPTV(Internet Protocol TV), PC(Personal Computer) 등과 같은 고정형 디바이스(standing device)와, PDA(Personal Digital Assistant), 스마트 폰(Smart Phone), 태블릿 PC(Tablet PC), 노트북(Notebook) 등과 같은 모바일 디바이스(mobile device or handheld device)가 모두 포함될 수 있다. 본 명세서에서는 본 발명의 이해를 돕고 출원인의 설명의 편의상 후술하는 도 1에서는 디지털 TV(Digital TV)를 그리고, 도 2에서는 모바일 디바이스를 디지털 디바이스의 일 실시 예로 도시하고 설명한다. 또한, 본 명세서에서 기술되는 디지털 디바이스는, 패널(panel)만을 가진 구성일 수도 있고, 셋톱박스(STB: Set-Top Box) 등과 같은 구성, 디바이스, 시스템 등과 하나의 세트(SET) 구성일 수도 있다.
한편, 본 명세서에서 기술되는 유/무선 네트워크라 함은, 디지털 디바이스들 또는 디지털 디바이스와 외부 서버 사이에서 페어링 또는/및 데이터 송수신을 위해 다양한 통신 규격 내지 프로토콜을 지원하는 통신 네트워크를 통칭한다. 이러한 유/무선 네트워크는, 규격에 의해 현재 또는 향후 지원될 통신 네트워크를 모두 포함하며, 그를 위한 하나 또는 그 이상의 통신 프로토콜들을 모두 지원 가능하다. 이러한 유/무선 네트워크에는 예컨대, USB(Universal Serial Bus), CVBS(Composite Video Banking Sync), 컴포넌트(Component), S-비디오(아날로그), DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface), RGB, D-SUB와 같은 유선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜과, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA: infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE/LTE-A(Long Term Evolution/LTE-Advanced), Wi-Fi 다이렉트(direct)와 같은 무선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜에 의하여 형성될 수 있다.
그 밖에, 본 명세서에서 단지 디지털 디바이스로 명명하는 경우, 그 의미는 문맥에 따라 고정형 디바이스 또는 모바일 디바이스를 의미할 수도 있고 특별히 언급하지 않는다면 양자를 모두 포함하는 의미로 사용될 수 있다.
한편, 디지털 디바이스는 예컨대, 방송 수신 기능, 컴퓨터 기능 내지 지원, 적어도 하나의 외부 입력 등을 지원하는 지능형 디바이스로서, 상술한 유/무선 네트워크를 통해 이메일(e-mail), 웹 브라우징(web browsing), 뱅킹(banking), 게임(game), 애플리케이션(application) 등을 지원할 수 있다. 더불어, 상기 디지털 디바이스는, 수기 방식의 입력 디바이스, 터치-스크린(touch-screen), 공간 리모콘 등 적어도 하나의 입력 또는 제어 수단(이하 '입력 수단')을 지원하기 위한 인터페이스(interface)를 구비할 수 있다.
그 밖에, 디지털 디바이스는, 표준화된 범용 OS(Operating System)를 이용할 수 있으나 특히, 본 명세에서 기술되는 디지털 디바이스는, Web OS를 이용하는 것을 일 실시 예로 한다. 따라서, 디지털 디바이스는 범용의 OS 커널(OS kernel) 또는 리눅스 커널(Linux kernel) 상에 다양한 서비스나 애플리케이션을 추가(adding), 삭제(deleting), 수정(amending), 업데이트(updating) 등을 처리가 가능하며, 그를 통해 더욱 사용자 친화적인(user-friendly) 환경을 구성하여 제공할 수 있다.
한편, 상술한 디지털 디바이스는 외부 입력을 수신하여 처리할 수 있는데 이때, 상기 외부 입력은, 외부 입력 디바이스 즉, 상술한 디지털 디바이스와 유/무선 네트워크를 통해 연결되어 데이터를 송/수신하여 처리 가능한 모든 입력 수단 내지 디지털 디바이스를 포함한다. 예를 들어, 상기 외부 입력으로 HDMI(High-Definition Multimedia Interface), 플레이스테이션(playstation)이나 엑스-박스(X-Box) 등과 같은 게임 디바이스(game device), 스마트 폰, 태블릿 PC, 포켓 포토(pocket photo) 등과 같은 프린터기(printing device), 스마트 TV, 블루-레이(Blu-ray device) 디바이스 등과 같은 디지털 디바이스들을 모두 포함한다.
그 밖에, 본 명세서에서 기술되는 서버라 함은, 상술한 디지털 디바이스 즉, 클라이언트(client)로 데이터를 공급 또는 그로부터 데이터를 수신하는 디지털 디바이스 혹은 시스템을 의미하며, 프로세서(processor)로 불리기도 한다. 상기 서버로 예컨대, 웹 페이지(web page), 웹 컨텐트 또는 웹 서비스(web content or web service)를 제공하는 포털 서버(portal server), 광고 데이터(advertising data)를 제공하는 광고 서버(advertising server), 컨텐트를 제공하는 컨텐트 서버(content server), SNS(Social Network Service)를 제공하는 SNS 서버, 제조업체(manufacturer)에서 제공하는 서비스 서버(service server), VoD(Video on Demand)나 스트리밍(streaminng) 서비스 제공을 위한 MVPD(Multichannel Video Programming Distributor), 유료 서비스(pay service) 등을 제공하는 서비스 서버 등이 포함될 수 있다.
또한, 이하 본 명세서에서 설명의 편의를 위하여 애플리케이션으로만 기술한 경우에도 그 문맥 등을 기초하여 그 의미는 애플리케이션뿐만 아니라 서비스까지 포함하는 의미일 수 있다.
이하 첨부된 도면을 참조하면 본 발명을 더욱 상세하게 설명하면, 다음과 같다.
도 1은 본 발명의 일 실시 예에 따른 디지털 디바이스를 포함한 서비스 시스템(service system)을 개략적으로 설명하기 위해 도시한 도면이다.
도 1을 참조하면, 서비스 시스템은, 컨텐트 제공자(content provider)(10), 서비스 제공자(service provider)(20), 네트워크 제공자(network provider)(30) 및 HNED(Home Network End User)(Customer)(40)를 포함한다. 여기서, HNED(40)는 예를 들어, 클라이언트(100) 즉, 본 발명에 따른 디지털 디바이스를 포함한다.
컨텐트 제공자(10)는, 각종 컨텐트를 제작하여 제공한다. 도 1에 도시된 바와 같이, 이러한 컨텐트 제공자(10)로 지상파 방송 송출자, 케이블 방송 사업자(cable SO (System Operator)) 또는 MSO(Multiple SO), 위성 방송 송출자, 다양한 인터넷 방송 송출자, 개인 컨텐트 제공자들 등을 예시할 수 있다. 한편, 컨텐트 제공자(10)는, 방송 컨텐트 외에도 다양한 서비스나 애플리케이션 등을 제작하여 제공할 수 있다.
서비스 제공자(20)는, 컨텐트 제공자(10)에 의해 제작된 컨텐트를 서비스 패키지화(service packetizing)하여 HNED(40)로 제공한다. 예컨대, 서비스 제공자(20)는, 제1 지상파 방송, 제2 지상파 방송, 케이블 MSO, 위성 방송, 다양한 인터넷 방송, 애플리케이션 등에 의해 제작된 컨텐트들 중 적어도 하나 이상을 서비스를 위해 패키지화하고, 이를 HNED(40)에게 제공한다.
서비스 제공자(20)는, 유니-캐스트(uni-cast) 또는 멀티-캐스트(multi-cast) 방식으로 클라이언트(100)에 서비스를 제공한다. 한편, 서비스 제공자(20)는 데이터를 미리 등록된 다수의 클라이언트(100)로 한꺼번에 전송할 수 있는데, 이를 위해 IGMP(Internet Group Management Protocol) 프로토콜 등을 이용할 수 있다.
상술한 컨텐트 제공자(10)와 서비스 제공자(20)는, 동일한 개체(entity)일 수 있다. 예를 들어, 컨텐트 제공자(10)가 제작한 컨텐트를 서비스 패키지화하여 HNED(40)로 제공함으로써 서비스 제공자(20)의 기능도 함께 수행하거나 그 반대일 수도 있다.
네트워크 제공자(30)는, 컨텐트 제공자(10) 또는/및 서비스 제공자(20)와 클라이언트(100) 사이의 데이터 교환을 위한 네트워크 망을 제공한다.
클라이언트(100)는, HNED(40)에 속한 소비자로서, 네트워크 제공자(30)를 통해 예컨대, 홈 네트워크(home network)를 구축하여 데이터를 수신하며, VoD, 스트리밍 등 다양한 서비스나 애플리케이션 등에 관한 데이터를 송/수신할 수도 있다.
한편, 서비스 시스템 내 컨텐트 제공자(10) 또는/및 서비스 제공자(20)는 전송되는 컨텐트의 보호를 위해 제한 수신(conditional access) 또는 컨텐트 보호(content protection) 수단을 이용할 수 있다. 따라서, 클라이언트(100)는 상기 제한 수신이나 컨텐트 보호에 대응하여 케이블카드(CableCARD)(또는 POD: Point of Deployment), DCAS(Downloadable CAS) 등과 같은 처리 수단을 이용할 수 있다.
그 밖에, 클라이언트(100)도 네트워크를 통해, 양방향 서비스를 이용할 수 있다. 따라서, 클라이언트(100)가 오히려 컨텐트 제공자의 역할 내지 기능을 수행할 수도 있으며, 서비스 제공자(20)는 이를 수신하여 다시 다른 클라이언트 등으로 전송할 수도 있다.
도 1에서 컨텐트 제공자(10) 또는/및 서비스 제공자(20)는 본 명세서에서 후술하는 서비스를 제공하는 서버일 수 있다. 이 경우, 상기 서버는 필요에 따라 네트워크 제공자(30)도 소유 내지 포함하는 의미일 수 있다. 이하 특별히 언급하지 않더라도 서비스 또는 서비스 데이터는, 전술한 외부로부터 수신되는 서비스 내지 애플리케이션뿐만 아니라 내부 서비스 내지 애플리케이션을 포함하며, 이러한 서비스 내지 애플리케이션은 Web OS 기반의 클라이언트(100)를 위한 서비스 내지 애플리케이션 데이터를 의미할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도이다.
이하 본 명세서에서 기술되는 디지털 디바이스는 전술한 도 1의 클라이언트(100)에 해당한다.
디지털 디바이스(200)는, 네트워크 인터페이스부(network interface)(201), TCP/IP 매니저(TCP/IP manager)(202), 서비스 전달 매니저(service delivery manager)(203), SI 디코더(204), 역다중화부(demux or demultiplexer)(205), 오디오 디코더(audio decoder)(206), 비디오 디코더(video decoder)(207), 디스플레이부(display A/V and OSD module)(208), 서비스 제어 매니저(service control manager)(209), 서비스 디스커버리 매니저(service discovery manager)(210), SI&메타데이터 데이터베이스(SI&metadata DB)(211), 메타데이터 매니저(metadata manager)(212), 서비스 매니저(213), UI 매니저(214) 등을 포함하여 구성된다.
네트워크 인터페이스부(201)는, 액세스하는 네트워크 망을 통하여 IP 패킷(들)(Internet Protocol (IP) packet(s)) 또는 IP 데이터그램(들)(IP datagram(s))(이하 IP 패킷(들)이라 한다)을 송/수신한다. 일 예로, 네트워크 인터페이스부(201)는 네트워크 망을 통해 도 1의 서비스 제공자(20)로부터 서비스, 애플리케이션, 컨텐트 등을 수신할 수 있다.
TCP/IP 매니저(202)는, 디지털 디바이스(200)로 수신되는 IP 패킷들과 디지털 디바이스(200)가 전송하는 IP 패킷들에 대하여 즉, 소스(source)와 목적지(destination) 사이의 패킷 전달(packet delivery)에 관여한다. 상기 TCP/IP 매니저(202)는 수신된 패킷(들)을 적절한 프로토콜에 대응하도록 분류하고, 서비스 전달 매니저(205), 서비스 디스커버리 매니저(210), 서비스 제어 매니저(209), 메타데이터 매니저(212) 등으로 상기 분류된 패킷(들)을 출력한다.
서비스 전달 매니저(203)는, 수신되는 서비스 데이터의 제어를 담당한다. 예를 들어, 서비스 전달 매니저(203)는 실시간 스트리밍(real-time streaming) 데이터를 제어하는 경우에는 RTP/RTCP를 사용할 수 있다. 상기 실시간 스트리밍 데이터를 RTP를 사용하여 전송하는 경우, 서비스 전달 매니저(203)는 상기 수신된 데이터 패킷을 RTP에 따라 파싱(parsing)하여 역다중화부(205)로 전송하거나 서비스 매니저(213)의 제어에 따라 SI&메타데이터 데이터베이스(211)에 저장한다. 그리고, 서비스 전달 매니저(203)는 RTCP를 이용하여 상기 네트워크 수신 정보를 서비스를 제공하는 서버 측에 피드백(feedback)한다.
역다중화부(205)는, 수신된 패킷을 오디오, 비디오, SI(System Information) 데이터 등으로 역다중화하여 각각 오디오/비디오 디코더(206/207), SI 디코더(204)에 전송한다.
SI 디코더(204)는, 역다중화된 SI 데이터 즉, PSI(Program Specific Information), PSIP(Program and System Information Protocol), DVB-SI(Digital Video Broadcasting-Service Information), DTMB/CMMB(Digital Television Terrestrial Multimedia Broadcasting/Coding Mobile Multimedia Broadcasting) 등의 서비스 정보를 디코딩한다. 또한, SI 디코더(204)는, 디코딩된 서비스 정보들을 SI&메타데이터 데이터베이스(211)에 저장할 수 있다. 저장된 서비스 정보는 예를 들어, 사용자의 요청 등에 의해 해당 구성에 의해 독출되어 이용될 수 있다.
오디오/비디오 디코더(206/207)는, 역다중화된 각 오디오 데이터와 비디오 데이터를 디코딩한다. 이렇게 디코딩된 오디오 데이터 및 비디오 데이터는 디스플레이부(208)를 통하여 사용자에게 제공된다.
애플리케이션 매니저는 예를 들어, UI 매니저(214)와 서비스 매니저(213)를 포함하며 디지털 디바이스(200)의 제어부 기능을 수행할 수 있다. 다시 말해, 애플리케이션 매니저는, 디지털 디바이스(200)의 전반적인 상태를 관리하고 사용자 인터페이스(UI: user interface)를 제공하며, 다른 매니저를 관리할 수 있다.
UI 매니저(214)는, 사용자를 위한 GUI(Graphic User Interface)/UI를 OSD(On Screen Display) 등을 이용하여 제공하며, 사용자로부터 키 입력을 받아 상기 입력에 따른 디바이스 동작을 수행한다. 예를 들어, UI 매니저(214)는 사용자로부터 채널 선택에 관한 키 입력을 받으면 상기 키 입력 신호를 서비스 매니저(213)에 전송한다.
서비스 매니저(213)는, 서비스 전달 매니저(203), 서비스 디스커버리 매니저(210), 서비스 제어 매니저(209), 메타데이터 매니저(212) 등 서비스와 연관된 매니저를 제어한다.
또한, 서비스 매니저(213)는, 채널 맵(channel map)을 생성하고 UI 매니저(214)로부터 수신한 키 입력에 따라 상기 생성된 채널 맵을 이용하여 채널을 선택 등을 제어한다. 상기 서비스 매니저(213)는 SI 디코더(204)로부터 서비스 정보를 전송받아 선택된 채널의 오디오/비디오 PID(Packet Identifier)를 역다중화부(205)에 설정한다. 이렇게 설정되는 PID는 상술한 역다중화 과정에 이용될 수 있다. 따라서, 역다중화부(205)는 상기 PID를 이용하여 오디오 데이터, 비디오 데이터 및 SI 데이터를 필터링(PID or section filtering) 한다.
서비스 디스커버리 매니저(210)는, 서비스를 제공하는 서비스 제공자를 선택하는데 필요한 정보를 제공한다. 상기 서비스 매니저(213)로부터 채널 선택에 관한 신호를 수신하면, 서비스 디스커버리 매니저(210)는 상기 정보를 이용하여 서비스를 찾는다.
서비스 제어 매니저(209)는, 서비스의 선택과 제어를 담당한다. 예를 들어, 서비스 제어 매니저(209)는 사용자가 기존의 방송 방식과 같은 생방송(live broadcasting) 서비스를 선택하는 경우 IGMP 또는 RTSP 등을 사용하고, VOD와 같은 서비스를 선택하는 경우에는 RTSP를 사용하여 서비스의 선택, 제어를 수행한다. 상기 RTSP 프로토콜은 실시간 스트리밍에 대해 트릭 모드(trick mode)를 제공할 수 있다. 또한, 서비스 제어 매니저(209)는 IMS(IP Multimedia Subsystem), SIP(Session Initiation Protocol)를 이용하여 IMS 게이트웨이(250)를 통하는 세션을 초기화하고 관리할 수 있다. 상기 프로토콜들은 일 실시 예이며, 구현 예에 따라 다른 프로토콜을 사용할 수도 있다.
메타데이터 매니저(212)는, 서비스와 연관된 메타데이터를 관리하고 상기 메타데이터를 SI&메타데이터 데이터베이스(211)에 저장한다.
SI&메타데이터 데이터베이스(211)는, SI 디코더(204)가 디코딩한 서비스 정보, 메타데이터 매니저(212)가 관리하는 메타데이터 및 서비스 디스커버리 매니저(210)가 제공하는 서비스 제공자를 선택하는데 필요한 정보를 저장한다. 또한, SI&메타데이터 데이터베이스(211)는 시스템에 대한 세트-업 데이터 등을 저장할 수 있다.
SI&메타데이터 데이터베이스(211)는, 비휘발성 메모리(Non-Volatile RAM: NVRAM) 또는 플래시 메모리(flash memory) 등을 사용하여 구현될 수도 있다.
한편, IMS 게이트웨이(250)는, IMS 기반의 IPTV 서비스에 접근하기 위해 필요한 기능들을 모아 놓은 게이트웨이이다.
도 3은 본 발명의 다른 실시 예에 따른 디지털 디바이스를 설명하기 위해 도시한 구성 블록도이다.
전술한 도 2가 고정 디바이스를 디지털 디바이스의 일 실시 예로 하여 설명하였다면, 도 3은 모바일 디바이스를 디지털 디바이스의 다른 실시 예로 한다.
도 3을 참조하면, 모바일 디바이스(300)는, 무선 통신부(310), A/V(Audio/Video) 입력부(320), 사용자 입력부(330), 센싱부(340), 출력부(350), 메모리(360), 인터페이스부(370), 제어부(380) 및 전원 공급부(390) 등을 포함할 수 있다.
이하 각 구성요소에 대해 상세히 설명하면, 다음과 같다.
무선 통신부(310)는, 모바일 디바이스(300)와 무선 통신 시스템 사이 또는 모바일 디바이스와, 모바일 디바이스가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 또는 그 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(310)는 방송 수신 모듈(311), 이동통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314) 및 위치정보 모듈(315) 등을 포함할 수 있다.
방송 수신 모듈(311)은, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(312)에 의해 수신될 수 있다.
방송 관련 정보는 다양한 형태 예를 들어, EPG(Electronic Program Guide) 또는 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
방송수신 모듈(311)은 예를 들어, ATSC, DVB-T(Digital Video Broadcasting-Terrestrial), DVB-S(Satellite), MediaFLO(Media Forward Link Only), DVB-H(Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 방송수신 모듈(311)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송수신 모듈(311)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는, 메모리(360)에 저장될 수 있다.
이동통신 모듈(312)은, 이동 통신망 상에서 기지국, 외부 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는, 음성 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선인터넷 모듈(313)은, 무선 인터넷 접속을 위한 모듈을 포함하여, 모바일 디바이스(300)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리통신 모듈(314)은, 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, RS-232, RS-485 등이 이용될 수 있다.
위치정보 모듈(315)은, 모바일 디바이스(300)의 위치 정보 획득을 위한 모듈로서, GPS(Global Position System) 모듈을 예로 할 수 있다.
A/V 입력부(320)는, 오디오 또는/및 비디오 신호 입력을 위한 것으로, 이에는 카메라(321)와 마이크(322) 등이 포함될 수 있다. 카메라(321)는, 화상통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(351)에 표시될 수 있다.
카메라(321)에서 처리된 화상 프레임은, 메모리(360)에 저장되거나 무선 통신부(310)를 통하여 외부로 전송될 수 있다. 카메라(321)는, 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(322)는, 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는, 통화 모드인 경우 이동통신 모듈(312)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(322)에는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(330)는, 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(330)는, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠(jog wheel), 조그 스위치(jog switch) 등으로 구성될 수 있다.
센싱부(340)는, 모바일 디바이스(300)의 개폐 상태, 모바일 디바이스(300)의 위치, 사용자 접촉 유무, 모바일 디바이스의 방위, 모바일 디바이스의 가속/감속 등과 같이 모바일 디바이스(300)의 현재 상태를 감지하여 모바일 디바이스(300)의 동작 제어를 위한 센싱 신호를 발생시킨다. 예를 들어, 모바일 디바이스(300)가 이동되거나 기울어진 경우 모바일 디바이스의 위치 내지 기울기 등을 센싱할 수 있다. 또한, 전원 공급부(390)의 전원 공급 여부, 인터페이스부(370)의 외부 디바이스 결합 여부 등도 센싱할 수도 있다. 한편, 센싱부(240)는, NFC(Near Field Communication) 등을 포함한 근접 센서(341)를 포함할 수 있다.
출력부(350)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(351), 음향 출력 모듈(352), 알람부(353), 및 햅틱 모듈(354) 등이 포함될 수 있다.
디스플레이부(351)는, 모바일 디바이스(300)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 모바일 디바이스가 통화 모드인 경우 통화와 관련된 UI 또는 GUI를 표시한다. 모바일 디바이스(300)가 화상 통화 모드 또는 촬영 모드인 경우에는, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(351)는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(351)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(351)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.
모바일 디바이스(300)의 구현 형태에 따라 디스플레이부(351)가 2개 이상 존재할 수 있다. 예를 들어, 모바일 디바이스(300)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(351)와 터치 동작을 감지하는 센서(이하 '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(351)는 출력 디바이스 이외에 입력 디바이스로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(351)의 특정 부위에 가해진 압력 또는 디스플레이부(351)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(380)로 전송한다. 이로써, 제어부(380)는 디스플레이부(351)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
터치스크린에 의해 감싸지는 모바일 디바이스의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(341)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향출력모듈(352)은, 호신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(310)로부터 수신되거나 메모리(360)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(352)은 모바일 디바이스(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(352)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
알람부(353)는, 모바일 디바이스(300)의 이벤트 발생을 알리기 위한 신호를 출력한다. 모바일 디바이스에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(353)는, 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(351)나 음성 출력 모듈(352)을 통해서도 출력될 수 있어서, 그들(351,352)은 알람부(353)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(354)은, 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(354)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(354)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. 햅틱 모듈(354)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉/온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. 햅틱 모듈(354)은, 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(354)은, 모바일 디바이스(300)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(360)는, 제어부(380)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰 북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(360)는 상기 터치스크린 상의 터치 입력 시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(360)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 모바일 디바이스(300)는 인터넷(internet) 상에서 상기 메모리(360)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(370)는, 모바일 디바이스(300)에 연결되는 모든 외부 디바이스와의 통로 역할을 한다. 인터페이스부(370)는 외부 디바이스로부터 데이터를 전송 받거나, 전원을 공급받아 모바일 디바이스(300) 내부의 각 구성 요소에 전달하거나, 모바일 디바이스(300) 내부의 데이터가 외부 디바이스로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 디바이스를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O 포트, 이어폰 포트 등이 인터페이스부(370)에 포함될 수 있다.
식별 모듈은 모바일 디바이스(300)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 디바이스(이하 '식별 디바이스')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 디바이스는 포트를 통하여 단말기(200)와 연결될 수 있다.
인터페이스부(370)는, 모바일 디바이스(300)가 외부 크래들(cradle)과 연결될 때, 상기 크래들로부터의 전원이 상기 모바일 디바이스(300)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 모바일 디바이스로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은, 모바일 디바이스가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(380)는, 통상적으로 모바일 디바이스(300)의 전반적인 동작을 제어한다. 제어부(380)는 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(380)는, 멀티미디어 재생을 위한 멀티미디어 모듈(381)을 구비할 수도 있다. 멀티미디어 모듈(381)은, 제어부(380) 내에 구현될 수도 있고, 제어부(380)와 별도로 구현될 수도 있다. 제어부(380)는, 터치-스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식(pattern recognition) 처리를 행할 수 있다.
전원 공급부(390)는, 제어부(380)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 디바이스로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays, 프로세서, 제어기, 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(380) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드(software code)가 구현될 수 있다. 여기서, 소프트웨어 코드는, 메모리(360)에 저장되고, 제어부(380)에 의해 실행될 수 있다.
도 4는 본 발명에 따른 디지털 디바이스를 보여주는 블럭 구성도이다.
도 4에 도시된 바와 같이, 디지털 디바이스(1000)는, 커뮤니케이션 모듈(1100), 디스플레이 모듈(1200), 컨트롤러(1300)를 포함할 수 있다.
여기서, 커뮤니케이션 모듈(1100)은, 유선 또는 무선을 통해, 영상 신호를 수신한다.
일 예로, 커뮤니케이션 모듈(1100)은, 기기 간 무선 통신을 수행하기 위한 와이파이 다이렉트(Wi-Fi Direct)를 연결할 수 있고, 와이파이 다이렉트 이외에 와이파이, 블루투스, 적외선 통신, NFC(Near Field Communication) 통신 등 다양한 무선 통신을 연결할 수 있다.
이어, 디스플레이 모듈(1200)는, 수신된 영상 신호가 신호 처리되면, 신호 처리된 영상을 화면에 표시할 수 있다.
여기서, 디스플레이 모듈(1200)은, 디스플레이 패널과, 디스플레이 패널에 광을 인가하는 광원 모듈을 포함할 수 있다.
다음, 컨트롤러(1300)는, 디지털 디바이스(1000)의 작동을 제어할 수 있는데, 컨트롤러(1300)는 커뮤니케이션 모듈(1100) 및 디스플레이 모듈(1200) 등, 적어도 하나 이상의 모듈들의 기능을 전반적으로 관리하는 기능을 수행한다.
여기서, 컨트롤러(1300)는, 수신된 영상 신호를 다수의 주파수 대역 별로 분리하고, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절한 다음, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 화면에 표시하는 전처리 과정과, 개선된 영상이 표시되는 화면을 다수 영역으로 분리하고, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 분리된 화면 영역에 표시되는 개선된 영상의 픽셀값을 조정하는 후처리 과정을 수행할 수 있다.
본 발명의 디지털 디바이스는, 백라이트로서, 다수의 광원들을 갖는 광원 모듈을 포함할 수 있는데, 광원의 밝기는, 출력 영상의 최대 밝기에 따라, 조절되면서, 소비 전력을 감소시킬 수 있다.
여기서, 하나의 광원은, 화면 일부 영역의 휘도를 담당하는데, 해당 영역의 최대 픽셀값에 따라서, 밝기가 조절될 수 있다.
따라서, 광원의 밝기는, 전체 화면 영역의 최대 픽셀값에 따라서, 결정되는 것이 아니고, 지역적으로, 각 광원이 담당하는 일부 화면 영역의 최대 픽셀값에 따라, 결정될 수 있다.
그러므로, 광원 모듈의 전체 광원의 밝기를 한꺼번에 조절하는 것보다, 각 광원의 밝기를 각각 조절하면, 전력의 소비를 더 감소시킬 수 있다.
이처럼, 본 발명은, 소비 전력을 감소시키기 위하여, 화면을 다수 영역으로 분리하여, 분리된 각 영역의 최대 픽셀값에 따라, 각 광원의 밝기를 각각 조절할 수 있다.
하지만, 각 광원의 밝기를 따로 조절할 경우, 전체적으로 광원 모듈은, 저전력으로 구동하게 되므로, 다이내믹 레인지(dynamic range)가 축소되어, 영상의 콘트라스트가 감소하고, 디테일(detail) 정보가 사라질 수 있다.
따라서, 본 발명은, 전처리 과정을 통해, 샤프니스와 콘트라스트가 증가되는 개선된 영상(enhanced image)으로 가공하고, 후처리 과정을 통해, 개선된 영상의 최대 픽셀값이 원본 영상의 최대 픽셀값보다 더 커지지 않도록, 조정함으로써, 각 광원의 밝기를 조절하는 로컬 디밍 방식으로, 화질의 열화를 최소화하면서도 전력 소비를 감소시킬 수 있다.
그러므로, 컨트롤러(1300)는, 전처리 과정을 통해, 영상을 다수의 주파수 대역으로 나누고, 각 주파수 대역의 특징을 이용하여, 영상의 콘트라스트(contrast), 샤프니스(sharpness), 세기(intensity) 등을 조절할 수 있다.
일 예로, 분리된 주파수 대역에서, 고주파 성분은, 영상의 샤프니스에 큰 영향을 주고, 중주파 성분은, 영상의 콘트라스트에 영향을 줄 수 있으며, 저주파 성분은, 영상 전체의 밝기에 영향을 줄 수 있다.
따라서, 컨트롤러(1300)는, 전처리 과정을 통해, 영상을 다수의 주파수 대역으로 나누고, 각 주파수 대역의 게인(gain)을 조절하여 주며, 최종적으로 게인이 조절된 각 주파수 대역을 합성하여, 영상의 샤프니스와 콘트라스트 등을 조절하여 영상의 화질을 향상시킬 수 있다.
또한, 컨트롤러(1300)는, 후처리 과정을 통해, 로컬 디밍(local dimming)을 수행하기 위하여, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 원본 영상의 최대 픽셀값보다 더 크면, 개선된 영상의 최대 픽셀값을 조정함으로써, 화질의 열화를 최소화하면서도 전력 소비를 감소시킬 수 있다.
도 5는 도 4의 컨트롤러를 보여주는 블럭 구성도이다.
도 5에 도시된 바와 같이, 컨트롤러(1300)는, 크게 전처리부(1302)와 후처리부(1304)로 구성할 수 있다.
여기서, 전처리부(1302)는, 주파수 분리부(1310)와 게인 제어부(1320)를 포함할 수 있고, 후처리부(1304)는, 픽셀값 조정부(1330)를 포함할 수 있다.
이때, 주파수 분리부(1310)는, 수신된 영상 신호를 다수의 주파수 대역 별로 분리할 수 있다.
일 예로, 주파수 분리부(1310)는, 수신된 영상 신호를 다수의 주파수 대역 별로 필터링하는 필터부, 필터링된 각 주파수 대역의 영상 신호와 수신된 영상 신호의 차 값을 산출하여, 각 주파수 대역에 상응하는 고주파 성분을 구하는 제 1 산출부, 그리고, 서로 인접하는 주파수 대역에 상응하는 고주파 성분들의 차 값을 산출하여, 각 주파수 대역에 상응하는 최종 주파수 신호를 구하는 제 2 산출부를 포함할 수 있다.
여기서, 주파수 분리부(1310)는, 수신된 영상 신호를, 고주파 대역, 중고주파 대역, 중저주파 대역, 저주파 대역을 포함하는 4개의 주파수 대역으로 분리할 수 있다.
이처럼, 주파수 분리부(1310)가, 영상 신호를 다수의 주파수 대역으로 나누는 이유는, 각 주파수 대역마다 영상에 서로 다른 영향을 주기 때문에, 각 주파수 성분마다 다르게 제어해야 하기 때문이다.
일 예로, 고주파 성분은, 영상의 샤프니스에 큰 영향을 주고, 중주파 성분은, 영상의 콘트라스트에 영향을 줄 수 있으며, 저주파 성분은, 영상 전체의 밝기에 영향을 줄 수 있다.
그리고, 게인 제어부(1320)는, 주파수 분리부(1310)로부터, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하고, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 디스플레이 모듈의 화면에 표시하도록, 디스플레이 모듈을 제어할 수 있다.
일 예로, 게인 제어부(1320)는, 분리된 주파수 대역이 고주파 대역이면, 수신된 영상 신호의 원본 영상에 대한 각 픽셀의 로컬 베리언스(local variance)값을 산출하여 정규화한 다음, 정규화된 로컬 베리언스값에 따라, 상기 게인값을 결정하는 고주파 게인 결정부와, 결정된 게인값에 따라, 고주파 대역의 영상 신호에 대한 게인을 조절하는 고주파 게인 조절부를 포함할 수 있다.
여기서, 고주파 게인 조절부는, 원본 영상의 디테일(detail) 성분이 기설정값보다 약한 영역에서는, 게인을 증가시키고, 원본 영상의 디테일 성분이 기설정값보다 강한 영역에서는, 게인의 증가를 차단할 수 있다.
경우에 따라, 게인 제어부(1320)는, 분리된 주파수 대역이 고주파 대역이면, 수신된 영상 신호의 원본 영상에 대한 디테일 성분 값을 산출하여 정규화한 다음, 정규화된 디테일 성분 값에 따라, 고주파 대역의 게인값을 결정하는 고주파 게인 결정부와, 결정된 게인값에 따라, 고주파 대역의 영상 신호에 대한 게인을 조절하는 고주파 게인 조절부를 포함할 수도 있다.
그리고, 게인 제어부(1320)는, 분리된 주파수 대역이 중주파 대역이면, 중주파 대역을 중고주파 대역과 중저주파 대역으로 분리하고, 분리된 중고주파 대역의 게인값과 중저주파 대역의 게인값을 산출하는 중주파 게인 산출부와, 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값의 차값이, 기준 차값보다 더 큰지를 확인하고, 확인 결과, 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값 사이의 차값이 기준 차값보다 더 크다면, 중고주파 대역의 게인값 또는 중저주파 대역의 게인값을 조정하는 중주파 게인 조절부를 포함할 수 있다.
이어, 게인 제어부(1320)는, 분리된 주파수 대역이 저주파 대역이면, 저주파 대역의 영상에 대한 픽셀값을 제 1 비율로 증가시켜 보상하는 제 1 보상부와, 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하는지를 확인하고, 확인 결과, 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하면, 픽셀값을 제 2 비율로 증가시켜 보상하는 제 2 보상부와, 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하는지를 확인하고, 확인 결과, 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하면, 픽셀값의 증가를 차단하는 차단부를 포함할 수 있다.
여기서, 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 제 2 비율은, 곡선의 기울기로 증가하는 비율일 수 있다.
이와 같이, 게인 제어부(1320)는, 분리된 각 주파수 대역마다 서로 다른 영상 특성을 가지고 있으므로, 각기 다르게 게인값을 조정함으로써, 화질이 개선된 영상을 얻을 수 있다.
이어, 픽셀값 조정부(1330)는, 개선된 영상이 표시되는 디스플레이 모듈의 화면을 다수 영역으로 분리한 다음, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인하고, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 분리된 화면 영역에 표시되는 개선된 영상의 픽셀값을 조정할 수 있다.
여기서, 픽셀값 조정부(1330)는, 개선된 영상이 표시되는 화면을 다수 영역으로 분리할 때, 분리된 각 화면 영역을, 다수의 광원을 포함하는 광원 모듈에서, 하나의 광원이 담당하는 화면 영역으로 결정할 수 있다.
일 예로, 픽셀값 조정부(1330)는, 분리된 각 화면 영역을, 약 16개의 픽셀 라인들이 배치되는 화면 영역으로 결정할 수 있지만, 이에 제한되지는 않는다.
그리고, 픽셀값 조정부(1330)는, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인할 때, 기준값을, 원본 영상의 최대 픽셀값으로 결정할 수 있다.
이어, 픽셀값 조정부(1330)는, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 기준값보다 더 큰 개선된 영상의 최대 픽셀값을, 기준값으로 조정하는 제 1 조정부와, 개선된 영상의 픽셀값들 중, 기설정된 임계값 이하의 픽셀값들을, 제 1 비율로 증가하도록 조정하는 제 2 조정부와, 개선된 영상의 픽셀값들 중, 기설정된 임계값보다 더 큰 픽셀값들을, 제 2 비율로 증가하도록 조정하는 제 3 조정부를 포함할 수 있다.
여기서, 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 제 2 비율은, 곡선의 기울기로 증가하는 비율일 수 있다.
이처럼, 픽셀값 조정부(1330)는, 개선된 영상의 최대 픽셀값이, 원본 영상의 최대 픽셀값보다 더 클 경우, 전력 소모가 클 수 있으므로, 개선된 영상의 최대 픽셀값을, 원본 영상의 최대 픽셀값을 넘지 않도록, 조정할 수 있다.
그리고, 픽셀값 조정부(1330)는, 개선된 영상의 최대 픽셀값이, 원본 영상의 최대 픽셀값보다 더 클 때, 개선된 영상의 최대 픽셀값을, 원본 영상의 최대 픽셀값과 동일하게 조정할 경우, 밝은 영역에서, 포화(saturation)가 일어나서, 영상의 디테일 정보가 사라질 수 있다.
따라서, 픽셀값 조정부(1330)는, 기설정된 임계값과 개선된 영상의 최대 픽셀값 사이의 픽셀값들을, 곡선의 기울기를 갖는 비율로 증가하도록 조정함으로써, 밝은 영역에서도 디테일 정보가 사라지지 않도록 한다.
그러므로, 전력의 소모를 최소화할 때에도, 개선된 영상의 화질은, 원본 영상의 화질과 거의 동일할 수 있다.
또한, 픽셀값 조정부(1330)는, 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값과 제 2 화면 영역의 최대 픽셀값이, 서로 다르면, 제 1 화면 영역과 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정하는 제 4 조정부를 더 포함할 수도 있다.
여기서, 제 4 조정부는, 제 1 화면 영역의 최대 픽셀값이, 제 2 화면 영역의 최대 픽셀값보다 더 크면, 제 1 화면 영역과 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을, 제 2 화면 영역에서 제 1 화면 영역으로 갈수록 그레디언트(gradient)하게 증가시킬 수 있다.
즉, 전체 화면이 다수의 화면 영역들로 분리될 경우, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값과 제 2 화면 영역의 최대 픽셀값이, 서로 다르면, 그들 사이의 경계 영역에서, 라인 아티팩트(line artifact)와 같이, 영상 노이즈가 나타날 수 있다.
따라서, 픽셀값 조정부(1330)는, 제 1 화면 영역과 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을, 그레디언트(gradient)하게 증가시킴으로써, 영상 노이즈를 제거할 수 있다.
이와 같이, 본 발명은, 영상의 콘트라스트(contrast)와 샤프니스(sharpness)를 향상시키는 전처리 과정과, 화면을 분할하여 분리된 화면 영역의 최대 픽셀값을 조정하는 후처리 과정을 수행함으로써, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있다.
도 6 내지 도 8은 전력 감소 요청에 따른 디지털 디바이스의 동작을 보여주는 도면으로, 도 6은 리모컨의 전력 감소 요청 신호에 따른 컨트롤러의 동작을 보여주는 도면이고, 도 7은 목표 전력 감소량 설정 창의 선택 신호에 따른 컨트롤러의 동작을 보여주는 도면이며, 도 8은 외부 밝기를 센싱하는 센서의 센싱 신호에 따른 컨트롤러의 동작을 보여주는 도면이다.
도 6에 도시된 바와 같이, 디지털 디바이스(1410)는, 화면(1420)에 영상을 표시하는 동안, 사용자가 리모컨(1430)을 통해, 전력 감소 요청 신호를 전송하면, 디지털 디바이스(1410)의 컨트롤러(1440)는, 수신된 전력 감소 요청 신호에 따라, 전력 소모를 줄이기 위한 영상의 전처리 과정과 후처리 과정을 수행할 수 있다.
여기서, 컨트롤러(1440)는, 저장부(1450)에 저장된 기설정 정보를 토대로, 광원 구동부(1460)을 제어하여, 영상의 전처리 과정과 후처리 과정을 수행할 수 있다.
즉, 컨트롤러(1440)는, 외부로부터 전력 감소 요청 신호가 수신될 때, 수신된 영상 신호를 다수의 주파수 대역 별로 분리함으로써, 영상 처리를 수행할 수 있다.
경우에 따라, 도 7에 도시된 바와 같이, 디지털 디바이스(1510)는, 화면(1520)에 영상을 표시하는 동안, 사용자가 리모컨(1530)을 통해, 전력 감소 요청 신호를 전송하면, 디지털 디바이스(1510)의 컨트롤러(1550)는, 수신된 전력 감소 요청 신호에 따라, 목표 전력 감소량 설정 창(1540)을, 화면(1520) 위에 표시할 수 있다.
여기서, 목표 전력 감소량 설정 창(1540)에는, 목표 전력 감소량 설정 항목과, 목표 전력 감소량을 선택할 수 있는 다수의 선택 항목들이 포함될 수 있다.
그리고, 사용자가 리모컨(1530)을 통해, 목표 전력 감소량 설정 창(1540) 내에 포함되는 선택 항목들 중, 어느 하나를 선택하면, 컨트롤러(1550)는, 전력 감소 선택 신호에 따라, 전력 소모를 줄이기 위한 영상의 전처리 과정과 후처리 과정을 수행할 수 있다.
여기서, 컨트롤러(1550)는, 저장부(1560)에 저장된 기설정 정보를 토대로, 광원 구동부(1570)을 제어하여, 영상의 전처리 과정과 후처리 과정을 수행할 수 있다.
즉, 컨트롤러(1550)는, 외부로부터 전력 감소 요청 신호를 수신하면, 수신된 전력 감소 요청 신호에 따라, 목표 전력 감소량을 결정하고, 결정된 목표 전력 감소량에 따라, 수신된 영상 신호를 다수의 주파수 대역 별로 분리함으로써, 영상 처리를 수행할 수 있다.
여기서, 컨트롤러(1550)는, 수신된 전력 감소 요청 신호에 따라, 목표 전력 감소량을 결정할 때, 디스플레이 모듈의 화면에 목표 전력 감소량 설정 창(1540)을 생성하여 표시하고, 표시된 목표 전력 감소량 설정 창(1540)을 통해, 사용자로부터 설정된 목표 전력 감소량에 따라, 수신된 영상 신호를 다수의 주파수 대역 별로 분리함으로써, 영상 처리를 수행할 수 있다.
다른 경우로서, 도 8에 도시된 바와 같이, 디지털 디바이스(1610)는, 화면(1620)에 영상을 표시하는 동안, 센서(1630)는, 외부의 밝기를 센싱할 수 있다.
그리고, 디지털 디바이스(1610)의 컨트롤러(1640)는, 센서(1630)로부터 외부 밝기에 대한 센싱 신호를 수신하고, 센싱 신호를 분석하여, 외부의 밝기가 기 설정된 밝기 범위 내에 도달하면, 전력 소모를 줄이기 위한 영상의 전처리 과정과 후처리 과정을 수행할 수 있다.
여기서, 컨트롤러(1640)는, 저장부(1650)에 저장된 기설정 정보를 토대로, 광원 구동부(1660)을 제어하여, 영상의 전처리 과정과 후처리 과정을 수행할 수 있다.
즉, 컨트롤러(1640)는, 외부의 밝기에 따라, 수신된 영상 신호를 다수의 주파수 대역 별로 분리함으로써, 영상 처리를 수행할 수 있다.
도 9 및 도 10은 도 5의 주파수 분리부를 보여주는 블럭 구성도이다.
도 9 및 도 10에 도시된 바와 같이, 주파수 분리부(1310)는, 필터부(1312), 제 1 산출부(1314) 및 제 2 산출부(1316)를 포함할 수 있다.
여기서, 필터부(1312)는, 수신된 영상 신호를 다수의 주파수 대역 별로 필터링하는 것으로, 다수의 저역 통과 필터를 포함할 수 있다.
이때, 필터부(1312)는, 영상 신호의 고주파 대역을 필터링하는 제 1 저역 통과 필터와, 영상 신호의 중고주파 대역을 필터링하는 제 2 저역 통과 필터와, 영상 신호의 중저주파 대역을 필터링하는 제 3 저역 통과 필터를 포함하고, 영상 신호의 저주파 대역을 패스함으로써, 필터부(1312)는, 영상 신호를, 고주파 대역, 중고주파 대역, 중저주파 대역, 저주파 대역을 포함하는 4개의 주파수 대역으로 분리할 수 있다.
이어, 제 1 산출부(1314)는, 필터링된 각 주파수 대역의 영상 신호와 수신된 원본 영상 신호의 차 값을 산출하여, 각 주파수 대역에 상응하는 고주파 성분을 구할 수 있다.
다음, 제 2 산출부(1316)은, 서로 인접하는 주파수 대역에 상응하는 고주파 성분들의 차 값을 산출하여, 각 주파수 대역에 상응하는 최종 주파수 신호를 구할 수 있다.
이와 같이, 주파수 분리부(1310)는, 영상 신호를 다수의 주파수 대역으로 나누기 위하여, 대역이 다른 대역통과필터를 이용하고, 영상 신호를 주파수 영역에서 처리하기 위하여, 퓨리에 변환(fourier transform)과 인버스 퓨리에 변환(inverse fourier transform)을 수행할 수 있다.
경우에 따라, 주파수 분리부(1310)는. 주파수 영역의 신호로 변환하지 않고, 공간 영역에서의 2차원 가우시안 필터(Gaussian filter)형태의 저역 통과 필터(low-pass filter)
Figure PCTKR2015002751-appb-I000001
와 영상과의 컨벌루션(convolution) 연산을 이용하여, 영상의 각 주파수 대역의 저주파 성분을 구할 수 있다.
다른 경우로서, 도 10과 같이, 대역이 다른 저역 통과 필터(low-pass filter)를 이용하여, 각 대역의 고주파 성분을 구하고, 각 고주파 성분들 간의 차를 이용하여 특정 주파수 대역의 신호를 구할 수도 있다.
일 예로, 필터링된 각 주파수 대역의 영상 신호 Fn(x,y)는, 하기 수학식 1 및 수학식 2에 의해 산출될 수 있다.
수학식 1
Figure PCTKR2015002751-appb-I000002
여기서, Kn은 하기 수학식 2에 의해, 필터 계수의 합이 1이 되는 조건에 의해 결정된다.
수학식 2
Figure PCTKR2015002751-appb-I000003
그리고, 각 주파수 대역에 상응하는 고주파 성분 R'n(x,y)은, 하기 수학식 3에 의해 산출될 수 있다.
수학식 3
Figure PCTKR2015002751-appb-I000004
여기서, I(x,y)는, 수신된 영상 신호이고, Fn(x,y)는, 필터링된 각 주파수 대역의 영상 신호이다.
이어, 각 주파수 대역에 상응하는 최종 주파수 신호 Rn(x,y)은, 하기 수학식 4에 의해 산출될 수 있다.
수학식 4
Figure PCTKR2015002751-appb-I000005
도 11 및 도 12는 도 5의 게인 제어부를 보여주는 블럭 구성도이고, 도 13 내지 도 15는 도 11의 게인 조정부를 보여주는 블럭 구성도이다.
도 11 및 도 12에 도시된 바와 같이, 게인 제어부(1320)는, 게인 조정부(510)와 합성부(520)를 포함할 수 있다.
여기서, 게인 조정부(510)는, 도 13과 같이, 고주파 대역의 게인을 조정하기 위한 제 1 게인 조정부, 도 14와 같이, 중주파 대역의 게인을 조정하기 위한 제 2 게인 조정부, 도 15와 같이, 저주파 대역의 게인을 조정하기 위한 제 3 게인 조정부를 포함할 수 있다.
도 13과 같이, 고주파 대역의 게인을 조정하기 위한 제 1 게인 조정부는, 고주파 게인 결정부(511)와 고주파 게인 조절부(512)를 포함할 수 있다.
고주파 게인 결정부(511)는, 분리된 주파수 대역이 고주파 대역이면, 수신된 영상 신호의 원본 영상에 대한 각 픽셀의 로컬 베리언스(local variance)값을 산출하여 정규화한 다음, 정규화된 로컬 베리언스값에 따라, 게인값을 결정할 수 있다.
경우에 따라, 고주파 게인 결정부(511)는, 분리된 주파수 대역이 고주파 대역이면, 수신된 영상 신호의 원본 영상에 대한 디테일 성분 값을 산출하여 정규화한 다음, 정규화된 디테일 성분 값에 따라, 고주파 대역의 게인값을 결정할 수도 있다.
그리고, 고주파 게인 조절부(512)는, 결정된 게인값에 따라, 고주파 대역의 영상 신호에 대한 게인을 조절할 수 있다.
또한, 고주파 게인 조절부(512)는, 원본 영상의 디테일(detail) 성분이 기설정값보다 약한 영역에서는, 게인을 증가시키고, 원본 영상의 디테일 성분이 기설정값보다 강한 영역에서는, 게인의 증가를 차단할 수 있다.
고주파 영역은, 영상의 샤프니스(sharpness)에 영향을 줄 수 있다.
따라서, 고주파 대역의 게인을 조정하기 위한 제 1 게인 조정부는, 영상의 고주파 성분을 증가시키면, 영상의 샤프니스(sharpness)가 증가하여, 영상의 선명도를 향상시킬 수 있다.
고주파 성분의 게인은, 디테일(detail)의 세기에 따라서, 결정되는데, 디테일 성분은, 원본 영상의 각 영역에서의 로컬 베리언스(local variance)를 이용하여 구별할 수 있다.
일 예로, 베리언스(Variance)가 낮은 부분은, 플랫(flat)한 부분이고, 베리언스(variance)가 높은 부분은, 텍스쳐(texture)나 에지(edge)성분 등, 디테일(detail) 요소가 많은 부분이다.
이를 이용하여, 원본 영상의 각 픽셀에서의 로컬 베리언스(local variance)값을 계산하고, 계산된 로컬 베리언스값을 정규화(normalization)하고, 정규화된 베리언스(normalized variance)값에 따라서, 고주파 대역의 게인을 결정할 수 있다.
여기서, 플랫한 영역에서는, 게인을 증가시키지 않고, 디테일 성분이 약한 영역에서는, 게인을 증가시켜, 텍스쳐나 에지 성분의 샤프니스를 증가시킬 수 있다.
또한, 특정 문턱값(Threshold) 이상의 베리언스(variance)에서는, 게인을 증가시키지 않도록 하여, 디테일이 강한 영역에서의 과도한 샤프니스의 증가를 방지함으로써, 영상의 부자연스러운 결과를 방지할 수 있다.
그리고, 고주파 대역의 게인을 조정하기 위한 제 1 게인 조정부는, 로컬 베리언스값을 계산하는 대신에 라플라시안(Laplacian) 연산자를 이용하여 영상의 디테일 성분을 판단할 수도 있다.
즉, 고주파 게인 결정부(511)는, 분리된 주파수 대역이 고주파 대역이면, 수신된 영상 신호의 원본 영상에 대한 디테일 성분 값을 산출하여 정규화한 다음, 정규화된 디테일 성분 값에 따라, 고주파 대역의 게인값을 결정할 수 있다.
일 예로, 디테일 성분 값 L(x,y)은, 하기 수학식 5에 의해 산출될 수 있다.
수학식 5
Figure PCTKR2015002751-appb-I000006
그리고, 정규화된 디테일 성분 값에 따라, 상기 고주파 대역의 게인값을 결정할 때, 고주파 대역의 게인값 G1은, 하기 수학식 6에 의해 산출될 수 있다.
수학식 6
Figure PCTKR2015002751-appb-I000007
여기서, b는, 고주파 성분의 증가량을 조절하는 파라메터이고, m은 게인을 최대로 하는 정규화된 베리언스를 결정하는 문턱값이며, L(x,y)는, 디테일 성분값일 수 있다.
도 16은 정규화된 베리언스값에 따른 고주파수 대역의 게인값을 보여주는 그래프로서, 도 16과 같이, 상기 수학식 5와 수학식 6에 의해, 고주파수 대역의 게인값을 얻을 수 있다.
그리고, 도 14와 같이, 중주파 대역의 게인을 조정하기 위한 제 2 게인 조정부는, 중주파 게인 산출부(513)와 중주파 게인 조절부(514)를 포함할 수 있다.
여기서, 중주파 게인 산출부(513)는, 분리된 주파수 대역이 중주파 대역이면, 중주파 대역을 중고주파 대역과 중저주파 대역으로 분리하고, 분리된 중고주파 대역의 게인값과 중저주파 대역의 게인값을 산출할 수 있다.
그리고, 중주파 게인 조절부(514)는, 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값의 차값이, 기준 차값보다 더 큰지를 확인하고, 확인 결과, 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값 사이의 차값이 기준 차값보다 더 크다면, 중고주파 대역의 게인값 또는 중저주파 대역의 게인값을 조정할 수 있다.
여기서, 중주파 대역에서는, 영상의 contrast에 큰 영향을 미친다.
따라서, 중주파 대역의 게인을 조정하기 위한 제 2 게인 조정부는, 중주파 대역을 중고주파와 중저주파로 나누어서, 게인을 조정함으로써, 영상의 콘트라스트 세기를 조절할 수 있다.
일 예로, 중고주파 대역의 게인값 G'2(x,y)과 중저주파 대역의 게인값 G'3(x,y)은, 하기 수학식 7, 수학식 8, 그리고 수학식 9에 의해 산출될 수 있다.
수학식 7
Figure PCTKR2015002751-appb-I000008
여기서, NRn(x,y)는, 해당 주파수 대역의 영상 신호를 정규화한 식이고,
Figure PCTKR2015002751-appb-I000009
의 값은, 0.1이며,
Figure PCTKR2015002751-appb-I000010
은, 필터의 분산으로 정규화한 값이다.
수학식 8
Figure PCTKR2015002751-appb-I000011
수학식 9
Figure PCTKR2015002751-appb-I000012
여기서, T(x,y)는, 원본 영상의 밝기 정보이다.
그리고, 중고주파 대역의 게인값 또는 상기 중저주파 대역의 게인값을 조정하는 단계에서, 중고주파 대역의 게인값 G2(x,y) 또는 중저주파 대역의 게인값 G3(x,y)은, 하기 수학식 10에 의해 조정될 수 있다.
수학식 10
Figure PCTKR2015002751-appb-I000013
다음, 도 15와 같이, 저주파 대역의 게인을 조정하기 위한 제 3 게인 조정부는, 제 1 보상부(515), 제 2 보상부(516), 그리고 차단부(517)를 포함할 수 있다.
여기서, 제 1 보상부(515)는, 분리된 주파수 대역이 저주파 대역이면, 저주파 대역의 영상에 대한 픽셀값을 제 1 비율로 증가시켜 보상할 수 있다.
그리고, 제 2 보상부(516)는, 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하는지를 확인하고, 확인 결과, 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하면, 픽셀값을 제 2 비율로 증가시켜 보상할 수 있다.
다음, 차단부(517)는, 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하는지를 확인하고, 확인 결과, 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하면, 픽셀값의 증가를 차단할 수 있다.
여기서, 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 제 2 비율은, 곡선의 기울기로 증가하는 비율일 수 있다.
그리고, 저주파 대역의 영상은, 전체 영상의 밝기정보를 가지고 있다.
따라서, 저주파 영역에서 픽셀값을 증가시키면, 영상의 전체 밝기를 증가시킬 수 있는데, 이 과정을 픽셀 보상(pixel compensation)이라 한다.
이는, 디지털 디바이스의 전력을 제한함으로써, 감소된 전체적인 영상의 밝기를 보상할 수 있으나, 증가된 영상의 픽셀값이 허용범위의 최대값을 넘을 수도 있다.
이 과정에서 최대값을 넘는 픽셀은, 출력시, 최대값 이상의 픽셀값이 잘리므로, 밝은 부분의 디테일이 포화(saturation)되어, 디테일 정보가 사라질 수 있다.
그러므로, 영상의 픽셀값을 증가시킬 때, 원본 영상의 최대 픽셀값보다 크지 않도록 하기 위하여, 특정 임계값(Threshold) 이하에서는, 픽셀값을 일정하게 증가시키고, 임계값 이상에서는, 완만한 기울기를 갖는 곡선 기울기에 따라, 픽셀값을 증가시키고, 증가되는 픽셀값이 원본 영상의 최대 픽셀값을 넘지 않도록 한다.
이러한, 픽셀 보상(Pixel compensation)을 적용하는 방법은, 하기 수학식 12와 같다.
p는, 보상하고자 하는 픽셀값의 크기이고, 영상의 제한된 전력에 비례하여 결정된다.
그리고, 임계값은, 8-bit의 영상신호로 최대값이 255일 때, 수학식 11과 같이 결정될 수 있다.
일 예로, 기설정된 임계값(Th)은, 하기 수학식 11에 의해 산출될 수 있다.
수학식 11
Figure PCTKR2015002751-appb-I000014
여기서, p는 보상하고자 하는 픽셀값의 크기이고, Th는 8비트의 영상 신호로 최대값이 255이다.
그리고, 제 1, 제 2 비율로 증가되는 저주파 대역의 영상에 대한 픽셀값은, 하기 수학식 12에 의해 산출될 수 있다.
수학식 12
Figure PCTKR2015002751-appb-I000015
다음, 게인 조정부(510)에서 게인이 조절된 각 주파수 대역의 영상 신호들을, 합성부(520)에서, 합성하여, 개선된 영상(enhanced image)을 화면에 표시할 수 있다.
일 예로, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성값 I'(x,y)은, 하기 수학식 13에 의해 산출될 수 있다.
수학식 13
Figure PCTKR2015002751-appb-I000016
여기서, Rn(x,y)과 Gn(x,y)는, 각 주파수 대역에 해당하는 영상신호와 게인이고, R4 .P(x,y)는, 저주파 신호인 R4(x,y) 픽셀이 보상된 결과값이다.
도 17은 도 5의 픽셀값 조정부를 보여주는 블럭 구성도이고, 도 18은 픽셀값 조정부에 의해 분리되는 화면 영역을 보여주는 도면이며, 도 19는 분리된 화면 영역의 픽셀값의 증가 비율을 보여주는 그래프이고, 도 20은 분리된 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 픽셀값 증가 비율을 보여주는 그래프이다.
도 17에 도시된 바와 같이, 픽셀값 조정부(1330)는, 제 1, 제 2, 제 3 조정부(1332, 1333, 1334, 1335)를 포함할 수 있다.
경우에 따라, 픽셀값 조정부(1330)는, 제 4 조정부(1335)를 더 포함할 수도 있다.
여기서, 제 1 조정부(1332)는, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 기준값보다 더 큰 개선된 영상의 최대 픽셀값을, 기준값으로 조정할 수 있다.
이때, 기준값은, 원본 영상의 최대 픽셀값일 수 있다.
그리고, 제 2 조정부(1333)는, 개선된 영상의 픽셀값들 중, 기설정된 임계값 이하의 픽셀값들을, 제 1 비율로 증가하도록 조정할 수 있다.
이어, 제 3 조정부(1334)는, 개선된 영상의 픽셀값들 중, 기설정된 임계값보다 더 큰 픽셀값들을, 제 2 비율로 증가하도록 조정할 수 있다.
여기서, 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 제 2 비율은, 곡선의 기울기로 증가하는 비율일 수 있다.
다음, 제 4 조정부(1335)는, 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값과 제 2 화면 영역의 최대 픽셀값이, 서로 다르면, 제 1 화면 영역과 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정할 수 있다.
여기서, 제 4 조정부(1335)는, 제 1 화면 영역의 최대 픽셀값이, 제 2 화면 영역의 최대 픽셀값보다 더 크면, 제 1 화면 영역과 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을, 제 2 화면 영역에서 제 1 화면 영역으로 갈수록 그레디언트(gradient)하게 증가시킬 수 있다.
이어, 도 18에 도시된 바와 같이, 픽셀값 조정부는, 개선된 영상이 표시되는 화면(1720)을 다수 영역으로 분리할 때, 분리된 각 화면 영역을, 다수의 광원을 포함하는 광원 모듈(1710)에서, 하나의 광원이 담당하는 화면 영역으로 결정할 수 있다.
일 예로, 픽셀값 조정부는, 분리된 각 화면 영역을, 16개의 픽셀 라인들이 배치되는 화면 영역으로 결정할 수 있다.
따라서, 픽셀값 조정부는, 분리된 각 화면 영역의 픽셀값을 조정하기 위하여, 각 광원이 담당하는 16개 픽셀 라인들이 배치되는 화면 영역에서, 개선된 영상(enhanced image)의 최대 픽셀값과, 원본 영상(original image)의 최대 픽셀값이 필요하다.
여기서, 하나의 광원이 담당하는 화면 영역에서, 원본 영상의 최대 픽셀값을
Figure PCTKR2015002751-appb-I000017
라고 하고, 전처리부에 의해 개선된 영상(enhanced image)의 최대 픽셀값을
Figure PCTKR2015002751-appb-I000018
라고 하면,
Figure PCTKR2015002751-appb-I000019
의 경우, 개선된 영상의 최대 픽셀값이 원본 영상의 픽셀값보다 크지 않으므로, 개선된 영상의 최대 픽셀값을 조정할 필요가 없다.
하지만,
Figure PCTKR2015002751-appb-I000020
인 경우, 개선된 영상의 최대 픽셀값이 원본 영상의 최대 픽셀값보다 크므로, 개선된 영상의 최대 픽셀값을 원본 영상의 최대 픽셀값으로 조정한다.
이 경우, 원본 영상의 최대 픽셀값보다 더 큰 개선된 영상의 픽셀값들은, 모두 원본 영상의 최대 픽셀값과 동일하게 대체되므로, 영상의 밝은 영역에서는, 최대 픽셀값이 포화되어, 디테일 정보가 사라지게 된다.
그러므로, 도 19와 같이, 특정 임계값 이상에서는, 완만한 곡선의 기울기를 가지도록 픽셀값을 증가시키고, 원본 영상의 최대 픽셀값을 초과하지 않도록 함으로써, 영상의 밝은 부분에서, 디테일 정보의 손실을 최소화할 수 있다.
일 예로, 개선된 영상의 픽셀값의 조정은, 하기 수학식 14, 수학식 15, 수학식 16, 수학식 17 및 수학식 18에 의해 산출될 수 있다.
수학식 14
Figure PCTKR2015002751-appb-I000021
여기서, MAXorg는, 원본 영상의 최대 픽셀값이고, MAXenhanced는, 개선된 영상의 최대 픽셀값이며, Th는, 기설정된 임계값이다.
수학식 15
Figure PCTKR2015002751-appb-I000022
수학식 16
Figure PCTKR2015002751-appb-I000023
수학식 17
Figure PCTKR2015002751-appb-I000024
수학식 18
Figure PCTKR2015002751-appb-I000025
또한, 픽셀 조정부는, 도 18과 같이, 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역(1722)의 최대 픽셀값과 제 2 화면 영역(1724)의 최대 픽셀값이, 서로 다르면, 제 1 화면 영역(1722)과 제 2 화면 영역(1724) 사이의 경계 영역(1726)에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정할 수 있다.
즉, 픽셀 조정부는, 제 1 화면 영역(1722)의 최대 픽셀값이, 제 2 화면 영역(1724)의 최대 픽셀값보다 더 크면, 제 1 화면 영역(1722)과 제 2 화면 영역(1724) 사이의 경계 영역(1726)에 위치하는 픽셀들의 최대 픽셀값을, 제 2 화면 영역(1724)에서 제 1 화면 영역(1722)으로 갈수록 그레디언트(gradient)하게 증가시킬 수 있다.
일 예로, 분리된 각 화면 영역마다, 원본 영상의 최대 픽셀값
Figure PCTKR2015002751-appb-I000026
과, 개선된 영상의 최대 픽셀값
Figure PCTKR2015002751-appb-I000027
을 산출하는데, 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값
Figure PCTKR2015002751-appb-I000028
과 제 2 화면 영역의 최대 픽셀값
Figure PCTKR2015002751-appb-I000029
이 서로 다르면, 그들 사이의 경계 영역에서, 라인 아티팩트(line artifact)와 같이, 영상 노이즈가 나타날 수 있다.
그러므로, 이를 방지하기 위하여, 도 20과 같이, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값
Figure PCTKR2015002751-appb-I000030
과 제 2 화면 영역의 최대 픽셀값
Figure PCTKR2015002751-appb-I000031
이 서로 다르면, 제 1 화면 영역(1722)과 제 2 화면 영역(1724) 사이의 경계 영역(1726)에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정할 수 있다.
또한, 임계값 Th도, 픽셀값의 변화에 영향을 주므로, 제 1 화면 영역(1722)과 제 2 화면 영역(1724) 사이의 경계 영역에 위치하는 픽셀들의 임계값을 그레디언트(gradient)하게 조정할 수 있다.
도 21 내지 도 26은 본 발명에 따른 디지털 디바이스의 제어 방법을 설명하기 위한 흐름도이다.
도 21 내지 도 26에 도시된 바와 같이, 디지털 디바이스의 컨트롤러는, 영상 신호를 수신하고(S110), 수신된 영상 신호를 다수의 주파수 대역 별로 분리할 수 있다.(S120)
여기서, 컨트롤러는, 외부로부터 전력 감소 요청 신호가 수신될 때, 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 동작을 수행할 수 있다.
일 예로, 컨트롤러는, 수신된 영상 신호를 다수의 주파수 대역 별로 분리할 때, 외부로부터 전력 감소 요청 신호를 수신하고, 수신된 전력 감소 요청 신호에 따라, 목표 전력 감소량을 결정한 다음, 결정된 목표 전력 감소량에 따라, 수신된 영상 신호를 다수의 주파수 대역 별로 분리할 수 있다.
즉, 컨트롤러는, 외부로부터 전력 감소 요청 신호를 수신하면(S122), 디스플레이 모듈의 화면에 목표 전력 감소량 설정 창을 생성하여 표시하고(S124), 표시된 목표 전력 감소량 설정 창을 통해, 목표 전력 감소량의 설정이 완료되면(S126), 목표 전력 감소량을 결정한 다음(S128), 결정된 목표 전력 감소량에 따라, 수신된 영상 신호를 다수의 주파수 대역 별로 분리할 수 있다.(S129)
따라서, 컨트롤러는, 수신된 영상 신호를 다수의 주파수 대역 별로 필터링하고(S22), 필터링된 각 주파수 대역의 영상 신호와 수신된 영상 신호의 차 값을 산출하여, 각 주파수 대역에 상응하는 고주파 성분을 구한 다음(S24), 서로 인접하는 주파수 대역에 상응하는 고주파 성분들의 차 값을 산출하여, 각 주파수 대역에 상응하는 최종 주파수 신호를 구할 수 있다.(S26)
여기서, 필터링된 각 주파수 대역의 영상 신호 Fn(x,y)는, 하기 수학식 1 및 2에 의해 산출될 수 있다.
수학식 1
Figure PCTKR2015002751-appb-I000032
(여기서, Kn은 하기 수학식 2에 의해, 필터 계수의 합이 1이 되는 조건에 의해 결정됨)
수학식 2
Figure PCTKR2015002751-appb-I000033
그리고, 각 주파수 대역에 상응하는 고주파 성분 R'n(x,y)은, 하기 수학식 3에 의해 산출될 수 있다.
수학식 3
Figure PCTKR2015002751-appb-I000034
(여기서, I(x,y)는, 상기 수신된 영상 신호이고, Fn(x,y)는, 상기 필터링된 각 주파수 대역의 영상 신호임)
이어, 각 주파수 대역에 상응하는 최종 주파수 신호 Rn(x,y)은, 하기 수학식 4에 의해 산출될 수 있다.
수학식 4
Figure PCTKR2015002751-appb-I000035
또한, 컨트롤러는, 수신된 영상 신호를 다수의 주파수 대역 별로 분리할 때, 다수의 주파수 대역을, 고주파 대역, 중고주파 대역, 중저주파 대역, 저주파 대역을 포함하는 4개의 주파수 대역으로 분리할 수 있다.
다음, 컨트롤러는, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절한다.(S130)
여기서, 컨트롤러는, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절할 때, 분리된 주파수 대역이 고주파 대역인지를 확인하고(S31), 확인 결과, 고주파 대역이라면, 수신된 영상 신호의 원본 영상에 대한 각 픽셀의 로컬 베리언스(local variance)값을 산출하여 정규화한 다음(S32), 정규화된 로컬 베리언스값에 따라, 게인값을 결정하고(S33), 결정된 게인값에 따라, 고주파 대역의 영상 신호에 대한 게인을 조절할 수 있다.(S34)
이때, 컨트롤러는, 원본 영상의 디테일(detail) 성분이 기설정값보다 약한 영역에서는, 게인을 증가시키고, 원본 영상의 디테일 성분이 기설정값보다 강한 영역에서는, 게인의 증가를 차단할 수 있다.
경우에 따라, 컨트롤러는, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절할 때, 분리된 주파수 대역이 고주파 대역인지를 확인하고(S61), 확인 결과, 고주파 대역이라면, 수신된 영상 신호의 원본 영상에 대한 디테일 성분 값을 산출하여 정규화하고(S62), 정규화된 디테일 성분 값에 따라, 고주파 대역의 게인값을 결정한 다음(S63), 결정된 게인값에 따라, 고주파 대역의 영상 신호에 대한 게인을 조절할 수 있다.(S64)
여기서, 디테일 성분 값 L(x,y)은, 하기 수학식 5에 의해 산출될 수 있다.
수학식 5
Figure PCTKR2015002751-appb-I000036
그리고, 고주파 대역의 게인값 G1은, 하기 수학식 6에 의해 산출될 수 있다.
수학식 6
Figure PCTKR2015002751-appb-I000037
(여기서, b는, 고주파 성분의 증가량을 조절하는 파라메터이고, m은 게인을 최대로 하는 정규화된 베리언스를 결정하는 문턱값이며, L(x,y)는, 디테일 성분값임)
다음, 컨트롤러는, 확인 결과, 고주파 대역이 아니라면, 중주파 대역인지를 확인하고(S41), 확인 결과, 중주파 대역이라면, 중주파 대역을 중고주파 대역과 중저주파 대역으로 분리한다.(S42)
그리고, 컨트롤러는, 분리된 중고주파 대역의 게인값과 중저주파 대역의 게인값을 산출하고(S43), 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값의 차값이, 기준 차값보다 더 큰지를 확인한 다음(S44), 확인 결과, 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값 사이의 차값이 기준 차값보다 더 크다면, 중고주파 대역의 게인값 또는 중저주파 대역의 게인값을 조정한다.(S45)
여기서, 중고주파 대역의 게인값 G'2(x,y)과 중저주파 대역의 게인값 G'3(x,y)은, 하기 수학식 7, 수학식 8, 그리고 수학식 9에 의해 산출될 수 있다.
수학식 7
Figure PCTKR2015002751-appb-I000038
(여기서, NRn(x,y)는, 해당 주파수 대역의 영상 신호를 정규화한 식이고,
Figure PCTKR2015002751-appb-I000039
의 값은, 0.1이며,
Figure PCTKR2015002751-appb-I000040
은, 필터의 분산으로 정규화한 값임)
수학식 8
Figure PCTKR2015002751-appb-I000041
수학식 9
Figure PCTKR2015002751-appb-I000042
(여기서, T(x,y)는, 원본 영상의 밝기 정보임)
그리고, 중고주파 대역의 게인값 G2(x,y) 또는 중저주파 대역의 게인값 G3(x,y)은, 하기 수학식 10에 의해 조정될 수 있다.
수학식 10
Figure PCTKR2015002751-appb-I000043
그리고, 컨트롤러는, 확인 결과, 중주파 대역이 아니라면, 저주파 대역인지를 확인하고(S51), 확인 결과, 저주파 대역이라면, 저주파 대역의 영상에 대한 픽셀값을 제 1 비율로 증가시켜 보상한다.(S52)
이어, 컨트롤러는, 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하는지를 확인하고(S53), 확인 결과, 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하면, 픽셀값을 제 2 비율로 증가시켜 보상한 다음(S54), 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하는지를 확인하고(S55), 확인 결과, 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하면, 픽셀값의 증가를 차단한다.(S56)
여기서, 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 제 2 비율은, 곡선의 기울기로 증가하는 비율일 수 있다.
그리고, 기설정된 임계값(Th)은, 하기 수학식 11에 의해 산출될 수 있다.
수학식 11
Figure PCTKR2015002751-appb-I000044
(여기서, p는 보상하고자 하는 픽셀값의 크기이고, Th는 8비트의 영상 신호로 최대값이 255임)
또한, 제 1, 제 2 비율로 증가되는 저주파 대역의 영상에 대한 픽셀값은, 하기 수학식 12에 의해 산출될 수 있다.
수학식 12
Figure PCTKR2015002751-appb-I000045
다음, 컨트롤러는, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 화면에 표시한다.(S140)
여기서, 게인이 조절된 각 주파수 대역의 영상 신호들을 합성값 I'(x,y)은, 하기 수학식 13에 의해 산출될 수 있다.
수학식 13
Figure PCTKR2015002751-appb-I000046
(여기서, Rn(x,y)과 Gn(x,y)는, 각 주파수 대역에 해당하는 영상신호와 게인이고, R4 .P(x,y)는, 저주파 신호인 R4(x,y) 픽셀이 보상된 결과값임)
이어, 컨트롤러는, 개선된 영상이 표시되는 화면을 다수 영역으로 분리한다.(S150)
여기서, 분리된 각 화면 영역은, 다수의 광원을 포함하는 광원 모듈에서, 하나의 광원이 담당하는 화면 영역일 수 있다.
그리고, 분리된 각 화면 영역은, 약 16개의 픽셀 라인들이 배치되는 화면 영역일 수 있다.
다음, 컨트롤러는, 분리된 화면 영역에 표시되는 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인한다.(S160)
여기서, 기준값은, 원본 영상의 최대 픽셀값일 수 있다.
이어, 컨트롤러는, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 분리된 화면 영역에 표시되는 개선된 영상의 픽셀값을 조정할 수 있다.(S170)
즉, 컨트롤러는, 개선된 영상의 최대 픽셀값이, 기준값보다 더 크면, 기준값보다 더 큰 상기 개선된 영상의 최대 픽셀값을, 기준값으로 조정하고(S71), 개선된 영상의 픽셀값들 중, 기설정된 임계값 이하의 픽셀값들을, 제 1 비율로 증가하도록 조정하며(S72), 개선된 영상의 픽셀값들 중, 기설정된 임계값보다 더 큰 픽셀값들을, 제 2 비율로 증가하도록 조정할 수 있다.(S73)
여기서, 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 제 2 비율은, 곡선의 기울기로 증가하는 비율일 수 있다.
그리고, 개선된 영상의 픽셀값의 조정은, 하기 수학식 14, 수학식 15, 수학식 16, 수학식 17 및 수학식 18에 의해 산출될 수 있다.
수학식 14
Figure PCTKR2015002751-appb-I000047
(여기서, MAXorg는, 원본 영상의 최대 픽셀값이고, MAXenhanced는, 개선된 영상의 최대 픽셀값이며, Th는, 기설정된 임계값임)
수학식 15
Figure PCTKR2015002751-appb-I000048
수학식 16
Figure PCTKR2015002751-appb-I000049
수학식 17
수학식 18
Figure PCTKR2015002751-appb-I000051
다음, 컨트롤러는, 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값과 제 2 화면 영역의 최대 픽셀값이, 서로 다르면(S74), 제 1 화면 영역과 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정할 수 있다.(S75)
일 예로, 제 1 화면 영역의 최대 픽셀값이, 제 2 화면 영역의 최대 픽셀값보다 더 크면, 제 1 화면 영역과 상기 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값은, 제 2 화면 영역에서 상기 제 1 화면 영역으로 갈수록 그레디언트(gradient)하게 증가할 수 있다.
이와 같이, 본 발명은, 영상의 콘트라스트(contrast)와 샤프니스(sharpness)를 향상시키는 전처리 과정과, 화면을 분할하여 분리된 화면 영역의 최대 픽셀값을 조정하는 후처리 과정을 수행함으로써, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있다.
또한, 본 발명은, 목표 전력 감소량 설정 창을 표시하여, 사용자가 설정한 목표 전력 감소량에 따라, 화질의 열화를 최소화하면서 전력을 감소시킬 수 있어, 사용자에게 편의성을 제공할 수 있다.
본 명세서에서 개시하는 디지털 디바이스 및 그 제어 방법은 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서에서 개시된 디지털 디바이스의 동작방법은 디지털 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 디바이스를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM(Read Only Memory), RAM(Random Access Memory), CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장디바이스 등이 있으며, 인터넷을 통한 전송 등과 같은 캐리어-웨이브(carrier-wave)의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
한편, 본 명세서에서는 첨부된 도면을 참조하여 설명하였으나, 이는 실시 예일 뿐 특정 실시 예에 한정되지 아니하며, 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 변형실시가 가능한 다양한 내용도 청구범위에 따른 권리범위에 속한다. 또한, 그러한 변형실시들이 본 발명의 기술 사상으로부터 개별적으로 이해되어서는 안 된다.
본 발명은 저전력상에서 화질을 향상시킬 수 있는 디지털 디바이스 및 그의 제어 방법에 관한 것이다. 따라서, 본 발명은 산업상 이용가능성이 있다.

Claims (20)

  1. 영상 신호를 수신하는 단계;
    상기 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 단계;
    상기 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하는 단계;
    상기 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 개선된 영상(enhanced image)을 화면에 표시하는 단계;
    상기 개선된 영상이 표시되는 화면을 다수 영역으로 분리하는 단계;
    상기 분리된 화면 영역에 표시되는 상기 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인하는 단계; 그리고,
    상기 개선된 영상의 최대 픽셀값이, 상기 기준값보다 더 크면, 상기 분리된 화면 영역에 표시되는 상기 개선된 영상의 픽셀값을 조정하는 단계를 포함하여 이루어지는 것을 특징으로 하는 디지털 디바이스의 제어 방법.
  2. 제 1 항에 있어서, 상기 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 단계는,
    상기 수신된 영상 신호를 다수의 주파수 대역 별로 필터링하는 단계;
    상기 필터링된 각 주파수 대역의 영상 신호와 상기 수신된 영상 신호의 차 값을 산출하여, 상기 각 주파수 대역에 상응하는 고주파 성분을 구하는 단계;
    상기 서로 인접하는 주파수 대역에 상응하는 고주파 성분들의 차 값을 산출하여, 상기 각 주파수 대역에 상응하는 최종 주파수 신호를 구하는 단계를 포함하여 이루어지는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  3. 제 1 항에 있어서, 상기 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하는 단계는,
    상기 분리된 주파수 대역이 고주파 대역인지를 확인하는 단계;
    상기 확인 결과, 고주파 대역이라면, 상기 수신된 영상 신호의 원본 영상에 대한 각 픽셀의 로컬 베리언스(local variance)값을 산출하여 정규화하는 단계;
    상기 정규화된 로컬 베리언스값에 따라, 상기 게인값을 결정하는 단계; 그리고,
    상기 결정된 게인값에 따라, 상기 고주파 대역의 영상 신호에 대한 게인을 조절하는 단계를 포함하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  4. 제 3 항에 있어서, 상기 게인을 조절하는 단계에서,
    상기 원본 영상의 디테일(detail) 성분이 기설정값보다 약한 영역에서는, 상기 게인을 증가시키고, 상기 원본 영상의 디테일 성분이 상기 기설정값보다 강한 영역에서는, 상기 게인의 증가를 차단하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  5. 제 1 항에 있어서, 상기 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하는 단계는,
    상기 분리된 주파수 대역이 고주파 대역인지를 확인하는 단계;
    상기 확인 결과, 고주파 대역이라면, 상기 수신된 영상 신호의 원본 영상에 대한 디테일 성분 값을 산출하여 정규화하는 단계;
    상기 정규화된 디테일 성분 값에 따라, 상기 고주파 대역의 게인값을 결정하는 단계; 그리고,
    상기 결정된 게인값에 따라, 상기 고주파 대역의 영상 신호에 대한 게인을 조절하는 단계를 포함하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  6. 제 5 항에 있어서, 상기 분리된 주파수 대역이 고주파 대역인지를 확인하는 단계에서,
    상기 확인 결과, 고주파 대역이 아니라면, 중주파 대역인지를 확인하는 단계;
    상기 확인 결과, 중주파 대역이라면, 상기 중주파 대역을 중고주파 대역과 중저주파 대역으로 분리하는 단계;
    상기 분리된 중고주파 대역의 게인값과 중저주파 대역의 게인값을 산출하는 단계;
    상기 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값의 차값이, 기준 차값보다 더 큰지를 확인하는 단계; 그리고,
    상기 확인 결과, 상기 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값 사이의 차값이 상기 기준 차값보다 더 크다면, 상기 중고주파 대역의 게인값 또는 상기 중저주파 대역의 게인값을 조정하는 단계를 포함하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  7. 제 6 항에 있어서, 상기 중주파 대역인지를 확인하는 단계에서,
    상기 확인 결과, 중주파 대역이 아니라면, 저주파 대역인지를 확인하는 단계;
    상기 확인 결과, 저주파 대역이라면, 상기 저주파 대역의 영상에 대한 픽셀값을 제 1 비율로 증가시켜 보상하는 단계;
    상기 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하는지를 확인하는 단계;
    상기 확인 결과, 상기 제 1 비율로 증가된 픽셀값이 상기 기설정된 임계값에 도달하면, 상기 픽셀값을 제 2 비율로 증가시켜 보상하는 단계;
    상기 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하는지를 확인하는 단계; 그리고,
    상기 확인 결과, 상기 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하면, 상기 픽셀값의 증가를 차단하는 단계를 포함하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  8. 제 7 항에 있어서, 상기 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 상기 제 2 비율은, 곡선의 기울기로 증가하는 비율인 것을 특징으로 하는 디지털 디바이스의 제어방법.
  9. 제 1 항에 있어서, 상기 개선된 영상의 최대 픽셀값이, 상기 기준값보다 더 크면, 상기 분리된 화면 영역에 표시되는 상기 개선된 영상의 픽셀값을 조정하는 단계는,
    상기 개선된 영상의 최대 픽셀값이, 상기 기준값보다 더 크면, 상기 기준값보다 더 큰 상기 개선된 영상의 최대 픽셀값을, 상기 기준값으로 조정하는 단계;
    상기 개선된 영상의 픽셀값들 중, 기설정된 임계값 이하의 픽셀값들을, 제 1 비율로 증가하도록 조정하는 단계; 그리고,
    상기 개선된 영상의 픽셀값들 중, 상기 기설정된 임계값보다 더 큰 픽셀값들을, 제 2 비율로 증가하도록 조정하는 단계를 포함하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  10. 제 9 항에 있어서, 상기 제 1 비율은, 직선의 기울기로 증가하는 비율이고, 상기 제 2 비율은, 곡선의 기울기로 증가하는 비율인 것을 특징으로 하는 디지털 디바이스의 제어방법.
  11. 제 1 항에 있어서, 상기 개선된 영상의 최대 픽셀값이, 상기 기준값보다 더 크면, 상기 분리된 화면 영역에 표시되는 상기 개선된 영상의 픽셀값을 조정하는 단계 이후,
    상기 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값과 제 2 화면 영역의 최대 픽셀값이, 서로 다르면, 상기 제 1 화면 영역과 상기 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정하는 것을 특징으로 하는 디지털 디바이스의 제어방법.
  12. 디지털 디바이스에 있어서,
    영상 신호를 수신하는 커뮤니케이션 모듈;
    상기 영상 신호를 처리하여 개선된 영상(enhanced image)을 화면에 표시하는 디스플레이 모듈; 그리고,
    상기 디지털 디바이스의 작동을 제어하는 컨트롤러를 포함하고,
    상기 컨트롤러는,
    상기 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 주파수 분리부;
    상기 주파수 분리부로부터, 분리된 각 주파수 대역의 영상 신호에 대한 게인(gain)을 조절하고, 상기 게인이 조절된 각 주파수 대역의 영상 신호들을 합성하여, 상기 개선된 영상(enhanced image)을 상기 디스플레이 모듈의 화면에 표시하도록, 상기 디스플레이 모듈을 제어하는 게인 제어부; 그리고,
    상기 개선된 영상이 표시되는 상기 디스플레이 모듈의 화면을 다수 영역으로 분리한 다음, 상기 분리된 화면 영역에 표시되는 상기 개선된 영상의 최대 픽셀값이, 기준값보다 더 큰지를 확인하고, 상기 개선된 영상의 최대 픽셀값이, 상기 기준값보다 더 크면, 상기 분리된 화면 영역에 표시되는 상기 개선된 영상의 픽셀값을 조정하는 픽셀값 조정부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  13. 제 12 항에 있어서, 상기 컨트롤러는, 외부로부터 전력 감소 요청 신호가 수신될 때, 상기 수신된 영상 신호를 다수의 주파수 대역 별로 분리하는 것을 특징으로 하는 디지털 디바이스.
  14. 제 12 항에 있어서, 상기 주파수 분리부는,
    상기 수신된 영상 신호를 다수의 주파수 대역 별로 필터링하는 필터부;
    상기 필터링된 각 주파수 대역의 영상 신호와 상기 수신된 영상 신호의 차 값을 산출하여, 상기 각 주파수 대역에 상응하는 고주파 성분을 구하는 제 1 산출부; 그리고,
    상기 서로 인접하는 주파수 대역에 상응하는 고주파 성분들의 차 값을 산출하여, 상기 각 주파수 대역에 상응하는 최종 주파수 신호를 구하는 제 2 산출부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  15. 제 12 항에 있어서, 상기 게인 제어부는,
    상기 분리된 주파수 대역이 고주파 대역이면, 상기 수신된 영상 신호의 원본 영상에 대한 각 픽셀의 로컬 베리언스(local variance)값을 산출하여 정규화한 다음, 상기 정규화된 로컬 베리언스값에 따라, 상기 게인값을 결정하는 고주파 게인 결정부; 그리고,
    상기 결정된 게인값에 따라, 상기 고주파 대역의 영상 신호에 대한 게인을 조절하는 고주파 게인 조절부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  16. 제 12 항에 있어서, 상기 게인 제어부는,
    상기 분리된 주파수 대역이 고주파 대역이면, 상기 수신된 영상 신호의 원본 영상에 대한 디테일 성분 값을 산출하여 정규화한 다음, 상기 정규화된 디테일 성분 값에 따라, 상기 고주파 대역의 게인값을 결정하는 고주파 게인 결정부; 그리고,
    상기 결정된 게인값에 따라, 상기 고주파 대역의 영상 신호에 대한 게인을 조절하는 고주파 게인 조절부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  17. 제 12 항에 있어서, 상기 게인 제어부는,
    상기 분리된 주파수 대역이 중주파 대역이면, 상기 중주파 대역을 중고주파 대역과 중저주파 대역으로 분리하고, 상기 분리된 중고주파 대역의 게인값과 중저주파 대역의 게인값을 산출하는 중주파 게인 산출부; 그리고,
    상기 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값의 차값이, 기준 차값보다 더 큰지를 확인하고, 상기 확인 결과, 상기 산출된 중고주파 대역의 게인값과 중저주파 대역의 게인값 사이의 차값이 상기 기준 차값보다 더 크다면, 상기 중고주파 대역의 게인값 또는 상기 중저주파 대역의 게인값을 조정하는 중주파 게인 조절부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  18. 제 12 항에 있어서, 상기 게인 제어부는,
    상기 분리된 주파수 대역이 저주파 대역이면, 상기 저주파 대역의 영상에 대한 픽셀값을 제 1 비율로 증가시켜 보상하는 제 1 보상부;
    상기 제 1 비율로 증가된 픽셀값이 기설정된 임계값에 도달하는지를 확인하고, 상기 확인 결과, 상기 제 1 비율로 증가된 픽셀값이 상기 기설정된 임계값에 도달하면, 상기 픽셀값을 제 2 비율로 증가시켜 보상하는 제 2 보상부; 그리고,
    상기 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하는지를 확인하고, 상기 확인 결과, 상기 제 2 비율로 증가된 픽셀값이 원본 영상의 최대 픽셀값에 도달하면, 상기 픽셀값의 증가를 차단하는 차단부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  19. 제 12 항에 있어서, 상기 픽셀값 조정부는,
    상기 개선된 영상의 최대 픽셀값이, 상기 기준값보다 더 크면, 상기 기준값보다 더 큰 상기 개선된 영상의 최대 픽셀값을, 상기 기준값으로 조정하는 제 1 조정부;
    상기 개선된 영상의 픽셀값들 중, 기설정된 임계값 이하의 픽셀값들을, 제 1 비율로 증가하도록 조정하는 제 2 조정부; 그리고,
    상기 개선된 영상의 픽셀값들 중, 상기 기설정된 임계값보다 더 큰 픽셀값들을, 제 2 비율로 증가하도록 조정하는 제 3 조정부를 포함하는 것을 특징으로 하는 디지털 디바이스.
  20. 제 19 항에 있어서, 상기 픽셀값 조정부는,
    상기 분리된 화면 영역들 중, 서로 이웃하는 제 1 화면 영역의 최대 픽셀값과 제 2 화면 영역의 최대 픽셀값이, 서로 다르면, 상기 제 1 화면 영역과 상기 제 2 화면 영역 사이의 경계 영역에 위치하는 픽셀들의 최대 픽셀값을 그레디언트(gradient)하게 조정하는 제 4 조정부를 더 포함하는 것을 특징으로 하는 디지털 디바이스.
PCT/KR2015/002751 2014-11-18 2015-03-20 디지털 디바이스 및 그 제어 방법 WO2016080603A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/527,695 US10469789B2 (en) 2014-11-18 2015-03-20 Digital device for improving image quality with low power and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0160958 2014-11-18
KR1020140160958A KR101643229B1 (ko) 2014-11-18 2014-11-18 디지털 디바이스 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2016080603A1 true WO2016080603A1 (ko) 2016-05-26

Family

ID=56014115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/002751 WO2016080603A1 (ko) 2014-11-18 2015-03-20 디지털 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US10469789B2 (ko)
KR (1) KR101643229B1 (ko)
WO (1) WO2016080603A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118735A (ko) 2019-04-08 2020-10-16 엘지전자 주식회사 액정표시장치
WO2023140504A1 (ko) * 2022-01-20 2023-07-27 삼성전자 주식회사 디스플레이 장치 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075805A (ko) * 2010-12-29 2012-07-09 엘지디스플레이 주식회사 로컬 디밍 장치 및 로컬 디밍 방법, 이를 이용한 액정 표시 장치의 구동 장치 및 구동 방법
KR20120122157A (ko) * 2011-04-28 2012-11-07 서강대학교산학협력단 주파수 대역별 에너지를 이용하여 주파수 영상을 합성하는 방법 및 장치
KR101329969B1 (ko) * 2010-07-09 2013-11-13 엘지디스플레이 주식회사 액정 표시 장치와 그의 로컬 디밍 구동 방법
KR101366421B1 (ko) * 2012-11-23 2014-02-25 인하대학교 산학협력단 디지털 디스플레이 장치의 전력 감소를 위한 영상 처리 시스템 및 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9711024D0 (en) * 1997-05-28 1997-07-23 Rank Xerox Ltd Image enhancement and thresholding of images
US8120570B2 (en) * 2004-12-02 2012-02-21 Sharp Laboratories Of America, Inc. Systems and methods for tone curve generation, selection and application
KR100620966B1 (ko) * 2004-12-15 2006-09-19 삼성전자주식회사 화면 적응적인 파워 제어 장치 및 그 방법
JP2009510587A (ja) * 2005-09-30 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像ディテール強調
WO2009072537A1 (ja) * 2007-12-04 2009-06-11 Sony Corporation 画像処理装置および方法、プログラム、並びに記録媒体
JP4968219B2 (ja) * 2008-09-18 2012-07-04 株式会社Jvcケンウッド 液晶表示装置及びこれに用いる映像表示方法
US8934720B2 (en) * 2011-06-24 2015-01-13 Panasonic Intellectual Property Corporation Of America Image processing device, image processing method, and integrated circuit in which super resolution process data is output as output data for input pixel data that is classified as high-frequency region data and that has noise less than or equal to a threshold
JP5821783B2 (ja) * 2012-05-31 2015-11-24 株式会社Jvcケンウッド 映像信号処理装置及び方法
JP5837009B2 (ja) * 2012-09-26 2015-12-24 キヤノン株式会社 表示装置及びその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329969B1 (ko) * 2010-07-09 2013-11-13 엘지디스플레이 주식회사 액정 표시 장치와 그의 로컬 디밍 구동 방법
KR20120075805A (ko) * 2010-12-29 2012-07-09 엘지디스플레이 주식회사 로컬 디밍 장치 및 로컬 디밍 방법, 이를 이용한 액정 표시 장치의 구동 장치 및 구동 방법
KR20120122157A (ko) * 2011-04-28 2012-11-07 서강대학교산학협력단 주파수 대역별 에너지를 이용하여 주파수 영상을 합성하는 방법 및 장치
KR101366421B1 (ko) * 2012-11-23 2014-02-25 인하대학교 산학협력단 디지털 디스플레이 장치의 전력 감소를 위한 영상 처리 시스템 및 방법

Also Published As

Publication number Publication date
US10469789B2 (en) 2019-11-05
KR20160059277A (ko) 2016-05-26
US20190089924A1 (en) 2019-03-21
KR101643229B1 (ko) 2016-07-27

Similar Documents

Publication Publication Date Title
WO2017213365A1 (en) Moving picture capturing apparatus having dual camera
WO2016056787A1 (en) Display device and method of controlling the same
WO2017090997A1 (ko) 이동 단말기
WO2016085094A1 (ko) 멀티미디어 디바이스 및 그 제어 방법
WO2016027933A1 (ko) 디지털 디바이스 및 그 제어 방법
WO2016072565A1 (ko) 화상출력장치, 이동 단말기 및 그것들의 제어 방법
WO2016182132A1 (ko) 이동단말기 및 그 제어방법
WO2014137200A1 (en) Mobile terminal and control method thereof
WO2016043404A1 (ko) 멀티미디어 장치 및 그의 오디오 신호 처리방법
WO2016056737A1 (en) Display device and method for controlling the same
WO2017018737A1 (ko) 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법
WO2017111321A1 (ko) 영상표시장치
WO2012030055A1 (en) Image display apparatus and image displaying method thereof
WO2020149619A1 (ko) 비디오 월
WO2017119571A1 (ko) 디지털 디바이스 및 그를 이용한 컬러 제어 시스템 및 방법
WO2017047868A1 (ko) 이동 단말기 및 그 제어 방법
WO2017183801A1 (ko) 이동 단말기
WO2020139018A2 (en) Signal processing device and image display apparatus including the same
WO2020071871A1 (ko) 영상 서비스 처리 방법 및 그 장치
WO2018048098A1 (en) Portable camera and controlling method therefor
WO2019031735A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE DISPLAY SYSTEM
WO2020149426A1 (ko) 영상표시기기 및 그 제어방법
WO2016080603A1 (ko) 디지털 디바이스 및 그 제어 방법
WO2017030380A1 (en) Digital device and method of processing data therein
WO2015130026A1 (ko) 디지털 디바이스 및 그의 서비스 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15860594

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15860594

Country of ref document: EP

Kind code of ref document: A1