WO2021167230A1 - Electronic device and control method therefor - Google Patents

Electronic device and control method therefor Download PDF

Info

Publication number
WO2021167230A1
WO2021167230A1 PCT/KR2020/019035 KR2020019035W WO2021167230A1 WO 2021167230 A1 WO2021167230 A1 WO 2021167230A1 KR 2020019035 W KR2020019035 W KR 2020019035W WO 2021167230 A1 WO2021167230 A1 WO 2021167230A1
Authority
WO
WIPO (PCT)
Prior art keywords
frames
frame
keyframe
luminance change
subframe
Prior art date
Application number
PCT/KR2020/019035
Other languages
French (fr)
Korean (ko)
Inventor
조영훈
최윤식
김신행
문영수
민병석
윤종수
이상수
Original Assignee
삼성전자(주)
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주), 연세대학교 산학협력단 filed Critical 삼성전자(주)
Publication of WO2021167230A1 publication Critical patent/WO2021167230A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Definitions

  • the present disclosure relates to an electronic device for preventing deterioration of an image displayed on a display, and a method for controlling the same.
  • a specific pixel may be deteriorated due to a so-called burn-in phenomenon, and thus the performance thereof may be deteriorated.
  • a digital information display device used for information transfer in public places and vehicles continuously outputs a specific image or text for a long time, deterioration of a specific pixel may be accelerated and an afterimage may occur.
  • pixel deterioration may occur in a fixedly displayed area within a channel.
  • a pixel shift technology that moves and displays an image on a display panel at a certain period
  • a luminance reduction technology that increases the lifespan by reducing the luminance of a specific area
  • An object of the present disclosure is to provide an electronic device and a control method therefor that more effectively prevent deterioration of an image displayed on a display.
  • An electronic device comprising: a display; dividing an input image into a plurality of frame sets having a first number of frames, dividing the first number of frames included in the frame set into a plurality of subframe sets having a second number of frames, and dividing the plurality of subframes For each set, a predefined keyframe is identified among frames included in each subframe set, and based on the luminance change between the frames using the identified keyframe, the region in the image in which the luminance change of the frame set is less than a threshold value. It may include a processor that identifies
  • the processor may identify a luminance change of the frame set based on a luminance change between the keyframe included in the subframe set and the other frame.
  • the processor may identify a luminance change of the set of frames based on a sequential luminance change between the keyframe and the frame subsequent to the keyframe.
  • the keyframe may be a first frame of the set of subframes including the keyframe.
  • the processor may identify a luminance change of the frame set based on a luminance change between the keyframes.
  • the processor may identify a luminance change of the set of frames based on a calculation between luminance changes in the plurality of subframe sets.
  • the frame set is a first frame set
  • the processor selects a region within the image based on a luminance change of a second frame set in a section shifted by a predefined number of subframe sets in the section of the first frame set. can be identified.
  • the processor may identify a region in the image based on a luminance change of the first frame set, and identify a change in the region based on a luminance change of the second frame set based on the identified region.
  • the processor may identify a region in the image based on a calculation between luminance changes of the first frame set and the second frame set.
  • the subframe set is a first subframe set
  • the keyframe is a first keyframe
  • the processor is configured to convert the second number of frames included in the subframe set to a third number of frames. It is divided into frame sets, and for each of the plurality of second sub-frame sets, a predefined second key frame is identified among frames included in each second sub-frame set, and the luminance change between frames using the identified second key frame is determined. A region in the image may be identified based on the image.
  • a control method of an electronic device comprising: dividing an input image into a plurality of frame sets having a first number of frames; dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames; identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets; and identifying a region in the image in which the luminance change of the set of frames is less than a threshold value based on the luminance change between the frames using the identified keyframe.
  • the identifying of the region in the image may include identifying a luminance change of the frame set based on a luminance change between the keyframe included in the subframe set and the other frame.
  • the identifying the luminance change of the frame set may include identifying the luminance change of the frame set based on the sequential luminance change between the keyframe and the frame subsequent to the keyframe.
  • the identifying of the region in the image may include identifying a luminance change of the frame set based on a luminance change between the keyframes.
  • the identifying of the region in the image may include identifying a luminance change of the frame set based on a calculation between luminance changes in the plurality of subframe sets.
  • the frame set is a first frame set
  • the step of identifying a region in the image is based on a luminance change of a second frame set in a section moved by a predefined number of subframe sets in the section of the first frame set. to identify a region within the image.
  • the identifying a region in the image may include: identifying a region in the image based on a change in luminance of the first frame set; and identifying a change in the region based on a change in luminance of the second frame set based on the identified region.
  • the subframe set is a first subframe set
  • the keyframe is a first keyframe
  • dividing a second number of frames included in the subframe set into a plurality of second subframe sets having a third number of frames step identifying a predefined second keyframe among frames included in each second subframe set for each of the plurality of second subframe sets
  • identifying a region in the image based on a change in luminance between frames using the identified second keyframe.
  • a computer readable code wherein the recording medium stores a computer program including a code for performing a control method of an electronic device, the control method of the electronic device includes: dividing into sets of frames; dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames; identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets; and identifying a region in the image in which the luminance change of the set of frames is less than a threshold value based on the luminance change between the frames using the identified keyframe.
  • FIG. 1 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an operation flowchart of an electronic device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software, and is integrated into at least one module. and can be implemented.
  • at least one of the plurality of elements refers to all of the plurality of elements as well as each one or a combination thereof excluding the rest of the plurality of elements.
  • FIG. 1 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present invention.
  • the electronic device 100 may be implemented as a display device capable of displaying an image.
  • the electronic device 100 may include a TV, a computer, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, and the like.
  • the electronic device 100 may include an interface unit 110 .
  • the interface unit 110 may include a wired interface unit 111 .
  • the wired interface unit 111 includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting can be connected, or a cable capable of receiving a broadcast signal according to a cable broadcasting standard can be connected. do.
  • the electronic device 100 may have a built-in antenna capable of receiving a broadcast signal.
  • Wired interface unit 111 is an HDMI port, DisplayPort, DVI port, Thunderbolt, composite video, component (component) video, super video (super video), such as SCART, video and / or audio transmission standards according to It may include a connector or port, and the like.
  • the wired interface unit 111 may include a connector or port according to a universal data transmission standard, such as a USB port.
  • the wired interface unit 111 may include a connector or a port to which an optical cable can be connected according to an optical transmission standard.
  • the wired interface unit 111 is connected to an external microphone or an external audio device having a microphone, and may include a connector or a port capable of receiving or inputting an audio signal from the audio device.
  • the wired interface unit 111 is connected to an audio device such as a headset, earphone, or external speaker, and may include a connector or port capable of transmitting or outputting an audio signal to the audio device.
  • the wired interface unit 111 may include a connector or port according to a network transmission standard such as Ethernet.
  • the wired interface unit 111 may be implemented as a LAN card connected to a router or a gateway by wire.
  • the wired interface unit 111 is wired through the connector or port in a 1:1 or 1:N (N is a natural number) method such as an external device such as a set-top box, an optical media playback device, or an external display device, speaker, server, etc. By being connected, a video/audio signal is received from the corresponding external device or a video/audio signal is transmitted to the corresponding external device.
  • the wired interface unit 111 may include a connector or port for separately transmitting video/audio signals.
  • the wired interface unit 111 is embedded in the electronic device 100 , but may be implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 100 .
  • the interface unit 110 may include a wireless interface unit 112 .
  • the wireless interface unit 112 may be implemented in various ways corresponding to the implementation form of the electronic device 100 .
  • the wireless interface unit 112 is a communication method RF (radio frequency), Zigbee (Zigbee), Bluetooth (bluetooth), Wi-Fi (Wi-Fi), UWB (Ultra WideBand) and NFC (Near Field Communication), etc.
  • Wireless communication can be used.
  • the wireless interface unit 112 may be implemented as a wireless communication module that performs wireless communication with an AP according to a Wi-Fi method, or a wireless communication module that performs one-to-one direct wireless communication such as Bluetooth.
  • the wireless interface unit 112 may transmit and receive data packets to and from the server by wirelessly communicating with the server on the network.
  • the wireless interface unit 112 may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
  • the wireless interface unit 112 may receive or input a remote control signal from a remote control or other external device through an IR transmitter and/or an IR receiver, or transmit or output a remote control signal to another external device.
  • the electronic device 100 may transmit/receive a remote control signal to and from the remote control or other external device through the wireless interface unit 112 of another method such as Wi-Fi or Bluetooth.
  • the electronic device 100 may further include a tuner for tuning the received broadcast signal for each channel.
  • the electronic device 100 may include a display unit 120 .
  • the display unit 120 includes a display panel capable of displaying an image on the screen.
  • the display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type.
  • the display unit 120 may further include additional components according to the structure of the display panel. For example, if the display panel is a liquid crystal type, the display unit 120 includes a liquid crystal display panel and a backlight unit for supplying light. and a panel driving substrate for driving the liquid crystal of the liquid crystal display panel.
  • the electronic device 100 may include a user input unit 130 .
  • the user input unit 130 includes various types of input interface related circuits provided to perform user input.
  • the user input unit 130 may be configured in various forms depending on the type of the electronic device 100 , for example, a mechanical or electronic button unit of the electronic device 100 , a remote controller separated from the electronic device 100 , and an electronic device.
  • the electronic device 100 may include a storage unit 140 .
  • the storage unit 140 stores digitized data.
  • the storage unit 140 has a non-volatile property that can preserve data regardless of whether or not power is provided, and data to be processed by the processor 170 is loaded and data is stored when power is not provided. It includes memory of volatile properties that cannot.
  • Storage includes flash-memory, hard-disc drive (HDD), solid-state drive (SSD), read-only memory (ROM), etc., and memory includes buffer and random access memory (RAM). etc.
  • the electronic device 100 may include a microphone 150 .
  • the microphone 150 collects sounds of the external environment including the user's voice.
  • the microphone 150 transmits the collected sound signal to the processor 170 .
  • the electronic device 100 may include a microphone 150 for collecting user voices or may receive a voice signal from an external device such as a remote controller having a microphone or a smart phone through the interface unit 110 .
  • a remote controller application may be installed in an external device to control the electronic device 100 or perform functions such as voice recognition. In the case of an external device installed with such an application, a user's voice can be received, and the external device can transmit/receive and control data using the electronic device 100 and Wi-Fi/BT or infrared rays, etc.
  • a plurality of interface units 110 that can be implemented may exist in the electronic device 100 .
  • the electronic device 100 may include a speaker 160 .
  • the speaker 160 outputs audio data processed by the processor 170 as sound.
  • the speaker 160 may include a unit speaker provided to correspond to audio data of one audio channel, and may include a plurality of unit speakers to respectively correspond to audio data of a plurality of audio channels.
  • the speaker 160 may be provided separately from the electronic device 100 . In this case, the electronic device 100 may transmit audio data to the speaker 160 through the interface unit 110 .
  • the electronic device 100 may include a processor 170 .
  • the processor 170 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method.
  • SOC system on chip
  • the processor 170 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier.
  • DSP audio digital signal processor
  • some or all of these modules may be implemented as SOC.
  • a module related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC
  • an audio DSP may be implemented as a chipset separate from the SOC.
  • the processor 170 may convert the voice signal into voice data.
  • the voice data may be text data obtained through a speech-to-text (STT) process for converting a voice signal into text data.
  • STT speech-to-text
  • the processor 170 identifies a command indicated by the voice data, and performs an operation according to the identified command.
  • the voice data processing process and the command identification and execution process may all be executed in the electronic device 100 .
  • at least a part of the process is performed by at least one server communicatively connected to the electronic device 100 through a network. can be performed.
  • the processor 170 may call at least one command among commands of software stored in a storage medium readable by a machine such as the electronic device 100 and execute it. This enables a device such as the electronic device 100 to be operated to perform at least one function according to the called at least one command.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. It does not distinguish between cases where
  • the processor 170 divides the input image into a plurality of frame sets having a first number of frames, and divides the first number of frames included in the frame set into a plurality of subframe sets having a second number of frames. , for each subframe set, identify a predefined keyframe among frames included in each subframe set, and based on the luminance change between frames using the identified keyframe, within the image in which the luminance change of the frame set is less than a threshold value. At least a part of data analysis, processing, and result information generation for identifying a region is performed using at least one of machine learning, a neural network, or a deep learning algorithm as a rule-based or artificial intelligence algorithm can do.
  • the processor 170 may perform the functions of the learning unit and the recognition unit together.
  • the learning unit may perform a function of generating a learned neural network
  • the recognition unit may perform a function of recognizing (or inferring, predicting, estimating, and judging) data using the learned neural network.
  • the learning unit may generate or update the neural network.
  • the learning unit may acquire learning data to generate a neural network.
  • the learning unit may acquire the learning data from the storage unit 140 or the outside.
  • the learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
  • the learning unit may perform a preprocessing operation on the acquired training data before training the neural network using the training data, or may select data to be used for learning from among a plurality of training data. For example, the learning unit may process the learning data into a preset format, filter it, or add/remove noise to process the learning data into a form suitable for learning.
  • the learner may generate a neural network set to perform the above-described operation by using the preprocessed learning data.
  • the learned neural network network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural networks have weights, and the plurality of neural networks may be connected to each other so that an output value of one neural network is used as an input value of another neural network.
  • Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and It can include models such as Deep Q-Networks.
  • the recognizer may acquire target data to perform the above-described operation.
  • the target data may be obtained from the storage 140 or from the outside.
  • the target data may be data to be recognized by the neural network.
  • the recognizer may perform preprocessing on the acquired target data before applying the target data to the learned neural network, or select data to be used for recognition from among a plurality of target data.
  • the recognition unit may process the target data into a preset format, filter, or add/remove noise to process the target data into a form suitable for recognition.
  • the recognizer may obtain an output value output from the neural network by applying the preprocessed target data to the neural network.
  • the recognition unit may obtain a probability value or a reliability value together with the output value.
  • control method of the electronic device 100 may be provided by being included in a computer program product.
  • the computer program product may include instructions for software executed by the processor 170 , as described above.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play StoreTM) or between two user devices (eg, smartphones). It can be distributed directly, online (eg, downloaded or uploaded). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • FIG. 2 is a block diagram illustrating an operation flowchart of an electronic device according to an embodiment of the present invention.
  • the processor 170 may divide the input image into a plurality of frame sets having the first number of frames (S210).
  • An image to be displayed on the display may be composed of a plurality of frames, and each frame may be composed of a plurality of pixels.
  • an image displayed on the TV is, for example, a broadcast program
  • a program name or a corresponding broadcaster name may be displayed on the upper portion of the display. Since the broadcast program name or broadcaster name (hereinafter referred to as the logo) is continuously displayed in the fixed area while broadcasting is continued, pixels existing in the fixed area are compared with the area in which the luminance of the pixel continuously changes. Accordingly, functions such as degradation may be reduced.
  • the electronic device is a smartphone
  • a telecommunication company logo, a signal strength indication, a remaining battery level, and the like are always displayed at the same position on the top of the smartphone. For this reason, when content that uses the entire screen, such as video, is played back, the upper part of the smartphone may look blotchy due to deterioration of pixels.
  • a method for solving such a problem is presented.
  • the processor 170 bundles a plurality of frames existing in a section in which pixels are expected to be fixed to a luminance value within a certain range in a plurality of frames constituting an image, that is, a section in which a logo is expected to be displayed in the image. You can set a frame set.
  • the processor 170 may divide the input image into a plurality of frame sets having the first number of frames. Since the area corresponding to the degradation target such as the logo (hereinafter referred to as the logo area) is not fixed on the screen, and deterioration prevention is continuously required, the processor 170 may identify the logo area based on a plurality of frame sets. have.
  • the processor 170 may divide the first number of frames included in the frame set into a plurality of subframe sets including the second number of frames ( S220 ).
  • the subframe set is a measure of how many frames the luminance change of an image will be updated, and is obtained by dividing a plurality of frames included in the frame set into the second number of frames.
  • the first number and the second number which are the number of frames in the frame set and the subframe set, need not be limited to a constant number.
  • the processor 170 may identify a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets ( S230 ).
  • a keyframe is used as a reference for finding a logo area in an image, and the keyframe may be identified for each subframe set. Keyframes can contribute to more accurate detection of the logo area. Details will be described later.
  • the processor 170 may identify a region in the image in which the luminance change of the frame set is less than a threshold value based on the luminance change between frames using the identified keyframe ( S240 ).
  • the processor 170 may use the keyframe to accumulate the luminance change between each subframe set in the image on a pixel-by-pixel basis, and calculate the luminance change of the frame set by using the luminance change. At this time, since it is the largest value among RGB that most affects the deterioration of the pixel, the largest value of the R, G, and B channels may be selected and used as luminance, but the present invention is not limited thereto. If the calculated luminance change value of the frame set does not exceed a threshold, the processor 170 may determine that there is no movement in the image, and identify an area in which the luminance change is lower than the threshold value as the logo area.
  • unnecessary luminance fluctuations can be reduced by using a keyframe, so that a region in which a logo is fixedly displayed on an image can be more accurately identified.
  • FIG. 3 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • the present invention proposes an algorithm for selecting a logo area by configuring a plurality of frames in the form of a time pyramid.
  • the processor 170 converts the frame set 310 back to a subframe set 1 and a subframe set 2 composed of a second number of frames.
  • ... can be divided into a plurality of subframe sets 320 like the subframe set N.
  • Each subframe set 320 consists of frames including a keyframe 330 .
  • the processor 170 may configure the frame set 310 in the form of a time pyramid, and identify the keyframe 330 for each subframe set 320 .
  • the reason for using the keyframe 330 in identifying the logo area is significant in the following.
  • the luminance of the logo area in the image may be fluctuated. If the luminance change of the previous frame and the current frame is simply calculated due to such a change, the luminance change that changes little by little is accumulated despite the logo area, so that it cannot be detected as the logo area.
  • the processor 170 calculates and accumulates the luminance change between the keyframe 330 and the next frame in each subframe set 320 .
  • the keyframe 330 may be the first frame of the subframe set 320 including the keyframe 330 .
  • the present invention is not limited thereto.
  • the processor 170 sets a frame set 310 in the form of a time pyramid, and then uses it to select a background other than the logo in which the luminance change occurs. It is possible to reliably guarantee the logo area while excluding it.
  • FIG. 4 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • an image has 30 fps, that is, 30 images (frames) per second
  • the processor 170 may identify the luminance change of the frame set 310 based on the luminance change between the keyframe 330 included in the subframe set 320 and another frame. For example, the processor 170 calculates a luminance change between the keyframe 1 330 included in the subframe set 1 320 and the other frames 410 , 420 , 430 , ... It is possible to calculate the luminance change of the entire frame set 310 by calculating for each.
  • the key frame 1 330 does not need to calculate the luminance change between all frames included in the subframe set 1 320 , it can be calculated only for some frames, and the frames are selected. There is no limit on how to do it.
  • the processor 170 may identify a luminance change of a frame set based on a luminance change between a keyframe and frames subsequent to the keyframe. In this case, the keyframe and the frame following the keyframe do not need to belong to the same subframe set 320 .
  • a stable logo area can be ensured by configuring a frame in the form of a time pyramid and using a key frame, rather than using a change in luminance between two consecutive frames.
  • FIG. 5 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention. This figure relates to another method of calculating a luminance change using a keyframe.
  • the frame set 310 is configured in the form of a time pyramid.
  • the processor 170 may identify the luminance change of the frame set 310 based on the luminance change between the keyframes 330 , 520 , ... . If only the luminance change between successive frames is used to select the logo area, if the bright background continues in the image, the luminance change of the bright background part in the frame set is constant, so there may be a problem in recognizing it as the logo part. In addition, it is important to select a stable logo area when the logo in the image is constant, and the logo area shows a lot of difference according to the luminance change value of the frame set. Accordingly, it is possible to select a keyframe for each subframe set divided by a predetermined number of frames within the frame set, and calculate the luminance change between the selected keyframes in units of pixels.
  • the number of frames divided into the subframe set may be related to the frequency at which errors such as luminance fluctuations due to image compression or the like occur. For example, when an error occurs once for every predetermined number of frames in the image, the number of frames included in the subframe set may be appropriately divided so that the key frame, which is a reference for calculating the luminance change, does not correspond to this error period. However, since the error may not occur according to a certain period and may be difficult to predict, at least a part of data analysis, processing, and result information generation to distinguish it is machine learning as a rule-based or artificial intelligence algorithm. , a neural network, or a deep learning algorithm.
  • the logo area when the luminance change is less than a threshold value even though it is not a logo area, even when there is an error in an image, the logo area can be accurately and stably identified.
  • FIG. 6 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • the processor 170 may select a logo area using the first frame set 310 .
  • the processor 170 may identify a region in the image based on the luminance change of the second frame set 610 in the section moved by a predefined number of subframe sets in the section of the first frame set 310 . have.
  • the processor 170 subtracts the luminance change from the first subframe set of the first frame set 310 for each new subframe set displayed after the first frame set 310 , and the difference in luminance of the new subframe set By adding , we can recalculate the total luminance change to find the logo area.
  • the first frame set 310 moves by two subframe sets to form the second frame set 610 .
  • the processor 170 subtracts the luminance changes of the subframe set 1 and the subframe set 2 from the calculated luminance values of the first frame set 310 and adds the luminance changes of the two newly added subframe sets to the second
  • a change in luminance of the frame set 610 may be obtained.
  • the processor 170 may update an area in which the recalculated luminance change does not exceed the threshold value as a new logo area. Through this, when there is a change in the logo area in the image, it is possible to detect the logo area.
  • the processor 170 identifies a region in the image based on the luminance change of the first frame set 310 and changes the region based on the luminance change of the second frame set 610 based on the identified region rather than the entire region. can be identified. Since the change of the logo area is identified based on the area identified through the first frame set 310, the speed of processing the process can be increased and the efficiency can be increased.
  • the processor 170 may identify a region in the image based on the calculation between the luminance changes of the first frame set 310 and the second frame set 610 . After the processor 170 identifies a region in the image through the first frame set 310, the first frame set 310 and the second subframe set 610 moved by a predefined number of subframe sets An area in an image may be identified by comprehensively considering the luminance changes. Through this, the identified region may be more precisely distinguished.
  • the logo area after the logo area is identified, it is possible to continuously reflect changes such as the movement of the logo area over time, so that deterioration of pixels according to the logo area is continuously prevented. and can increase processing speed and efficiency.
  • FIG. 7 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
  • the luminance change is calculated by dividing the upper subframe set into a plurality of lower subframe sets.
  • the processor 170 converts the second number of frames included in one first subframe set 710 among the plurality of first subframe sets into a plurality of frames having a third number of frames. It can be divided into a second subframe set. And the processor 170 identifies a predefined second key frame 730 among the frames included in each second sub-frame set 720 for each of the plurality of second sub-frame sets 720, and the identified second key A region in the image may be identified based on a change in luminance between frames using the frame 730 .
  • the processor 170 may calculate the change in luminance of the second subframe set 1 through an operation between frames included in the second subframe set 1 based on the second keyframe 1 , which is each second subframe It is possible to operate on a set-by-set basis.
  • the logo area is identified through this and not the entire frame set 310.
  • a logo area may be selected using a difference in luminance of the predetermined second sub-frame set 720 . Accordingly, a shorter frame than using the luminance change of the entire frame set 310 can be considered, and then, the processor 170 performs the operation of each second sub-frame set 720 , so that the luminance changes like the background part. The part is filtered so that only the desired logo area can be selected.
  • the second number and the third number which are the number of frames of the first subframe set and the second subframe set, are not necessarily limited to constant numbers.
  • noise removal is more effective than when only a subframe set of one stage is used, and it has a robust property in detecting a logo area.

Abstract

An electronic device according to one embodiment of the present invention can comprise a display and a processor, which divides an inputted image into a plurality of frame sets having a first number of frames, divides the first number of frames included in the frame sets into a plurality of subframe sets having a second number of frames, identifies a predefined key frame from among frames included in each subframe set with respect to each of the plurality of subframe sets, and identifies an area inside the image in which a brightness change of the frame sets is less than a threshold value, on the basis of the brightness change, between the frames, using the identified key frame.

Description

전자장치 및 그 제어방법Electronic device and its control method
본 개시는 디스플레이에 표시되는 영상의 열화 현상을 방지하는 전자장치 및 그 제어방법에 관한 것이다.The present disclosure relates to an electronic device for preventing deterioration of an image displayed on a display, and a method for controlling the same.
최근, 유기전계발광 표시 장치(Organic Light Emitting Display Device), 액정 표시 장치(Liquid Crystal Display Device), 플라즈마 표시 장치(Plasma Display Device) 등 다양한 종류의 표시 장치들이 널리 사용되고 있다. 이러한 표시 장치들은 구동 시간이 오래됨에 따라 소위 번 인(Burn-in) 현상에 의해 특정 픽셀(Pixel)이 열화되어 그 성능이 저하될 수 있다. 예를 들어, 공공 장소, 차량 등에서 정보 전달을 위하여 사용되는 디지털 정보 표시 장치(Digital Information Display Device)는 특정 영상 또는 글자를 오랜 시간 동안 지속적으로 출력하므로, 특정 픽셀의 열화가 가속되어 잔상이 발생할 수 있다. 특히 대부분의 방송은 화면 상단에 프로그램 이름 혹은 해당 방송사 이름을 표시하므로, 채널 내 고정되어 표시되는 영역에 픽셀의 열화가 발생할 수 있다. 이를 해결하기 위해 디스플레이 패널 상에 일정 주기로 영상을 이동시켜 표시하는 픽셀 시프트(Pixel Shift) 기술, 특정 영역의 휘도를 감소시켜 수명을 늘리는 휘도 감소(Luminance Reduction) 기술 등이 사용되고 있다. 그러나 이러한 기술을 사용하기 위해서는 픽셀의 열화가 발생하는 영역을 정확하게 파악할 필요가 있고 이는 각 기술의 효율과 직결된다.Recently, various types of display devices, such as an organic light emitting display device, a liquid crystal display device, and a plasma display device, have been widely used. In such display devices, as a driving time increases, a specific pixel may be deteriorated due to a so-called burn-in phenomenon, and thus the performance thereof may be deteriorated. For example, since a digital information display device used for information transfer in public places and vehicles continuously outputs a specific image or text for a long time, deterioration of a specific pixel may be accelerated and an afterimage may occur. have. In particular, since most broadcasts display a program name or a corresponding broadcaster name at the top of the screen, pixel deterioration may occur in a fixedly displayed area within a channel. In order to solve this problem, a pixel shift technology that moves and displays an image on a display panel at a certain period, a luminance reduction technology that increases the lifespan by reducing the luminance of a specific area, and the like are used. However, in order to use these technologies, it is necessary to accurately determine the area where pixel deterioration occurs, which is directly related to the efficiency of each technology.
본 개시의 목적은 디스플레이에 표시되는 영상의 열화 현상을 보다 효과적으로 방지하는 전자장치 및 그 제어방법을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present disclosure is to provide an electronic device and a control method therefor that more effectively prevent deterioration of an image displayed on a display.
본 발명의 일 실시예에 따른 전자장치에 있어서, 디스플레이와; 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고, 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고, 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고, 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 프로세서를 포함할 수 있다.An electronic device according to an embodiment of the present invention, comprising: a display; dividing an input image into a plurality of frame sets having a first number of frames, dividing the first number of frames included in the frame set into a plurality of subframe sets having a second number of frames, and dividing the plurality of subframes For each set, a predefined keyframe is identified among frames included in each subframe set, and based on the luminance change between the frames using the identified keyframe, the region in the image in which the luminance change of the frame set is less than a threshold value. It may include a processor that identifies
상기 프로세서는, 상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor may identify a luminance change of the frame set based on a luminance change between the keyframe included in the subframe set and the other frame.
상기 프로세서는, 상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor may identify a luminance change of the set of frames based on a sequential luminance change between the keyframe and the frame subsequent to the keyframe.
상기 키프레임은, 상기 키프레임이 포함된 상기 서브프레임 세트의 첫번째 프레임일 수 있다.The keyframe may be a first frame of the set of subframes including the keyframe.
상기 프로세서는, 상기 키프레임들 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor may identify a luminance change of the frame set based on a luminance change between the keyframes.
상기 프로세서는, 상기 복수의 서브프레임 세트에서의 휘도 변화들 간의 계산에 기초하여 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor may identify a luminance change of the set of frames based on a calculation between luminance changes in the plurality of subframe sets.
상기 프레임 세트는 제1프레임 세트이고, 상기 프로세서는, 상기 제1프레임 세트의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별할 수 있다.The frame set is a first frame set, and the processor selects a region within the image based on a luminance change of a second frame set in a section shifted by a predefined number of subframe sets in the section of the first frame set. can be identified.
상기 프로세서는, 상기 제1프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하고, 상기 식별된 영역을 기준으로 상기 제2프레임 세트의 휘도 변화에 기초한 상기 영역의 변화를 식별할 수 있다.The processor may identify a region in the image based on a luminance change of the first frame set, and identify a change in the region based on a luminance change of the second frame set based on the identified region.
상기 프로세서는, 상기 제1프레임 세트 및 상기 제2프레임 세트의 휘도 변화들 간의 계산에 기초하여 상기 영상 내의 영역을 식별할 수 있다.The processor may identify a region in the image based on a calculation between luminance changes of the first frame set and the second frame set.
상기 서브프레임 세트는 제1서브프레임 세트, 상기 키프레임은 제1키프레임이고, 상기 프로세서는, 상기 서브프레임 세트에 포함된 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나누고, 상기 복수의 제2서브프레임 세트 별로 각 제2서브프레임 세트에 포함된 프레임 중 기 정의된 제2키프레임을 식별하고, 상기 식별된 제2키프레임을 이용한 프레임 간의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별할 수 있다.The subframe set is a first subframe set, the keyframe is a first keyframe, and the processor is configured to convert the second number of frames included in the subframe set to a third number of frames. It is divided into frame sets, and for each of the plurality of second sub-frame sets, a predefined second key frame is identified among frames included in each second sub-frame set, and the luminance change between frames using the identified second key frame is determined. A region in the image may be identified based on the image.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계; 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계; 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계; 및 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.In a control method of an electronic device according to an embodiment of the present invention, the method comprising: dividing an input image into a plurality of frame sets having a first number of frames; dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames; identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets; and identifying a region in the image in which the luminance change of the set of frames is less than a threshold value based on the luminance change between the frames using the identified keyframe.
상기 영상 내의 영역을 식별하는 단계는, 상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The identifying of the region in the image may include identifying a luminance change of the frame set based on a luminance change between the keyframe included in the subframe set and the other frame.
상기 프레임 세트의 휘도 변화를 식별하는 단계는, 상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The identifying the luminance change of the frame set may include identifying the luminance change of the frame set based on the sequential luminance change between the keyframe and the frame subsequent to the keyframe.
상기 영상 내의 영역을 식별하는 단계는, 상기 키프레임들 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The identifying of the region in the image may include identifying a luminance change of the frame set based on a luminance change between the keyframes.
상기 영상 내의 영역을 식별하는 단계는, 상기 복수의 서브프레임 세트에서의 휘도 변화들 간의 계산에 기초하여 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The identifying of the region in the image may include identifying a luminance change of the frame set based on a calculation between luminance changes in the plurality of subframe sets.
상기 프레임 세트는 제1프레임 세트이고, 상기 영상 내의 영역을 식별하는 단계는, 상기 제1프레임 세트의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.The frame set is a first frame set, and the step of identifying a region in the image is based on a luminance change of a second frame set in a section moved by a predefined number of subframe sets in the section of the first frame set. to identify a region within the image.
상기 영상 내의 영역을 식별하는 단계는, 상기 제1프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 단계; 및 상기 식별된 영역을 기준으로 상기 제2프레임 세트의 휘도 변화에 기초한 상기 영역의 변화를 식별하는 단계를 포함할 수 있다.The identifying a region in the image may include: identifying a region in the image based on a change in luminance of the first frame set; and identifying a change in the region based on a change in luminance of the second frame set based on the identified region.
상기 서브프레임 세트는 제1서브프레임 세트, 상기 키프레임은 제1키프레임이고, 상기 서브프레임 세트에 포함된 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나누는 단계; 상기 복수의 제2서브프레임 세트 별로 각 제2서브프레임 세트에 포함된 프레임 중 기 정의된 제2키프레임을 식별하는 단계; 및 상기 식별된 제2키프레임을 이용한 프레임 간의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.The subframe set is a first subframe set, the keyframe is a first keyframe, and dividing a second number of frames included in the subframe set into a plurality of second subframe sets having a third number of frames step; identifying a predefined second keyframe among frames included in each second subframe set for each of the plurality of second subframe sets; and identifying a region in the image based on a change in luminance between frames using the identified second keyframe.
컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은, 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계; 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계; 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계; 및 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.A computer readable code, wherein the recording medium stores a computer program including a code for performing a control method of an electronic device, the control method of the electronic device includes: dividing into sets of frames; dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames; identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets; and identifying a region in the image in which the luminance change of the set of frames is less than a threshold value based on the luminance change between the frames using the identified keyframe.
디스플레이에 표시되는 영상의 열화 현상을 방지하기 위해 열화가 일어나는 영역을 정교하게 식별할 수 있다. 그리고, 영상에 대한 노이즈, 압축으로 인한 영역 손실이 발생하는 경우에도 안정적으로 열화가 일어나는 영역을 식별할 수 있다.In order to prevent deterioration of the image displayed on the display, it is possible to precisely identify an area where deterioration occurs. In addition, even when region loss due to noise or compression of an image occurs, it is possible to identify a region in which deterioration occurs stably.
도 1은 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 의한 전자장치의 동작 흐름도를 도시한 블록도이다.2 is a block diagram illustrating an operation flowchart of an electronic device according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.3 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.4 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.5 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.6 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.7 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numbers or symbols refer to components that perform substantially the same function, and the size of each component in the drawings may be exaggerated for clarity and convenience of description. However, the technical spirit of the present invention and its core configuration and operation are not limited to the configuration or operation described in the following embodiments. In describing the present invention, if it is determined that a detailed description of a known technology or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 발명의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.In an embodiment of the present invention, terms including an ordinal number such as first, second, etc. are used only for the purpose of distinguishing one element from another element, and the expression of the singular is plural unless the context clearly indicates otherwise. includes the expression of In addition, in an embodiment of the present invention, terms such as 'consisting', 'comprising', 'having' and the like are one or more other features or the presence of numbers, steps, operations, components, parts, or combinations thereof. Or it should be understood that the possibility of addition is not excluded in advance. In addition, in an embodiment of the present invention, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software, and is integrated into at least one module. and can be implemented. Further, in an embodiment of the present invention, at least one of the plurality of elements refers to all of the plurality of elements as well as each one or a combination thereof excluding the rest of the plurality of elements.
도 1은 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present invention.
이 때, 전자장치(100)는 영상을 표시할 수 있는 디스플레이장치로 구현될 수 있다. 일 예로, 전자장치(100)는 TV, 컴퓨터, 스마트 폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등을 포함할 수 있다.In this case, the electronic device 100 may be implemented as a display device capable of displaying an image. For example, the electronic device 100 may include a TV, a computer, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, and the like.
도 1에 도시된 바와 같이, 전자장치(100)는 인터페이스부(110)를 포함할 수 있다. 인터페이스부(110)는 유선 인터페이스부(111)를 포함할 수 있다. 유선 인터페이스부(111)는 지상파/위성방송 등 방송표준에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송표준에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(100)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부(111)는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 USB 포트 등과 같은 범용 데이터 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 광 전송표준에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 이더넷 등과 같은 네트워크 전송표준에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부(111)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.1 , the electronic device 100 may include an interface unit 110 . The interface unit 110 may include a wired interface unit 111 . The wired interface unit 111 includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting can be connected, or a cable capable of receiving a broadcast signal according to a cable broadcasting standard can be connected. do. As another example, the electronic device 100 may have a built-in antenna capable of receiving a broadcast signal. Wired interface unit 111 is an HDMI port, DisplayPort, DVI port, Thunderbolt, composite video, component (component) video, super video (super video), such as SCART, video and / or audio transmission standards according to It may include a connector or port, and the like. The wired interface unit 111 may include a connector or port according to a universal data transmission standard, such as a USB port. The wired interface unit 111 may include a connector or a port to which an optical cable can be connected according to an optical transmission standard. The wired interface unit 111 is connected to an external microphone or an external audio device having a microphone, and may include a connector or a port capable of receiving or inputting an audio signal from the audio device. The wired interface unit 111 is connected to an audio device such as a headset, earphone, or external speaker, and may include a connector or port capable of transmitting or outputting an audio signal to the audio device. The wired interface unit 111 may include a connector or port according to a network transmission standard such as Ethernet. For example, the wired interface unit 111 may be implemented as a LAN card connected to a router or a gateway by wire.
유선 인터페이스부(111)는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(111)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다. The wired interface unit 111 is wired through the connector or port in a 1:1 or 1:N (N is a natural number) method such as an external device such as a set-top box, an optical media playback device, or an external display device, speaker, server, etc. By being connected, a video/audio signal is received from the corresponding external device or a video/audio signal is transmitted to the corresponding external device. The wired interface unit 111 may include a connector or port for separately transmitting video/audio signals.
그리고, 본 실시예에 따르면 유선 인터페이스부(111)는 전자장치(100)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(100)의 커넥터에 착탈될 수도 있다. Also, according to the present embodiment, the wired interface unit 111 is embedded in the electronic device 100 , but may be implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 100 .
인터페이스부(110)는 무선 인터페이스부(112)를 포함할 수 있다. 무선 인터페이스부(112)는 전자장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(112)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi), UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부(112)는 와이파이(Wi-Fi) 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부(112)는 네트워크 상의 서버와 무선 통신함으로써, 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부(112)는 적외선 통신표준에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(112)는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(100)는 와이파이(Wi-Fi), 블루투스(bluetooth) 등 다른 방식의 무선 인터페이스부(112)를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.The interface unit 110 may include a wireless interface unit 112 . The wireless interface unit 112 may be implemented in various ways corresponding to the implementation form of the electronic device 100 . For example, the wireless interface unit 112 is a communication method RF (radio frequency), Zigbee (Zigbee), Bluetooth (bluetooth), Wi-Fi (Wi-Fi), UWB (Ultra WideBand) and NFC (Near Field Communication), etc. Wireless communication can be used. The wireless interface unit 112 may be implemented as a wireless communication module that performs wireless communication with an AP according to a Wi-Fi method, or a wireless communication module that performs one-to-one direct wireless communication such as Bluetooth. The wireless interface unit 112 may transmit and receive data packets to and from the server by wirelessly communicating with the server on the network. The wireless interface unit 112 may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard. The wireless interface unit 112 may receive or input a remote control signal from a remote control or other external device through an IR transmitter and/or an IR receiver, or transmit or output a remote control signal to another external device. As another example, the electronic device 100 may transmit/receive a remote control signal to and from the remote control or other external device through the wireless interface unit 112 of another method such as Wi-Fi or Bluetooth.
전자장치(100)는 인터페이스부(110)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다.When the video/audio signal received through the interface unit 110 is a broadcast signal, the electronic device 100 may further include a tuner for tuning the received broadcast signal for each channel.
전자장치(100)는 디스플레이부(120)를 포함할 수 있다. 디스플레이부(120)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이부(120)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면 디스플레이 패널이 액정 방식이라면, 디스플레이부(120)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다.The electronic device 100 may include a display unit 120 . The display unit 120 includes a display panel capable of displaying an image on the screen. The display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type. The display unit 120 may further include additional components according to the structure of the display panel. For example, if the display panel is a liquid crystal type, the display unit 120 includes a liquid crystal display panel and a backlight unit for supplying light. and a panel driving substrate for driving the liquid crystal of the liquid crystal display panel.
전자장치(100)는 사용자입력부(130)를 포함할 수 있다. 사용자입력부(130)는 사용자의 입력을 수행하기 위해 마련된 다양한 종류의 입력 인터페이스 관련 회로를 포함한다. 사용자입력부(130)는 전자장치(100)의 종류에 따라서 여러 가지 형태의 구성이 가능하며, 예컨대, 전자장치(100)의 기계적 또는 전자적 버튼부, 전자장치(100)와 분리된 리모트 컨트롤러, 전자장치(100)와 연결된 외부기기에서의 입력부, 터치패드, 디스플레이부(120)에 설치된 터치스크린 등이 있다.The electronic device 100 may include a user input unit 130 . The user input unit 130 includes various types of input interface related circuits provided to perform user input. The user input unit 130 may be configured in various forms depending on the type of the electronic device 100 , for example, a mechanical or electronic button unit of the electronic device 100 , a remote controller separated from the electronic device 100 , and an electronic device. There is an input unit in an external device connected to the device 100 , a touch pad, and a touch screen installed on the display unit 120 .
전자장치(100)는 저장부(140)를 포함할 수 있다. 저장부(140)는 디지털화된 데이터를 저장한다. 저장부(140)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(storage)와, 프로세서(170)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(memory)를 포함한다. 스토리지에는 플래시메모리(flash-memory), HDD(hard-disc drive), SSD(solid-state drive) ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(buffer), 램(RAM; Random Access Memory) 등이 있다.The electronic device 100 may include a storage unit 140 . The storage unit 140 stores digitized data. The storage unit 140 has a non-volatile property that can preserve data regardless of whether or not power is provided, and data to be processed by the processor 170 is loaded and data is stored when power is not provided. It includes memory of volatile properties that cannot. Storage includes flash-memory, hard-disc drive (HDD), solid-state drive (SSD), read-only memory (ROM), etc., and memory includes buffer and random access memory (RAM). etc.
전자장치(100)는 마이크로폰(150)을 포함할 수 있다. 마이크로폰(150)은 사용자 음성을 비롯한 외부 환경의 소리를 수집한다. 마이크로폰(150)은 수집된 소리의 신호를 프로세서(170)에 전달한다. 전자장치(100)는 사용자 음성을 수집하는 마이크로폰(150)을 구비하거나, 또는 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. 외부장치에 리모트 컨트롤러 어플리케이션을 설치하여 전자장치(100)를 제어하거나 음성 인식 등의 기능을 수행할 수도 있다. 이와 같은 어플리케이션이 설치된 외부장치의 경우, 사용자 음성을 수신할 수 있으며, 외부장치는 전자장치(100)와 Wi-Fi/BT 또는 적외선 등을 이용하여 데이터 송수신 및 제어가 가능한 바, 상기 통신 방식을 구현할 수 있는 복수의 인터페이스부(110)가 전자장치(100) 내에 존재할 수 있다.The electronic device 100 may include a microphone 150 . The microphone 150 collects sounds of the external environment including the user's voice. The microphone 150 transmits the collected sound signal to the processor 170 . The electronic device 100 may include a microphone 150 for collecting user voices or may receive a voice signal from an external device such as a remote controller having a microphone or a smart phone through the interface unit 110 . A remote controller application may be installed in an external device to control the electronic device 100 or perform functions such as voice recognition. In the case of an external device installed with such an application, a user's voice can be received, and the external device can transmit/receive and control data using the electronic device 100 and Wi-Fi/BT or infrared rays, etc. A plurality of interface units 110 that can be implemented may exist in the electronic device 100 .
전자장치(100)는 스피커(160)를 포함할 수 있다. 스피커(160)는 프로세서(170)에 의해 처리되는 오디오 데이터를 소리로 출력한다. 스피커(160)는 어느 한 오디오 채널의 오디오 데이터에 대응하게 마련된 단위 스피커를 포함하며, 복수 오디오 채널의 오디오 데이터에 각기 대응하도록 복수의 단위 스피커를 포함할 수 있다. 다른 실시예로서, 스피커(160)는 전자장치(100)와 분리되어 마련될 수 있으며, 이 경우 전자장치(100)는 오디오 데이터를 인터페이스부(110)를 통하여 스피커(160)로 전달할 수 있다.The electronic device 100 may include a speaker 160 . The speaker 160 outputs audio data processed by the processor 170 as sound. The speaker 160 may include a unit speaker provided to correspond to audio data of one audio channel, and may include a plurality of unit speakers to respectively correspond to audio data of a plurality of audio channels. As another embodiment, the speaker 160 may be provided separately from the electronic device 100 . In this case, the electronic device 100 may transmit audio data to the speaker 160 through the interface unit 110 .
전자장치(100)는 프로세서(170)를 포함할 수 있다. 프로세서(170)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(170)는 전자장치(100)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.The electronic device 100 may include a processor 170 . The processor 170 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method. When the electronic device 100 is implemented as a display device, the processor 170 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier. Here, some or all of these modules may be implemented as SOC. For example, a module related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC, and an audio DSP may be implemented as a chipset separate from the SOC.
프로세서(170)는 마이크로폰(150) 등에 의해 사용자 음성에 대한 음성신호를 획득하면, 음성신호를 음성데이터로 변환할 수 있다. 이 때, 음성데이터는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정을 통해 얻어진 텍스트 데이터일 수 있다. 프로세서(170)는 음성데이터가 나타내는 커맨드를 식별하고, 식별된 커맨드에 따라서 동작을 수행한다. 음성데이터 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(100)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(100)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(100)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다.When the processor 170 obtains a voice signal for the user's voice by the microphone 150 or the like, the processor 170 may convert the voice signal into voice data. In this case, the voice data may be text data obtained through a speech-to-text (STT) process for converting a voice signal into text data. The processor 170 identifies a command indicated by the voice data, and performs an operation according to the identified command. The voice data processing process and the command identification and execution process may all be executed in the electronic device 100 . However, in this case, since the system load and required storage capacity required for the electronic device 100 become relatively large, at least a part of the process is performed by at least one server communicatively connected to the electronic device 100 through a network. can be performed.
본 발명에 따른 프로세서(170)는 전자장치(100)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 소프트웨어의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(100)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.The processor 170 according to the present invention may call at least one command among commands of software stored in a storage medium readable by a machine such as the electronic device 100 and execute it. This enables a device such as the electronic device 100 to be operated to perform at least one function according to the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. It does not distinguish between cases where
한편, 프로세서(170)는 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고, 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고, 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고, 식별된 키프레임을 이용한 프레임 간의 휘도 변화에 기초하여, 프레임 세트의 휘도 변화가 임계값 미만인 영상 내의 영역을 식별하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.Meanwhile, the processor 170 divides the input image into a plurality of frame sets having a first number of frames, and divides the first number of frames included in the frame set into a plurality of subframe sets having a second number of frames. , for each subframe set, identify a predefined keyframe among frames included in each subframe set, and based on the luminance change between frames using the identified keyframe, within the image in which the luminance change of the frame set is less than a threshold value. At least a part of data analysis, processing, and result information generation for identifying a region is performed using at least one of machine learning, a neural network, or a deep learning algorithm as a rule-based or artificial intelligence algorithm can do.
일 예로, 프로세서(170)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(140) 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.For example, the processor 170 may perform the functions of the learning unit and the recognition unit together. The learning unit may perform a function of generating a learned neural network, and the recognition unit may perform a function of recognizing (or inferring, predicting, estimating, and judging) data using the learned neural network. The learning unit may generate or update the neural network. The learning unit may acquire learning data to generate a neural network. For example, the learning unit may acquire the learning data from the storage unit 140 or the outside. The learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.The learning unit may perform a preprocessing operation on the acquired training data before training the neural network using the training data, or may select data to be used for learning from among a plurality of training data. For example, the learning unit may process the learning data into a preset format, filter it, or add/remove noise to process the learning data into a form suitable for learning. The learner may generate a neural network set to perform the above-described operation by using the preprocessed learning data.
학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.The learned neural network network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural networks have weights, and the plurality of neural networks may be connected to each other so that an output value of one neural network is used as an input value of another neural network. Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and It can include models such as Deep Q-Networks.
한편 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(140) 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.Meanwhile, the recognizer may acquire target data to perform the above-described operation. The target data may be obtained from the storage 140 or from the outside. The target data may be data to be recognized by the neural network. The recognizer may perform preprocessing on the acquired target data before applying the target data to the learned neural network, or select data to be used for recognition from among a plurality of target data. For example, the recognition unit may process the target data into a preset format, filter, or add/remove noise to process the target data into a form suitable for recognition. The recognizer may obtain an output value output from the neural network by applying the preprocessed target data to the neural network. The recognition unit may obtain a probability value or a reliability value together with the output value.
일 예로, 본 발명에 따른 전자장치(100)의 제어방법은 컴퓨터 프로그램 제품 (Computer Program Product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은, 앞서 설명한, 프로세서(170)에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.For example, the control method of the electronic device 100 according to the present invention may be provided by being included in a computer program product. The computer program product may include instructions for software executed by the processor 170 , as described above. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play Store™) or between two user devices (eg, smartphones). It can be distributed directly, online (eg, downloaded or uploaded). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
도 2는 본 발명의 일 실시예에 의한 전자장치의 동작 흐름도를 도시한 블록도이다.2 is a block diagram illustrating an operation flowchart of an electronic device according to an embodiment of the present invention.
프로세서(170)는 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나눌 수 있다(S210).The processor 170 may divide the input image into a plurality of frame sets having the first number of frames (S210).
디스플레이에 표시하고자 하는 영상은 복수의 프레임으로 구성되고, 각 프레임은 복수의 픽셀로 구성될 수 있다. 전자장치(100)가 TV이고, TV에 표시되는 영상이 예컨대, 방송 프로그램인 경우, 디스플레이 상단에 프로그램 이름 혹은 해당 방송사 이름이 표시될 수 있다. 방송 프로그램 이름이나 방송사 이름(이하 로고라 한다.)은 방송이 계속되는 동안 고정된 영역에 지속적으로 표시되므로, 고정된 영역에 존재하는 픽셀들은, 계속해서 픽셀의 휘도(luminance)가 변화하는 영역과 비교하여, 열화(degradation) 등 기능이 저하될 수 있다. 혹은, 전자장치가 스마트폰인 경우, 스마트폰 상단에는 통신사 로고, 신호 강도 표시, 배터리 잔량 등이 항상 같은 위치에 표시된다. 이 때문에 비디오 등 화면 전체를 사용하는 컨텐트를 재생할 때, 스마트폰 상단 부분은 픽셀이 열화되어 얼룩이 진 형태로 보일 수 있다. 이하 이와 같은 문제를 해결하기 위한 방안을 제시한다. An image to be displayed on the display may be composed of a plurality of frames, and each frame may be composed of a plurality of pixels. When the electronic device 100 is a TV and an image displayed on the TV is, for example, a broadcast program, a program name or a corresponding broadcaster name may be displayed on the upper portion of the display. Since the broadcast program name or broadcaster name (hereinafter referred to as the logo) is continuously displayed in the fixed area while broadcasting is continued, pixels existing in the fixed area are compared with the area in which the luminance of the pixel continuously changes. Accordingly, functions such as degradation may be reduced. Alternatively, when the electronic device is a smartphone, a telecommunication company logo, a signal strength indication, a remaining battery level, and the like are always displayed at the same position on the top of the smartphone. For this reason, when content that uses the entire screen, such as video, is played back, the upper part of the smartphone may look blotchy due to deterioration of pixels. Hereinafter, a method for solving such a problem is presented.
따라서, 프로세서(170)는 영상을 구성하는 복수의 프레임에서 픽셀이 일정 범위내의 휘도 값으로 고정되어 있다고 예상되는 구간, 즉, 로고가 영상에 표시될 것으로 예상되는 구간에 존재하는 복수의 프레임을 묶은 프레임 세트를 정할 수 있다. 본 발명의 일 실시예에 따르면, 프로세서(170)는 입력되는 영상을 제 1 개수의 프레임을 가지는 복수의 프레임 세트로 나눌 수 있다. 로고 등 열화 대상에 해당하는 영역(이하 로고 영역이라 한다.)은 화면 상에서 고정된 것이 아니고, 열화 방지는 지속적으로 필요하므로, 프로세서(170)는 복수의 프레임 세트에 기초하여 로고 영역을 식별할 수 있다. 프레임 세트는 길이가 길수록 프레임 내 많은 영역의 프레임 휘도 변화를 고려하여 로고 영역을 선정하는데 정확성을 높일 수 있다. 다만 프레임 세트의 길이와 로고 영역 선정 시간은 트레이드 오프(trade-off)관계에 있으므로, 양자 비교하여 적합한 길이의 구간을 정할 수 있다.Accordingly, the processor 170 bundles a plurality of frames existing in a section in which pixels are expected to be fixed to a luminance value within a certain range in a plurality of frames constituting an image, that is, a section in which a logo is expected to be displayed in the image. You can set a frame set. According to an embodiment of the present invention, the processor 170 may divide the input image into a plurality of frame sets having the first number of frames. Since the area corresponding to the degradation target such as the logo (hereinafter referred to as the logo area) is not fixed on the screen, and deterioration prevention is continuously required, the processor 170 may identify the logo area based on a plurality of frame sets. have. The longer the frame set, the more accurate the logo area selection can be in consideration of the frame luminance change in many areas within the frame. However, since there is a trade-off relationship between the frame set length and the logo area selection time, it is possible to determine an appropriate length section by comparing them.
프로세서(170)는 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나눌 수 있다(S220). 서브프레임 세트는 영상의 휘도 변화가 몇 프레임마다 갱신될 것인지를 알 수 있는 척도로써, 프레임 세트에 포함된 복수의 프레임을 제 2 개수의 프레임으로 나눈 것이다. 다만, 프레임 세트 및 서브프레임 세트의 프레임 수인 제 1 개수 및 제 2 개수는 일정한 수에 한정될 필요는 없다.The processor 170 may divide the first number of frames included in the frame set into a plurality of subframe sets including the second number of frames ( S220 ). The subframe set is a measure of how many frames the luminance change of an image will be updated, and is obtained by dividing a plurality of frames included in the frame set into the second number of frames. However, the first number and the second number, which are the number of frames in the frame set and the subframe set, need not be limited to a constant number.
프로세서(170)는 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별할 수 있다(S230). 키프레임은 영상 내에서 로고 영역을 찾기 위한 기준으로 사용되고, 키프레임은 각 서브프레임 세트마다 식별될 수 있다. 키프레임은 로고 영역을 좀 더 정확하게 탐지하는데 기여할 수 있다. 자세한 내용은 후술한다.The processor 170 may identify a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets ( S230 ). A keyframe is used as a reference for finding a logo area in an image, and the keyframe may be identified for each subframe set. Keyframes can contribute to more accurate detection of the logo area. Details will be described later.
프로세서(170)는 식별된 키프레임을 이용한 프레임 간의 휘도 변화에 기초하여, 프레임 세트의 휘도 변화가 임계값 미만인 영상 내의 영역을 식별할 수 있다(S240).The processor 170 may identify a region in the image in which the luminance change of the frame set is less than a threshold value based on the luminance change between frames using the identified keyframe ( S240 ).
프로세서(170)는 키프레임을 이용하여, 픽셀 단위로 영상 내 각 서브프레임 세트 간의 휘도 변화를 축적하고, 이를 이용하여 프레임 세트의 휘도 변화를 계산할 수 있다. 이 때, 픽셀의 열화에 가장 영향을 끼치는 것은 각 RGB 중 가장 큰 값이므로, R, G, B 채널의 가장 큰 값을 선정하여 휘도로 이용할 수 있으나, 이에 한정되는 것은 아니다. 계산된 프레임 세트의 휘도 변화값이 임계값(threshold)을 넘지 않는다면, 프로세서(170)는 영상 내 움직임이 없다고 판단하고, 휘도 변화가 임계값보다 낮은 영역을 로고 영역으로 식별할 수 있다. The processor 170 may use the keyframe to accumulate the luminance change between each subframe set in the image on a pixel-by-pixel basis, and calculate the luminance change of the frame set by using the luminance change. At this time, since it is the largest value among RGB that most affects the deterioration of the pixel, the largest value of the R, G, and B channels may be selected and used as luminance, but the present invention is not limited thereto. If the calculated luminance change value of the frame set does not exceed a threshold, the processor 170 may determine that there is no movement in the image, and identify an area in which the luminance change is lower than the threshold value as the logo area.
본 발명의 일 실시예에 따르면, 키프레임을 이용하여 불필요한 휘도 변동을 줄일 수 있어 영상에 로고가 고정적으로 표시되는 영역을 더 정확하게 식별할 수 있다. According to an embodiment of the present invention, unnecessary luminance fluctuations can be reduced by using a keyframe, so that a region in which a logo is fixedly displayed on an image can be more accurately identified.
도 3은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 발명에서는 도 3에 도시된 바와 같이, 복수의 프레임을 시간 피라미드 형태로 구성하여 로고 영역을 선정하는 알고리즘을 제안한다. 도 3에 따르면, 제 1 개수의 프레임들로 구성된 프레임 세트(310)가 있고, 프로세서(170)는 프레임 세트(310)를 다시 제 2 개수의 프레임들로 구성된 서브프레임 세트 1, 서브프레임 세트 2, …, 서브프레임 세트 N과 같이 복수의 서브프레임 세트(320)로 나눌 수 있다. 각 서브프레임 세트(320)는 키프레임(330)을 포함하는 프레임들로 구성된다.3 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention. As shown in FIG. 3, the present invention proposes an algorithm for selecting a logo area by configuring a plurality of frames in the form of a time pyramid. Referring to FIG. 3 , there is a frame set 310 composed of a first number of frames, and the processor 170 converts the frame set 310 back to a subframe set 1 and a subframe set 2 composed of a second number of frames. , … , can be divided into a plurality of subframe sets 320 like the subframe set N. Each subframe set 320 consists of frames including a keyframe 330 .
본 발명에서 프로세서(170)는 시간 피라미드 형태의 프레임 세트(310)를 구성하고, 각 서브프레임 세트(320) 별로 키프레임(330)을 식별할 수 있다. 로고 영역을 식별함에 있어 키프레임(330)을 이용하는 이유는 다음에서 그 의의가 있다. 방송 환경 등에 따라 영상의 압축이 발생하였을 때, 영상 내 로고 영역의 휘도에 변동(fluctuation)이 일어날 수 있다. 이러한 변동으로 인하여 단순히 이전 프레임과 현재 프레임의 휘도 변화를 계산하게 된다면, 로고 영역임에도 불구하고 조금씩 변화하는 휘도 변화가 누적되게 되므로 로고 영역으로 탐지할 수 없게 된다. 키프레임(330)을 두게 되는 경우, 프로세서(170)는 각 서브프레임 세트(320) 내에서 키프레임(330)과 다음 프레임과의 휘도 변화를 계산하여 축적한다. 키프레임(330)을 이용하여 휘도 변화의 기준을 둠으로써 로고 영역에서의 미세한 휘도 변동에 따른 휘도 차이를 줄여 로고 영역을 좀 더 정확하게 탐지하는데 기여를 할 수 있다. 예컨대, 키프레임(330)은, 키프레임(330)이 포함된 서브프레임 세트(320)의 첫번째 프레임일 수 있다. 다만, 이에 한정되는 것은 아니다. In the present invention, the processor 170 may configure the frame set 310 in the form of a time pyramid, and identify the keyframe 330 for each subframe set 320 . The reason for using the keyframe 330 in identifying the logo area is significant in the following. When the image is compressed according to the broadcasting environment, etc., the luminance of the logo area in the image may be fluctuated. If the luminance change of the previous frame and the current frame is simply calculated due to such a change, the luminance change that changes little by little is accumulated despite the logo area, so that it cannot be detected as the logo area. When the keyframe 330 is provided, the processor 170 calculates and accumulates the luminance change between the keyframe 330 and the next frame in each subframe set 320 . By using the keyframe 330 as a criterion for luminance change, it is possible to reduce the luminance difference due to minute luminance fluctuations in the logo region, thereby contributing to more accurate detection of the logo region. For example, the keyframe 330 may be the first frame of the subframe set 320 including the keyframe 330 . However, the present invention is not limited thereto.
또한, 영상 내 로고가 일정하게 있을 때 안정적인 로고 영역을 선정하기 위해서, 프로세서(170)는 시간 피라미드 형태의 프레임 세트(310)를 설정한 후, 이를 활용하여 휘도 변화가 발생하는 로고 이외의 배경을 제외하면서 로고 영역을 안정적으로 보장할 수 있다. In addition, in order to select a stable logo area when the logo in the image is constant, the processor 170 sets a frame set 310 in the form of a time pyramid, and then uses it to select a background other than the logo in which the luminance change occurs. It is possible to reliably guarantee the logo area while excluding it.
따라서, 본 발명의 일 실시예에 따르면, 로고 영역에 대한 노이즈, 압축으로 인한 로고 영역 손실이 발생하는 경우에도 안정적으로 로고 영역을 선정할 수 있다.Therefore, according to an embodiment of the present invention, even when a logo area loss occurs due to noise or compression of the logo area, it is possible to stably select the logo area.
도 4는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 예컨대, 영상이 30fps, 즉, 1초에 30장의 이미지(프레임)를 가지는 경우, 인접한 두 프레임간의 휘도 변화만을 고려하게 되면, 장면이 전환되는 경우를 제외하고는 대부분 유사한 휘도 값을 가지고 있어 로고 영역에 해당하는 픽셀을 찾는 것은 어렵다. 따라서, 여러 프레임의 휘도 변화를 축척하여 알고리즘을 설계하여야 하므로, 본 도면에서는 키프레임을 이용하여 휘도 변화를 계산하는 방법에 대해 자세히 살펴본다.4 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention. For example, when an image has 30 fps, that is, 30 images (frames) per second, if only the luminance change between two adjacent frames is considered, most have similar luminance values except for the case of a scene change, so the logo area It is difficult to find the corresponding pixel. Therefore, since it is necessary to design an algorithm by accumulating the luminance change of several frames, in this figure, a method of calculating the luminance change using a key frame will be described in detail.
도 4에는 앞서 설명한 시간 피라미드 형태의 프레임 세트(310)와 이를 나눈 복수의 서브프레임 세트(320)가 도시되어 있다. 서브프레임 세트(320)는 다시 프레임들로 이루어져 있고, 그 중 제일 첫 프레임인 키프레임(330)이 존재한다. 프로세서(170)는 서브프레임 세트(320)에 포함된 키프레임(330)과 다른 프레임 간의 휘도 변화에 기초하여, 프레임 세트(310)의 휘도 변화를 식별할 수 있다. 예컨대, 프로세서(170)는 서브프레임 세트 1(320)에 포함된 키프레임 1(330)과 다른 프레임(410, 420, 430, …)간의 휘도 변화를 계산하고, 이를 각 서브프레임 세트(320) 별로 계산하여 전체 프레임 세트(310)의 휘도 변화를 계산할 수 있다. 4 shows the frame set 310 in the form of a time pyramid described above and a plurality of subframe sets 320 divided therefrom. The subframe set 320 again consists of frames, and among them, a keyframe 330, which is the first frame, exists. The processor 170 may identify the luminance change of the frame set 310 based on the luminance change between the keyframe 330 included in the subframe set 320 and another frame. For example, the processor 170 calculates a luminance change between the keyframe 1 330 included in the subframe set 1 320 and the other frames 410 , 420 , 430 , ... It is possible to calculate the luminance change of the entire frame set 310 by calculating for each.
다만 본 도면에 도시된 바와 같이, 키프레임 1(330)은 서브프레임 세트 1(320)에 포함된 모든 프레임들간의 휘도 변화를 계산할 필요는 없고, 일부 프레임에 대해서만 계산할 수 있으며, 그 프레임들을 선택하는 방법에는 한정이 없다.However, as shown in this figure, the key frame 1 330 does not need to calculate the luminance change between all frames included in the subframe set 1 320 , it can be calculated only for some frames, and the frames are selected. There is no limit on how to do it.
본 발명의 다른 실시예에 따르면, 프로세서(170)는 키프레임과, 키프레임에 후속하는 프레임들 간의 휘도 변화에 기초하여, 프레임 세트의 휘도 변화를 식별할 수 있다. 이 경우 키프레임과, 키프레임에 후속하는 프레임은 동일 서브프레임 세트(320)에 속할 필요는 없다.According to another embodiment of the present invention, the processor 170 may identify a luminance change of a frame set based on a luminance change between a keyframe and frames subsequent to the keyframe. In this case, the keyframe and the frame following the keyframe do not need to belong to the same subframe set 320 .
본 발명에서는, 연속된 두 프레임 간의 휘도 변화를 이용하는 것이 아닌, 시간 피라미드 형태의 프레임을 구성하고, 키프레임을 활용함으로써 안정적인 로고 영역을 보장할 수 있다.In the present invention, a stable logo area can be ensured by configuring a frame in the form of a time pyramid and using a key frame, rather than using a change in luminance between two consecutive frames.
도 5는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 도면은 키프레임을 이용하여 휘도 변화를 계산하는 또 다른 방법에 관한 것이다. 본 실시예에서는 앞서 설명한 것과 마찬가지로 프레임 세트(310)는 시간 피라미드 형태로 구성된다.5 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention. This figure relates to another method of calculating a luminance change using a keyframe. In this embodiment, as described above, the frame set 310 is configured in the form of a time pyramid.
프로세서(170)는 키프레임들(330, 520, …) 간의 휘도 변화에 기초하여, 프레임 세트(310)의 휘도 변화를 식별할 수 있다. 로고 영역을 선정하기 위해, 연속된 프레임간의 휘도 변화만을 사용한다면, 영상 내에서 밝은 배경이 지속될 경우 프레임 세트 내에서 밝은 배경 부분의 휘도 변화가 일정하므로 이를 로고 부분으로 인식하는 문제점이 발생할 수 있다. 또한, 영상 내 로고가 일정하게 있을 때 안정적인 로고 영역을 선정하는 것이 중요한데, 프레임 세트의 휘도 변화값에 따라 로고 영역이 많은 차이를 나타내게 된다. 따라서 프레임 세트 내에서 일정 프레임 수로 나누어진 서브프레임 세트마다 키프레임을 선정하고, 픽셀 단위로 선정된 키프레임간의 휘도 변화를 계산할 수 있다. 이 때, 서브프레임 세트로 나누는 프레임 수는 영상의 압축 등으로 인한 휘도 변동 등 에러가 발생하는 빈도와 관계가 있을 수 있다. 예컨대, 영상에서 에러가 일정 프레임 수마다 한번씩 발생하는 경우, 휘도 변화를 계산하게 되는 기준인 키프레임이 이 에러 주기에 해당되지 않도록 서브프레임 세트에 포함되는 프레임의 수를 적절히 나눌 수 있다. 다만, 에러는 일정 주기에 따라 발생하지 않을 수 있고, 예측하기 어려울 수 있으므로, 이를 별하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.The processor 170 may identify the luminance change of the frame set 310 based on the luminance change between the keyframes 330 , 520 , ... . If only the luminance change between successive frames is used to select the logo area, if the bright background continues in the image, the luminance change of the bright background part in the frame set is constant, so there may be a problem in recognizing it as the logo part. In addition, it is important to select a stable logo area when the logo in the image is constant, and the logo area shows a lot of difference according to the luminance change value of the frame set. Accordingly, it is possible to select a keyframe for each subframe set divided by a predetermined number of frames within the frame set, and calculate the luminance change between the selected keyframes in units of pixels. In this case, the number of frames divided into the subframe set may be related to the frequency at which errors such as luminance fluctuations due to image compression or the like occur. For example, when an error occurs once for every predetermined number of frames in the image, the number of frames included in the subframe set may be appropriately divided so that the key frame, which is a reference for calculating the luminance change, does not correspond to this error period. However, since the error may not occur according to a certain period and may be difficult to predict, at least a part of data analysis, processing, and result information generation to distinguish it is machine learning as a rule-based or artificial intelligence algorithm. , a neural network, or a deep learning algorithm.
본 발명의 일 실시예에 따르면, 로고 영역이 아님에도 휘도 변화가 임계값 미만인 경우, 영상에 에러가 있는 경우 등에도 로고 영역을 정확하고 안정적으로 식별할 수 있다.According to an embodiment of the present invention, when the luminance change is less than a threshold value even though it is not a logo area, even when there is an error in an image, the logo area can be accurately and stably identified.
도 6은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 도면에서는, 하나의 프레임 세트를 이용하여 로고 영역을 선정한 후, 이후 프레임에 따라 변화되는 로고 영역을 업데이트 하는 방안을 제시하고 있다. 프로세서(170)는 제1프레임 세트(310)를 이용하여 로고 영역을 선정할 수 있다. 그리고 프로세서(170)는, 제1프레임 세트(310)의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트(610)의 휘도 변화에 기초하여 영상 내의 영역을 식별할 수 있다. 예컨대, 프로세서(170)는 제1프레임 세트(310) 이후에 표시되는 새로운 서브프레임 세트마다 제1프레임 세트(310)의 가장 앞의 서브프레임 세트부터 휘도 변화를 빼고, 새로운 서브프레임 세트의 휘도 차이를 더하여, 로고 영역을 찾는 전체 휘도 변화를 다시 계산할 수 있다. 도 6을 참조해보면, 제1프레임 세트(310)는 두개의 서브프레임 세트만큼 이동하여 제2프레임 세트(610)를 이룬다. 따라서, 프로세서(170)는 제1프레임 세트(310)의 계산된 휘도값에서 서브프레임 세트 1과 서브프레임 세트 2의 휘도 변화를 빼고, 새로 추가된 두개의 서브프레임 세트의 휘도 변화를 더하여 제2프레임 세트(610)의 휘도 변화를 구할 수 있다. 그 후, 프로세서(170)는 다시 계산된 휘도 변화가 임계값을 넘지 않는 영역을 새로운 로고 영역으로 업데이트 할 수 있다. 이를 통해 영상 내의 로고 영역의 변화가 있는 경우, 로고 영역의 탐지가 가능하게 된다.6 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention. In this drawing, after selecting a logo area using one frame set, a method of updating a logo area that is changed according to a subsequent frame is presented. The processor 170 may select a logo area using the first frame set 310 . In addition, the processor 170 may identify a region in the image based on the luminance change of the second frame set 610 in the section moved by a predefined number of subframe sets in the section of the first frame set 310 . have. For example, the processor 170 subtracts the luminance change from the first subframe set of the first frame set 310 for each new subframe set displayed after the first frame set 310 , and the difference in luminance of the new subframe set By adding , we can recalculate the total luminance change to find the logo area. Referring to FIG. 6 , the first frame set 310 moves by two subframe sets to form the second frame set 610 . Accordingly, the processor 170 subtracts the luminance changes of the subframe set 1 and the subframe set 2 from the calculated luminance values of the first frame set 310 and adds the luminance changes of the two newly added subframe sets to the second A change in luminance of the frame set 610 may be obtained. Thereafter, the processor 170 may update an area in which the recalculated luminance change does not exceed the threshold value as a new logo area. Through this, when there is a change in the logo area in the image, it is possible to detect the logo area.
프로세서(170)는 제1프레임 세트(310)의 휘도 변화에 기초하여 영상 내의 영역을 식별하고, 전체 영역이 아닌 식별된 영역을 기준으로 제2프레임 세트(610)의 휘도 변화에 기초한 영역의 변화를 식별할 수 있다. 제1프레임 세트(310)를 통해 식별한 영역을 기준으로 로고 영역의 변화를 식별하므로, 프로세스를 처리하는 속도가 빨라지고 효율이 높아질 수 있다.The processor 170 identifies a region in the image based on the luminance change of the first frame set 310 and changes the region based on the luminance change of the second frame set 610 based on the identified region rather than the entire region. can be identified. Since the change of the logo area is identified based on the area identified through the first frame set 310, the speed of processing the process can be increased and the efficiency can be increased.
그리고, 프로세서(170)는 제1프레임 세트(310) 및 제2프레임 세트(610)의 휘도 변화들 간의 계산에 기초하여 영상 내의 영역을 식별할 수 있다. 프로세서(170)는 제1프레임 세트(310)를 통해 영상 내의 영역을 식별한 후, 제1프레임 세트(310)와 기 정의된 개수의 서브프레임 세트만큼 이동된 제2서브프레임 세트(610)의 휘도 변화들을 종합적으로 고려하여 영상 내의 영역을 식별할 수 있다. 이를 통해, 식별된 영역을 더욱 정교하게 구별할 수 있을 것이다.In addition, the processor 170 may identify a region in the image based on the calculation between the luminance changes of the first frame set 310 and the second frame set 610 . After the processor 170 identifies a region in the image through the first frame set 310, the first frame set 310 and the second subframe set 610 moved by a predefined number of subframe sets An area in an image may be identified by comprehensively considering the luminance changes. Through this, the identified region may be more precisely distinguished.
본 발명의 일 실시예에 따르면, 로고 영역을 식별하고 난 뒤, 시간의 흐름에 따라 로고 영역이 이동하는 등의 변동 상황을 지속적으로 반영시킬 수 있으므로, 계속해서 로고 영역에 따른 픽셀의 열화를 방지할 수 있고, 처리속도 및 효율을 증가시킬 수 있다.According to an embodiment of the present invention, after the logo area is identified, it is possible to continuously reflect changes such as the movement of the logo area over time, so that deterioration of pixels according to the logo area is continuously prevented. and can increase processing speed and efficiency.
도 7은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 도면에서는, 상위 서브프레임 세트를 복수의 하위 서브프레임 세트로 다시 나누어 휘도 변화를 연산하는 것을 도시한다.7 is a diagram illustrating a frame processed by an electronic device according to an embodiment of the present invention. In this figure, the luminance change is calculated by dividing the upper subframe set into a plurality of lower subframe sets.
도 7에 도시된 바에 따르면, 프로세서(170)는 복수의 제1서브프레임 세트 중에서 어느 하나의 제1서브프레임 세트(710)에 포함되는 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나눌 수 있다. 그리고 프로세서(170)는 복수의 제2서브프레임 세트(720) 별로 각 제2서브프레임 세트(720)에 포함된 프레임 중 기 정의된 제2키프레임(730)을 식별하고, 식별된 제2키프레임(730)을 이용한 프레임 간의 휘도 변화에 기초하여 영상 내의 영역을 식별할 수 있다. 예컨대, 프로세서(170)는 제2서브프레임 세트 1의 휘도 변화는 제2키프레임 1을 기준으로 제2서브프레임 세트 1에 포함된 프레임들간의 연산을 통해 계산할 수 있고, 이는 각 제2서브프레임 세트 별로 연산이 가능하다.As shown in FIG. 7 , the processor 170 converts the second number of frames included in one first subframe set 710 among the plurality of first subframe sets into a plurality of frames having a third number of frames. It can be divided into a second subframe set. And the processor 170 identifies a predefined second key frame 730 among the frames included in each second sub-frame set 720 for each of the plurality of second sub-frame sets 720, and the identified second key A region in the image may be identified based on a change in luminance between frames using the frame 730 . For example, the processor 170 may calculate the change in luminance of the second subframe set 1 through an operation between frames included in the second subframe set 1 based on the second keyframe 1 , which is each second subframe It is possible to operate on a set-by-set basis.
도 7에서 설정된 제2서브프레임 세트(720)에서 제2키프레임(730)을 이용한 휘도 변화를 통해 휘도 변화가 임계값을 넘지 않는다면 이를 통해 로고 영역을 식별하여, 전체 프레임 세트(310)가 아닌 일정 제2서브프레임 세트(720)의 휘도 차이를 이용하여 로고 영역을 선정할 수 있다. 이에 전체 프레임 세트(310)의 휘도 변화를 이용하는 것보다 짧은 프레임을 고려할 수 있으며, 이후 프로세서(170)는 각 제2서브프레임 세트(720)의 연산을 통하면, 배경부분과 같이 휘도가 변화하는 부분은 필터링하게 되어 원하는 로고 영역만 선정할 수 있다. 다만, 앞선 실시예와 같이 제1서브프레임 세트 및 제2서브프레임 세트의 프레임 수인 제 2 개수 및 제 3 개수는 일정한 수에 한정될 필요는 없다.If the luminance change does not exceed the threshold value through the luminance change using the second key frame 730 in the second sub-frame set 720 set in FIG. 7 , the logo area is identified through this and not the entire frame set 310. A logo area may be selected using a difference in luminance of the predetermined second sub-frame set 720 . Accordingly, a shorter frame than using the luminance change of the entire frame set 310 can be considered, and then, the processor 170 performs the operation of each second sub-frame set 720 , so that the luminance changes like the background part. The part is filtered so that only the desired logo area can be selected. However, as in the previous embodiment, the second number and the third number, which are the number of frames of the first subframe set and the second subframe set, are not necessarily limited to constant numbers.
본 발명의 일 실시예에 따르면, 시간 피라미드 형태의 프레임을 구성함으로써 한 단계의 서브프레임 세트만 사용할 때 보다 노이즈 제거에 효과적으로 작용하고, 로고 영역을 탐지하는데 있어서 강인한 성질을 가지게 된다.According to an embodiment of the present invention, by configuring a frame in the form of a time pyramid, noise removal is more effective than when only a subframe set of one stage is used, and it has a robust property in detecting a logo area.
또한, 본 명세서 전반에 걸쳐 언급되는 로고 및 로고 영역은 픽셀의 열화가 일어날 수 있는 하나의 예시로써, 본 발명은 이에 한정되지 않고, 지속적으로 임계값 미만의 휘도 변화를 가짐으로 써 픽셀의 성능저하를 유발하는 모든 실시예에 적용이 가능할 것이다. In addition, the logo and logo area mentioned throughout this specification are one example in which pixel deterioration may occur, and the present invention is not limited thereto. It will be applicable to all embodiments that cause .

Claims (15)

  1. 전자장치에 있어서,In an electronic device,
    디스플레이와;a display;
    입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고, Divide the input image into a plurality of frame sets having a first number of frames,
    상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고,dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames;
    상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고,Identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets,
    상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 프로세서를 포함하는 전자장치.and a processor configured to identify a region in the image in which the luminance change of the set of frames is less than a threshold value, based on the luminance change between the frames using the identified keyframe.
  2. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.An electronic device for identifying a luminance change of the frame set based on a luminance change between the keyframe included in the subframe set and the other frame.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 프로세서는,The processor is
    상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.An electronic device for identifying a luminance change of the set of frames based on a sequential luminance change between the keyframe and the frame subsequent to the keyframe.
  4. 제1항에 있어서,According to claim 1,
    상기 키프레임은, 상기 키프레임이 포함된 상기 서브프레임 세트의 첫번째 프레임인 전자장치The keyframe is an electronic device that is a first frame of the set of subframes including the keyframe.
  5. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 키프레임들 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.An electronic device for identifying a luminance change of the set of frames based on a luminance change between the keyframes.
  6. 제1항에 있어서,According to claim 1,
    상기 프로세서는, 상기 복수의 서브프레임 세트에서의 휘도 변화들 간의 계산에 기초하여 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.The processor is configured to identify a luminance change of the frame set based on a calculation between luminance changes in the plurality of subframe sets.
  7. 제1항에 있어서, According to claim 1,
    상기 프레임 세트는 제1프레임 세트이고,The frame set is a first frame set,
    상기 프로세서는,The processor is
    상기 제1프레임 세트의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 전자장치. An electronic device for identifying a region in the image based on a luminance change of a second frame set in a section moved by a predefined number of subframe sets in the section of the first frame set.
  8. 제7항에 있어서,8. The method of claim 7,
    상기 프로세서는, The processor is
    상기 제1프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하고,identify a region in the image based on a change in luminance of the first frame set;
    상기 식별된 영역을 기준으로 상기 제2프레임 세트의 휘도 변화에 기초한 상기 영역의 변화를 식별하는 전자장치.An electronic device for identifying a change in the region based on a change in luminance of the second frame set based on the identified region.
  9. 제7항에 있어서,8. The method of claim 7,
    상기 프로세서는, 상기 제1프레임 세트 및 상기 제2프레임 세트의 휘도 변화들 간의 계산에 기초하여 상기 영상 내의 영역을 식별하는 전자장치.The processor is configured to identify a region in the image based on a calculation between luminance changes of the first frame set and the second frame set.
  10. 제1항에 있어서,According to claim 1,
    상기 서브프레임 세트는 제1서브프레임 세트, 상기 키프레임은 제1키프레임이고,the subframe set is a first subframe set, the keyframe is a first keyframe,
    상기 프로세서는,The processor is
    상기 서브프레임 세트에 포함된 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나누고,dividing a second number of frames included in the subframe set into a plurality of second subframe sets having a third number of frames;
    상기 복수의 제2서브프레임 세트 별로 각 제2서브프레임 세트에 포함된 프레임 중 기 정의된 제2키프레임을 식별하고,identifying a predefined second keyframe among frames included in each second subframe set for each of the plurality of second subframe sets;
    상기 식별된 제2키프레임을 이용한 프레임 간의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 전자장치.An electronic device for identifying a region in the image based on a change in luminance between frames using the identified second key frame.
  11. 전자장치의 제어방법에 있어서,In the control method of an electronic device,
    입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계;dividing the input image into a plurality of frame sets having a first number of frames;
    상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계;dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames;
    상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계; 및identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets; and
    상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계를 포함하는 전자장치의 제어방법.and identifying a region in the image in which the luminance change of the frame set is less than a threshold value based on the luminance change between the frames using the identified keyframe.
  12. 제11항에 있어서,12. The method of claim 11,
    상기 영상 내의 영역을 식별하는 단계는,The step of identifying a region in the image comprises:
    상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함하는 전자장치의 제어방법.and identifying a luminance change of the frame set based on a luminance change between the keyframe included in the subframe set and the other frame.
  13. 제12항에 있어서,13. The method of claim 12,
    상기 프레임 세트의 휘도 변화를 식별하는 단계는,The step of identifying the luminance change of the frame set comprises:
    상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함하는 전자장치의 제어방법.and identifying a luminance change of the set of frames based on a sequential luminance change between the keyframe and the frames following the keyframe.
  14. 제11항에 있어서,12. The method of claim 11,
    상기 키프레임은, 상기 키프레임이 포함된 상기 서브프레임 세트의 첫번째 프레임인 전자장치의 제어방법.The keyframe is a first frame of the set of subframes including the keyframe.
  15. 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은, A computer-readable code, comprising: a computer program storing a code for performing a control method of an electronic device;
    입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계;dividing the input image into a plurality of frame sets having a first number of frames;
    상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계;dividing a first number of frames included in the frame set into a plurality of subframe sets having a second number of frames;
    상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계; 및identifying a predefined keyframe among frames included in each subframe set for each of the plurality of subframe sets; and
    상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.based on the luminance change between the frames using the identified keyframe, identifying a region in the image in which the luminance change of the set of frames is less than a threshold value. recording medium.
PCT/KR2020/019035 2020-02-19 2020-12-23 Electronic device and control method therefor WO2021167230A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200020339A KR20210105635A (en) 2020-02-19 2020-02-19 Electronic apparatus and the method thereof
KR10-2020-0020339 2020-02-19

Publications (1)

Publication Number Publication Date
WO2021167230A1 true WO2021167230A1 (en) 2021-08-26

Family

ID=77391034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/019035 WO2021167230A1 (en) 2020-02-19 2020-12-23 Electronic device and control method therefor

Country Status (2)

Country Link
KR (1) KR20210105635A (en)
WO (1) WO2021167230A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024055817A1 (en) * 2022-09-15 2024-03-21 荣耀终端有限公司 Code scanning method and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170080891A (en) * 2015-12-30 2017-07-11 엘지디스플레이 주식회사 Organic light emitting display device and driving method thereof
KR101947125B1 (en) * 2012-11-27 2019-02-13 엘지디스플레이 주식회사 Timing controller, driving method thereof, and display device using the same
KR20190019438A (en) * 2017-08-17 2019-02-27 엘지전자 주식회사 Image display apparatus
KR20190033313A (en) * 2017-09-21 2019-03-29 엘지디스플레이 주식회사 Display device and driving method of the same
JP2019149699A (en) * 2018-02-27 2019-09-05 沖電気工業株式会社 Processing apparatus, processing program, and processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947125B1 (en) * 2012-11-27 2019-02-13 엘지디스플레이 주식회사 Timing controller, driving method thereof, and display device using the same
KR20170080891A (en) * 2015-12-30 2017-07-11 엘지디스플레이 주식회사 Organic light emitting display device and driving method thereof
KR20190019438A (en) * 2017-08-17 2019-02-27 엘지전자 주식회사 Image display apparatus
KR20190033313A (en) * 2017-09-21 2019-03-29 엘지디스플레이 주식회사 Display device and driving method of the same
JP2019149699A (en) * 2018-02-27 2019-09-05 沖電気工業株式会社 Processing apparatus, processing program, and processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024055817A1 (en) * 2022-09-15 2024-03-21 荣耀终端有限公司 Code scanning method and electronic device

Also Published As

Publication number Publication date
KR20210105635A (en) 2021-08-27

Similar Documents

Publication Publication Date Title
WO2018012729A1 (en) Display device and text recognition method for display device
US11881139B2 (en) Electronic apparatus and control method thereof
WO2021167230A1 (en) Electronic device and control method therefor
WO2021091145A1 (en) Electronic apparatus and method thereof
EP3824644A1 (en) Image and audio processing apparatus and operating method of the same
WO2015046824A1 (en) Display apparatus and control method thereof
WO2021256760A1 (en) Movable electronic device and method for controlling same
US20220189478A1 (en) Electronic apparatus and method of controlling the same
US20210266083A1 (en) Electronic apparatus and control method thereof
WO2021241938A1 (en) Electronic device and control method therefor
WO2021091063A1 (en) Electronic device and control method thereof
KR20220015306A (en) Electronic device and control method thereof
WO2018151540A1 (en) Electronic apparatus for playing substitutional advertisement and method for controlling method thereof
WO2021137474A1 (en) Electronic device and control method thereof
WO2021107371A1 (en) Electronic device and control method therefor
WO2022019458A1 (en) Electronic device and control method therefor
WO2021141330A1 (en) Electronic device and control method therefor
WO2019107796A1 (en) Server and control method thereof
WO2023033379A1 (en) Display device and control method therefor
WO2021137429A1 (en) Electronic apparatus and control method thereof
WO2021141332A1 (en) Electronic device and control method therefor
WO2021112391A1 (en) Electronic device and control method therefor
WO2022025420A1 (en) Electronic device and control method therefor
WO2021215637A1 (en) Electronic device and control method therefor
WO2023033317A1 (en) Display device and control method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920570

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920570

Country of ref document: EP

Kind code of ref document: A1