WO2019209008A1 - System for improving video quality by using changed macroblock extraction technique - Google Patents

System for improving video quality by using changed macroblock extraction technique Download PDF

Info

Publication number
WO2019209008A1
WO2019209008A1 PCT/KR2019/004895 KR2019004895W WO2019209008A1 WO 2019209008 A1 WO2019209008 A1 WO 2019209008A1 KR 2019004895 W KR2019004895 W KR 2019004895W WO 2019209008 A1 WO2019209008 A1 WO 2019209008A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
learning
video
file
downscaling
Prior art date
Application number
PCT/KR2019/004895
Other languages
French (fr)
Korean (ko)
Inventor
장경익
Original Assignee
주식회사 지디에프랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190046957A external-priority patent/KR102179436B1/en
Application filed by 주식회사 지디에프랩 filed Critical 주식회사 지디에프랩
Publication of WO2019209008A1 publication Critical patent/WO2019209008A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content

Definitions

  • the present invention relates to a video quality improvement system using a change macroblock extraction technique.
  • the Fourth Industrial Revolution is triggering a new era of broadcasting services and is changing the media landscape.
  • the Internet broadcasting platform anyone has the environment to broadcast, and as the number of Internet broadcasting viewers is increasing, new media platforms such as Netflix, YouTube, Hulu, and Amazon TV are booming.
  • the present invention is designed to convert one video data into the form of a downscaling file having reduced resolution and capacity, and to restore the downscaling file to the original level through an artificial neural network-based operation. .
  • the video quality improvement system is a video service server for transmitting original video data to an AI image processing server to perform AI video learning of video data, and AI video to the original video data received from the video service server.
  • AI image learning is performed by separately classifying an image area and an image area where a change is not detected, and transmitting the generated downscaling file and the neural network file to the video service server, and in response to the image restoration request, the neural network file.
  • Phase through AI operation It may include an AI image processing server for restoring the resolution of the downscaling file.
  • the capacity and resolution of the video data are reduced and stored in the form of a downscaling file, more video data can be stored in a storage device having the same storage space. This reduces the cost of expanding storage space.
  • the present invention restores the resolution at the time of actually playing the video, it is possible to obtain the same video quality as the original data with a relatively small capacity.
  • the present invention can reduce the time and data usage required for image learning and reconstruction, since only the image region of the changed screen is image learning and image reconstruction separately.
  • FIG. 1 is a diagram illustrating a configuration of a video quality improvement system according to an exemplary embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a configuration of an AI image processing server according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a configuration of a codec support unit according to an exemplary embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a configuration of an AI learning support unit according to an exemplary embodiment of the present invention.
  • FIG. 5 illustrates a video frame image displaying a motion vector according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a procedure of performing a restoration operation in a video quality improvement system according to an exemplary embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a process of an image learning operation according to an exemplary embodiment of the present invention.
  • the video quality improvement system is a video service server for transmitting original video data to an AI image processing server to perform AI video learning of video data, and AI video to the original video data received from the video service server.
  • AI image learning is performed by separately classifying an image area and an image area where a change is not detected, and transmitting the generated downscaling file and the neural network file to the video service server, and in response to the image restoration request, the neural network file.
  • Phase through AI operation It may include an AI image processing server for restoring the resolution of the downscaling file.
  • FIG. 1 is a diagram illustrating a configuration of a video quality improvement system according to an exemplary embodiment of the present invention.
  • the video quality improvement system 10 may include an AI image processing server 100, a video service server 200, and a user device 300.
  • the video service server 200 may store video data uploaded from a plurality of users or administrators, and may be a platform server that provides a service for transmitting specific video data to a user in response to a user request.
  • the video service server 200 constituting the system 10 of the present invention may mean not only a video service company server but also a server functioning to store video content such as a cloud server of a user.
  • the video service server 200 may be in an interlocked state with the image processing server 100 according to an exemplary embodiment of the present invention. Accordingly, the video service server 200 transmits specific video data (original video data before video learning) to the AI image processing server 100 at a time when a predetermined condition is met, and may request video learning.
  • the video service server 200 may be a server 200 that implements a platform of obtaining video content from a plurality of users and providing the obtained video data to a plurality of other users.
  • the video service server 200 may immediately request video learning to the AI image processing server 100 as a specific video is uploaded from an arbitrary user.
  • the AI image processing server 100 may perform image learning on a video obtained from the video service server 200.
  • the image learning refers to an operation of generating a neural network file required for restoring a low quality file having a resolution lower than a predetermined reference value to an original image level (for example, a level that matches the reference image with a preset reference value or more). can do.
  • the AI image processing server 100 may generate a downscaling file having a reduced resolution and a neural network file including metadata used to restore an image as a result of image learning of an original video (high resolution data of a reference value or more). Can be.
  • the neural network file may be applied to the downscaling file later to include meta information necessary to perform AI-based image reconstruction.
  • the neural network file may include information related to various parameters (weight, bias, etc.) of the artificial neural network required when restoring the downscaling file to the original file.
  • the AI image processing server 100 may store the downscaling file calculated as the image learning result in the video service server 200 and the neural network file corresponding thereto in the AI image processing server 100.
  • the AI image processing server 100 receives only the downscaling file from the video service server 200 later, and stores the neural network file corresponding to the received downscaling file. After extraction, image restoration may be performed.
  • the video service server 200 may transmit a downscaling file to the user device 300, and the AI image processing server 100 may deliver a neural network file to the user device 300. .
  • the AI image processing server 100 may provide both the downscaling file and the neural network file calculated as a result of image learning to the video service server 200, and the video service server 200 may store both types of files.
  • the video service server 200 may immediately provide a downscaling file and a neural network file for the corresponding content to the AI image processing server 100 and request to restore the image quality.
  • the video content restored in the AI image processing server 100 may be provided to the user device 300 through the video service server 200 or may be directly provided to the user device 300.
  • the user device 300 may be in a state in which a program that supports access to the AI image processing server 100 and data transmission / reception is installed at the request of the video service server 200.
  • the video service server 200 may transmit both the downscaling file and the neural network file to the user device 300.
  • the video service server 200 may determine whether to transmit the downscaling file and the neural network file to the user device 300 and the format of the transmission data based on specifications of the GPU of the user device 300.
  • the method of storing the image learning result file (downscaling file and neural network file) and providing the device between the devices is not limited to the above-described form, and various methods may be applied.
  • the method of storing the image learning result file and providing the device-to-device may vary according to the state of the user device 300, the model, the interworking format of the video service server 200, and the AI image processing server 100.
  • FIG. 2 is a diagram illustrating a configuration of an AI image processing server according to an exemplary embodiment of the present invention.
  • the AI image processing server 100 will be referred to as a processing server 100.
  • the processing server 100 may include a communication unit 110, a storage unit 120, and a controller 130.
  • the communication unit 110 may use a network for data transmission and reception between a user device and a server, and the type of the network is not particularly limited.
  • the network may be, for example, an IP (Internet Protocol) network providing a transmission / reception service of a large amount of data through an Internet protocol (IP), or an All IP network integrating different IP networks.
  • IP Internet Protocol
  • the network may include a wired network, a wireless broadband network, a mobile communication network including WCDMA, a high speed downlink packet access (HSDPA) network, and a long term evolution (LTE) network, LTE advanced (LTE-A). ), Or one of a mobile communication network including 5G (Five Generation), a satellite communication network, and a Wi-Fi network, or a combination of at least one of them.
  • 5G Wireless Generation
  • satellite communication network and a Wi-Fi network
  • the communication unit 110 may perform data communication with the video service server 200 and the user device 300.
  • the storage unit 120 may include, for example, an internal memory or an external memory.
  • the internal memory may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (for example, OTPROM (one). time programmable ROM (PROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash), hard drives, Or it may include at least one of a solid state drive (SSD).
  • volatile memory for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory for example, OTPROM (one).
  • the external memory may be a flash drive such as compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (mini-SD), extreme digital (XD), It may further include a multi-media card (MMC) or a memory stick.
  • the external memory may be functionally and / or physically connected to the electronic device through various interfaces.
  • the storage unit 120 may store a downscaling file that is a result of performing image learning and a neural network file that is a file required to restore the downscaling file to an original level later.
  • the storage unit 120 may store an algorithm required for the downscaling file, an image learning operation for generating a neural network file, and an artificial neural network operation for reconstructing a resolution from the downscaling file.
  • the controller 130 may also be referred to as a processor, a controller, a microcontroller, a microprocessor, a microcomputer, or the like.
  • the control unit may be implemented by hardware (hardware) or firmware (firmware), software, or a combination thereof.
  • an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above.
  • the software code may be stored in a memory and driven by the controller.
  • the memory may be located inside or outside the user terminal and the server, and may exchange data with the controller by various known means.
  • the controller 130 may include a codec support unit 131, an AI learning support unit 132, and an AI image restoration unit 133.
  • the codec support unit 131 may provide a general function of a codec for compressing or decompressing a video.
  • the codec support unit 131 may perform data extraction and keyframe extraction of a video acquired for image learning using a codec function.
  • the extracted keyframes may be processed separately from the remaining frames, which are frames other than the keyframes, in image learning.
  • the AI learning support unit 132 may support AI based image learning.
  • the AI learning support unit 132 may generate a downscaling file from the obtained video file and a neural network file, which is a file required to restore the downscaling file to the original level.
  • the AI learning support unit 132 may perform image learning by dividing the key frame extracted by the codec support unit 131 and the remaining frames except the key frame.
  • the AI learning support unit 132 may perform image learning on the entire image belonging to the key frame when the image learning is performed on the key frame.
  • the AI learning support unit 132 When the AI learning support unit 132 performs the image learning on the remaining frames which are not extracted as key frames, the AI learning support unit 132 excludes the macro blocks having the same value as the key frames and targets the macro blocks having different values from the key frames. You can do some learning.
  • the AI image reconstructor 133 may upscale the downscaling file generated as a result of image learning based on the neural network file.
  • the AI image restoration unit 133 may provide the user device 300 or the video service server 200 with data whose upscaling is completed and whose quality is restored.
  • the AI image restoration unit 133 may perform an image restoration operation by separating a key frame and a residual frame in the same manner as the image learning method.
  • a key frame is first image-restored, and for a remaining frame, a macroblock having the same value as a keyframe (hereinafter, referred to as a still macroblock) copies an image for a keyframe as it is, and has a value different from that of the keyframe.
  • the macroblock (hereinafter, referred to as a change macroblock) may perform an additional image reconstruction operation. Accordingly, the data load and the calculation speed required for the image restoration operation can be reduced.
  • the AI image reconstructor 133 may determine whether a match rate with the original data is greater than or equal to a reference value, and provide feedback information to the AI learning support unit 132. According to various embodiments of the present disclosure, the AI image reconstruction unit 133 may transmit the information about the matching rate to the video service server 100 and, when the matching rate is lower than the reference value, may request to provide data for further image learning.
  • the AI image reconstructor 133 may reconstruct an image by dividing a key frame and a remaining frame of the video.
  • image restoration is performed for the entire image region.
  • image restoration is performed only for some image regions (eg, change image object regions not overlapping with key frames). Can be pasted from the reconstructed image of the key frame. This re-uses the previously reconstructed image when reconstructing an image of the remaining frame having an image region overlapping with the key frame, thereby preventing unnecessary reconstruction operation and reducing the time required for the reconstruction process.
  • FIG. 3 is a diagram illustrating a configuration of a codec support unit according to an exemplary embodiment of the present invention.
  • the codec supporter 131 may include a data determiner 131a, a frame extractor 131b, and a macroblock determiner 131c.
  • the data determiner 131a may extract detailed information related to image learning or image reconstruction for the received video based on the function of the codec.
  • the detailed information may include, for example, information related to basic video playback such as a basic resolution, a compression method, and a playback time of the video file received from the video service server 200.
  • the frame extractor 131b may extract a keyframe from a video based on the function of the codec. In other words, the frame extractor 131b may distinguish between a key frame and a remaining frame other than the key frame among all the frames constituting the video. In this case, the key frame may be separated from the remaining frame to perform a separate image learning process.
  • the frame extractor 131b may provide the extracted key frame information to the AI learning support unit 132 or the AI image restoration unit 133 for immediate image learning or image restoration.
  • the frame extractor 131b may select and extract, as a keyframe, the first frame in which the main scene change has started, based on the basic functions provided by the codec.
  • the macroblock determination unit 131c may perform an operation of dividing a macroblock into a change macroblock and a still macroblock with respect to the remaining frames except for the keyframe.
  • the division information on the change macroblock and the still macroblock may be calculated by the macroblock determination unit 131c and then provided to the AI learning support unit or the AI image reconstruction unit.
  • the macroblock may mean a unit in which several pixel blocks are grouped for motion compensation and motion prediction in main image compression schemes such as H.261, H.263, and MPEG, and may include luminance signals and color difference signals.
  • the existing codec (eg, H.264) is a lossy extrusion by removing the overlapped information in the image (motion compensation, spatial (dct, quantization)).
  • motion compensation spatial (dct, quantization)
  • the previous frame stores the entire image in a file, but the current frame after the current frame is compared to the previous frame. This method reduces the file size by saving only the vector and the residual image as a file.
  • the building which is the background of the person, will move without moving, and only the face of the person will move, so that the face area of the person will have a predetermined motion vector value.
  • the area will have a value close to zero.
  • the codec may perform an operation (quantization) of replacing a region having a small value close to zero as a region overlapping with a previous frame and quantizing the region, thereby performing lossy compression.
  • the macroblock determination unit 131c may calculate macroblocks in which a motion vector is considered to be 0 and macroblocks having a significant value by using a compression principle of the basic codec. Can be.
  • a macroblock in which a motion vector is considered to be 0 is a still macroblock
  • a macroblock having a motion vector having a significant value means a change macroblock.
  • the codec support unit 131 may perform various operations based on a conventional codec function, in addition to a keyframe extraction operation and a classification operation of a change macroblock and a still macroblock in a remaining frame.
  • the codec support unit 131 may determine a complexity of an image determined from a key frame and distinguish a genre of a corresponding video in relation to an operation of extracting a key frame from a codec. For example, the codec support unit 131 may distinguish between an animation genre and a live action genre.
  • the genre classification information calculated according to the genre classification operation may be provided to the AI learning support unit and the AI image reconstruction unit 133 for effective AI learning.
  • FIG. 4 is a diagram illustrating a configuration of an AI learning support unit according to an exemplary embodiment of the present invention.
  • the AI learning support unit 132 may include a change object extractor 132a, a main object extractor 132b, and an AI learning performer 132c.
  • the change object extractor 132a may perform an operation of determining the change object based on the change macroblock information of the remaining frame calculated by the codec support unit 131. To describe the change object determination operation, reference is made to FIG. 5.
  • FIG. 5 illustrates a video frame image displaying a motion vector according to an embodiment of the present invention.
  • a video frame image has an image region 510 composed of a macroblock in which a motion vector (arrow) exists and a motion vector does not exist or is less than a reference value. It may be divided into an image area 520.
  • the change object extracting unit 132a may determine the change image object composed of the change macroblock and the change macroblock based on the presence or absence of the motion vector value.
  • the change object extractor 132a may determine a still image object including the still macroblock and the still macroblock based on the presence or absence of a motion vector value or the magnitude of the value.
  • the main object extractor 132b may perform an operation of extracting the image object based on the importance determination instead of moving the image object.
  • the main object extractor 132b may extract the object separately, even if it is determined that the object has importance in the corresponding video data even in the still image.
  • the extracted image object can be separately performed AI image learning later.
  • the main object extractor 132b may include a size of an image object identified in a key frame image, an image complexity of the image object (based on the variety of colors and the complexity of an outline), a person (increasing importance in the case of a person), The main object can be determined based on various criteria such as focusing (increasing importance when the focus exists). For example, the main object extractor 132b may have a ratio of the area occupied by the image of the book or the size of the image object of the book even if the image of a specific object (eg, a book) displayed at the center of the frame is still. If it is more than the reference value, it can be determined that there is importance and can be extracted as a main object accordingly.
  • a specific object eg, a book
  • the main object extractor 132b may set the importance value to a higher value as the size value of the image object increases. If the importance of the calculated image object is greater than or equal to the reference value, the corresponding image object may be selected as the main image object.
  • the AI learning performer 132c may support a compression function through AI-based image learning on the obtained video data. Specifically, the AI learning performer 132c may generate a downscaling file from the obtained video file and a neural network file that is a file required to restore the quality of the downscaling file to the original level later.
  • the downscaling file refers to a compressed file
  • the AI learning performer 132c may perform video file compression by performing such image learning.
  • the video file downscaled and compressed by such AI image learning may be reconstructed (decompressed) by a reconstruction operation performed based on a neural network file in the AI image reconstruction unit 133.
  • the AI learning performer 132c may perform separate image learning on the key frame and the remaining frame of the video.
  • the AI learning performer 132c first performs image learning on the entire image area with respect to the key frame, and classifies at least two image areas with respect to the remaining frames according to an arbitrary criterion (duplicate or importance). Image learning of the image region is omitted. In the future, when reconstructing the resolution of the remaining frame, an image region in which image learning is not performed may be performed by pasting from the image reconstruction result of the key frame.
  • the AI learning performer 132c may perform a separate AI image learning operation targeting the change image object extracted by the change object extractor 132a. Accordingly, the AI learning performer 132c may generate a separate neural network file for the change image object. Accordingly, when the AI image restoration unit 133 restores the image later, an image restoration operation for the change image object is performed based on a separate neural network file for the change image object, and the rest of the still image object (eg, a background) is performed. For example, the final reconstructed image may be generated by copying and pasting a duplicate image of a keyframe. The AI learning performer 132c performs a separate image learning method on the change image object, thereby reducing the time required and data capacity for the reconstructed image.
  • the AI learning performing unit 132c performs a separate image learning on the main image object extracted by the main object extracting unit 132b, and as a result, the neural network required for later restoring the resolution of the main image object. You can create a file. Accordingly, during image restoration, an image restoration operation for the main image object may be generated based on a neural network file corresponding to the main image object.
  • FIG. 6 is a flowchart illustrating a procedure of performing a restoration operation in a video quality improvement system according to an exemplary embodiment of the present invention.
  • the video quality improvement system may be implemented through an AI image processing server 100, a video service server 200, and a user device 300.
  • the video service server 200 may be implemented in the same device as the AI image processing server 100.
  • the AI image processing server 100 and the video service server 200 will be exemplified as separate objects.
  • the video service server 200 may mean, for example, an OTT (Over The Top) service server that provides image content using an internet communication network.
  • the video service server 200 provides image data to the AI image processing server 100 to learn AI images of the owned or produced video and to generate a low-scaling downscaling file. Can be received.
  • the video service server 200 may perform operation 605 of providing original image data to the AI image processing server 100. Thereafter, when the AI image processing server 100 receives the image data from the video service server 200, the AI image processing server 100 may perform operation 610 of performing AI image learning. Since the description of the AI image learning has been described above, it will be omitted.
  • the AI image processing server 100 generates a result file (downscaling file and neural network file) as a result of image learning, and performs operation 615 of providing the same to the video service server 200.
  • the video service server 200 may perform operation 620 of receiving a download request signal for the corresponding video from the user device 300 while having the downscaling file and the neural network file resulting from the image learning.
  • the video service server 200 checks information such as the name of the video content requested to be downloaded from the user device 300, and sends corresponding learning result files (downscaling file and neural network file) to the AI image processing server 100 again.
  • the operation 625 may be performed.
  • the AI image processing server 100 may recognize this as an image restoration request signal, and may perform operation 630, which is an AI operation based image restoration operation. Thereafter, the AI image processing server 100 may perform operation 635 to deliver the restored file to the video service server 200, and then perform operation 640 to deliver the restored file to the user device 300 from the video service server 200. have.
  • the video service server 200 intervenes so that the user device 300 directly accesses the AI image processing server 100, and the restored video file is directly transferred to the user device 300. Can be provided. Accordingly, when the user requests to play a specific video provided on the web or app provided by the video service server 200, the user may be immediately provided with the restored file from the AI image processing server 100 performing the restoration operation.
  • a subject to perform an image restoration operation may be determined based on the specifications of the user device 300 according to various embodiments.
  • the video service server 200 transmits the learning result file to the user device 300 when the user device 300 requests the user device 300 or determines that the user device 300 is suitable for AI calculation for image restoration.
  • the image restoration operation may be performed at.
  • the video service server 200 may deliver a downscaling file and a neural network file, which are image learning results, instead of original video data or restored data.
  • the user may provide the learning result file to the AI image processing server 100 by, for example, playing it through a player provided by the AI image processing server 100 when the user device 300 actually wants to play the video data. have.
  • the AI image processing server 100 may perform an image restoration operation through the learning result file received from the user device 300.
  • FIG. 7 is a flowchart illustrating a process of an image learning operation according to an exemplary embodiment of the present invention.
  • the controller 130 of the image processing server 100 may acquire image data from the outside and perform operation 705 to confirm that image data is obtained. Thereafter, the controller 130 may perform operation 710 of extracting a keyframe of video data based on the codec.
  • the image processing server 100 may include various codec information for decoding video data having various extensions, and may extract a key frame of a video obtained based on the codec.
  • controller 130 may perform operation 715 for performing image learning on the extracted key frame.
  • the controller 130 may perform image learning on a remaining frame that is a frame other than a key frame, but may perform separate image learning on an image area different from the key frame except for a portion overlapping with the key frame. To this end, the controller 130 may perform operation 720 to extract the change macroblock of the remaining frame.
  • the change macroblock is an object extracted to determine and separate a region where a motion occurs in the next scene when compared with a key frame. Thereafter, the controller 130 may perform operation 725 for extracting the change macroblock separately and performing image learning thereof.
  • the order of operations 715 and 720 may be changed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

A system for improving a video quality according to an embodiment of the present invention may comprise: a video service server for transmitting original video data to an AI image processing server in order to perform AI image learning of video data; and an AI image processing server for performing AI image processing of original video data received from the video service server so as to generate a downscaling file corresponding to the original video data, performing an AI image learning operation for generating a neural network file required to restore the resolution of the downscaling file, the AI image learning being performed by separately distinguishing, in the video data, between an image area in which a change is sensed and an image area in which no change is sensed, transmitting the generated downscaling file and the neural network file to the video service server, and restoring the resolution of the downscaling file through AI calculation using the neural network file in response to an image restoration request.

Description

변화 매크로블록 추출 기법을 이용한 동영상 화질 개선 시스템Video Quality Improvement System Using Changed Macroblock Extraction Technique
본 발명은 변화 매크로블록 추출 기법을 이용한 동영상 화질 개선 시스템에 관한 것이다.The present invention relates to a video quality improvement system using a change macroblock extraction technique.
4차 산업혁명이 새로운 방송 서비스 시대를 촉발시키면서 미디어 판도를 바꾸고 있다. 인터넷 방송 플랫폼이 등장하면서 누구나 방송이 가능한 환경이 갖추어졌으며, 인터넷 방송 시청자까지 급증하면서 넷플릭스, 유튜브, 훌루, 아마존 TV등의 새로운 미디어 플랫폼이 돌풍을 일으키고 있다. The Fourth Industrial Revolution is triggering a new era of broadcasting services and is changing the media landscape. With the advent of the Internet broadcasting platform, anyone has the environment to broadcast, and as the number of Internet broadcasting viewers is increasing, new media platforms such as Netflix, YouTube, Hulu, and Amazon TV are booming.
이러한 추세에 따라 대다수의 사용자들은 TV가 아닌 데이터 통신망을 이용한 동영상 시청 환경에 자연스럽게 노출되었으며, 앞으로 인터넷 기반 동영상 서비스의 이용자 수, 1인당 이용 데이터 용량은 매우 크게 증가할 전망이다.According to this trend, the majority of users are naturally exposed to the video viewing environment using the data communication network instead of the TV. In the future, the number of users of the Internet-based video service and the amount of data used per person are expected to increase significantly.
인터넷 기반 동영상 서비스의 확대가 이루어짐에 따라, 사용자들은 동영상 콘텐츠의 해상도, 동영상 데이터의 용량, 네트워크 속도 등의 요소에 보다 민감하게 반응하게 될 것이다. 이에 따라 인터넷 기반 동영상 서비스 시장에서는 저용량으로 네트워크 트래픽 부하를 낮추면서도 고해상도 동영상 데이터를 제공하기 위한 영상 처리 기술이 요구되고 있다. As internet-based video services expand, users will be more sensitive to factors such as resolution of video content, capacity of video data, and network speed. Accordingly, in the Internet-based video service market, image processing technology for providing high resolution video data while reducing network traffic load with low capacity is required.
본 발명은 일 동영상 데이터를 해상도 및 용량을 감소시킨 다운스케일링 파일의 형태로 변환하여 저장하고, 이러한 다운스케일링 파일을 추후 인공 신경망 기반의 연산을 통해 해상도를 원본 수준의 상태로 복원하도록 하기 위해 고안되었다. The present invention is designed to convert one video data into the form of a downscaling file having reduced resolution and capacity, and to restore the downscaling file to the original level through an artificial neural network-based operation. .
본 발명의 실시 예에 따른 동영상 화질 개선 시스템은 동영상 데이터의 AI 영상 학습을 수행하기 위해 AI 영상 처리 서버로 원본 동영상 데이터를 전송하는 동영상 서비스 서버, 상기 동영상 서비스 서버로부터 수신한 원본 동영상 데이터를 AI 영상 처리하여 상기 원본 동영상 데이터에 대응하는 다운스케일링 파일을 생성하고, 상기 다운스케일링 파일의 해상도를 복원하는 데 요구되는 파일인 신경망 파일을 생성하는 AI 영상 학습 동작을 수행하되, 동영상 데이터에서 변화가 감지되는 이미지 영역과 변화가 감지되지 않는 이미지 영역을 각각 별도로 구분하여 AI 영상 학습을 수행하고, 생성된 상기 다운스케일링 파일 및 상기 신경망 파일을 상기 동영상 서비스 서버로 전송하며, 영상 복원 요청에 대응하여 상기 신경망 파일을 이용한 AI 연산을 통해 상기 다운스케일링 파일의 해상도를 복원하는 AI 영상 처리 서버를 포함할 수 있다. The video quality improvement system according to an embodiment of the present invention is a video service server for transmitting original video data to an AI image processing server to perform AI video learning of video data, and AI video to the original video data received from the video service server. Processing to generate a downscaling file corresponding to the original video data, and performing an AI image learning operation to generate a neural network file which is a file required to restore the resolution of the downscaling file, wherein a change is detected in the video data. AI image learning is performed by separately classifying an image area and an image area where a change is not detected, and transmitting the generated downscaling file and the neural network file to the video service server, and in response to the image restoration request, the neural network file. Phase through AI operation It may include an AI image processing server for restoring the resolution of the downscaling file.
본 발명의 실시 예에 따르면, 동영상 데이터의 용량 및 해상도를 낮춰 다운스케일링 파일 형태로 저장하므로 동일한 저장 공간을 갖는 저장 기기에서 보다 많은 동영상 데이터를 저장할 수 있게 되는 효과가 있다. 이에 따라 저장 공간 확장에 필요한 비용을 절감할 수 있다. According to an embodiment of the present invention, since the capacity and resolution of the video data are reduced and stored in the form of a downscaling file, more video data can be stored in a storage device having the same storage space. This reduces the cost of expanding storage space.
또한 본 발명은 동영상을 실제 재생하는 시점에는 해상도 복원을 수행하므로, 비교적 적은 용량으로 원본 데이터와 같은 동영상 품질을 얻을 수 있다. In addition, since the present invention restores the resolution at the time of actually playing the video, it is possible to obtain the same video quality as the original data with a relatively small capacity.
또한 본 발명은 변경되는 화면의 이미지 영역만을 별도로 영상 학습 및 영상 복원하므로 영상 학습 및 복원에 요구되는 시간 및 데이터 사용량을 절감할 수 있다. In addition, the present invention can reduce the time and data usage required for image learning and reconstruction, since only the image region of the changed screen is image learning and image reconstruction separately.
도 1은 본 발명의 실시 예에 따른 동영상 화질 개선 시스템의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a video quality improvement system according to an exemplary embodiment of the present invention.
도 2는 본 발명의 실시 예에 따른 AI 영상 처리 서버의 구성을 도시한 도면이다. 2 is a diagram illustrating a configuration of an AI image processing server according to an exemplary embodiment of the present invention.
도 3은 본 발명의 실시 예에 따른 코덱 지원부의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a codec support unit according to an exemplary embodiment of the present invention.
도 4는 본 발명의 실시 예에 따른 AI 학습 지원부의 구성을 도시한 도면이다. 4 is a diagram illustrating a configuration of an AI learning support unit according to an exemplary embodiment of the present invention.
도 5는 본 발명의 실시 예에 따른 모션 벡터가 표시된 동영상 프레임 이미지를 도시하고 있다. 5 illustrates a video frame image displaying a motion vector according to an embodiment of the present invention.
도 6은 본 발명의 실시 예에 따른 동영상 화질 개선 시스템에서의 복원 동작이 이루어지는 순서에 대하여 도시한 순서도이다. 6 is a flowchart illustrating a procedure of performing a restoration operation in a video quality improvement system according to an exemplary embodiment of the present invention.
도 7은 본 발명의 실시 예에 따른 영상 학습 동작의 과정을 도시한 순서도이다. 7 is a flowchart illustrating a process of an image learning operation according to an exemplary embodiment of the present invention.
본 발명의 실시 예에 따른 동영상 화질 개선 시스템은 동영상 데이터의 AI 영상 학습을 수행하기 위해 AI 영상 처리 서버로 원본 동영상 데이터를 전송하는 동영상 서비스 서버, 상기 동영상 서비스 서버로부터 수신한 원본 동영상 데이터를 AI 영상 처리하여 상기 원본 동영상 데이터에 대응하는 다운스케일링 파일을 생성하고, 상기 다운스케일링 파일의 해상도를 복원하는 데 요구되는 파일인 신경망 파일을 생성하는 AI 영상 학습 동작을 수행하되, 동영상 데이터에서 변화가 감지되는 이미지 영역과 변화가 감지되지 않는 이미지 영역을 각각 별도로 구분하여 AI 영상 학습을 수행하고, 생성된 상기 다운스케일링 파일 및 상기 신경망 파일을 상기 동영상 서비스 서버로 전송하며, 영상 복원 요청에 대응하여 상기 신경망 파일을 이용한 AI 연산을 통해 상기 다운스케일링 파일의 해상도를 복원하는 AI 영상 처리 서버를 포함할 수 있다. The video quality improvement system according to an embodiment of the present invention is a video service server for transmitting original video data to an AI image processing server to perform AI video learning of video data, and AI video to the original video data received from the video service server. Processing to generate a downscaling file corresponding to the original video data, and performing an AI image learning operation to generate a neural network file which is a file required to restore the resolution of the downscaling file, wherein a change is detected in the video data. AI image learning is performed by separately classifying an image area and an image area where a change is not detected, and transmitting the generated downscaling file and the neural network file to the video service server, and in response to the image restoration request, the neural network file. Phase through AI operation It may include an AI image processing server for restoring the resolution of the downscaling file.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements.
어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어'있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어'있다거나 '직접 접속되어'있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be 'connected' or 'connected' to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may exist in between Should be. On the other hand, when a component is said to be 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms 'comprise' or 'have' are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
도 1은 본 발명의 실시 예에 따른 동영상 화질 개선 시스템의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a video quality improvement system according to an exemplary embodiment of the present invention.
도 1에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 동영상 화질 개선 시스템 10은 AI 영상 처리 서버 100, 동영상 서비스 서버 200, 사용자 기기 300를 포함하여 구성될 수 있다. As shown in FIG. 1, the video quality improvement system 10 according to an embodiment of the present invention may include an AI image processing server 100, a video service server 200, and a user device 300.
일 실시 예에 따라 상기 동영상 서비스 서버 200는 다수의 사용자 또는 관리자로부터 업로드되는 동영상 데이터를 저장할 수 있으며, 사용자 요청에 대응하여 특정 동영상 데이터를 사용자에게 전송하는 서비스를 제공하는 플랫폼 서버일 수 있다. 다양한 실시 예에 따라 본 발명의 시스템 10을 구성하는 상기 동영상 서비스 서버 200는 동영상 서비스 업체 서버 뿐 아니라, 사용자 개인의 클라우드 서버 등 동영상 콘텐츠를 저장하도록 기능하는 서버를 모두 의미할 수도 있다. According to an embodiment, the video service server 200 may store video data uploaded from a plurality of users or administrators, and may be a platform server that provides a service for transmitting specific video data to a user in response to a user request. According to various embodiments of the present disclosure, the video service server 200 constituting the system 10 of the present invention may mean not only a video service company server but also a server functioning to store video content such as a cloud server of a user.
상기 동영상 서비스 서버 200는 본 발명의 실시 예에 따라 영상 처리 서버 100와 기 연동된 상태일 수 있다. 이에 따라 상기 동영상 서비스 서버 200는 AI 영상 처리 서버 100로 기 설정된 조건이 부합하는 시점에 특정 동영상 데이터(영상 학습 이전의 원본 동영상 데이터)를 전송하며, 영상 학습을 요청할 수 있다. 예를 들어, 상기 동영상 서비스 서버 200는 다수의 사용자들로부터 동영상 컨텐츠를 획득하고, 획득된 동영상 데이터를 또 다수의 타 사용자들에게 제공하는 방식의 플랫폼을 구현하는 서버 200일 수 있다. 그리고 이러한 동영상 서비스 서버 200는 임의의 사용자로부터 특정 동영상이 업로드 됨에 따라 즉시 AI 영상 처리 서버 100로 영상 학습을 요청할 수 있다. The video service server 200 may be in an interlocked state with the image processing server 100 according to an exemplary embodiment of the present invention. Accordingly, the video service server 200 transmits specific video data (original video data before video learning) to the AI image processing server 100 at a time when a predetermined condition is met, and may request video learning. For example, the video service server 200 may be a server 200 that implements a platform of obtaining video content from a plurality of users and providing the obtained video data to a plurality of other users. The video service server 200 may immediately request video learning to the AI image processing server 100 as a specific video is uploaded from an arbitrary user.
상기 AI 영상 처리 서버 100는 동영상 서비스 서버 200로부터 획득된 동영상을 대상으로 영상 학습을 수행할 수 있다. 이 때 상기 영상 학습이란 기 설정된 기준치 이하의 해상도를 갖는 저화질의 파일을 원본 영상 수준으로(예, 원본 영상과 기 설정된 기준치 이상 일치율을 보이는 수준) 복원하는 데 요구되는 신경망 파일을 생성하는 동작을 의미할 수 있다. 구체적으로, 상기 AI 영상 처리 서버 100는 원본 동영상(기준치 이상의 고해상도 데이터)을 영상 학습한 결과로 해상도가 저감된 버전인 다운스케일링 파일과, 영상 복원에 사용되는 메타 데이터를 포함하는 신경망 파일을 생성할 수 있다. 그리고 상기 신경망 파일은 추후 상기 다운스케일링 파일에 적용되어 AI 기반의 영상 복원을 수행하는 데 필요한 메타 정보를 포함할 수 있다. 구체적으로 상기 신경망 파일은 다운스케일링 파일을 원본 파일로 복원할 때 요구되는 인공신경망의 각종 파라미터(Weight, bias 등)과 관련된 정보를 포함할 수 있다. The AI image processing server 100 may perform image learning on a video obtained from the video service server 200. In this case, the image learning refers to an operation of generating a neural network file required for restoring a low quality file having a resolution lower than a predetermined reference value to an original image level (for example, a level that matches the reference image with a preset reference value or more). can do. In detail, the AI image processing server 100 may generate a downscaling file having a reduced resolution and a neural network file including metadata used to restore an image as a result of image learning of an original video (high resolution data of a reference value or more). Can be. The neural network file may be applied to the downscaling file later to include meta information necessary to perform AI-based image reconstruction. Specifically, the neural network file may include information related to various parameters (weight, bias, etc.) of the artificial neural network required when restoring the downscaling file to the original file.
AI 영상 처리 서버 100는 영상 학습 결과로 산출된 다운스케일링 파일은 동영상 서비스 서버 200에 저장하고 그에 대응하는 신경망 파일은 AI 영상 처리 서버 100에 저장하도록 할 수 있다. 이와 같이 다운스케일링 파일과 신경망 파일을 각각의 서버에 분리하여 저장하는 경우, 상기 AI 영상 처리 서버 100는 추후 동영상 서비스 서버 200로부터 다운스케일링 파일만을 수신하고, 수신된 다운스케일링 파일에 대응하는 신경망 파일을 추출한 후 영상 복원 작업을 수행할 수 있다. The AI image processing server 100 may store the downscaling file calculated as the image learning result in the video service server 200 and the neural network file corresponding thereto in the AI image processing server 100. When the downscaling file and the neural network file are separately stored in each server as described above, the AI image processing server 100 receives only the downscaling file from the video service server 200 later, and stores the neural network file corresponding to the received downscaling file. After extraction, image restoration may be performed.
또 다른 실시 예에 따라, 사용자 기기 300에서 동영상 다운로드를 요청할 경우, 상기 동영상 서비스 서버 200는 사용자 기기 300로 다운스케일링 파일을 전달하고, AI 영상 처리 서버 100는 신경망 파일을 사용자 기기 300로 전달할 수 있다. According to another embodiment, when a user downloads a video from the user device 300, the video service server 200 may transmit a downscaling file to the user device 300, and the AI image processing server 100 may deliver a neural network file to the user device 300. .
또는, 상기 AI 영상 처리 서버 100는 영상 학습 결과로 산출된 다운스케일링 파일과 신경망 파일 모두를 동영상 서비스 서버 200에 제공하고, 동영상 서비스 서버 200가 두 종류의 파일 모두를 저장할 수 있다. 이러한 경우, 상기 동영상 서비스 서버 200는 사용자로부터 특정 동영상 콘텐츠에 대한 다운로드 요청이 수신된 경우, 즉시 해당 콘텐츠에 대한 다운스케일링 파일과 신경망 파일을 AI 영상 처리 서버 100에 제공하고 화질 복원을 요청할 수 있다. 이에 따라 AI 영상 처리 서버 100에서 화질 복원된 동영상 콘텐츠는 다시 동영상 서비스 서버 200를 통해 사용자 기기 300로 제공되거나, 사용자 기기 300로 바로 제공될 수 있다. 이 때 상기 사용자 기기 300는 동영상 서비스 서버 200측의 요청에 따라 AI 영상 처리 서버 100로의 접속 및 데이터 송수신을 지원하는 프로그램이 설치된 상태일 수 있다. Alternatively, the AI image processing server 100 may provide both the downscaling file and the neural network file calculated as a result of image learning to the video service server 200, and the video service server 200 may store both types of files. In this case, when a download request for a specific video content is received from the user, the video service server 200 may immediately provide a downscaling file and a neural network file for the corresponding content to the AI image processing server 100 and request to restore the image quality. Accordingly, the video content restored in the AI image processing server 100 may be provided to the user device 300 through the video service server 200 or may be directly provided to the user device 300. At this time, the user device 300 may be in a state in which a program that supports access to the AI image processing server 100 and data transmission / reception is installed at the request of the video service server 200.
또한 다양한 실시 예에 따라 상기 동영상 서비스 서버 200는 사용자 기기 300로 다운스케일링 파일과 신경망 파일을 모두 전송할 수 있다. 이 때 상기 동영상 서비스 서버 200는 사용자 기기 300의 GPU 등의 사양에 기반하여 사용자 기기 300로의 다운스케일링 파일과 신경망 파일의 전송 가능 여부 및 전송 데이터의 형식을 결정할 수 있다. According to various embodiments of the present disclosure, the video service server 200 may transmit both the downscaling file and the neural network file to the user device 300. In this case, the video service server 200 may determine whether to transmit the downscaling file and the neural network file to the user device 300 and the format of the transmission data based on specifications of the GPU of the user device 300.
영상 학습 결과 파일(다운스케일링 파일과 신경망 파일)의 저장 및 장치간 제공 방식은 앞서 기술한 형태로 한정되지 않으며, 보다 다양한 방법이 적용될 수 있다. 예를 들어, 사용자 기기 300의 상태, 기종, 동영상 서비스 서버 200와 AI 영상 처리 서버 100와의 연동 형식 등에 따라 상기 영상 학습 결과 파일의 저장 및 장치간 제공 방식은 변동될 수 있다.The method of storing the image learning result file (downscaling file and neural network file) and providing the device between the devices is not limited to the above-described form, and various methods may be applied. For example, the method of storing the image learning result file and providing the device-to-device may vary according to the state of the user device 300, the model, the interworking format of the video service server 200, and the AI image processing server 100.
이하에서는, 영상 학습을 수행하는 주체인 AI 영상 처리 서버 100의 구성 및 동작의 특징을 살펴보기 위해, 도면을 참조하여 설명하기로 한다.  Hereinafter, the configuration and operation of the AI image processing server 100, which is a subject performing image learning, will be described with reference to the drawings.
도 2는 본 발명의 실시 예에 따른 AI 영상 처리 서버의 구성을 도시한 도면이다.  2 is a diagram illustrating a configuration of an AI image processing server according to an exemplary embodiment of the present invention.
이하에서, AI 영상 처리 서버 100는 처리 서버 100로 지칭하기로 한다. Hereinafter, the AI image processing server 100 will be referred to as a processing server 100.
상기 처리 서버 100는 통신부 110, 저장부 120 및 제어부 130를 포함하여 구성될 수 있다. The processing server 100 may include a communication unit 110, a storage unit 120, and a controller 130.
상기 통신부 110는 사용자 디바이스와 서버 간의 데이터 송수신을 위해 네트워크를 이용할 수 있으며 상기 네트워크의 종류는 특별히 제한되지 않는다. 상기 네트워크는 예를 들어, 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스를 제공하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망 일 수 있다. 또한, 상기 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동통신망, LTE advanced(LTE-A), 5G(Five Generation)를 포함하는 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나 이거나 또는 이들 중 적어도 하나 이상을 결합하여 이루어질 수 있다.The communication unit 110 may use a network for data transmission and reception between a user device and a server, and the type of the network is not particularly limited. The network may be, for example, an IP (Internet Protocol) network providing a transmission / reception service of a large amount of data through an Internet protocol (IP), or an All IP network integrating different IP networks. The network may include a wired network, a wireless broadband network, a mobile communication network including WCDMA, a high speed downlink packet access (HSDPA) network, and a long term evolution (LTE) network, LTE advanced (LTE-A). ), Or one of a mobile communication network including 5G (Five Generation), a satellite communication network, and a Wi-Fi network, or a combination of at least one of them.
본 발명의 실시 예에 따른 상기 통신부 110는 동영상 서비스 서버 200 및 사용자 기기 300와의 데이터 통신을 수행할 수 있다. The communication unit 110 according to an embodiment of the present invention may perform data communication with the video service server 200 and the user device 300.
상기 저장부 120는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.The storage unit 120 may include, for example, an internal memory or an external memory. The internal memory may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (for example, OTPROM (one). time programmable ROM (PROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash), hard drives, Or it may include at least one of a solid state drive (SSD).
외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), XD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory may be a flash drive such as compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (mini-SD), extreme digital (XD), It may further include a multi-media card (MMC) or a memory stick. The external memory may be functionally and / or physically connected to the electronic device through various interfaces.
본 발명의 실시 예에 따른 상기 저장부 120는 영상 학습을 수행한 결과물인 다운스케일링 파일과, 다운 스케일링 파일을 추후 원본 수준으로 복원하기 위해 요구되는 파일인 신경망 파일을 저장할 수 있다.The storage unit 120 according to an embodiment of the present invention may store a downscaling file that is a result of performing image learning and a neural network file that is a file required to restore the downscaling file to an original level later.
또한 상기 저장부 120는 상기 다운스케일링 파일과, 신경망 파일을 생성하기 위한 영상 학습 동작, 다운스케일링 파일로부터 해상도 복원을 위한 인공신경망 연산 동작에 요구되는 알고리즘을 저장할 수 있다. The storage unit 120 may store an algorithm required for the downscaling file, an image learning operation for generating a neural network file, and an artificial neural network operation for reconstructing a resolution from the downscaling file.
상기 제어부 130는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. The controller 130 may also be referred to as a processor, a controller, a microcontroller, a microprocessor, a microcomputer, or the like. On the other hand, the control unit may be implemented by hardware (hardware) or firmware (firmware), software, or a combination thereof.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 제어부에 의해 구동될 수 있다. 메모리는 상기 사용자 단말 및 서버 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 상기 제어부와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above. The software code may be stored in a memory and driven by the controller. The memory may be located inside or outside the user terminal and the server, and may exchange data with the controller by various known means.
본 발명의 실시 예에 따른 상기 제어부 130는 코덱 지원부 131, AI 학습 지원부 132, AI 영상 복원부 133를 포함하여 구성될 수 있다. According to an embodiment of the present disclosure, the controller 130 may include a codec support unit 131, an AI learning support unit 132, and an AI image restoration unit 133.
상기 코덱 지원부 131는 동영상을 압축하거나 해제하는 코덱의 일반적인 기능을 제공할 수 있다. 그리고 상기 코덱 지원부 131는 코덱 기능을 이용하여 영상 학습을 위해 획득된 동영상의 데이터 정보 추출, 키프레임 추출의 동작을 수행할 수 있다. 이렇게 추출된 키프레임은, 영상 학습 시 키프레임을 제외한 프레임인 잔여 프레임과 분리되어 처리될 수 있다. The codec support unit 131 may provide a general function of a codec for compressing or decompressing a video. The codec support unit 131 may perform data extraction and keyframe extraction of a video acquired for image learning using a codec function. The extracted keyframes may be processed separately from the remaining frames, which are frames other than the keyframes, in image learning.
상기 AI 학습 지원부 132는 AI 기반의 영상 학습을 지원할 수 있다. 구체적으로, 상기 AI 학습 지원부 132는 획득된 동영상 파일로부터 다운스케일링 파일과, 다운스케일링 파일을 추후 원본 수준으로 화질 복원하기 위해 요구되는 파일인 신경망 파일을 생성할 수 있다. 이 과정에서 상기 AI 학습 지원부 132는 본 발명의 실시 예에 따라 상기 코덱 지원부 131에서 추출한 키프레임과, 키프레임을 제외한 잔여 프레임을 구분하여 영상학습을 수행할 수 있다. 구체적으로, 상기 AI 학습 지원부 132는 먼저 키프레임에 대하여 영상 학습할 시, 키프레임에 속한 전체 이미지에 대하여 영상 학습을 수행할 수 있다. 그리고 상기 AI 학습 지원부 132는 키프레임으로 추출되지 않은 잔여 프레임에 대하여 영상학습을 수행할 시, 키 프레임과 동일한 값을 갖는 매크로블록은 제외하고, 키프레임과 상이한 값을 갖는 매크로블록을 대상으로 영상 학습을 부분적으로 수행할 수 있다. The AI learning support unit 132 may support AI based image learning. In detail, the AI learning support unit 132 may generate a downscaling file from the obtained video file and a neural network file, which is a file required to restore the downscaling file to the original level. In this process, the AI learning support unit 132 may perform image learning by dividing the key frame extracted by the codec support unit 131 and the remaining frames except the key frame. In detail, the AI learning support unit 132 may perform image learning on the entire image belonging to the key frame when the image learning is performed on the key frame. When the AI learning support unit 132 performs the image learning on the remaining frames which are not extracted as key frames, the AI learning support unit 132 excludes the macro blocks having the same value as the key frames and targets the macro blocks having different values from the key frames. You can do some learning.
상기 AI 영상 복원부 133는 영상 학습 결과로 생성된 다운스케일링 파일을 신경망 파일에 기반하여 업스케일링할 수 있다. 상기 AI 영상 복원부 133는 업스케일링이 완료되어 화질이 복원된 데이터를 사용자 기기 300 또는 동영상 서비스 서버 200측으로 제공할 수 있다. The AI image reconstructor 133 may upscale the downscaling file generated as a result of image learning based on the neural network file. The AI image restoration unit 133 may provide the user device 300 or the video service server 200 with data whose upscaling is completed and whose quality is restored.
본 발명의 실시 예에 따른 상기 AI 영상 복원부 133는 영상 학습 방식과 마찬가지로 키 프레임과 잔여 프레임을 분리하여 영상 복원 동작을 수행할 수 있다. 먼저, 키 프레임을 먼저 영상 복원 동작을 수행하고, 잔여 프레임에 대해서는, 키프레임과 동일한 값의 매크로블록(이하, 정지 매크로블록)은 키프레임용 이미지를 그대로 복사해오고, 키프레임과 상이한 값의 매크로블록(이하, 변화 매크로블록)은 추가의 영상 복원 동작을 수행할 수 있다. 이에 따라 영상 복원 연산에 요구되는 데이터 부하 및 연산 속도를 절감할 수 있다. The AI image restoration unit 133 according to an embodiment of the present invention may perform an image restoration operation by separating a key frame and a residual frame in the same manner as the image learning method. First, a key frame is first image-restored, and for a remaining frame, a macroblock having the same value as a keyframe (hereinafter, referred to as a still macroblock) copies an image for a keyframe as it is, and has a value different from that of the keyframe. The macroblock (hereinafter, referred to as a change macroblock) may perform an additional image reconstruction operation. Accordingly, the data load and the calculation speed required for the image restoration operation can be reduced.
이 밖에 상기 AI 영상 복원부 133는 업스케일링 결과, 원본 데이터와의 일치율이 기준치 이상인지 여부를 확인하고, 그에 대한 피드백 정보를 AI 학습 지원부 132에 제공할 수 있다. 또한 다양한 실시 예에 따라 상기 AI 영상 복원부 133는 상기 일치율에 관한 정보를 동영상 서비스 서버 100측에 전송하고, 일치율이 기준치 이하인 경우, 추가의 영상 학습을 위해 자료를 제공하도록 요청할 수 있다. In addition, as a result of upscaling, the AI image reconstructor 133 may determine whether a match rate with the original data is greater than or equal to a reference value, and provide feedback information to the AI learning support unit 132. According to various embodiments of the present disclosure, the AI image reconstruction unit 133 may transmit the information about the matching rate to the video service server 100 and, when the matching rate is lower than the reference value, may request to provide data for further image learning.
상기 AI 영상 복원부 133는 영상 복원 시, 동영상의 키프레임과 잔여 프레임을 구분하여 영상 복원을 수행할 수 있다. 먼저, 키프레임의 경우 전체 이미지 영역에 대한 영상 복원을 실시하고, 잔여 프레임의 경우, 일부 이미지 영역(예, 키프레임과 중복되지 않는 변화 이미지 객체 영역)에 대해서만 영상 복원을 수행하고, 나머지 이미지 영역은 키 프레임의 복원 이미지로부터 붙여넣기 할 수 있다. 이는 키 프레임과 중복되는 이미지 영역을 갖는 잔여 프레임의 영상 복원 시, 기 복원된 이미지를 재사용함으로써, 불필요한 복원 동작을 막고 복원 과정에 소요되는 시간소요를 줄일 수 있다. When reconstructing the image, the AI image reconstructor 133 may reconstruct an image by dividing a key frame and a remaining frame of the video. First, in case of key frames, image restoration is performed for the entire image region. In case of remaining frames, image restoration is performed only for some image regions (eg, change image object regions not overlapping with key frames). Can be pasted from the reconstructed image of the key frame. This re-uses the previously reconstructed image when reconstructing an image of the remaining frame having an image region overlapping with the key frame, thereby preventing unnecessary reconstruction operation and reducing the time required for the reconstruction process.
도 3은 본 발명의 실시 예에 따른 코덱 지원부의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a codec support unit according to an exemplary embodiment of the present invention.
도 3에서 도시되는 바와 같이, 상기 코덱 지원부 131는 데이터 판단부 131a 와 프레임 추출부 131b 및 매크로블록 판단부 131c를 포함하여 구성될 수 있다. As shown in FIG. 3, the codec supporter 131 may include a data determiner 131a, a frame extractor 131b, and a macroblock determiner 131c.
먼저, 데이터 판단부 131a는 동영상 서비스 서버 200로부터 영상 학습을 수행할 동영상 데이터가 수신되면, 코덱의 기능에 기반하여 수신된 동영상에 대하여 영상 학습 또는 영상 복원과 관련된 세부 정보를 추출할 수 있다. 상기 세부 정보는 예컨대, 동영상 서비스 서버 200로부터 수신된 동영상 파일이 갖는 기초 해상도, 압축 방식, 재생시간과 같은 기본적인 동영상 재생과 관련된 정보를 포함할 수 있다.First, when the video data for image learning is received from the video service server 200, the data determiner 131a may extract detailed information related to image learning or image reconstruction for the received video based on the function of the codec. The detailed information may include, for example, information related to basic video playback such as a basic resolution, a compression method, and a playback time of the video file received from the video service server 200.
그리고 상기 프레임 추출부 131b는 코덱의 기능에 기반하여 동영상에서 키프레임을 추출할 수 있다. 다시 말하면, 상기 프레임 추출부 131b는 동영상을 구성하는 전체 프레임들 중에서 키 프레임과, 키프레임이 아닌 잔여 프레임을 구분하는 역할을 수행할 수 있다. 이 때 상기 키 프레임은 상기 잔여 프레임과 별도의 영상학습 과정을 수행하기 위해 분리될 수 있다. The frame extractor 131b may extract a keyframe from a video based on the function of the codec. In other words, the frame extractor 131b may distinguish between a key frame and a remaining frame other than the key frame among all the frames constituting the video. In this case, the key frame may be separated from the remaining frame to perform a separate image learning process.
상기 프레임 추출부 131b는 추출된 키 프레임 정보를 즉시 영상학습 또는 영상 복원을 위해 AI 학습 지원부 132 또는 AI 영상 복원부 133측에 제공할 수 있다. The frame extractor 131b may provide the extracted key frame information to the AI learning support unit 132 or the AI image restoration unit 133 for immediate image learning or image restoration.
예컨대, 프레임 추출부 131b는 코덱에서 제공하는 기본적인 기능에 기반하여, 주요 장면 변화가 이루어지기 시작한 첫번째 프레임을 키프레임으로 선택하고 추출할 수 있다. For example, the frame extractor 131b may select and extract, as a keyframe, the first frame in which the main scene change has started, based on the basic functions provided by the codec.
상기 매크로블록 판단부 131c는 키프레임을 제외한, 잔여 프레임들을 대상으로 매크로블록을 변화 매크로블록과 정지 매크로블록으로 구분하는 동작을 수행할 수 있다. 변화 매크로블록과 정지 매크로블록에 대한 구분 정보는 상기 매크로블록 판단부 131c에 의해 산출된 후 AI 학습 지원부 또는 AI 영상 복원부에 제공될 수 있다. The macroblock determination unit 131c may perform an operation of dividing a macroblock into a change macroblock and a still macroblock with respect to the remaining frames except for the keyframe. The division information on the change macroblock and the still macroblock may be calculated by the macroblock determination unit 131c and then provided to the AI learning support unit or the AI image reconstruction unit.
상기 매크로블록 판단부 131c에서 수행하는 매크로블록의 구분 동작을 구체적으로 설명하기 위해, 먼저 매크로블록의 구분 동작의 원리에 대하여 간단하게 설명하기로 한다. In order to describe in detail the division operation of the macroblock performed by the macroblock determination unit 131c, first, the principle of the division operation of the macroblock will be briefly described.
상기 매크로블록은 H.261, H.263, MPEG 등 주요 영상 압축 방식에서 움직임 보상 및 움직임 예측을 위해 여러 화소 블록들을 그룹화시킨 단위를 의미할 수 있으며, 휘도 신호와, 색차 신호로 이루어질 수 있다. The macroblock may mean a unit in which several pixel blocks are grouped for motion compensation and motion prediction in main image compression schemes such as H.261, H.263, and MPEG, and may include luminance signals and color difference signals.
기존 코덱의 일반적인 영상 압축 방식을 살펴보면, 기존 코덱(예, H.264)는 영상에서 시간적(motion compensation), 공간적(dct, 양자화)으로 중복된 정보를 제거함으로써 손실 압출을 하게 된다. 시간적으로 중복된 정보를 제거하는 방법은 예를 들면, 움직임 보상(motion compensation)방식이 있다. 움직임 보상 방식은 동영상에서 이전 프레임(key frame)은 영상 전체를 파일에 저장하지만 그 뒤의 현재 프레임(current frame)은 이전 프레임과 비교하여 프레임을 구성하는 작은 영역(macro block)들의 움직임 정보(motion vector)와 차이 영상(residual image)만 파일로 저장하여 파일 크기를 줄이는 방법이다. Looking at the general image compression method of the existing codec, the existing codec (eg, H.264) is a lossy extrusion by removing the overlapped information in the image (motion compensation, spatial (dct, quantization)). As a method of eliminating redundant information in time, for example, there is a motion compensation method. In the motion compensation method, the previous frame (key frame) stores the entire image in a file, but the current frame after the current frame is compared to the previous frame. This method reduces the file size by saving only the vector and the residual image as a file.
예를 들어, 건물을 배경으로 사람이 말하고 있는 동영상의 경우, 사람의 배경인 건물은 움직임이 없고, 사람의 얼굴 부분만 움직일 것이므로, 사람의 얼굴 영역은 소정의 움직임 벡터 값을 갖게 되나, 건물 이미지 영역은 0에 가까운 값을 갖게 될 것이다. For example, in the case of a video where a person is speaking against a building, the building, which is the background of the person, will move without moving, and only the face of the person will move, so that the face area of the person will have a predetermined motion vector value. The area will have a value close to zero.
코덱은 이와 같이 0에 가까운 작은 값을 갖는 영역을 이전 프레임과의 중복 영역으로 간주하여 0으로 바꾸는 동작(양자화)을 수행할 수 있고, 이를 통해 손실 압축이 이루어지게 된다. As such, the codec may perform an operation (quantization) of replacing a region having a small value close to zero as a region overlapping with a previous frame and quantizing the region, thereby performing lossy compression.
본 발명의 실시 예에 따른 상기 매크로블록 판단부 131c는 이러한 기본적인 코덱의 압축 원리를 이용하여, 움직임 벡터가 0으로 간주된 매크로블록들과, 움직임 벡터가 유의미한 값을 갖는 매크로블록을 구분하여 산출할 수 있다. 본 명세서에서, 움직임 벡터가 0으로 간주된 매크로블록이 바로 정지 매크로블록이고, 움직임 벡터가 유의미한 값(예, 기준치 이상의 값)을 갖는 매크로블록이 변화 매크로블록을 의미한다. The macroblock determination unit 131c according to an embodiment of the present invention may calculate macroblocks in which a motion vector is considered to be 0 and macroblocks having a significant value by using a compression principle of the basic codec. Can be. In this specification, a macroblock in which a motion vector is considered to be 0 is a still macroblock, and a macroblock having a motion vector having a significant value (eg, a value higher than a reference value) means a change macroblock.
상기 코덱 지원부 131는 키프레임 추출 동작, 잔여 프레임에서의 변화 매크로블록과 정지 매크로블록의 구분 동작 외에도, 종래의 코덱 기능에 기초한 다양한 동작을 수행할 수 있다. The codec support unit 131 may perform various operations based on a conventional codec function, in addition to a keyframe extraction operation and a classification operation of a change macroblock and a still macroblock in a remaining frame.
상기 코덱 지원부 131는 코덱에서 키 프레임을 추출하는 동작과 관련하여, 키 프레임에서 판단되는 이미지의 복잡도를 판단하고, 해당 동영상의 장르를 구분할 수 있다. 예컨대, 상기 코덱 지원부 131는 애니메이션 장르와, 실사 장르를 구분할 수 있다. 장르 구분 동작에 따라 산출된 장르 구분 정보는 효과적인 AI 학습을 위해 AI 학습 지원부 및 AI 영상 복원부 133측에 제공될 수 있다. The codec support unit 131 may determine a complexity of an image determined from a key frame and distinguish a genre of a corresponding video in relation to an operation of extracting a key frame from a codec. For example, the codec support unit 131 may distinguish between an animation genre and a live action genre. The genre classification information calculated according to the genre classification operation may be provided to the AI learning support unit and the AI image reconstruction unit 133 for effective AI learning.
도 4는 본 발명의 실시 예에 따른 AI 학습 지원부의 구성을 도시한 도면이다. 4 is a diagram illustrating a configuration of an AI learning support unit according to an exemplary embodiment of the present invention.
도 4에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 AI 학습 지원부 132는 변화 객체 추출부 132a, 주요 객체 추출부 132b, AI 학습 수행부 132c를 포함하여 구성될 수 있다. As shown in FIG. 4, the AI learning support unit 132 according to an embodiment of the present invention may include a change object extractor 132a, a main object extractor 132b, and an AI learning performer 132c.
상기 변화 객체 추출부 132a는 상기 코덱 지원부 131에서 산출한 잔여 프레임의 변화 매크로블록 정보에 기반하여 변화 객체를 판단하는 동작을 수행할 수 있다. 변화 객체 판단 동작에 대하여 설명하기 위해, 도 5를 참조하기로 한다. The change object extractor 132a may perform an operation of determining the change object based on the change macroblock information of the remaining frame calculated by the codec support unit 131. To describe the change object determination operation, reference is made to FIG. 5.
도 5는 본 발명의 실시 예에 따른 모션 벡터가 표시된 동영상 프레임 이미지를 도시하고 있다. 5 illustrates a video frame image displaying a motion vector according to an embodiment of the present invention.
도 5에서 도시되는 바와 같이, 본 발명의 실시 예에 따르면, 동영상 프레임 이미지는 모션 벡터(화살표)가 존재하는 매크로블록으로 구성되는 이미지 영역 510과 모션 벡터가 존재하지 않거나, 기준치 이하로 미미한 수준인 이미지 영역 520으으로 구분될 수 있다. As shown in FIG. 5, according to an exemplary embodiment of the present invention, a video frame image has an image region 510 composed of a macroblock in which a motion vector (arrow) exists and a motion vector does not exist or is less than a reference value. It may be divided into an image area 520.
이와 같이, 본 발명의 실시 예에 따른 변화 객체 추출부 132a는 모션 벡터 값의 유무 또는 그 값의 크기에 기반하여, 변화 매크로블록 및 상기 변화 매크로블록으로 구성되는 변화 이미지 객체를 판단할 수 있다. 동일한 원리로, 상기 변화 객체 추출부 132a는 모션 벡터 값의 유무 또는 그 값의 크기에 기반하여 정지 매크로블록 및 상기 정지 매크로블록으로 구성되는 정지 이미지 객체를 판단할 수 있다. As described above, the change object extracting unit 132a according to an embodiment of the present invention may determine the change image object composed of the change macroblock and the change macroblock based on the presence or absence of the motion vector value. In the same principle, the change object extractor 132a may determine a still image object including the still macroblock and the still macroblock based on the presence or absence of a motion vector value or the magnitude of the value.
상기 주요 객체 추출부 132b는 이미지 객체를 움직임 여부 대신 중요도 판단에 기반하여 이미지 객체를 추출하는 동작을 수행할 수 있다. 상기 주요 객체 추출부 132b는 정지 이미지라 하더라도 해당 동영상 데이터에서 중요도가 있는 대상으로 판단되면, 해당 객체를 별도로 추출할 수 있다. 추출된 이미지 객체는 추후 별도로 AI 영상 학습을 수행할 수 있다. The main object extractor 132b may perform an operation of extracting the image object based on the importance determination instead of moving the image object. The main object extractor 132b may extract the object separately, even if it is determined that the object has importance in the corresponding video data even in the still image. The extracted image object can be separately performed AI image learning later.
일 실시 예에 따라 상기 주요 객체 추출부 132b는 키 프레임 이미지에서 확인되는 이미지 객체의 사이즈, 이미지 객체의 영상 복잡도(색상의 다양성 및 윤곽의 복잡도 등에 기반), 인물 여부(인물인 경우 중요도 증가), 포커스 여부(포커스가 존재하는 대상인 경우 중요도 증가) 와 같은 다양한 기준에 기반하여 주요 객체 여부를 판단할 수 있다. 예를 들면, 상기 주요 객체 추출부 132b는 프레임의 정 중앙에 표시되는 특정 사물(예, 책)의 이미지가 정지해 있다 하더라도, 상기 책의 이미지가 차지하는 영역의 비율 내지는 책의 이미지 객체의 사이즈가 기준치 이상인 경우, 중요도가 있는 것으로 판단하고, 그에 따라 주요 객체로써 추출할 수 있다. 그리고 이 때 상기 주요 객체 추출부 132b는 이미지 객체의 사이즈를 중요도 기준으로 선택한 경우, 이미지 객체의 사이즈 값이 증가할수록 중요도 수치를 높은 값으로 설정할 수 있다. 이에 따라 산출된 이미지 객체의 중요도가 기준치 이상이면, 해당 이미지 객체는 주요 이미지 객체로 선택될 수 있다. According to an embodiment, the main object extractor 132b may include a size of an image object identified in a key frame image, an image complexity of the image object (based on the variety of colors and the complexity of an outline), a person (increasing importance in the case of a person), The main object can be determined based on various criteria such as focusing (increasing importance when the focus exists). For example, the main object extractor 132b may have a ratio of the area occupied by the image of the book or the size of the image object of the book even if the image of a specific object (eg, a book) displayed at the center of the frame is still. If it is more than the reference value, it can be determined that there is importance and can be extracted as a main object accordingly. In this case, when the size of the image object is selected as the importance criterion, the main object extractor 132b may set the importance value to a higher value as the size value of the image object increases. If the importance of the calculated image object is greater than or equal to the reference value, the corresponding image object may be selected as the main image object.
AI 학습 수행부 132c는 획득된 동영상 데이터를 대상으로 AI 기반의 영상 학습을 통한 압축 기능을 지원할 수 있다. 구체적으로, 상기 AI 학습 수행부 132c는 획득된 동영상 파일로부터 다운스케일링 파일과, 다운스케일링 파일을 추후 원본 수준으로 화질을 복원하기 위해 요구되는 파일인 신경망 파일을 생성할 수 있다. 이 때 상기 다운스케일링 파일은 곧 압축 파일을 의미하며, 본 발명의 실시 예에 따라 상기 AI 학습 수행부 132c는 이러한 영상 학습을 수행하는 방식으로 동영상 파일 압축을 수행할 수 있다. 이러한 AI 영상 학습에 의해 다운스케일되어 압축된 동영상 파일은 추후 AI 영상 복원부 133에서 신경망 파일에 기반하여 수행되는 복원 작업에 의해 해상도가 복원(압축 해제)이 이루어질 수 있다. The AI learning performer 132c may support a compression function through AI-based image learning on the obtained video data. Specifically, the AI learning performer 132c may generate a downscaling file from the obtained video file and a neural network file that is a file required to restore the quality of the downscaling file to the original level later. In this case, the downscaling file refers to a compressed file, and according to an embodiment of the present invention, the AI learning performer 132c may perform video file compression by performing such image learning. The video file downscaled and compressed by such AI image learning may be reconstructed (decompressed) by a reconstruction operation performed based on a neural network file in the AI image reconstruction unit 133.
상기 AI 학습 수행부 132c는 동영상의 키 프레임과 잔여 프레임에 대하여 별도의 영상 학습을 수행할 수 있다. 상기 AI 학습 수행부 132c는 먼저 키 프레임에 대하여는 전체 이미지 영역에 대한 영상학습을 수행하고, 잔여 프레임에 대하여는 임의의 기준(중복 여부, 중요도)에 따라 적어도 2개의 이미지 영역을 분류하고, 그 중 일 이미지 영역에 대한 영상 학습은 생략하게 된다. 추후 잔여 프레임의 해상도 복원 시, 영상 학습이 수행되지 않은 이미지 영역은 키프레임의 이미지 복원 결과물에서 붙여 넣는 방식으로 수행될 수 있다. The AI learning performer 132c may perform separate image learning on the key frame and the remaining frame of the video. The AI learning performer 132c first performs image learning on the entire image area with respect to the key frame, and classifies at least two image areas with respect to the remaining frames according to an arbitrary criterion (duplicate or importance). Image learning of the image region is omitted. In the future, when reconstructing the resolution of the remaining frame, an image region in which image learning is not performed may be performed by pasting from the image reconstruction result of the key frame.
본 발명의 실시 예에 따라 상기 AI 학습 수행부 132c는 상기 변화 객체 추출부 132a에서 추출한 변화 이미지 객체를 대상으로 한 별도의 AI 영상 학습 동작을 수행할 수 있다. 이에 따라, 상기 AI 학습 수행부 132c는 상기 변화 이미지 객체에 대한 별도의 신경망 파일을 생성할 수 있다. 그리고 이에 따라 추후 AI 영상 복원부 133의 영상 복원시, 상기 변화 이미지 객체에 대한 별도의 신경망 파일을 기반으로 변화 이미지 객체에 대한 영상 복원 동작을 수행하고, 나머지, 정지 이미지 객체(예, 배경)에 대하여는 키프레임의 중복 이미지를 복사 및 붙여넣기하여 최종 복원 영상을 생성할 수 있다. 상기 AI 학습 수행부 132c는 이러한 변화 이미지 객체에 대한 별도의 영상 학습 방식을 수행함으로, 복원 영상에 소요되는 시간 소요 및 데이터 용량을 감소시킬 수 있다. According to an embodiment of the present invention, the AI learning performer 132c may perform a separate AI image learning operation targeting the change image object extracted by the change object extractor 132a. Accordingly, the AI learning performer 132c may generate a separate neural network file for the change image object. Accordingly, when the AI image restoration unit 133 restores the image later, an image restoration operation for the change image object is performed based on a separate neural network file for the change image object, and the rest of the still image object (eg, a background) is performed. For example, the final reconstructed image may be generated by copying and pasting a duplicate image of a keyframe. The AI learning performer 132c performs a separate image learning method on the change image object, thereby reducing the time required and data capacity for the reconstructed image.
이와 유사하게, 상기 AI 학습 수행부 132c는 상기 주요 객체 추출부 132b에서 추출된 주요 이미지 객체에 대하여 별도의 영상 학습을 수행하고, 그에 대한 결과로 상기 주요 이미지 객체의 해상도를 추후 복원하기 위해 필요한 신경망 파일을 생성할 수 있다. 이에 따라 영상 복원 시, 상기 주요 이미지 객체에 대응하는 신경망 파일을 기반으로 상기 주요 이미지 객체에 대한 영상 복원 동작을 생성할 수 있게 된다.Similarly, the AI learning performing unit 132c performs a separate image learning on the main image object extracted by the main object extracting unit 132b, and as a result, the neural network required for later restoring the resolution of the main image object. You can create a file. Accordingly, during image restoration, an image restoration operation for the main image object may be generated based on a neural network file corresponding to the main image object.
도 6은 본 발명의 실시 예에 따른 동영상 화질 개선 시스템에서의 복원 동작이 이루어지는 순서에 대하여 도시한 순서도이다. 6 is a flowchart illustrating a procedure of performing a restoration operation in a video quality improvement system according to an exemplary embodiment of the present invention.
본 발명의 실시 예에 따른 동영상 화질 개선 시스템은 AI 영상 처리 서버 100, 동영상 서비스 서버 200, 사용자 기기 300를 통해 구현될 수 있다. 다양한 실시 예에 따라 상기 동영상 서비스 서버 200는 AI 영상 처리 서버 100와 동일 장치에서 구현될 수 있다. 그러나 설명의 편의를 위해 상기 AI 영상 처리 서버 100와 동영상 서비스 서버 200는 분리된 객체로 구현되는 경우를 예로 들기로 한다.The video quality improvement system according to an embodiment of the present invention may be implemented through an AI image processing server 100, a video service server 200, and a user device 300. According to various embodiments of the present disclosure, the video service server 200 may be implemented in the same device as the AI image processing server 100. However, for convenience of description, the AI image processing server 100 and the video service server 200 will be exemplified as separate objects.
상기 동영상 서비스 서버 200는 예컨대, OTT(Over The Top; 인터넷 통신망을 이용해 영상콘텐츠를 제공하는 서비스 형태) 업체측 서버를 의미할 수 있다. 상기 동영상 서비스 서버 200는 자체적으로 확보하였거나 제작한 동영상의 AI 영상 학습 및 그에 따른 저용량의 다운스케일링 파일 생성을 위해 AI 영상 처리 서버 100에 영상 데이터를 제공하고, 상기 AI 영상 처리 서버 100로부터 생성된 결과물을 수신할 수 있다. The video service server 200 may mean, for example, an OTT (Over The Top) service server that provides image content using an internet communication network. The video service server 200 provides image data to the AI image processing server 100 to learn AI images of the owned or produced video and to generate a low-scaling downscaling file. Can be received.
이에 대하여 구체적으로 설명하면, 먼저 상기 동영상 서비스 서버 200는 AI 영상 처리 서버 100로 원본 영상 데이터를 제공하는 605동작을 수행할 수 있다. 이후 상기 AI 영상 처리 서버 100는 동영상 서비스 서버 200로부터 영상 데이터를 수신하면, AI 영상 학습을 진행하는 610동작을 수행할 수 있다. 상기 AI 영상 학습에 대한 설명은 이전에 기술하였으므로, 생략하기로 한다. In detail, first, the video service server 200 may perform operation 605 of providing original image data to the AI image processing server 100. Thereafter, when the AI image processing server 100 receives the image data from the video service server 200, the AI image processing server 100 may perform operation 610 of performing AI image learning. Since the description of the AI image learning has been described above, it will be omitted.
이후 상기 AI 영상 처리 서버 100는 영상 학습을 수행한 결과 파일(다운스케일링 파일 및 신경망 파일)을 생성하게 되고, 이를 상기 동영상 서비스 서버 200에 제공하는 615동작을 수행하게 된다. Thereafter, the AI image processing server 100 generates a result file (downscaling file and neural network file) as a result of image learning, and performs operation 615 of providing the same to the video service server 200.
상기 동영상 서비스 서버 200는 이에 따라 영상 학습의 결과물인 다운스케일링 파일 및 신경망 파일을 보유한 상태에서, 사용자 기기 300측으로부터 해당 영상에 대한 다운로드 요청 신호를 수신하는 620동작을 수행할 수 있다. 이에 대응하여 상기 동영상 서비스 서버 200는 사용자 기기 300측으로부터 다운로드 요청받은 동영상 콘텐츠의 명칭 등의 정보를 확인하고, 이에 대응하는 학습 결과 파일(다운스케일링 파일 및 신경망 파일)을 다시 AI 영상 처리 서버 100에 제공하는 625동작을 수행할 수 있다. 상기 AI 영상 처리 서버 100는 동영상 서비스 서버 200로부터 학습 결과 파일이 수신됨에 따라, 이를 영상 복원 요청 신호로 인식할 수 있으며, AI 연산 기반의 영상 복원 동작인 630동작을 수행할 수 있다. 이후 상기 AI 영상 처리 서버 100는 복원된 파일을 동영상 서비스 서버 200측으로 전달하는 635동작을 수행할 수 있고, 이어서, 동영상 서비스 서버 200에서 복원된 파일을 사용자 기기 300측으로 전달하는 640 동작을 수행할 수 있다. Accordingly, the video service server 200 may perform operation 620 of receiving a download request signal for the corresponding video from the user device 300 while having the downscaling file and the neural network file resulting from the image learning. In response, the video service server 200 checks information such as the name of the video content requested to be downloaded from the user device 300, and sends corresponding learning result files (downscaling file and neural network file) to the AI image processing server 100 again. The operation 625 may be performed. When the AI image processing server 100 receives the learning result file from the video service server 200, the AI image processing server 100 may recognize this as an image restoration request signal, and may perform operation 630, which is an AI operation based image restoration operation. Thereafter, the AI image processing server 100 may perform operation 635 to deliver the restored file to the video service server 200, and then perform operation 640 to deliver the restored file to the user device 300 from the video service server 200. have.
그러나 상기 635동작 및 640동작 대신, 영상 복원을 수행하기 위해서, 사용자 기기 300가 AI 영상 처리 서버 100에 직접 접속하도록 상기 동영상 서비스 서버 200가 중개하며, 이에 따라 복원된 동영상 파일은 사용자 기기 300로 직접 제공될 수 있다. 이에 따라 사용자는 동영상 서비스 서버 200에서 제공하는 웹 또는 앱 상에서 제공되는 특정 동영상의 재생을 요청하는 경우, 복원 동작을 수행하는 AI 영상 처리 서버 100로부터 즉각적으로 복원된 파일을 제공받을 수 있다. However, instead of operations 635 and 640, in order to perform image restoration, the video service server 200 intervenes so that the user device 300 directly accesses the AI image processing server 100, and the restored video file is directly transferred to the user device 300. Can be provided. Accordingly, when the user requests to play a specific video provided on the web or app provided by the video service server 200, the user may be immediately provided with the restored file from the AI image processing server 100 performing the restoration operation.
또한 상기 도면에 도시되지 않았지만, 다양한 실시 예에 따라 사용자 기기 300의 사양에 기반하여, 영상 복원 동작을 수행할 주체가 결정될 수 있다. 상기 동영상 서비스 서버 200는 사용자 기기 300측의 요청시 또는 사용자 기기 300의 사양 판단 결과, 영상 복원을 위한 AI 연산에 적합하다고 인정되는 경우, 학습 결과 파일을 사용자 기기 300측에 전달하여, 사용자 기기 300에서 영상 복원 동작이 이루어지도록 할 수 있다. Although not shown in the drawing, a subject to perform an image restoration operation may be determined based on the specifications of the user device 300 according to various embodiments. The video service server 200 transmits the learning result file to the user device 300 when the user device 300 requests the user device 300 or determines that the user device 300 is suitable for AI calculation for image restoration. The image restoration operation may be performed at.
또는 사용자 기기 300가 동영상 다운로드 요청시, 상기 동영상 서비스 서버 200에서 원본 동영상 데이터 또는 복원된 데이터가 아닌, 영상 학습 결과물인 다운스케일링 파일과 신경망 파일을 전달할 수 있다. 추후 사용자는 사용자 기기 300에서 실제 해당 동영상 데이터를 재생하고자 하는 시점에, AI 영상 처리 서버 100에서 제공하는 플레이어를 통해 플레이하는 등의 방법을 통해, AI 영상 처리 서버 100측으로 학습 결과 파일이 제공할 수 있다. 그리고 AI 영상 처리 서버 100가 사용자 기기 300로부터 수신한 학습 결과 파일을 통해 영상 복원 동작을 수행할 수도 있다. Alternatively, when the user device 300 requests a video download, the video service server 200 may deliver a downscaling file and a neural network file, which are image learning results, instead of original video data or restored data. In the future, the user may provide the learning result file to the AI image processing server 100 by, for example, playing it through a player provided by the AI image processing server 100 when the user device 300 actually wants to play the video data. have. The AI image processing server 100 may perform an image restoration operation through the learning result file received from the user device 300.
도 7은 본 발명의 실시 예에 따른 영상 학습 동작의 과정을 도시한 순서도이다.   7 is a flowchart illustrating a process of an image learning operation according to an exemplary embodiment of the present invention.
상기 도 7에서 도시되는 바와 같이, 본원 발명의 실시 예에 따른 영상 처리 서버 100의 제어부 130는 외부로부터 영상 데이터를 획득하고, 영상 데이터가 획득됨을 확인하는 705동작을 수행할 수 있다. 이후 상기 제어부 130는 코덱 기반으로 동영상 데이터의 키프레임을 추출하는 710동작을 수행할 수 있다. 이 때 상기 영상 처리 서버 100는 다양한 확장자의 동영상 데이터의 디코딩을 수행할 수 있는 다양한 코덱 정보를 포함할 수 있으며, 이를 기반으로 획득되는 동영상의 키 프레임을 코덱을 통해 추출할 수 있다. As illustrated in FIG. 7, the controller 130 of the image processing server 100 according to an exemplary embodiment of the present disclosure may acquire image data from the outside and perform operation 705 to confirm that image data is obtained. Thereafter, the controller 130 may perform operation 710 of extracting a keyframe of video data based on the codec. In this case, the image processing server 100 may include various codec information for decoding video data having various extensions, and may extract a key frame of a video obtained based on the codec.
이후 상기 제어부 130는 추출된 키 프레임에 대한 영상 학습을 수행하는 715동작을 수행할 수 있다. Thereafter, the controller 130 may perform operation 715 for performing image learning on the extracted key frame.
그리고 상기 제어부 130는 키 프레임 이외의 프레임인 잔여 프레임을 대상으로 영상학습을 수행하되, 키 프레임과 중복된 부분은 제외하고, 키 프레임과 상이한 이미지 영역에 대하여 별도의 영상 학습을 수행할 수 있다. 이를 위해 상기 제어부 130는 잔여 프레임의 변화 매크로블록을 추출하는 720동작을 수행할 수 있다. 상기 변화 매크로블록은 키 프레임과 비교하였을 때, 다음 장면에서 움직임이 발생한 영역을 판단하여 분리해내기 위하여 추출되는 대상이다. 이후 상기 제어부 130는 상기 변화 매크로블록을 별도로 추출하고 이에 대한 영상 학습을 수행하는 725동작을 수행할 수 있다. The controller 130 may perform image learning on a remaining frame that is a frame other than a key frame, but may perform separate image learning on an image area different from the key frame except for a portion overlapping with the key frame. To this end, the controller 130 may perform operation 720 to extract the change macroblock of the remaining frame. The change macroblock is an object extracted to determine and separate a region where a motion occurs in the next scene when compared with a key frame. Thereafter, the controller 130 may perform operation 725 for extracting the change macroblock separately and performing image learning thereof.
다양한 실시 예에 따라 715동작과 720동작은 그 순서가 변경될 수 있다. According to various embodiments of the present disclosure, the order of operations 715 and 720 may be changed.
상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Although the present invention has been described in detail with reference to the above examples, those skilled in the art can make modifications, changes, and variations to the examples without departing from the scope of the invention. In short, in order to achieve the intended effect of the present invention, it is not necessary to separately include all the functional blocks shown in the drawings or to follow all the orders shown in the drawings in the order shown; Note that it may fall within the scope.

Claims (7)

  1. 동영상 데이터의 AI 영상 학습을 수행하기 위해 AI 영상 처리 서버로 원본 동영상 데이터를 전송하는 동영상 서비스 서버;A video service server for transmitting original video data to an AI video processing server to perform AI video learning of video data;
    상기 동영상 서비스 서버로부터 수신한 원본 동영상 데이터를 AI 영상 처리하여 상기 원본 동영상 데이터에 대응하는 다운스케일링 파일을 생성하고, 상기 다운스케일링 파일의 해상도를 복원하는 데 요구되는 파일인 신경망 파일을 생성하는 AI 영상 학습 동작을 수행하되, 동영상 데이터에서 변화가 감지되는 이미지 영역과 변화가 감지되지 않는 이미지 영역을 각각 별도로 구분하여 AI 영상 학습을 수행하고, 생성된 상기 다운스케일링 파일 및 상기 신경망 파일을 상기 동영상 서비스 서버로 전송하며, AI image processing of original video data received from the video service server to generate a downscaling file corresponding to the original video data, and to generate a neural network file which is a file required to restore the resolution of the downscaling file. A learning operation is performed, and the AI image learning is performed by separately distinguishing the image region where the change is detected from the image data and the image region where the change is not detected, and generating the downscaling file and the neural network file from the video service server. To,
    영상 복원 요청에 대응하여 상기 신경망 파일을 이용한 AI 연산을 통해 상기 다운스케일링 파일의 해상도를 복원하는 AI 영상 처리 서버;를 포함하는 것을 특징으로 하는 동영상 화질 개선 시스템.And an AI image processing server reconstructing the resolution of the downscaling file through an AI operation using the neural network file in response to an image restoration request.
  2. 제 1항에 있어서,The method of claim 1,
    상기 동영상 서비스 서버에 동영상 다운로드 요청 신호를 전달하는 사용자 기기;를 더 포함하고, And a user device for transmitting a video download request signal to the video service server.
    상기 동영상 서비스 서버는 The video service server
    상기 사용자 기기로부터 동영상 데이터의 다운로드 요청 신호를 수신하면 영상 복원을 위해, 다운로드 요청된 동영상 데이터에 대응하는 다운스케일링 파일 및 신경망 파일을 상기 AI 영상 처리 서버로 전송하는 것을 특징으로 하는 동영상 화질 개선 시스템. And a downscaling file and a neural network file corresponding to the downloaded video data are transmitted to the AI image processing server when the download request signal of the video data is received from the user device.
  3. 제 1항에 있어서, The method of claim 1,
    상기 AI 영상 처리 서버는 The AI image processing server
    상기 동영상 서비스 서버로부터 획득된 동영상 데이터에 대하여 코덱 기능을 수행하여, AI 영상 학습에 요구되는 데이터를 추출 및 분류하는 코덱 지원부;를 포함하고, And a codec support unit that performs a codec function on the video data obtained from the video service server, and extracts and classifies data required for AI video learning.
    상기 코덱 지원부는The codec support unit
    동영상 데이터의 키 프레임을 추출하여, 상기 키 프레임과 키 프레임을 제외한 나머지 프레임인 잔여 프레임을 분리하는 프레임 추출부;를 포함하는 것을 특징으로 하는 동영상 화질 개선 시스템. And a frame extractor which extracts a key frame of the video data and separates the key frame and the remaining frames other than the key frame.
  4. 제 3항에 있어서, The method of claim 3, wherein
    상기 코덱 지원부는The codec support unit
    상기 잔여 프레임 중 상기 키 프레임과 동일한 값을 갖는 매크로블록은 정지 매크로블록으로 판단하고, 상기 키 프레임과 상이한 값을 갖는 매크로블록은 변화 매크로블록으로 분류하는 매크로블록 판단부;를 포함하여 구성되는 것을 특징으로 하는 동영상 화질 개선 시스템.The macroblock having the same value as the key frame among the remaining frames is determined as a still macroblock, and the macroblock having a value different from the key frame is classified as a change macroblock. Featured video quality improvement system.
  5. 제 1항에 있어서,The method of claim 1,
    상기 AI 영상 처리 서버는The AI image processing server
    AI 기반의 영상 학습을 수행하는 AI 학습 지원부;를 포함하되, Includes; AI learning support unit for performing AI-based image learning,
    상기 AI 학습 지원부는The AI learning support unit
    동영상 데이터의 키 프레임과 잔여 프레임에 대하여 각각 별도의 영상 학습을 수행하되, 키 프레임에 대하여는 전체 이미지 영역에 대한 영상학습을 수행하고, 잔여 프레임에 대하여는 이미지 영역을 적어도 2 종류의 영역으로 분류하고 그 중 일 이미지 영역에 대한 영상 학습은 생략하는 AI 학습 수행부;를 포함하는 것을 특징으로 하는 동영상 화질 개선 시스템.Perform separate image learning on the key frame and the remaining frame of the video data, perform image learning on the entire image area on the key frame, and classify the image area into at least two types of areas on the remaining frame. And an AI learning performing unit for skipping image learning of one image region.
  6. 제 5항에 있어서The method of claim 5
    상기 AI 학습 지원부는 The AI learning support unit
    상기 잔여 프레임의 이미지 영역에 대하여, 변화 매크로블록으로 구성되는 변화 이미지 객체 영역과 정지 매크로블록으로 구성되는 정지 이미지 객체 영역으로 분류하며, 상기 변화 이미지 객체 영역에 대하여 영상 학습을 수행할 대상으로 추출하는 변화 객체 추출부; 및The image region of the remaining frame is classified into a change image object region composed of change macroblocks and a still image object region composed of still macroblocks, and extracted as an object for performing image learning on the change image object region. Change object extraction unit; And
    특정 이미지 객체의 중요도가 기준치 이상이면 주요 이미지 객체로 선택하고, 잔여 프레임의 이미지 영역 중 주요 이미지 객체 영역을 영상학습을 수행할 대상으로 추출하되, 주요 객체 추출부;를 포함하고,If the importance of a specific image object is greater than the reference value, and selected as the main image object, and extracts the main image object region of the image area of the remaining frame as a target for the image learning, main object extraction unit;
    상기 이미지 객체의 중요도는 이미지 객체의 사이즈, 영상 복잡도, 인물 여부 중 적어도 하나를 포함하는 기준에 의해 결정되는 것을 특징으로 하는 동영상 화질 개선 시스템.The importance of the image object is a video quality improvement system, characterized in that determined by a criterion including at least one of the size of the image object, image complexity, whether the person.
  7. 제 1항에 있어서,The method of claim 1,
    상기 AI 영상 처리 서버는The AI image processing server
    영상 학습 결과로 생성된 다운스케일링 파일을 신경망 파일에 기반하여 업스케일링하는 방식의 영상 복원 동작을 수행하되, Performs an image restoration operation of upscaling downscaling files generated as a result of image learning based on neural network files,
    키 프레임에 대하여 전체 이미지 영역에 대한 영상 복원을 실시하고, 잔여 프레임은 일부 이미지 영역에 대한 영상복원을 수행하고, 나머지 영역은 상기 키프레임의 복원 이미지로부터 붙여 넣는 방식으로 복원 동작을 수행하는 AI 영상 복원부;를 포함하는 것을 특징으로 하는 동영상 화질 개선 시스템.Restoring an image of the entire image region with respect to the key frame, restoring the image with respect to some image regions, and restoring the rest region by pasting from the reconstructed image of the keyframe. Restoring unit; video quality improvement system comprising a.
PCT/KR2019/004895 2018-04-24 2019-04-23 System for improving video quality by using changed macroblock extraction technique WO2019209008A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20180047305 2018-04-24
KR10-2018-0047305 2018-04-24
KR10-2019-0046957 2019-04-22
KR1020190046957A KR102179436B1 (en) 2018-04-24 2019-04-22 Video resolution enhancement system using change macro-block extraction technique

Publications (1)

Publication Number Publication Date
WO2019209008A1 true WO2019209008A1 (en) 2019-10-31

Family

ID=68294160

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/004895 WO2019209008A1 (en) 2018-04-24 2019-04-23 System for improving video quality by using changed macroblock extraction technique

Country Status (1)

Country Link
WO (1) WO2019209008A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160091A (en) * 2019-11-22 2020-05-15 张鸿 Supply chain intelligent image comparison system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110255605A1 (en) * 1997-05-16 2011-10-20 Shih-Fu Chang Methods and architecture for indexing and editing compressed video over the world wide web
WO2015151106A1 (en) * 2014-04-03 2015-10-08 Chess Vision Ltd Vision system for monitoring board games and method thereof
KR101702925B1 (en) * 2015-05-29 2017-02-09 주식회사 칩스앤미디어 An apparatus for scaling a resolution using an image patch of multi video frames and method for using it
US20170085863A1 (en) * 2015-09-17 2017-03-23 Legend3D, Inc. Method of converting 2d video to 3d video using machine learning
US20170347061A1 (en) * 2015-02-19 2017-11-30 Magic Pony Technology Limited Machine Learning for Visual Processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110255605A1 (en) * 1997-05-16 2011-10-20 Shih-Fu Chang Methods and architecture for indexing and editing compressed video over the world wide web
WO2015151106A1 (en) * 2014-04-03 2015-10-08 Chess Vision Ltd Vision system for monitoring board games and method thereof
US20170347061A1 (en) * 2015-02-19 2017-11-30 Magic Pony Technology Limited Machine Learning for Visual Processing
KR101702925B1 (en) * 2015-05-29 2017-02-09 주식회사 칩스앤미디어 An apparatus for scaling a resolution using an image patch of multi video frames and method for using it
US20170085863A1 (en) * 2015-09-17 2017-03-23 Legend3D, Inc. Method of converting 2d video to 3d video using machine learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160091A (en) * 2019-11-22 2020-05-15 张鸿 Supply chain intelligent image comparison system and method
CN111160091B (en) * 2019-11-22 2023-06-02 上海华瑞银行股份有限公司 Intelligent image comparison system and method for supply chain

Similar Documents

Publication Publication Date Title
KR102179436B1 (en) Video resolution enhancement system using change macro-block extraction technique
EP2908547B1 (en) Information-processing device, information-processing system, information-processing program, and moving image data transmission/reception method adapting the frame rate of moving image data based on frame similarity
JP5047740B2 (en) System and method for creating trick play video stream from compressed normal play video bitstream
EP2999232A1 (en) Media playing method, device and system
WO2016010229A1 (en) Operating method of client and server for streaming service
US9153127B2 (en) Video transmitting apparatus, video receiving apparatus, and video transmission system
CN109155840B (en) Moving image dividing device and monitoring method
JP7471725B2 (en) IMAGE PROCESSING METHOD, APPARATUS, ELECTRONIC DEVICE, AND COMPUTER PROGRAM
WO2015060638A1 (en) Adaptive real-time transcoding method and streaming server therefor
CN111405339B (en) Split screen display method, electronic equipment and storage medium
CN115250356A (en) Multi-camera switchable virtual camera of mobile phone
JP2024518227A (en) Data processing method, device, equipment and computer program
EP3399713B1 (en) Device, system, and method to perform real-time communication
WO2019209008A1 (en) System for improving video quality by using changed macroblock extraction technique
RU2697702C1 (en) Image compression method, image recovery method, image compression device and image recovery device
RU2655662C1 (en) Image processing apparatus and image processing method
JP2012137900A (en) Image output system, image output method and server device
WO2019209007A1 (en) Ai-based image compression and decompression system
WO2019209005A1 (en) Artificial intelligence based resolution improvement system
CN110401835B (en) Image processing method and device
WO2019209006A1 (en) Method for improving resolution of streaming files
JP6284172B1 (en) Screen image transfer method, image restoration method, screen image transfer system, image restoration system, screen image transfer program, image restoration program, image compression method, image compression system, image compression program
CN110139144A (en) One kind is based on TV sharing method in smart home
WO2017203789A1 (en) Difference image generation method, image restoration method, difference detection device, image restoration device, and monitoring method
KR102110502B1 (en) transcoder device for PoE cameras by use of syntax-based object Region-Of-Interest compression

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19793562

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19793562

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 19.04.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19793562

Country of ref document: EP

Kind code of ref document: A1