WO2022252871A1 - 视频生成方法、装置、设备及存储介质 - Google Patents
视频生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- WO2022252871A1 WO2022252871A1 PCT/CN2022/088699 CN2022088699W WO2022252871A1 WO 2022252871 A1 WO2022252871 A1 WO 2022252871A1 CN 2022088699 W CN2022088699 W CN 2022088699W WO 2022252871 A1 WO2022252871 A1 WO 2022252871A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- eye
- processed
- eye opening
- target
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 230000008569 process Effects 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims description 99
- 238000012549 training Methods 0.000 claims description 52
- 230000004927 fusion Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 25
- 230000007704 transition Effects 0.000 claims description 16
- 230000008859 change Effects 0.000 abstract description 7
- 210000000744 eyelid Anatomy 0.000 description 24
- 238000010586 diagram Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Definitions
- the present disclosure provides a video generation method, including:
- the image processing model is trained based on a plurality of training images with different degrees of eye opening and eye opening degree data corresponding to each training image.
- the image processing model is trained based on a plurality of training images with different degrees of eye opening and eye key points on each training image.
- the preset image processing model is used to adjust the eye opening degree of the object in the image to be processed, and before obtaining multiple target images with different eye opening degrees, the method further include:
- the processing of the subject's eyes in the image to be processed into at least one of eyes of a preset shape or a preset size based on the key points of the eyes includes:
- target eye opening degree data corresponding to the image into the image processing model, so that the image processing model adjusts the eye opening degree of the subject in the image based on the target eye opening degree data , to obtain a target image whose eye opening degree matches the target eye opening degree data.
- the method before determining the value of the preset parameter when the image is input to the image processing model, the method further includes:
- the determination of the value of the preset parameter when the image is input to the image processing model includes:
- the preset image processing model is used to adjust the eye opening degree of the object in the image to be processed to obtain multiple target images with different eye opening degrees, including:
- the image to be processed includes an image
- the image and a plurality of different target eye opening degree data are input into the image processing model, so that the image processing model is based on each target eye opening degree data respectively
- the eye opening degree of the object in the image is adjusted to obtain a target image corresponding to each target eye opening degree data.
- the present disclosure provides a video generation device, including:
- An image acquisition unit configured to acquire an image to be processed
- the target image generation unit is configured to adjust the eye opening degree of the object in the image to be processed based on a preset image processing model, so as to obtain multiple target images with different eye opening degrees;
- a video generation unit configured to generate a video with eye gradation process based on the plurality of target images.
- the image processing model is trained based on a plurality of training images with different degrees of eye opening and eye opening degree data corresponding to each training image.
- the image processing model is trained based on a plurality of training images with different degrees of eye opening and eye key points on each training image.
- the video generation device also includes:
- An image modification unit configured to extract key points of the subject's eyes from the image to be processed, and process the subject's eyes in the image to be processed into a preset shape based on the key points of the eyes at least one of eyes or eyes of preset size.
- a position determining subunit configured to determine the position of the eye in the image to be processed based on the key points of the eye
- the first image modification subunit is configured to overlay a preset eye image on the position, so that the object's eye in the image to be processed is replaced by an eye in the eye image, wherein The eye in the eye image has a predetermined shape and/or size.
- the image modifying unit further includes a second image modifying subunit, configured to, based on at least one of preset eye shape parameters or size parameters, modify the eye key points in the to-be-processed The position in the image is adjusted so that the eyes in the image to be processed have at least one of a preset shape or a preset size.
- the target image generating unit is configured to, for each image in the image to be processed, combine the image and the The randomly generated target eye opening degree data is input into the image processing model, so that the image processing model adjusts the eye opening degree of the subject in the image based on the target eye opening degree data, and obtains the eye opening degree data.
- the target image whose opening degree matches the target eye opening degree data.
- the target image generating unit is configured to, when the image to be processed includes a plurality of images, for each image in the image to be processed, determine a preset parameter in the image input When the value of the image processing model is reached, and the value is used as the target eye opening degree data corresponding to the image, the value of the preset parameter changes gradually;
- target eye opening degree data corresponding to the image into the image processing model, so that the image processing model adjusts the eye opening degree of the subject in the image based on the target eye opening degree data , to obtain a target image whose eye opening degree matches the target eye opening degree data.
- the target image generating unit determines the value of the preset parameter when the image is input to the image processing model based on the variation range and period.
- the target image generating unit when the image to be processed includes one image, inputs the image and a plurality of different target eye opening degree data into the image processing model, so that the The image processing model adjusts the eye opening degree of the object in the image based on each target eye opening degree data respectively, to obtain a target image corresponding to each target eye opening degree data.
- an electronic device including:
- a memory and a processor wherein a computer program is stored in the memory, and when the computer program is executed by the processor, the method as described in any one of the preceding items is implemented.
- the present disclosure provides a non-volatile computer-readable storage medium, in which a computer program is stored, and when the computer program is executed by a processor, the method described in any one of the preceding items is implemented.
- the present disclosure provides a computer program, including: instructions, which when executed by a processor cause the processor to execute the video generation method according to any one of the above embodiments.
- the present disclosure provides a computer program product including instructions, which when executed by a processor cause the processor to execute the video generating method according to any one of the above-mentioned embodiments.
- FIG. 1 is a flow chart of a video generation method provided by an embodiment of the present disclosure
- FIG. 2 is an image to be processed provided by an embodiment of the present disclosure
- Fig. 3A-Fig. 3D are target images with different degrees of eye opening generated based on the image to be processed in Fig. 2;
- Fig. 4 is the flowchart of adopting method A to adjust the shape and size of eyes in the image to be processed;
- FIG. 5 is a schematic structural diagram of a video generation device provided by an embodiment of the present disclosure.
- Fig. 6 is a schematic structural diagram of an electronic device in an embodiment of the present disclosure.
- Fig. 1 is a flow chart of a method for generating a video provided by an embodiment of the present disclosure, and the method may be executed by an electronic device capable of image processing.
- the electronic device can at least be a terminal device such as a mobile phone, a tablet computer, a desktop computer, and an all-in-one machine, or it can be a server connected to the terminal device and receiving image data collected by the terminal device.
- a terminal device such as a mobile phone, a tablet computer, a desktop computer, and an all-in-one machine
- the electronic device can at least be a terminal device such as a mobile phone, a tablet computer, a desktop computer, and an all-in-one machine, or it can be a server connected to the terminal device and receiving image data collected by the terminal device.
- the video generation method provided by the embodiment of the present disclosure includes steps S101-S103.
- S101 Acquire one or more images to be processed.
- the image to be processed in the embodiments of the present disclosure is an image including object information, and the image includes eye organs of the object.
- the subject may be a human or animal having eyelids, the degree of palpebral fissures of the subject's eyelids reflecting the degree of eye opening of the subject.
- the image in the embodiments of the present disclosure may be a picture or a video frame image acquired in a preset manner.
- the preset methods at least include methods such as shooting and downloading, but are not limited to the methods of shooting and downloading.
- the acquired image to be processed may be a part or all of the video frame image in a certain video data, where when the frame frequency of the video data is high, Preferably, partial video frame images in the video data are selected as images to be processed.
- a video frame image can be selected every 20 frames as the image to be processed; another example, a specific key frame in the video data can be used as the image to be processed.
- the electronic device also needs to determine whether the extracted video frame images include the subject’s eye organs; if there is no object’s eye organs in the video frame image, the subsequent steps cannot be performed, so the video that does not contain the subject’s eye organs is not Frame image for subsequent operations.
- the electronic device may be equipped with an eye region recognition model, so as to identify the obtained video frame image through the eye region recognition model, or whether there is an eye organ of the object in the obtained picture; the aforementioned eye region recognition
- the model may be a recognition model obtained by training a large number of eye images.
- the eye region recognition model may be, for example, a convolutional neural network model.
- the aforementioned eye region recognition model may not be set.
- S102 Adjust eye opening degrees of objects in the image to be processed based on a preset image processing model to obtain multiple target images with different eye opening degrees.
- Fig. 2 is an image to be processed provided by an embodiment of the present disclosure.
- the eyes of the subject 02 are naturally opened, that is, the upper eyelid 021 and the lower eyelid 022 are naturally separated, at this time the iris area 023 of the subject 02's eye and the iris
- the white areas 024 on the left and right sides of the area 023 can be seen, but the upper and lower white areas of the iris area cannot be seen.
- Fig. 3A-Fig. 3D are target images with different degrees of eye opening generated based on the image to be processed in Fig. 2; as shown in Fig. 3A-Fig. The pending image for has changed.
- Fig. 3A The subject in Fig. 3A has eyes completely closed (cannot see any iris area and white area of the subject from the figure, only the upper eyelid 021 and the lower eyelid 022 of the subject can be seen), and the degree of eye opening can be marked as 0.0.
- Fig. 3B the subject's eyes are slightly opened (only the pupil area in the iris 023 can be seen, and the whites of the eyes 024 outside the iris 023 area on both sides), and the degree of eye opening can be marked as 0.2.
- the subject's eyes are basically opened (most of the iris 023 and the whites 024 on the left and right sides of the iris 023 can be seen), and the degree of eye opening can be marked as 0.5.
- Fig. 3D the subject's eyes are fully opened (the whole of the iris 023 can be seen, and the whites of the eyes 024 around the top, bottom, left, and right sides of the iris area).
- the description is made by taking the generation of four target images as an example. In other applications, the number of target images may not be limited to four.
- the eye opening degree of each target image is also preset before the image processing model processes the image to be processed; in other embodiments of the present disclosure, the eye opening degree of the target image may not be preset. Instead, the image processing device randomly determines the eye opening degree of each target image; or, only sets the maximum mark value and the minimum mark value of the eye openness degree of the target image (that is, sets the maximum eye openness of the target image degree and minimum eye opening degree), the image processing model uniformly sets the eye opening degree of each target image according to the maximum mark value, the minimum mark value and the number of target images to be generated.
- the generated multiple target images are sequentially sorted according to the order in which the degree of eye opening gradually increases or decreases, and then a video with a gradual effect of the degree of eye opening is generated based on the sorting.
- steps S101-S103 above can be integrated into a specific application program or software tool, and by providing the application program or software tool to the user, the user can shoot a video with the gradient effect of opening and closing eyes, thereby improving the video quality.
- the technical solution provided by the present disclosure has the following advantages: the video generation method and device provided by the embodiments of the present disclosure can generate multiple images with different degrees of eye opening according to the image to be processed after acquiring the image to be processed. target images, and generate a video with eye gradation process based on multiple target images.
- the embodiments of the present disclosure provide users with an application program or software tool so that the video taken by the user has a gradient effect of opening and closing eyes, which can improve the interest of the video and enhance user experience.
- an image processing model is used to process an image to be processed to obtain a target image; the image processing model can be obtained by the following method.
- the training images used to train the image processing model are generated by the fusion model; in other applications of the disclosed embodiments, the training images used to train the image processing model can also be obtained through collection; for example, A high-speed camera is used to continuously shoot the subject to obtain static images of each eye opening degree of the subject during the blinking process, and the static images are used as training images.
- Fig. 4 is a flow chart of adjusting the shape and size of eyes in the image to be processed using method A. As shown in Fig. 4, method A includes steps A1-A2.
- the image to be processed includes multiple images, it can be performed according to the first method and the second method.
- the second way For each image to be processed, determine the value of the preset parameter when the image is input to the image processing model, and use the value of the preset parameter at this moment as the target eye opening degree corresponding to the image data; subsequently, the target eye opening degree data corresponding to this image is input into the image processing model, so that the image processing model adjusts the eye opening degree based on the target eye opening degree data, and the eye opening degree and the target eye opening degree are obtained.
- the target image that matches the opening level data.
- the value of the preset parameter is a gradually changing numerical value, which can be gradually changed within a set range.
- a target control can be set on the display interface of the electronic device, and the target control can be used to set the configuration parameters of the preset parameters; the method for obtaining the configuration parameters of the preset parameters based on the target control is as follows: ( 1) Obtain the configuration data of the preset parameters based on the target control displayed on the interface; in the embodiment of the present disclosure, the configuration data of the preset parameters includes the change range and cycle; Periodic change within the range of change: (2) Based on the range of change and period, determine the value of the preset parameter when the image is input to the image processing model.
- Fig. 5 is a schematic structural diagram of a video generation device provided by an embodiment of the present disclosure.
- a video generation device 500 provided by an embodiment of the present disclosure includes an image acquisition unit 501 , a target image generation unit 502 and a video generation unit 503 .
- the image processing model is trained based on a plurality of training images with different degrees of eye opening and eye opening degree data corresponding to each training image.
- the multiple training images are generated based on multiple fusion models
- the multiple fusion models are obtained by fusion of multiple image generation models according to different weight ratios
- the images generated by different image generation models Eyes are opened to varying degrees.
- the aforementioned multiple image generation models include a first model for generating an eye-opening image and a second model for generating an eye-closed image.
- the variation range determining unit is configured to acquire configuration data of the preset parameters based on the target control displayed on the interface, the configuration data including variation range and period;
- the target image generation unit 502 is configured to determine the value of the preset parameter when the image is input to the image processing model based on the variation range and period.
- the target image generating unit 502 inputs the image and a plurality of different target eye opening degree data into the image processing model, so that the The image processing model adjusts the eye opening degree of the object in the image based on each target eye opening degree data respectively, to obtain a target image corresponding to each target eye opening degree data.
- FIG. 6 is a schematic structural diagram of an electronic device in an embodiment of the present disclosure.
- the electronic device 600 in the embodiment of the present disclosure may include, but is not limited to, mobile phones, notebook computers, digital broadcast receivers, PDAs (Personal Digital Assistants), PADs (Tablet Computers), PMPs (Portable Multimedia Players), vehicle-mounted terminals ( Mobile terminals such as car navigation terminals) and stationary terminals such as digital TVs, desktop computers and the like.
- the electronic device shown in FIG. 6 is only an example, and should not limit the functions and application scope of the embodiments of the present disclosure.
- an electronic device 600 may include a processing device (such as a central processing unit, a graphics processing unit, etc.) 601, which may be randomly accessed according to a program stored in a read-only memory (ROM) 602 or loaded from a storage device 608.
- a processing device such as a central processing unit, a graphics processing unit, etc.
- RAM memory
- various programs and data necessary for the operation of the electronic device 600 are also stored.
- the processing device 601, ROM 602, and RAM 603 are connected to each other through a bus 604.
- An input/output (I/O) interface 605 is also connected to the bus 604 .
- the present disclosure provides a computer program, including: instructions, which when executed by a processor cause the processor to execute the video generating method according to any one of the above embodiments.
- the present disclosure provides a computer program product comprising instructions which, when executed by a processor, cause the processor to perform the video generating method according to any one of the above embodiments.
- embodiments of the present disclosure include a computer program product, which includes a computer program carried on a non-transitory computer readable medium, where the computer program includes program code for executing the method shown in the flowchart.
- the computer program may be downloaded and installed from a network via communication means 609, or from storage means 608, or from ROM 602.
- the processing device 601 When the computer program is executed by the processing device 601, the above-mentioned functions defined in the methods of the embodiments of the present disclosure are performed.
- the above-mentioned computer-readable medium in the present disclosure may be a computer-readable signal medium or a computer-readable storage medium or any combination of the above two.
- a computer readable storage medium may be, for example, but not limited to, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any combination thereof. More specific examples of computer-readable storage media may include, but are not limited to, electrical connections with one or more wires, portable computer diskettes, hard disks, random access memory (RAM), read-only memory (ROM), erasable Programmable read-only memory (EPROM or flash memory), optical fiber, portable compact disk read-only memory (CD-ROM), optical storage device, magnetic storage device, or any suitable combination of the above.
- the client and the server can communicate using any currently known or future developed network protocols such as HTTP (Hyper Text Transfer Protocol), and can communicate with any form or medium of digital Data communication (eg, communication network) interconnections.
- HTTP Hyper Text Transfer Protocol
- Examples of communication networks include local area networks ("LANs”), wide area networks (“WANs”), internetworks (e.g., the Internet), and peer-to-peer networks (e.g., ad hoc peer-to-peer networks), as well as any currently known or future developed network of.
- the above-mentioned computer-readable medium may be included in the above-mentioned electronic device, or may exist independently without being incorporated into the electronic device.
- the above-mentioned computer-readable medium carries one or more programs, and when the above-mentioned one or more programs are executed by the electronic device, the electronic device: acquires an image to be processed; processes the image to be processed based on a preset image processing model The eye opening degree of the object in the image is adjusted to obtain a plurality of target images with different eye opening degrees; a video with an eye gradual change process is generated based on the plurality of target images.
- Computer program code for carrying out operations of the present disclosure may be written in one or more programming languages, or combinations thereof, including but not limited to object-oriented programming languages—such as Java, Smalltalk, C++, and Includes conventional procedural programming languages - such as the "C" language or similar programming languages.
- the program code may execute entirely on the user's computer, partly on the user's computer, as a stand-alone software package, partly on the user's computer and partly on a remote computer or entirely on the remote computer or server.
- the remote computer can be connected to the user computer through any kind of network, including a local area network (LAN) or a wide area network (WAN), or it can be connected to an external computer (such as through an Internet service provider). Internet connection).
- LAN local area network
- WAN wide area network
- Internet service provider such as AT&T, MCI, Sprint, EarthLink, MSN, GTE, etc.
- each block in a flowchart or block diagram may represent a module, program segment, or portion of code that contains one or more logical functions for implementing specified executable instructions.
- the functions noted in the block may occur out of the order noted in the figures. For example, two blocks shown in succession may, in fact, be executed substantially concurrently, or they may sometimes be executed in the reverse order, depending upon the functionality involved.
- each block of the block diagrams and/or flowchart illustrations, and combinations of blocks in the block diagrams and/or flowchart illustrations can be implemented by a dedicated hardware-based system that performs the specified functions or operations , or may be implemented by a combination of dedicated hardware and computer instructions.
- the units involved in the embodiments described in the present disclosure may be implemented by software or by hardware. Wherein, the name of a unit does not constitute a limitation of the unit itself under certain circumstances.
- FPGAs Field Programmable Gate Arrays
- ASICs Application Specific Integrated Circuits
- ASSPs Application Specific Standard Products
- SOCs System on Chips
- CPLD Complex Programmable Logical device
- a machine-readable medium may be a tangible medium that may contain or store a program for use by or in conjunction with an instruction execution system, apparatus, or device.
- a machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium.
- a machine-readable medium may include, but is not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, apparatus, or devices, or any suitable combination of the foregoing.
- machine-readable storage media would include one or more wire-based electrical connections, portable computer discs, hard drives, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), optical fiber, compact disk read only memory (CD-ROM), optical storage, magnetic storage, or any suitable combination of the foregoing.
- RAM random access memory
- ROM read only memory
- EPROM or flash memory erasable programmable read only memory
- CD-ROM compact disk read only memory
- magnetic storage or any suitable combination of the foregoing.
- An embodiment of the present disclosure also provides a non-volatile computer-readable storage medium, where a computer program is stored in the storage medium, and when the computer program is executed by a processor, any of the above-mentioned implementations in Figures 1-4 can be implemented
- the method of the example, its execution mode and beneficial effect are similar, and will not repeat them here.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
本公开涉及一种视频生成方法、装置、设备及存储介质,通过在获取到一个或多个待处理图像后,根据待处理图像生成多个眼睛睁开程度不同的目标图像,基于多个目标图像生成具有眼睛渐变过程的视频。
Description
相关申请的交叉引用
本申请是以CN申请号为202110597283.2,申请日为2021年5月31日的申请为基础,并主张其优先权,该CN申请的公开内容在此作为整体引入本申请中。
本公开实施例涉及图像处理技术领域,尤其涉及一种视频生成方法、装置、设备及存储介质。
相关技术中,用户可以通过拍摄视频、照片等方式记录生活,并将拍摄到的视频或照片上传到视频应用中供其它视频消费者进行观看。
发明内容
一方面,本公开提供一种视频生成方法,包括:
获取一个或多个待处理的图像;
基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像;
基于多个所述目标图像生成具有眼睛渐变过程的视频,所述眼睛渐变过程包括睁眼渐变过程或闭眼渐变过程中的至少一项。
在一些实施例中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像对应的眼睛睁开程度数据训练得到的。
在一些实施例中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像上的眼睛关键点训练得到的。
在一些实施例中,所述多个训练图像是基于多个融合模型生成,所述多个融合模型是由多个图像生成模型按照不同的权重比例融合得到的,不同的图像生成模型生成的图像中的眼睛睁开程度不同。
在一些实施例中,所述多个图像生成模型中包括用于生成睁眼图像的第一模型和用于生成闭眼图像的第二模型。
在一些实施例中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像之前,所述方法还包括:
从所述待处理的图像中提取出所述对象的眼睛关键点,并基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状的眼睛或预设尺寸的眼睛中的至少一项。
在一些实施例中,所述基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状的眼睛或预设尺寸的眼睛中的至少一项,包括:
基于所述眼睛关键点,确定所述眼睛在所述待处理的图像中的位置;
将预设的眼睛图像覆盖到所述位置上,以使所述对象在所述待处理的图像中的眼睛被替换为所述眼睛图像中的眼睛,其中所述眼睛图像中的眼睛具有预设形状或预设尺寸中的至少一项。
在一些实施例中,所述基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状或预设尺寸的眼睛中的至少一项,包括:
基于预设的眼睛形状参数或尺寸参数中的至少一项,对所述眼睛关键点在所述待处理的图像中的位置进行调整,以使所述待处理的图像中的眼睛具有预设形状或预设尺寸中的至少一项。
在一些实施例中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像,包括:
在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,将所述图像和针对所述图像随机生成的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
在一些实施例中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像,包括:
在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,确定预设参量在所述图像输入到所述图像处理模型时的取值,并将所述取值作为所述图像对应的目标眼睛睁开程度数据,所述预设参量的取值是逐渐变化的;
将所述图像对应的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像 处理模型基于所述目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
在一些实施例中,所述确定预设参量在所述图像输入到所述图像处理模型时的取值之前,所述方法还包括:
基于界面上展示的目标控件,获取所述预设参量的配置数据,所述配置数据包括变化幅度和周期;
所述确定预设参量在所述图像输入到所述图像处理模型时的取值,包括:
基于所述变化幅度和周期,确定所述预设参量在所述图像输入到所述图像处理模型时的取值。
在一些实施例中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像,包括:
在所述待处理的图像包括一个图像时,将所述图像和多个不同的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型分别基于每个目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到每个目标眼睛睁开程度数据对应的目标图像。
另一方面,本公开提供一种视频生成装置,包括:
图像获取单元,用于获取待处理的图像;
目标图像生成单元,用于基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像;
视频生成单元,用于基于所述多个目标图像生成具有眼睛渐变过程的视频。
在一些实施例中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像对应的眼睛睁开程度数据训练得到的。
在一些实施例中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像上的眼睛关键点训练得到的。
在一些实施例中,所述多个训练图像是基于多个融合模型生成,所述多个融合模型是由多个图像生成模型按照不同的权重比例融合得到的,不同的图像生成模型生成的图像中的眼睛睁开程度不同。
在一些实施例中,所述多个图像生成模型中包括用于生成睁眼图像的第一模型和用于生成闭眼图像的第二模型。
在一些实施例中,所述视频生成装置还包括:
图像修改单元,用于从所述待处理的图像中提取出所述对象的眼睛关键点,并基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状的眼睛或预设尺寸的眼睛中的至少一项。
在一些实施例中,所述图像修改单元包括:
位置确定子单元,用于基于所述眼睛关键点,确定所述眼睛在所述待处理的图像中的位置;
第一图像修改子单元,用于将预设的眼睛图像覆盖到所述位置上,以使所述对象在所述待处理的图像中的眼睛被替换为所述眼睛图像中的眼睛,其中所述眼睛图像中的眼睛具有预设形状和/或尺寸。
在一些实施例中,所述图像修改单元还包括第二图像修改子单元,用于基于预设的眼睛形状参数或尺寸参数中的至少一项,对所述眼睛关键点在所述待处理的图像中的位置进行调整,以使所述待处理的图像中的眼睛具有预设形状或预设尺寸中的至少一项。
在一些实施例中,所述目标图像生成单元,用于在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,将所述图像和针对所述图像随机生成的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
在一些实施例中,所述目标图像生成单元,用于在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,确定预设参量在所述图像输入到所述图像处理模型时的取值,并将所述取值作为所述图像对应的目标眼睛睁开程度数据,所述预设参量的取值是逐渐变化的;
以及,
将所述图像对应的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
在一些实施例中,变化范围确定单元,用于基于界面上展示的目标控件,获取所述预设参量的配置数据,所述配置数据包括变化幅度和周期;
所述目标图像生成单元,基于所述变化幅度和周期,确定所述预设参量在所述图像输入到所述图像处理模型时的取值。
在一些实施例中,所述目标图像生成单元,在所述待处理的图像包括一个图像时,将所述图像和多个不同的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型分别基于每个目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到每个目标眼睛睁开程度数据对应的目标图像。
再一方面,本公开提供一种电子设备,包括:
存储器和处理器,其中,所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,实现如前任一项所述的方法。
再一方面,本公开提供一种非易失性计算机可读存储介质,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时,实现如前任一项所述的方法。
再一方面,本公开提供一种计算机程序,包括:指令,所述指令当由处理器执行时使所述处理器执行根据上述任一个实施例中的视频生成方法。
再一方面,本公开提供一种计算机程序产品,包括指令,所述指令当由处理器执行时使所述处理器执行根据上述任一个实施例中的视频生成方法。
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本公开实施例提供的一种视频生成方法的流程图;
图2是本公开实施例提供的一种待处理的图像;
图3A-图3D是基于图2中的待处理图像生成的多个眼睛睁开程度不同的目标图像;
图4是采用方法A调整待处理图像中眼睛的形状和尺寸的流程图;
图5是本公开实施例提供的视频生成装置的结构示意图;
图6是本公开实施例中的一种电子设备的结构示意图。
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案 进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
随着视频应用的发展,单纯的视频拍摄或图片拍摄,已经无法满足日益增长的用户需求,因此,如何对视频和图像进行处理,提高视频和图片的趣味性是当前亟需解决的技术问题。
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种视频生成方法、装置、设备及存储介质。
图1是本公开实施例提供的一种视频生成方法的流程图,该方法可以由一种具有图像处理能力的电子设备来执行。
实际应用中,电子设备至少可以为手机、平板电脑、台式电脑、一体机等终端设备,也可以是与终端设备连接并接收终端设备采集的图像数据的服务器。
如图1所示,本公开实施例提供的视频生成方法,包括步骤S101-S103。
S101:获取一个或多个待处理的图像。
本公开实施例中的待处理的图像是包括对象信息的图像,并且图像中包括对象的眼部器官。
对象可以是具有眼睑的人或动物,对象眼睑的睑裂程度反映为对象的眼睛睁开程度。
本公开实施例中的图像可以是通过预设方式获取到的图片或者视频帧图像。预设方式至少包括拍摄、下载等方式,但不局限于拍摄和下载方式。
在本公开实施例中的图像被具体为视频帧图像时,获取到的待处理图像可以是某个视频数据中的部分或全部视频帧图像,其中在视频数据的帧频率较高的情况下,优选的选择视频数据中的部分视频帧图像作为待处理的图像。
例如,如果视频数据的帧频率为60帧/秒,可以每20帧选取一张视频帧图像作为待处理的图像;再如,可以将视频数据中特定的关键帧作为待处理的图像。
应当注意的是,如果从视频数据中提取视频帧图像作为待处理的图像,并且前述操作由电子设备自动完成的情况下(也就是并不是由用户选定视频数据中的视频帧图像),电子设备还需要判断提取后的视频帧图像是否包括对象的眼部器官;如果视频 帧图像中并没有对象的眼部器官,则无法执行后续步骤的操作,因此并不对不包含对象眼部器官的视频帧图像进行后续操作。
在一些实施例中,电子设备可以部署有眼部区域识别模型,以通过眼部区域识别模型识别获取的视频帧图像,或者获取的图片中是否有对象的眼部器官;前述的眼部区域识别模型可以是采用大量眼部图像进行训练得到的识别模型,实际应用中眼部区域识别模型比如可以是卷积神经网络模型。
在本公开实施例的其他应用中,如果由用户自主地筛选视频数据中的视频帧图像,而确定待处理的图像,也可以不设置前述的眼部区域识别模型。
S102:基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像。
预设的图像处理模型是专门对待处理图像中对象的眼睛睁开程度进行调整,改变对象眼部区域的像素特征的模型。
将待处理的图像输入到预设的图像处理模型后,预设的图像处理模型对对象的眼部区域进行图像处理,改变眼部区域中眼睑的睑裂程度,得到眼睛睁开程度不同的目标图像。
在一些实施例中,图像处理模型可以自动地识别待处理图像中的眼睛关键点,基于眼睛关键点进行像素重构操作,形成多个眼睛睁开程度不同的图像。
图2是本公开实施例提供的一种待处理的图像。如图2所示,图2所示的待处理图像中,对象02的眼睛自然地睁开,也就是上眼睑021和下眼睑022自然地隔开,此时对象02眼睛的虹膜区域023和虹膜区域023左右两侧的眼白区域024可被看到,但是虹膜区域的上下眼白区域无法被看到。
如果按照0.0表示完全闭眼,1.0表示完全睁眼(更为形象地说为瞠目的状态),图2中对象的眼睛睁闭程度可以标记为0.7。
图3A-图3D是基于图2中的待处理图像生成的多个眼睛睁开程度不同的目标图像;如图3A-图3D所示,目标图像中的眼睛的睁闭程度相对于图2中的待处理图像发生了改变。
图3A中的对象完全闭眼(无法从图中看到对象的任何虹膜区域和眼白区域,仅能看到对象的上眼睑021和下眼睑022贴合),其眼睛睁开程度可以被标记为0.0。
图3B中对象眼睛微微睁开(仅能看到虹膜023中的瞳孔区域,两侧虹膜023区域外侧的眼白024),其眼睛睁开程度可以被标记为0.2。
图3C中对象眼睛基本睁开(能够看到虹膜023大部分区域,以及虹膜023左右侧的眼白024),其睁眼程度可以被标记为0.5。
图3D中对象眼睛完全睁开(能够看到虹膜023的全部,以及虹膜区域的上下左右四周的眼白024),此时对象处于瞠目状态,其眼睛睁开程度可以被标记为1.0。
本公开前述实施例中,是以生成四张目标图像为例进行的说明,在其他应用中,目标图像的数量也可以不局限于四。
本公开前述实施例中,各个目标图像的眼睛睁开程度也在图像处理模型处理待处理图像前预先地设定;在本公开其他实施例中,也可以并不预先设定目标图像的眼睛睁开程度,而是由图像处理装置随机地确定各个目标图像的眼睛睁开程度;或者,仅设置目标图像眼睛睁开程度的最大标记值和最小标记值(也就是设置目标图像的最大眼睛睁开程度和最小眼睛睁开程度),由图像处理模型根据最大标记值、最小标记值和需要生成的目标图像数量,均匀地设置各个目标图像的眼睛睁开程度。
S103:基于多个目标图像生成具有眼睛渐变过程的视频,眼睛渐变过程包括睁眼渐变过程或闭眼渐变过程中的至少一项。
在一些实施例中,按照眼睛睁开程度逐渐增大或减小的顺序依次对生成的多个目标图像进行排序,然后基于排序生成具有眼睛睁开程度渐变效果的视频。
前文步骤S101-S103的方法可以被集成在特定的应用程序或软件工具中,通过将该应用程序或软件工具提供给用户,能够使得用户拍摄得到具有睁闭眼渐变效果的视频,从而提高了视频的趣味性,增强了用户体验。
本公开提供的技术方案与现有技术相比具有如下优点:本公开实施例提供的视频生成方法和装置,能够在获取到待处理图像后,根据待处理图像生成多个眼睛睁开程度不同的目标图像,并基于多个目标图像生成具有眼睛渐变过程的视频。本公开实施例通过向用户提供一种应用程序或软件工具使得用户拍摄的视频具有睁闭眼渐变效果,能够提高视频的趣味性,增强用户体验。
如前所述,本公开实施例中采用图像处理模型处理待处理图像而得到目标图像;图像处理模型可以采用下述方法获得。
第一种训练方法:基于多个眼睛睁开程度不同的训练图像,以及各训练图像对应的眼睛睁开程度数据训练得到的图像处理模型。
如果采用第一种训练方法,为了训练图像处理模型,需要将对象在不同眼睛睁开程度时的图像作为训练图像,由模型训练人员对训练图像上的眼睛睁开程度进行标注, 并将标注有眼睛睁开程度数据的训练图像作为输入,训练图像处理模型,直至图像处理模型达到特定的精度。
第二种训练方法:基于多个眼睛睁开程度不同的训练图像,以及各训练图像上的眼睛关键点训练得到的图像处理模型。
如果采用第二种训练方法,为了训练图像处理模型,需要将对象在不同眼睛睁开程度时的图像作为训练图像;与第一种训练方法不同,第二种训练方法并没有在训练图像上标注眼睛睁开程度数据,而是采用图像处理算法处理得到训练图像上的眼睛关键点。例如,在一个应用中,可以采用眼部区域识别模型处理训练图像,确定训练图像中的包含眼睛区域的最小选框。随后,基于最小选框确定眼睛关键点。
为了训练图像处理模型,本公开实施例中需要大量的训练图像,并且训练图像中需要有同一对象不同眼睛睁开程度中的多个图像;而实际实施中,很难采集同一对象在不同眼睛睁开程度的多个图像。
为了解决训练图像难获得的问题,在一些实施例中:多个训练图像可以是根据多个融合模型生成。例如,针对某一特定的眼睛睁开程度,分别设置对应的融合模型;在得到包括某一对象的图像(图像中包括对象的眼部区域像素),将图像输入到融合模型而得到对应眼睛睁开程度的训练图像。
在一些实施例中,用于生成多个训练图像的多个融合模型可以由多个图像生成模型分别按照不同的权重比例融合得到,前述多个图像生成模型用于生成眼睛睁开程度不同的图像。
例如,图像生成模型包括用于生成睁眼图像的第一模型和用于生成闭眼图像的第二模型,并且第一模型和第二模型是模型结构完全相同的两个模型,仅是两个模型中模型参数不同。在一个应用中,第一模型和第二模型均可以为对抗网络模型。第一模型可以基于睁眼图像训练得到,第二模型可以基于闭眼图像训练得到。
基于第一模型和第二模型,为了得到分别生成不同眼睛睁开程度的融合模型,首先根据融合模型对应的眼睛睁开程度分别设置第一权重和第二权重;随后采用第一权重和第一模型中的各个参数分别相乘,得到对应的第一临时参数,以及采用第二权重和第二模型中的各个参数分别相乘,得到对应的第二临时参数;将第一临时参数和第二临时参数相加得到融合模型参数;最后,采用各个融合模型参数按照第一模型和第二模型的架构和对应参数的放置位置进行组合,得到相应的融合模型。
前述实施例中,融合模型是基于两个模型(即第一模型和第二模型)融合得到的; 但是可以理解的是,在本公开实施例的其他应用中,融合模型也可以由多个模型融合得到,该些模型用于生成眼睛睁开程度不同的图像。
在前文公开实施例中,用于训练图像处理模型的训练图像是由融合模型生成;在本公开实施例的其他应用中,用于训练图像处理模型的训练图像也可以通过采集获得;例如,可以采用高速相机对对象进行连续拍摄,以获取对象在眨眼过程中各个眼睛睁开程度下的静态图像,并将静态图像作为训练图像。
在一些实施例中,电子设备除了可以执行前述的步骤S101-S103外,在执行步骤S102之前,还可以执行步骤S104。
S104:从所述待处理的图像中提取出所述对象的眼睛关键点,并基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状和/或尺寸的眼睛。
步骤S104中,从待处理的图形中提取对象的眼睛关键点的方法包括如下:
首先,可以采用眼部区域识别模型处理训练图像,确定训练图像中的包含眼睛区域的最小选框;随后,基于最小选框确定眼睛关键点。
基于最小选框确定眼睛关键点,包括两种方法:(1)将眼睛的内眼角、外眼角、上侧眼睑极点和下侧眼睑极点作为眼睛关键点;例如,采用边缘识别方法,识别出眼睛的上眼睑边缘和下眼睑边缘,随后根据上眼睑边缘和下眼睑边缘确定内眼角和外眼角,根据上眼睑边缘的形态确定上眼睑极点,根据下眼睑边缘的形态确定下眼睑极点;(2)直接将最小选框的四个角点作为眼睛关键点。
在确定眼睛关键点后,可以将对象在待处理图像中的眼睛处理成预设形状和/或尺寸的眼睛;将对象在待处理图像中的眼睛处理成预设形状和/或尺寸的眼睛,至少包括如下的方法A和方法B。
图4是采用方法A调整待处理图像中眼睛的形状和尺寸的流程图。如图4所示,方法A包括步骤A1-A2。
A1:基于所述眼睛关键点,确定所述眼睛在所述待处理的图像中的位置。
根据眼睛关键点确定眼睛在待处理图像的位置,例如:确定眼睛关键点所在的像素坐标,随后根据眼睛关键点的像素坐标确定眼睛在图像中的区域范围,以及眼睛的倾斜角度。
A2:将预设的眼睛图像覆盖到所述位置上,以使所述对象在所述待处理的图像中的眼睛被替换为所述眼睛图像中的眼睛,其中所述眼睛图像中的眼睛具有预设形状和/或尺寸。
将预设的眼睛图像覆盖在所述位置上,例如,可以包括:(1)根据待处理的图像中的眼睛的区域范围和预设的眼睛图像的尺寸,确定如何调整预设的眼睛的尺寸;如果图像中眼睛的区域范围大于预设的眼睛图像的尺寸,则放大预设的眼睛图像;如果图像中眼睛的区域范围小于预设的眼睛图像,则缩小预设的眼睛图像;(2)按照图像中眼睛的倾斜角度旋转预设的眼睛图像;(3)调整后的预设的眼睛图像覆盖到原图像眼睛位置上,以替换待处理图像中的原眼睛。
方法B:基于预设的眼睛形状参数和/或尺寸参数对所述眼睛关键点在所述待处理的图像中的位置进行调整,以使所述待处理的图像中的眼睛具有预设形状和/或尺寸。
在方法B中,为了使得眼睛的形状和/或尺寸调整成预设形状和/或尺寸,首先需要按照预设的眼睛形状和/或尺寸参数,以及待处理图像中实际的眼睛区域,确定如何对待处理中的眼睛区域的眼睛关键点进行调整的调整策略,随后根据调整策略移动眼睛关键点,直至将待处理图像中的眼睛调整成预设形状和/或尺寸位置。
例如,如果预设的眼睛的尺寸大于待处理图像中的图像尺寸,则可以根据预设眼睛的尺寸和待处理图像尺寸确定放大参数,随后根据放大参数和待处理图像中眼睛关键点的像素位置确定眼睛关键点的目标像素位置,通过将眼睛关键点调整到的目标像素位置,并基于调整的关键点进行像素填充、像素替换或者图像平滑,以得到修改后的并且较为自然的待处理图像。
在一些实施例中,方法B可以用于将眼睛的内眼角、外眼角、上侧眼睑极点和下侧眼睑极点作为眼睛关键点的方案中。
例如,在一些实施例中,可以根据内眼角、外眼角、上眼睑极限点作为二次贝塞尔曲线的控制点,并将二次贝塞尔曲线作为上眼睑的边缘,通过改变内眼角、外眼角、上眼睑极限点的位置,实现二次贝塞尔曲线形态的调整,继而确定上眼睑边缘的调整后位置;同样的,可以根据内眼角、外眼角、下眼睑极限点控制下眼睑边缘调整后的位置。在调整后眼睑后,可以调整用户的虹膜区域大小,实现上眼睑和下眼睑之间虹膜区域、眼白区域的颜色填充。
前文提及,步骤S102中基于预设的图像处理模型对所述待处理的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像。例如,可以包括如下情况。
待处理的图像包括多个图像的情况下,可以按照第一种方式和第二种方式执行。
第一种方式:将各待处理图像与针对各待处理图像随机生成的目标睁眼度数据输入到图像处理模型,使得图像处理模型基于各待处理图像对应的目标眼睛睁开程度数 据对各待处理图像进行调整,得到眼睛睁开程度与目标眼睛睁开程度数据匹配的目标图像;其中针对某一待处理图像的目标睁眼度数据可以是一个,也可以是多个;如果是多个,则分别根据各个目标睁眼度数据,使图像处理模型处理生成对应的目标图像。
第二种方式:针对每个待处理的图像,确定预设参量在该图像输入到图像处理模型时的取值,将预设参量在该时刻的取值作为该图像对应的目标眼睛睁开程度数据;随后,将此图像对应的目标眼睛睁开程度数据输入到图像处理模型中,使得图像处理模型基于目标睁闭程度数据对的眼睛睁开程度进行调整,得到眼睛睁开程度与目标眼睛睁开程度数据匹配的目标图像。
在第二种方式中,预设参量是的取值是逐渐变化的数值量,其可以通过在设定的范围内逐渐地变化。在本公开实施例的一个应用中,电子设备的显示界面上可以设置有目标控件,目标控件可以用于设置预设参量的配置参数;基于目标控件获取预设参量的配置参数的方法如下:(1)基于界面展示的目标控件,获取预设参量的配置数据;本公开实施例中,预设参数的配置数据包括变化幅度和周期;也就是说,预设参数按照设定的周期,在特定的变化幅度内周期变化:(2)基于变化幅度和周期,确定预设参量在图像输入到图像处理模型时的取值。
在待处理的图像仅包括一个图像的情况下,可以按照第三种方式执行。
第三种方式:将图像和多个不同的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型分别基于每个目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到每个目标眼睛睁开程度数据对应的目标图像。
图5是本公开实施例提供的视频生成装置的结构示意图。如图5所示,本公开实施例提供的视频生成装置500包括图像获取单元501、目标图像生成单元502和视频生成单元503。
图像获取单元501用于获取一个或多个待处理的图像。
目标图像生成单元502用于基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像。
视频生成单元503用于基于多个目标图像生成具有眼睛渐变过程的视频,眼睛渐变过程包括睁眼渐变过程或闭眼渐变过程中的至少一项。
在一些实施例中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像对应的眼睛睁开程度数据训练得到的。
在一些实施例中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像, 以及各训练图像上的眼睛关键点训练得到的。
在一些实施例中,所述多个训练图像是基于多个融合模型生成,所述多个融合模型是由多个图像生成模型按照不同的权重比例融合得到的,不同的图像生成模型生成的图像中的眼睛睁开程度不同。
在本公开实施例中,前述的多个图像生成模型包括用于生成睁眼图像的第一模型和用于生成闭眼图像的第二模型。
在一些实施例中,视频生成装置500还包括图像修改单元,用于从所述待处理的图像中提取出所述对象的眼睛关键点,并基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状和/或尺寸的眼睛。
在一些实施例中,图像修改单元包括位置确定子单元和第一图像修改子单元。
位置确定子单元用于基于所述眼睛关键点,确定所述眼睛在所述待处理的图像中的位置。
第一图像修改子单元用于将预设的眼睛图像覆盖到所述位置上,以使所述对象在所述待处理的图像中的眼睛被替换为所述眼睛图像中的眼睛,其中所述眼睛图像中的眼睛具有预设形状和/或尺寸。
在一些实施例中,图像修改单元还包括第二图像修改子单元,第二图像修改子单元基于预设的眼睛形状参数和/或尺寸参数对所述眼睛关键点在所述待处理的图像中的位置进行调整,以使所述待处理的图像中的眼睛具有预设形状和/或尺寸。
在一些实施例中,所述目标图像生成单元502,在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,将所述图像和针对所述图像随机生成的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
在一些实施例中,所述目标图像生成单元502,在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,确定预设参量在所述图像输入到所述图像处理模型时的取值,并将所述取值作为所述图像对应的目标眼睛睁开程度数据,所述预设参量的取值是逐渐变化的;以及,将所述图像对应的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
在一些实施例中,视频生成装置500还包括变化范围确定单元和目标图像生成单元502。
变化范围确定单元用于基于界面上展示的目标控件,获取所述预设参量的配置数据,所述配置数据包括变化幅度和周期;
所述目标图像生成单元502用于基于所述变化幅度和周期,确定所述预设参量在所述图像输入到所述图像处理模型时的取值。
在一些实施例中,所述目标图像生成单元502在所述待处理的图像包括一个图像时,将所述图像和多个不同的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型分别基于每个目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到每个目标眼睛睁开程度数据对应的目标图像。
本实施例提供的视频生成装置500能够执行前文视频生成方法任一实施例的方法,其执行方式和有益效果类似,在这里不再赘述。
本公开实施例还提供一种电子设备,该电子设备包括处理器和存储器,其中,所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时可以实现上述中任一实施例的视频生成方法。
示例的,图6是本公开实施例中的一种电子设备的结构示意图。下面具体参考图6,其示出了适于用来实现本公开实施例中的电子设备600的结构示意图。本公开实施例中的电子设备600可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信 装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
在一些实施例中,本公开提供一种计算机程序,包括:指令,所述指令当由处理器执行时使所述处理器执行根据上述任一个实施例中的视频生成方法。
在一些实施例中,本公开提供一种计算机程序产品,包括指令,所述指令当由处理器执行时使所述处理器执行根据上述任一个实施例中的视频生成方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text Transfer Protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取待处理的图像;基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像;基于所述多个目标图像生成具有眼睛渐变过程的视频。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如, 非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
本公开实施例还提供一种非易失性计算机可读存储介质,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时可以实现上述图1-图4中任一实施例的方法,其执行方式和有益效果类似,在这里不再赘述。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (17)
- 一种视频生成方法,包括:获取一个或多个待处理的图像;基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像;基于多个所述目标图像生成具有眼睛渐变过程的视频,所述眼睛渐变过程包括睁眼渐变过程或闭眼渐变过程中的至少一项。
- 根据权利要求1所述的方法,其中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像对应的眼睛睁开程度数据训练得到的。
- 根据权利要求1所述的方法,其中,所述图像处理模型是基于多个眼睛睁开程度不同的训练图像,以及各训练图像上的眼睛关键点训练得到的。
- 根据权利要求2或3所述的方法,其中,多个所述训练图像是基于多个融合模型生成,所述多个融合模型是由多个图像生成模型按照不同的权重比例融合得到的,不同的图像生成模型生成的图像中的眼睛睁开程度不同。
- 根据权利要求4所述的方法,其中,所述多个图像生成模型中包括用于生成睁眼图像的第一模型和用于生成闭眼图像的第二模型。
- 根据权利要求1所述的方法,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像之前,所述方法还包括:从所述待处理的图像中提取出所述对象的眼睛关键点;基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状的眼睛或预设尺寸的眼睛中的至少一项。
- 根据权利要求6所述的方法,其中,所述基于所述眼睛关键点将所述对象在所 述待处理的图像中的眼睛处理成预设形状的眼睛或预设尺寸的眼睛中的至少一项,包括:基于所述眼睛关键点,确定所述眼睛在所述待处理的图像中的位置;将预设的眼睛图像覆盖到所述位置上,以使所述对象在所述待处理的图像中的眼睛被替换为所述眼睛图像中的眼睛,其中所述眼睛图像中的眼睛具有预设形状或预设尺寸中的至少一项。
- 根据权利要求6所述的方法,其中,所述基于所述眼睛关键点将所述对象在所述待处理的图像中的眼睛处理成预设形状或预设尺寸的眼睛中的至少一项,包括:基于预设的眼睛形状参数或尺寸参数中的至少一项,对所述眼睛关键点在所述待处理的图像中的位置进行调整,以使所述待处理的图像中的眼睛具有预设形状或预设尺寸中的至少一项。
- 根据权利要求6-8中任一项所述的方法,其中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像,包括:在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,将所述每个图像和针对所述每个图像随机生成的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述每个图像中的眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
- 根据权利要求6-8中任一项所述的方法,其中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像,包括:在所述待处理的图像包括多个图像时,针对所述待处理的图像中的每个图像,确定预设参量在所述每个图像输入到所述图像处理模型时的取值,并将所述取值作为所述每个图像对应的目标眼睛睁开程度数据,所述预设参量的取值是逐渐变化的;将所述每个图像对应的目标眼睛睁开程度数据输入所述图像处理模型,使得所述每个图像处理模型基于所述目标眼睛睁开程度数据对所述对象在所述每个图像中的 眼睛睁开程度进行调整,得到眼睛睁开程度与所述目标眼睛睁开程度数据相匹配的目标图像。
- 根据权利要求10所述的方法,所述确定预设参量在所述每个图像输入到所述图像处理模型时的取值之前,所述方法还包括:基于界面上展示的目标控件,获取所述预设参量的配置数据,所述配置数据包括变化幅度和周期;所述确定预设参量在所述每个图像输入到所述图像处理模型时的取值,包括:基于所述变化幅度和周期,确定所述预设参量在所述每个图像输入到所述图像处理模型时的取值。
- 根据权利要求6-8中任一项所述的方法,其中,所述基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像,包括:在所述待处理的图像包括一个图像时,将所述图像和多个不同的目标眼睛睁开程度数据输入所述图像处理模型,使得所述图像处理模型分别基于每个目标眼睛睁开程度数据对所述对象在所述图像中的眼睛睁开程度进行调整,得到每个目标眼睛睁开程度数据对应的目标图像。
- 一种视频生成装置,包括:图像获取单元,用于获取一个或多个待处理的图像;目标图像生成单元,用于基于预设的图像处理模型对所述待处理的图像中的对象的眼睛睁开程度进行调整,得到多个眼睛睁开程度不同的目标图像;视频生成单元,用于基于多个所述目标图像生成具有眼睛渐变过程的视频,所述眼睛渐变过程包括睁眼渐变过程或闭眼渐变过程中的至少一项。
- 一种电子设备,包括:存储器和处理器,其中,所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,实现如权利要求1-12中任一项所述的视频生成方法。
- 一种非易失性计算机可读存储介质,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时,实现如权利要求1-12中任一项所述的视频生成方法。
- 一种计算机程序,包括:指令,所述指令当由处理器执行时使所述处理器执行根据权利要求1-12任一项所述的视频生成方法。
- 一种计算机程序产品,包括指令,所述指令当由处理器执行时使所述处理器执行根据权利要求1-12中任一项所述的视频生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/565,927 US20240362828A1 (en) | 2021-05-31 | 2022-04-24 | Video generation method and apparatus, device, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110597283.2A CN113313790A (zh) | 2021-05-31 | 2021-05-31 | 视频生成方法、装置、设备及存储介质 |
CN202110597283.2 | 2021-05-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022252871A1 true WO2022252871A1 (zh) | 2022-12-08 |
Family
ID=77376168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2022/088699 WO2022252871A1 (zh) | 2021-05-31 | 2022-04-24 | 视频生成方法、装置、设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240362828A1 (zh) |
CN (1) | CN113313790A (zh) |
WO (1) | WO2022252871A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113313790A (zh) * | 2021-05-31 | 2021-08-27 | 北京字跳网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
CN114078098A (zh) * | 2021-11-12 | 2022-02-22 | 北京百度网讯科技有限公司 | 图像生成方法、装置、电子设备和存储介质 |
CN114331824B (zh) * | 2021-12-30 | 2025-06-27 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN119904625A (zh) * | 2025-03-27 | 2025-04-29 | 杭州萤石软件有限公司 | 基于图像生成模型的目标检测方法、系统及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6351269B1 (en) * | 1998-04-17 | 2002-02-26 | Adobe Systems Incorporated | Multiple image morphing |
CN101510314A (zh) * | 2009-03-27 | 2009-08-19 | 腾讯科技(深圳)有限公司 | 一种动画视频合成的方法和装置 |
CN102449664A (zh) * | 2011-09-27 | 2012-05-09 | 华为技术有限公司 | 一种渐变动画的生成方法和装置 |
CN111626087A (zh) * | 2019-02-28 | 2020-09-04 | 北京市商汤科技开发有限公司 | 神经网络训练及眼睛睁闭状态检测方法、装置及设备 |
CN113313790A (zh) * | 2021-05-31 | 2021-08-27 | 北京字跳网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101436312B (zh) * | 2008-12-03 | 2011-04-06 | 腾讯科技(深圳)有限公司 | 一种生成视频动画的方法及装置 |
GB2518589B (en) * | 2013-07-30 | 2019-12-11 | Holition Ltd | Image processing |
US10896493B2 (en) * | 2018-11-13 | 2021-01-19 | Adobe Inc. | Intelligent identification of replacement regions for mixing and replacing of persons in group portraits |
CN110363135B (zh) * | 2019-07-10 | 2022-09-27 | 广州市百果园信息技术有限公司 | 人眼闭合程度的确定方法、眼睛控制方法和装置 |
CN112036311A (zh) * | 2020-08-31 | 2020-12-04 | 北京字节跳动网络技术有限公司 | 基于眼部状态检测的图像处理方法、装置及存储介质 |
US11880766B2 (en) * | 2020-10-16 | 2024-01-23 | Adobe Inc. | Techniques for domain to domain projection using a generative model |
CN112381709B (zh) * | 2020-11-13 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 图像处理方法、模型训练方法、装置、设备和介质 |
JP7647187B2 (ja) * | 2021-03-10 | 2025-03-18 | 株式会社Jvcケンウッド | 目開閉判定装置および目開閉判定方法 |
-
2021
- 2021-05-31 CN CN202110597283.2A patent/CN113313790A/zh active Pending
-
2022
- 2022-04-24 US US18/565,927 patent/US20240362828A1/en active Pending
- 2022-04-24 WO PCT/CN2022/088699 patent/WO2022252871A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6351269B1 (en) * | 1998-04-17 | 2002-02-26 | Adobe Systems Incorporated | Multiple image morphing |
CN101510314A (zh) * | 2009-03-27 | 2009-08-19 | 腾讯科技(深圳)有限公司 | 一种动画视频合成的方法和装置 |
CN102449664A (zh) * | 2011-09-27 | 2012-05-09 | 华为技术有限公司 | 一种渐变动画的生成方法和装置 |
CN111626087A (zh) * | 2019-02-28 | 2020-09-04 | 北京市商汤科技开发有限公司 | 神经网络训练及眼睛睁闭状态检测方法、装置及设备 |
CN113313790A (zh) * | 2021-05-31 | 2021-08-27 | 北京字跳网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113313790A (zh) | 2021-08-27 |
US20240362828A1 (en) | 2024-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766777B (zh) | 虚拟形象的生成方法、装置、电子设备及存储介质 | |
US11973732B2 (en) | Messaging system with avatar generation | |
WO2022252871A1 (zh) | 视频生成方法、装置、设备及存储介质 | |
WO2022166872A1 (zh) | 一种特效展示方法、装置、设备及介质 | |
CN112562019A (zh) | 图像色彩调整方法及装置、计算机可读介质和电子设备 | |
JP2024506639A (ja) | 画像表示方法、装置、機器及び媒体 | |
CN110570383B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
WO2023273697A1 (zh) | 图像处理方法、模型训练方法、装置、电子设备及介质 | |
CN112034984B (zh) | 一种虚拟模型处理方法、装置、电子设备和存储介质 | |
WO2019237747A1 (zh) | 图像裁剪方法、装置、电子设备及计算机可读存储介质 | |
WO2023185671A1 (zh) | 风格图像生成方法、装置、设备及介质 | |
CN110136054A (zh) | 图像处理方法和装置 | |
CN114630057B (zh) | 确定特效视频的方法、装置、电子设备及存储介质 | |
CN113706440A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
JP2023550970A (ja) | 画面の中の背景を変更する方法、機器、記憶媒体、及びプログラム製品 | |
WO2023138441A1 (zh) | 视频生成方法、装置、设备及存储介质 | |
WO2023143129A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
WO2023140787A2 (zh) | 视频的处理方法、装置、电子设备、存储介质和程序产品 | |
CN115311178A (zh) | 图像拼接方法、装置、设备及介质 | |
US20250024088A1 (en) | Video generation method and apparatus, and device and storage medium | |
CN111352560B (zh) | 分屏方法、装置、电子设备和计算机可读存储介质 | |
WO2022262473A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
WO2022257677A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
US20250005827A1 (en) | Image generation method, apparatus and device, and storage medium | |
CN114627019A (zh) | 一种内容修复方法、装置、设备和计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22814918 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22814918 Country of ref document: EP Kind code of ref document: A1 |