WO2020244151A1 - 图像处理方法、装置、终端及存储介质 - Google Patents
图像处理方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- WO2020244151A1 WO2020244151A1 PCT/CN2019/118023 CN2019118023W WO2020244151A1 WO 2020244151 A1 WO2020244151 A1 WO 2020244151A1 CN 2019118023 W CN2019118023 W CN 2019118023W WO 2020244151 A1 WO2020244151 A1 WO 2020244151A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- preset number
- face images
- face
- face image
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Definitions
- This application relates to the field of image recognition technology, and in particular to an image processing method, an image processing device, a terminal, and a non-volatile readable storage medium.
- Deep Learning is a new field in machine learning research. Its motivation is to establish and simulate a neural network that simulates the human brain for analysis and learning. It mimics the mechanism of the human brain to interpret data, such as images, sounds, and texts. Face recognition technology is currently a hot topic that has been widely studied. Face recognition technology is to use computers to analyze face images, and to achieve the purpose of identification by detecting and comparing all known prototype face images in the face database. With the development of science and technology and the comprehensive application of various technical means, face recognition technology will have broad application prospects in video surveillance, access control and other fields.
- the face recognition algorithm uses a deep learning model to calculate the feature vector of the face. Because there are a large number of non-influencing addition and multiplication calculations in the calculation, such calculations can use a large number of simple calculation units in the GPU for parallel calculation. However, because the face image must be moved from the memory CPU to the GPU directly accessible video memory before the calculation, this moving process takes extra time. When the number of faces to be processed is large, it will cause a lot of wasted time. , The computing power of the GPU cannot be fully utilized.
- the first aspect of the embodiments of the present application provides an image processing method, and the image processing method includes:
- the graphics processor GPU input a preset number of face images after merging and processing into a deep learning framework for calculation to obtain a feature vector corresponding to the preset number of face images;
- the feature vectors corresponding to the preset number of face images after the merging process are returned from the display memory corresponding to the graphics processor GPU to the memory corresponding to the central processing unit CPU.
- the second aspect of the embodiments of the present application further provides an image processing device, the image processing device including:
- An image acquisition module for acquiring a face image, the face image including an original face image and a face image to be recognized;
- Image merging module for merging a preset number of face images
- the image transfer module is used to transfer the preset number of face images after merging and processing from the memory corresponding to the central processing unit CPU to the video memory corresponding to the graphics processing unit GPU;
- the feature calculation module is configured to input a preset number of face images after merging and processing into the deep learning framework for calculation in the graphics processor GPU to obtain a feature vector corresponding to the preset number of face images;
- the feature merging module is used to merge feature vectors corresponding to a preset number of face images
- the feature return module is used to return the feature vectors corresponding to the preset number of face images after the merge processing from the display memory corresponding to the graphics processor GPU to the memory corresponding to the central processing unit CPU.
- the third aspect of the embodiments of the present application further provides a terminal, the terminal includes a processor, and the processor is configured to implement any one of the image processing methods described above when executing computer-readable instructions stored in a memory.
- the fourth aspect of the embodiments of the present application also provides a non-volatile readable storage medium having computer readable instructions stored on the non-volatile readable storage medium, and the computer readable instructions are implemented when executed by a processor
- Fig. 1 is a flowchart of an image processing method provided by an embodiment of the present application.
- FIG. 2 is a schematic structural diagram of a terminal according to an embodiment of the present application.
- Fig. 3 is an exemplary functional block diagram of the terminal shown in Fig. 2.
- Fig. 1 is a flowchart of an image processing method provided by an embodiment of the present application.
- the image processing method can be applied to a terminal 1, and the terminal 1 can be a smart device such as a smart phone, a notebook computer, a desktop/tablet computer, a smart watch, and a personal digital assistant (Personal Digital Assistant, PDA).
- the image processing method may include the following steps:
- S101 Acquire a face image, where the face image includes an original face image and a face image to be recognized.
- Face image recognition includes important technologies such as image processing and image detection. Most of the processing needs to be based on the original face image, so it is necessary to save the original face image.
- a face image is acquired, and the face image includes an original face image and a face image to be recognized.
- the original face image can be stored in the original face image sample library, or directly stored in the memory, including temporary storage in the memory, long-term storage in the hard disk, or directly stored in the SD card, flash memory card and other small Fast memory.
- the face image to be recognized can be obtained by the following method: a camera device with a pixel not less than 10 million is used to photograph the faces of different target users.
- the method before the merging process of the preset number of face images, the method further includes: locating the feature points of each face image in the preset number of face images (may be The positioning algorithm performs positioning, and the positioning algorithm may be an existing), and corrects the face image; converts the corrected face image into a face image of a preset standard size.
- the feature point of the face image includes the pixel point position of the preset face organ in the face image
- the preset face organ includes glasses, nose, mouth, etc., that is, the feature point may be the iris
- the position of the pixel of the center of gravity, the position of the pixel of the center of gravity of the nose, and the position of the pixel of the center of gravity of the mouth are not limited here.
- the preset standard size is preset by the terminal user and adapted to the size of the face image of the deep learning framework.
- the preset number is the number of face images that need to be merged, which is preset by the terminal user, and the specific value of the preset number is not limited.
- the method further includes: classifying the original face image and the face image to be recognized; and separately processing the original face images Perform merging processing and perform merging processing on the face image to be recognized.
- the merging process of the preset number of face images includes: obtaining the pixel value in each face image; converting the pixel value of each face image into a two-dimensional w*h form Matrix; obtain the preset number of the face images for merging processing; convert the two-dimensional w*h matrix corresponding to the preset number of face images into a three-dimensional n*w*h form Matrix, where n represents the preset number of face images to be merged, w represents the width of the face image, and h represents the height of the face image.
- the memory corresponding to the central processing unit CPU is used to store the face image, and the preset number of face images after the merge processing are transferred from the memory corresponding to the central processing unit CPU to the corresponding graphics processor GPU.
- the graphics processor GPU can access the video memory to obtain a preset number of face images after merging.
- S104 In the graphics processor GPU, input a preset number of face images after merging and processing into a deep learning framework for calculation to obtain a feature vector corresponding to the preset number of face images.
- the method before the input of the merged and processed preset number of face images into the deep learning framework for calculation, the method further includes: using the graphics processor GPU to combine different people The feature vector calculation operation of the face image is divided into unrelated and arbitrary tasks for parallel execution.
- the inputting the preset number of face images after the merging process into the deep learning framework for calculation includes: constructing a preset initial deep learning frame; and inputting the preset number of original face images after the merging process into the deep learning framework as training samples Training in the preset initial deep learning framework to obtain a trained preset deep learning framework; input the face image to be recognized into the trained preset deep learning framework for feature value calculation, and output the The feature vector corresponding to the face image to be recognized.
- the preset initial deep learning framework is a deep learning framework preset by the end user and used to calculate the feature value of the face image.
- the preset initial deep learning framework may include the TensorFlow framework, Theano framework, Keras framework, and Caffe framework.
- S105 Combine feature vectors corresponding to a preset number of face images.
- the merging process of feature vectors corresponding to a preset number of face images includes: obtaining the feature vector corresponding to each face image as a feature vector in the form of 1*m; confirming the feature vector merging The preset number of processed face images; the feature vector corresponding to the preset number of face images is converted into a feature vector in the form of n*m, where n represents the feature vector The preset number of face images processed by vector merging, and m represents the number of feature values corresponding to each face image.
- S106 Return the feature vectors corresponding to the preset number of face images after the merging process from the display memory corresponding to the graphics processor GPU to the memory corresponding to the central processing unit CPU.
- the feature vectors corresponding to the preset number of face images after the merging process are returned from the display memory corresponding to the graphics processor GPU to the memory corresponding to the central processing unit CPU.
- the method further includes: acquiring the waiting The feature vector corresponding to the recognized face image; obtaining the feature vector corresponding to the preset number of original face images after the merging process; confirming that the feature vector corresponding to the face image to be recognized is the preset after the merging process Feature similarity values between feature vectors corresponding to a number of original face images; determine whether the feature similarity value is greater than a preset similarity threshold; if the judgment result is that the feature similarity value is greater than the preset similarity Threshold, the face recognition result is output.
- the preset similarity threshold is a value preset by the terminal user.
- the output face recognition results include successful face recognition and face recognition failure.
- the face recognition result is that the face recognition is successful
- the original face image closest to the face image to be detected is output. It is understandable that if the feature similarity values are all less than the preset similarity threshold, the face recognition result is that the face recognition fails. If there is more than one of the feature similarity values less than the preset similarity threshold, the smallest difference is obtained according to the sorting method of the difference between the feature similarity value and the preset similarity threshold.
- the original face image corresponding to the value is taken as the original face image closest to the face image to be recognized.
- the embodiment of the application provides an image processing method to obtain a face image, where the face image includes an original face image and a face image to be recognized; a preset number of face images are merged; after the merge process
- the preset number of face images is transferred from the memory corresponding to the central processing unit CPU to the video memory corresponding to the graphics processor GPU; in the graphics processor GPU, the preset number of face images after the merge processing are input to Calculate in the deep learning framework to obtain the feature vectors corresponding to the preset number of face images; merge the feature vectors corresponding to the preset number of face images; merge the preset number of face images corresponding to the combined process
- the feature vector is returned from the graphics memory corresponding to the graphics processing unit GPU to the memory corresponding to the central processing unit CPU.
- the face image method can reduce the waiting time of the GPU and improve the computing power of the GPU.
- An embodiment of the present application also provides a terminal 1, including a memory 10, a processor 30, and computer-readable instructions stored on the memory 10 and running on the processor 30, and the processor 30 executes the computer-readable instructions When realizing the steps of the image processing method described in any of the above embodiments.
- FIG. 2 is a schematic structural diagram of a terminal 1 according to an embodiment of the present application.
- the terminal 1 includes a memory 10 in which an image processing device 100 is stored.
- the terminal 1 may be a terminal 1 with application display function, such as a mobile phone, a tablet computer, or a personal digital assistant.
- the image processing device 100 may obtain a face image, the face image including an original face image and a face image to be recognized; a preset number of face images are merged; a preset number after the merge process
- the face image of is transferred from the memory corresponding to the central processing unit CPU to the video memory corresponding to the graphics processing unit GPU; in the graphics processing unit GPU, the preset number of facial images after merging processing are input into the deep learning framework Perform calculations to obtain the feature vectors corresponding to the preset number of face images; combine the feature vectors corresponding to the preset number of face images; combine the feature vectors corresponding to the preset number of face images after the combined processing by the graphics
- the video memory corresponding to the processor GPU is returned to the memory corresponding to the central processing unit CPU.
- the face image method can reduce the waiting time of the GPU and improve the computing power of the GPU.
- the terminal 1 may further include a display screen 20 and a processor 30.
- the memory 10 and the display screen 20 may be electrically connected to the processor 30 respectively.
- the memory 10 may be different types of storage devices for storing various types of data.
- it can be the memory or internal memory of the terminal 1, or a memory card that can be externally connected to the terminal device 1, such as flash memory, SM card (Smart Media Card), SD card (Secure Digital Card, secure digital card) )Wait.
- the memory 10 may also include non-volatile memory, such as a hard disk, a memory, a plug-in hard disk, a Smart Media Card (SMC), a Secure Digital (SD) card, and a Flash Card. , At least one magnetic disk storage device, flash memory device, or other non-volatile solid state storage device.
- the memory 10 is used to store various types of data, for example, various types of applications (Applications) installed in the terminal 1, and information such as data set and acquired by applying the above-mentioned image processing method.
- the display screen 20 is installed in the terminal 1 for displaying information.
- the processor 30 is used to execute the image processing method and various software installed in the terminal 1, such as an operating system and application display software.
- the processor 30 includes, but is not limited to, a processor (Central Processing Unit, CPU), a Micro Controller Unit (Micro Controller Unit, MCU) and other devices for interpreting computer instructions and processing data in computer software.
- a processor Central Processing Unit, CPU
- MCU Micro Controller Unit
- the image processing apparatus 100 may include one or more modules, and the one or more modules are stored in the memory 10 of the terminal 1 and configured to be executed by one or more processors (this embodiment is a processing ⁇ 30) execute to complete the embodiment of the present application.
- the image processing apparatus 100 may include an image acquisition module 101, an image merging module 103, an image transfer module 105, a feature calculation module 107, a feature merging module 109, and a feature return module 111.
- the module referred to in the embodiment of the present application may be a program segment that completes a specific function, and is more suitable than a program to describe the execution process of software in a processor.
- the terminal 1 may include some or all of the functional modules shown in FIG. 3, and the functions of each module will be described in detail below. It should be noted that the same nouns, related nouns and specific explanations in each embodiment of the above image processing method can also be applied to the following functional introduction of each module. To save space and avoid repetition, I won’t repeat them here.
- the image acquisition module 101 may be used to acquire a face image, where the face image includes an original face image and a face image to be recognized.
- the image merging module 103 may be used to merge a preset number of face images.
- the image transfer module 105 may be used to transfer the preset number of face images after the merging process from the memory corresponding to the central processing unit CPU to the display memory corresponding to the graphics processing unit GPU.
- the feature calculation module 107 may be used to input a preset number of merged face images into the deep learning framework for calculation in the graphics processor GPU, to obtain feature vectors corresponding to the preset number of face images.
- the feature merging module 109 may be used for merging feature vectors corresponding to a preset number of face images.
- the feature return module 111 may be used to return the feature vectors corresponding to the preset number of face images after the merge processing from the display memory corresponding to the graphics processor GPU to the memory corresponding to the central processing unit CPU.
- the embodiments of the present application also provide a non-volatile readable storage medium on which computer readable instructions are stored, and when the computer readable instructions are executed by a processor, the steps of the image processing method in any of the above embodiments are implemented .
- the integrated module/unit of the image processing device 100/terminal1/computer equipment is implemented in the form of a software functional unit and sold or used as an independent product, it can be stored in a non-volatile readable storage medium.
- this application implements all or part of the processes in the above-mentioned implementation methods, and can also be completed by instructing relevant hardware through computer-readable instructions.
- the computer-readable instructions can be stored in a non-volatile memory.
- the computer-readable instruction code may be in the form of source code, object code, executable file, or some intermediate forms.
- the non-volatile readable storage medium may include: any entity or device capable of carrying the computer readable instruction code, recording medium, U disk, mobile hard disk, magnetic disk, optical disk, computer memory, read-only memory (ROM , Read-Only Memory) etc.
- the so-called processor 30 may be a central processing unit (Central Processing Unit, CPU), other general processors, digital signal processors (Digital Signal Processor, DSP), application specific integrated circuits (Application Specific Integrated Circuit, ASIC), Field-Programmable Gate Array (FPGA) or other programmable logic devices, discrete gates or transistor logic devices, discrete hardware components, etc.
- the general-purpose processor can be a microprocessor or the processor can also be any conventional processor, etc.
- the processor 30 is the control center of the image processing device 100/terminal 1, and connects the entire image through various interfaces and lines. Various parts of the processing device 100/terminal 1.
- the memory 10 is used to store the computer-readable instructions and/or modules, and the processor 30 runs or executes the computer-readable instructions and/or modules stored in the memory, and calls the computer-readable instructions and/or modules stored in the memory 10
- the data realizes various functions of the image processing device 100/terminal 1.
- the memory 10 may mainly include a program storage area and a data storage area.
- the program storage area may store an operating system, an application program required by at least one function (such as a sound playback function, an image playback function, etc.), etc., and the program is A series of computer-readable instructions; the storage data area can store data (such as audio data) created according to the use of the terminal 1 and so on.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种图像处理方法、装置、终端与计算机可读存储介质,所述方法包括:获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像(S101);将预设数量的人脸图像进行合并处理(S102);将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中(S103);在所述图像处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中计算,得到预设数量的人脸图像对应的特征向量(S104);将预设数量的人脸图像对应的特征向量进行合并处理(S105);将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中(S106)。所述方法采用批量搬移人脸图像的方式,能够减少GPU的等待时间,提高GPU计算能力。
Description
本申请要求于2019年06月05日提交中国专利局,申请号为201910487842.7发明名称为“图像处理方法、装置、终端及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
本申请涉及图像识别技术领域,具体涉及一种图像处理方法、图像处理装置、终端及非易失性可读存储介质。
深度学习(Deep Learning)是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。人脸识别技术是目前被广泛研究的热门课题。人脸识别技术就是利用计算机分析人脸图像,通过检测对比人脸数据库中的所有已知原型人脸图像来达到辨认身份的目的。随着科学技术的发展及各种技术手段的综合应用,人脸识别技术将在视频监控、访问控制等领域有着广阔的应用前景。
人脸识别算法使用深度学习模型来计算人脸的特征向量,因为计算中有大量的互不影响的加法和乘法计算,这样的计算可以利用GPU中的大量简单运算单元进行并行计算。但是由于在计算之前要先把人脸图像从内存CPU搬移到GPU可直接访问的显存中,这个搬移处理需要耗费额外的时间,当需要处理的人脸数量很大时,造成浪费的时间比较多,不能充分利用GPU的计算能力。
发明内容
鉴于以上内容,有必要提出一种图像处理方法、图像处理装置、终端与非易失性可读存储介质,通过采用批量搬移人脸图像的方式,能够减少GPU的等待时间,提高GPU计算能力。
本申请实施例第一方面提供一种图像处理方法,所述图像处理方法包括:
获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;
将预设数量的人脸图像进行合并处理;
将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;
在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;
将预设数量的人脸图像对应的特征向量进行合并处理;
将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
本申请实施例第二方面还提供一种图像处理装置,所述图像处理装置包括:
图像获取模块,用于获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;
图像合并模块,用于将预设数量的人脸图像进行合并处理;
图像传递模块,用于将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;
特征计算模块,用于在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;
特征合并模块,用于将预设数量的人脸图像对应的特征向量进行合并处理;
特征回传模块,用于将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
本申请实施例第三方面还提供一种终端,所述终端包括处理器,所述处理器用于执行存储器中存储的计算机可读指令时实现上述任意一项所述图像处理方法。
本申请实施例第四方面还提供一种非易失性可读存储介质,所述非易失性可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述任意一项所述图像处理方法。
图1是本申请实施例提供的图像处理方法的流程图。
图2是本申请一实施方式的终端的结构示意图。
图3是图2所示的终端的示例性的功能模块图。
如下具体实施方式将结合上述附图进一步说明本申请。
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施例对本申请进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
图1是本申请实施例提供的图像处理方法的流程图。所述图像处理方法可以应用于终端1,所述终端1可以是例如智能手机、笔记本电脑、台式/平板电脑、智能手表以及个人数字助理(Personal Digital Assistant,PDA)等智能设备。如图1所示,所述图像处理方法可以包括如下步骤:
S101:获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像。
人脸图像识别包括图像处理、图像检测等重要技术,其中大部分处理都需要基于原始人脸图像进行,因此保存原始人脸图像是必要的。在本实施方式中,获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像。其中,所述原始人脸图像可以保存在原始人脸图像样本库中,也可以直接保存在存储器中,包括暂存在内存中,长期保存在硬盘中,或者直接保存在SD卡、闪存卡等小型快速存储器中。所述待识别的人脸图像的获取可以通过如下方法:采用像素不低于1000万的摄像装置对不同目标用户的人脸进行拍摄。
S102:将预设数量的人脸图像进行合并处理。
在本实施方式中,在所述将预设数量的人脸图像进行合并处理之前,所述方法还包括:定位预设数量的人脸图像中的每一张人脸图像的特征点(可以采用定位算法进行定位,所述定位算法可以是现有的),并对人脸图像进行校正;将校正后的所述人脸图像转换为预设标准尺寸的人脸图像。其中,所述人脸图像的特征点包括人脸图像中预设人脸器官所在的像素点位置,所 述预设人脸器官包括眼镜、鼻子、嘴巴等,也即所述特征点可以为虹膜重心像素点位置、鼻子重心像素点位置与口部重心像素点位置等,在此不做限制。根据所述人脸图像的特征点对所述人脸图像进行校正,并将校正后的人脸图像转换为预设标准尺寸的人脸图像,从而保证提取到较稳定的特征并取得较好的人脸识别效果。所述预设标准尺寸为终端用户预先设置的,适应于所述深度学习框架的人脸图像的尺寸。所述预设数量为终端用户预先设置的,需要进行合并的人脸图像的数量,所述预设数量的具体数值不做限定。
在所述将预设数量的人脸图像进行合并处理之前,所述方法还包括:将所述原始人脸图像与所述待识别的人脸图像进行分类处理;分别对所述原始人脸图像进行合并处理以及对所述待识别的人脸图像进行合并处理。
所述将预设数量的人脸图像进行合并处理包括:获取每一张人脸图像中的像素值;将每一张所述人脸图像的像素值转换为一个二维的w*h形式的矩阵;获取进行合并处理的所述人脸图像的预设数量;将所述预设数量的人脸图像对应的二维的w*h形式的矩阵转换为一个三维的n*w*h形式的矩阵,其中,n表示所述进行合并处理的人脸图像的预设数量,w表示人脸图像的宽度,h表示人脸图像的高度。
S103:将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中。
在本实施方式中,中央处理器CPU对应的内存中用于存放所述人脸图像,将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中,图形处理器GPU可通过访问显存获取合并处理后的预设数量的人脸图像。
S104:在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量。
在本实施方式中,在所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算之前,所述方法还包括:通过所述图形处理器GPU将不同的所述人脸图像的特征向量计算操作划分为互不相关且顺序任意的任务进行并行执行。
所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算 包括:构建预设初始深度学习框架;将合并处理后的预设数量的原始人脸图像作为训练样本输入至所述预设初始深度学习框架中进行训练,得到训练好的预设深度学习框架;将所述待识别的人脸图像输入至训练好的预设深度学习框架中进行特征值计算,输出所述待识别的人脸图像对应的特征向量。所述预设初始深度学习框架为终端用户预先设置的,用于计算人脸图像特征值的深度学习框架,所述预设初始深度学习框架可以包括TensorFlow框架、Theano框架、Keras框架以及Caffe框架。
S105:将预设数量的人脸图像对应的特征向量进行合并处理。
在本实施方式中,所述将预设数量的人脸图像对应的特征向量进行合并处理包括:获取每一张人脸图像对应的特征向量为1*m形式的特征向量;确认进行特征向量合并处理的所述人脸图像的预设数量;将所述预设数量的人脸图像对应的特征向量1*m形式的向量转换为n*m形式的特征向量,其中,n表示所述进行特征向量合并处理的所述人脸图像的预设数量,m表示每一张人脸图像对应的特征值的数量。
S106:将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
在本实施方式中,将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应内存中。在所述将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中之后,所述方法还包括:获取所述待识别的人脸图像对应的特征向量;获取合并处理后的预设数量的原始人脸图像对应的特征向量;确认所述待识别的人脸图像对应的特征向量与所述合并处理后的预设数量的原始人脸图像对应的特征向量之间的特征相似度值;判断所述特征相似度值是否大于预设相似度阈值;若判断结果为所述特征相似度值大于所述预设相似度阈值,则输出人脸识别结果。其中,所述预设相似度阈值为终端用户预先设置的值。输出的人脸识别结果包括人脸识别成功与人脸识别失败。当人脸识别结果为人脸识别成功时,输出与所述待检测的人脸图像最接近的原始人脸图像。可以理解的是,若所述特征相似度值均小于所述预设相似度阈值,则人脸识别结果为人脸识别失败。若存在不止一个 所述特征相似度值小于所述预设相似度阈值,则按照所述特征相似度值与所述预设相似度阈值的差值从小到大的排序方式,获取差值的最小值对应的原始人脸图像作为与所述待识别的人脸图像最接近的原始人脸图像。
本申请实施例提供一种图像处理方法,获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;将预设数量的人脸图像进行合并处理;将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;将预设数量的人脸图像对应的特征向量进行合并处理;将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。由于在内存和显存之间搬移一张人脸图像和多张人脸图像所需时间几乎没有区别(搬移多张人脸图像时的时间增长非常有限),利用本申请实施例,通过采用批量搬移人脸图像的方式,能够减少GPU的等待时间,提高GPU计算能力。
以上是对本申请实施例所提供的方法进行的详细描述。根据不同的需求,所示流程图中方块的执行顺序可以改变,某些方块可以省略。下面对本申请实施例所提供的终端1进行描述。
本申请实施例还提供一种终端1,包括存储器10、处理器30及存储在存储器10上并可在处理器30上运行的计算机可读指令,所述处理器30执行所述计算机可读指令时实现上述任一实施方式中所述的图像处理方法的步骤。
图2是本申请一实施方式的终端1的结构示意图,如图2所示,终端1包括存储器10,存储器10中存储有图像处理装置100。所述的终端1可以是手机、平板电脑、个人数字助理等具有应用显示功能的终端1。所述图像处理装置100可以获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;将预设数量的人脸图像进行合并处理;将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;将预设数量的人脸图像对应的特征向 量进行合并处理;将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。由于在内存和显存之间搬移一张人脸图像和多张人脸图像所需时间几乎没有区别(搬移多张人脸图像时的时间增长非常有限),利用本申请实施例,通过采用批量搬移人脸图像的方式,能够减少GPU的等待时间,提高GPU计算能力。
本实施方式中,终端1还可以包括显示屏20及处理器30。存储器10、显示屏20可以分别与处理器30电连接。
所述的存储器10可以是不同类型存储设备,用于存储各类数据。例如,可以是终端1的存储器、内存,还可以是可外接于该终端装置1的存储卡,如闪存、SM卡(Smart Media Card,智能媒体卡)、SD卡(Secure Digital Card,安全数字卡)等。此外,存储器10还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。存储器10用于存储各类数据,例如,所述终端1中安装的各类应用程序(Applications)、应用上述图像处理方法而设置、获取的数据等信息。
显示屏20安装于终端1,用于显示信息。
处理器30用于执行所述图像处理方法以及所述终端1内安装的各类软件,例如操作系统及应用显示软件等。处理器30包含但不限于处理器(Central Processing Unit,CPU)、微控制单元(Micro Controller Unit,MCU)等用于解释计算机指令以及处理计算机软件中的数据的装置。
所述的图像处理装置100可以包括一个或多个的模块,所述一个或多个模块被存储在终端1的存储器10中并被配置成由一个或多个处理器(本实施方式为一个处理器30)执行,以完成本申请实施例。例如,参阅图3所示,所述图像处理装置100可以包括图像获取模块101、图像合并模块103、图像传递模块105、特征计算模块107、特征合并模块109与特征回传模块111。本申请实施例所称的模块可以是完成一特定功能的程序段,比程序更适合于描述软件在处理器中的执行过程。
可以理解的是,对应上述图像处理方法中的各实施方式,终端1可以包 括图3中所示的各功能模块中的一部分或全部,各模块的功能将在以下具体介绍。需要说明的是,以上图像处理方法的各实施方式中相同的名词、相关名词及其具体的解释说明也可以适用于以下对各模块的功能介绍。为节省篇幅及避免重复起见,在此就不再赘述。
图像获取模块101可以用于获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像。
图像合并模块103可以用于将预设数量的人脸图像进行合并处理。
图像传递模块105可以用于将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中。
特征计算模块107可以用于在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量。
特征合并模块109可以用于将预设数量的人脸图像对应的特征向量进行合并处理。
特征回传模块111可以用于将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
本申请实施例还提供一种非易失性可读存储介质,其上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述任一实施方式中的图像处理方法的步骤。
所述图像处理装置100/终端1/计算机设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性可读取存储介质中。基于这样的理解,本申请实现上述实施方式方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述非易失性可读存储介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器30是所述图像处理装置100/终端1的控制中心,利用各种接口和线路连接整个图像处理装置100/终端1的各个部分。
所述存储器10用于存储所述计算机可读指令和/或模块,所述处理器30通过运行或执行存储在所述存储器内的计算机可读指令和/或模块,以及调用存储在存储器10内的数据,实现所述图像处理装置100/终端1的各种功能。所述存储器10可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等,所述程序是一系列的计算机可读指令;存储数据区可存储根据终端1的使用所创建的数据(比如音频数据)等。
在本申请所提供的几个具体实施方式中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的系统实施方式仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
以上实施方式仅用以说明本申请实施例的技术方案而非限制,尽管参照以上较佳实施方式对本申请实施例进行了详细说明,本领域的普通技术人员应当理解,可以对本申请实施例的技术方案进行修改或等同替换都不应脱离本申请实施例的技术方案的精神和范围。
Claims (20)
- 一种图像处理方法,其特征在于,所述图像处理方法包括:获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;将预设数量的人脸图像进行合并处理;将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;将预设数量的人脸图像对应的特征向量进行合并处理;将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
- 根据权利要求1所述的图像处理方法,其特征在于,在所述将预设数量的人脸图像进行合并处理之前,所述方法还包括:定位预设数量的人脸图像中的每一张原始人脸图像的特征点,并对人脸图像进行校正;将校正后的所述人脸图像转换为预设标准尺寸的人脸图像。
- 根据权利要求1所述的图像处理方法,其特征在于,所述将预设数量的人脸图像进行合并处理包括:获取每一张人脸图像中的像素值;将每一张所述人脸图像的像素值转换为一个w*h形式的矩阵;将所述预设数量的人脸图像对应的二维的w*h形式的矩阵转换为一个n*w*h形式的矩阵,其中,n表示所述进行合并处理的人脸图像的预设数量,w表示人脸图像的宽度,h表示人脸图像的高度。
- 根据权利要求1所述的图像处理方法,其特征在于,在所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算之前,所述方法还包括:通过所述图形处理器GPU将不同的所述人脸图像的特征向量计算操作划分为互不相关且顺序任意的任务进行并行执行。
- 根据权利要求1所述的图像处理方法,其特征在于,所述将合并处理后 的预设数量的人脸图像输入至深度学习框架中进行计算包括:构建预设初始深度学习框架;将合并处理后的预设数量的原始人脸图像作为训练样本输入至所述预设初始深度学习框架中进行训练,得到训练好的预设深度学习框架;将所述待识别的人脸图像输入至训练好的预设深度学习框架中进行特征值计算,输出所述待识别的人脸图像对应的特征向量。
- 根据权利要求1所述的图像处理方法,其特征在于,所述将预设数量的人脸图像对应的特征向量进行合并处理包括:获取每一张人脸图像对应的特征向量为1*m形式的特征向量;确认进行特征向量合并处理的所述人脸图像的预设数量;将所述预设数量的人脸图像对应的特征向量1*m形式的向量转换为n*m形式的特征向量,其中,n表示所述进行特征向量合并处理的所述人脸图像的预设数量,m表示每一张人脸图像对应的特征值的数量。
- 根据权利要求5所述的图像处理方法,其特征在于,在所述将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中之后,所述方法还包括:获取所述待识别的人脸图像对应的特征向量;获取合并处理后的预设数量的原始人脸图像对应的特征向量;确认所述待识别的人脸图像对应的特征向量与所述合并处理后的预设数量的原始人脸图像对应的特征向量之间的特征相似度值;判断所述特征相似度值是否大于预设相似度阈值;若判断结果为所述特征相似度值大于所述预设相似度阈值,则输出人脸识别结果。
- 一种图像处理装置,其特征在于,所述图像处理装置包括:图像获取模块,用于获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;图像合并模块,用于将预设数量的人脸图像进行合并处理;图像传递模块,用于将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;特征计算模块,用于在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;特征合并模块,用于将预设数量的人脸图像对应的特征向量进行合并处理;特征回传模块,用于将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
- 一种终端,其特征在于,所述终端包括处理器,所述处理器用于执行存储器中存储的计算机可读指令以实现以下步骤:获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;将预设数量的人脸图像进行合并处理;将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;将预设数量的人脸图像对应的特征向量进行合并处理;将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
- 根据权利要求9所述的终端,其特征在于,在所述将预设数量的人脸图像进行合并处理之前,所述处理器执行所述计算机可读指令还用以实现以下步骤:定位预设数量的人脸图像中的每一张原始人脸图像的特征点,并对人脸图像进行校正;将校正后的所述人脸图像转换为预设标准尺寸的人脸图像。
- 根据权利要求9所述的终端,其特征在于,所述处理器执行所述计算机可读指令以实现所述将预设数量的人脸图像进行合并处理时,包括以下步骤:获取每一张人脸图像中的像素值;将每一张所述人脸图像的像素值转换为一个w*h形式的矩阵;将所述预设数量的人脸图像对应的二维的w*h形式的矩阵转换为一个n*w*h形式的矩阵,其中,n表示所述进行合并处理的人脸图像的预设数量,w表示人脸图像的宽度,h表示人脸图像的高度。
- 根据权利要求9所述的终端,其特征在于,在所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算之前,所述处理器执行所述计算机可读指令还用以实现以下步骤:通过所述图形处理器GPU将不同的所述人脸图像的特征向量计算操作划分为互不相关且顺序任意的任务进行并行执行。
- 根据权利要求9所述的终端,其特征在于,所述处理器执行所述计算机可读指令以实现所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算时,包括以下步骤:构建预设初始深度学习框架;将合并处理后的预设数量的原始人脸图像作为训练样本输入至所述预设初始深度学习框架中进行训练,得到训练好的预设深度学习框架;将所述待识别的人脸图像输入至训练好的预设深度学习框架中进行特征值计算,输出所述待识别的人脸图像对应的特征向量。
- 根据权利要求9所述的终端,其特征在于,所述处理器执行所述计算机可读指令以实现所述将预设数量的人脸图像对应的特征向量进行合并处理时,包括以下步骤:获取每一张人脸图像对应的特征向量为1*m形式的特征向量;确认进行特征向量合并处理的所述人脸图像的预设数量;将所述预设数量的人脸图像对应的特征向量1*m形式的向量转换为n*m形式的特征向量,其中,n表示所述进行特征向量合并处理的所述人脸图像的预设数量,m表示每一张人脸图像对应的特征值的数量。
- 一种非易失性可读存储介质,所述非易失性可读存储介质上存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现以下步骤:获取人脸图像,所述人脸图像包括原始人脸图像与待识别的人脸图像;将预设数量的人脸图像进行合并处理;将合并处理后的预设数量的人脸图像由中央处理器CPU对应的内存传递至图形处理器GPU对应的显存中;在所述图形处理器GPU中,将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算,得到预设数量的人脸图像对应的特征向量;将预设数量的人脸图像对应的特征向量进行合并处理;将合并处理后的预设数量的人脸图像对应的特征向量由图形处理器GPU对应的显存回传至中央处理器CPU对应的内存中。
- 根据权利要求15所述的非易失性可读存储介质,其特征在于,在所述将预设数量的人脸图像进行合并处理之前,所述计算机可读指令被处理器执行还用以实现以下步骤:定位预设数量的人脸图像中的每一张原始人脸图像的特征点,并对人脸图像进行校正;将校正后的所述人脸图像转换为预设标准尺寸的人脸图像。
- 根据权利要求15所述的非易失性可读存储介质,其特征在于,所述计算机可读指令被处理器执行以实现所述将预设数量的人脸图像进行合并处理时,包括以下步骤:获取每一张人脸图像中的像素值;将每一张所述人脸图像的像素值转换为一个w*h形式的矩阵;将所述预设数量的人脸图像对应的二维的w*h形式的矩阵转换为一个n*w*h形式的矩阵,其中,n表示所述进行合并处理的人脸图像的预设数量,w表示人脸图像的宽度,h表示人脸图像的高度。
- 根据权利要求15所述的非易失性可读存储介质,其特征在于,在所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算之前,所述计算机可读指令被处理器执行还用以实现以下步骤:通过所述图形处理器GPU将不同的所述人脸图像的特征向量计算操作划分为互不相关且顺序任意的任务进行并行执行。
- 根据权利要求15所述的非易失性可读存储介质,其特征在于,所述计算机可读指令被处理器执行以实现所述将合并处理后的预设数量的人脸图像输入至深度学习框架中进行计算时,包括以下步骤:构建预设初始深度学习框架;将合并处理后的预设数量的原始人脸图像作为训练样本输入至所述预设初始深度学习框架中进行训练,得到训练好的预设深度学习框架;将所述待识别的人脸图像输入至训练好的预设深度学习框架中进行特征值 计算,输出所述待识别的人脸图像对应的特征向量。
- 根据权利要求15所述的非易失性可读存储介质,其特征在于,所述计算机可读指令被处理器执行以实现所述将预设数量的人脸图像对应的特征向量进行合并处理时,包括以下步骤:获取每一张人脸图像对应的特征向量为1*m形式的特征向量;确认进行特征向量合并处理的所述人脸图像的预设数量;将所述预设数量的人脸图像对应的特征向量1*m形式的向量转换为n*m形式的特征向量,其中,n表示所述进行特征向量合并处理的所述人脸图像的预设数量,m表示每一张人脸图像对应的特征值的数量。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910487842.7A CN110378203B (zh) | 2019-06-05 | 2019-06-05 | 图像处理方法、装置、终端及存储介质 |
CN201910487842.7 | 2019-06-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020244151A1 true WO2020244151A1 (zh) | 2020-12-10 |
Family
ID=68249822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2019/118023 WO2020244151A1 (zh) | 2019-06-05 | 2019-11-13 | 图像处理方法、装置、终端及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110378203B (zh) |
WO (1) | WO2020244151A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507903A (zh) * | 2020-12-15 | 2021-03-16 | 平安科技(深圳)有限公司 | 假脸检测方法、装置、电子设备及计算机可读存储介质 |
CN113419806A (zh) * | 2021-06-30 | 2021-09-21 | 腾讯科技(上海)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
CN118227384A (zh) * | 2024-05-24 | 2024-06-21 | 北京蓝耘科技股份有限公司 | 一种局域gpu数据共享方法、系统及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378203B (zh) * | 2019-06-05 | 2023-06-23 | 平安科技(深圳)有限公司 | 图像处理方法、装置、终端及存储介质 |
CN112965809A (zh) * | 2019-12-12 | 2021-06-15 | 深圳市优必选科技股份有限公司 | 深度学习任务处理系统和方法 |
CN112036370B (zh) * | 2020-09-22 | 2023-05-12 | 济南博观智能科技有限公司 | 一种人脸特征比对方法、系统、设备及计算机存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440612A (zh) * | 2013-08-27 | 2013-12-11 | 华为技术有限公司 | 一种gpu虚拟化中图像处理方法和装置 |
CN107832807A (zh) * | 2017-12-07 | 2018-03-23 | 深圳联影医疗科技有限公司 | 一种图像处理方法和系统 |
CN109214273A (zh) * | 2018-07-18 | 2019-01-15 | 平安科技(深圳)有限公司 | 人脸图像比对方法、装置、计算机设备及存储介质 |
CN109726626A (zh) * | 2018-09-27 | 2019-05-07 | 合肥博焱智能科技有限公司 | 基于gpu的人脸识别系统 |
CN110378203A (zh) * | 2019-06-05 | 2019-10-25 | 平安科技(深圳)有限公司 | 图像处理方法、装置、终端及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2199971A1 (en) * | 2008-12-15 | 2010-06-23 | Medison Co., Ltd. | Image processing system and method |
CN108062532B (zh) * | 2017-12-28 | 2020-07-28 | 智慧眼科技股份有限公司 | 深度学习人脸识别网络优化方法、装置及存储介质 |
-
2019
- 2019-06-05 CN CN201910487842.7A patent/CN110378203B/zh active Active
- 2019-11-13 WO PCT/CN2019/118023 patent/WO2020244151A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440612A (zh) * | 2013-08-27 | 2013-12-11 | 华为技术有限公司 | 一种gpu虚拟化中图像处理方法和装置 |
CN107832807A (zh) * | 2017-12-07 | 2018-03-23 | 深圳联影医疗科技有限公司 | 一种图像处理方法和系统 |
CN109214273A (zh) * | 2018-07-18 | 2019-01-15 | 平安科技(深圳)有限公司 | 人脸图像比对方法、装置、计算机设备及存储介质 |
CN109726626A (zh) * | 2018-09-27 | 2019-05-07 | 合肥博焱智能科技有限公司 | 基于gpu的人脸识别系统 |
CN110378203A (zh) * | 2019-06-05 | 2019-10-25 | 平安科技(深圳)有限公司 | 图像处理方法、装置、终端及存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507903A (zh) * | 2020-12-15 | 2021-03-16 | 平安科技(深圳)有限公司 | 假脸检测方法、装置、电子设备及计算机可读存储介质 |
CN112507903B (zh) * | 2020-12-15 | 2024-05-10 | 平安科技(深圳)有限公司 | 假脸检测方法、装置、电子设备及计算机可读存储介质 |
CN113419806A (zh) * | 2021-06-30 | 2021-09-21 | 腾讯科技(上海)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
CN113419806B (zh) * | 2021-06-30 | 2023-08-08 | 腾讯科技(上海)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
CN118227384A (zh) * | 2024-05-24 | 2024-06-21 | 北京蓝耘科技股份有限公司 | 一种局域gpu数据共享方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110378203B (zh) | 2023-06-23 |
CN110378203A (zh) | 2019-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020244151A1 (zh) | 图像处理方法、装置、终端及存储介质 | |
WO2021017606A1 (zh) | 视频处理方法、装置、电子设备及存储介质 | |
WO2022089360A1 (zh) | 人脸检测神经网络及训练方法、人脸检测方法、存储介质 | |
CN109214343B (zh) | 用于生成人脸关键点检测模型的方法和装置 | |
CN112200062B (zh) | 一种基于神经网络的目标检测方法、装置、机器可读介质及设备 | |
JP5552519B2 (ja) | 顔特徴ベクトルの構築 | |
WO2022001623A1 (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
WO2017096753A1 (zh) | 人脸关键点跟踪方法、终端和非易失性计算机可读存储介质 | |
WO2023050650A1 (zh) | 动画视频生成方法、装置、设备及存储介质 | |
US10521264B2 (en) | Data processing architecture for improved data flow | |
CN109345553B (zh) | 一种手掌及其关键点检测方法、装置和终端设备 | |
WO2021213067A1 (zh) | 物品显示方法、装置、设备及存储介质 | |
WO2020244075A1 (zh) | 手语识别方法、装置、计算机设备及存储介质 | |
WO2020029466A1 (zh) | 图像处理方法和装置 | |
Zhang et al. | Face sketch-photo synthesis based on support vector regression | |
WO2022042120A1 (zh) | 目标图像提取方法、神经网络训练方法及装置 | |
WO2022161302A1 (zh) | 动作识别方法、装置、设备、存储介质及计算机程序产品 | |
US20230021551A1 (en) | Using training images and scaled training images to train an image segmentation model | |
Guo et al. | Multi-face detection and alignment using multiple kernels | |
CN109034032B (zh) | 图像处理方法、装置、设备及介质 | |
CN110910478B (zh) | Gif图生成方法、装置、电子设备及存储介质 | |
Termritthikun et al. | On-device facial verification using NUF-Net model of deep learning | |
WO2023151581A1 (zh) | 用于图像处理的方法、设备、存储介质和程序产品 | |
WO2023116744A1 (zh) | 图像处理方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19931887 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19931887 Country of ref document: EP Kind code of ref document: A1 |