WO2020119053A1 - 一种图片聚类方法、装置、存储介质及终端设备 - Google Patents

一种图片聚类方法、装置、存储介质及终端设备 Download PDF

Info

Publication number
WO2020119053A1
WO2020119053A1 PCT/CN2019/091546 CN2019091546W WO2020119053A1 WO 2020119053 A1 WO2020119053 A1 WO 2020119053A1 CN 2019091546 W CN2019091546 W CN 2019091546W WO 2020119053 A1 WO2020119053 A1 WO 2020119053A1
Authority
WO
WIPO (PCT)
Prior art keywords
similarity
feature
clustering
preset
cluster
Prior art date
Application number
PCT/CN2019/091546
Other languages
English (en)
French (fr)
Inventor
蔡中印
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201811508633.8A external-priority patent/CN109815788B/zh
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2020119053A1 publication Critical patent/WO2020119053A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Definitions

  • the present application belongs to the technical field of image processing, and particularly relates to a method, a device, a computer-readable storage medium, and a terminal device for image clustering.
  • the face recognition function is often implemented on the basis of clustering pictures, photos, etc.
  • the clustering of pictures and photos mainly refers to the clustering of faces in pictures and photos, that is, the feature extraction of the faces in pictures and photos is first, and then the traditional K-Means clustering is used.
  • Clustering methods are used to cluster the extracted features to achieve image clustering, while the traditional K-Means clustering method has the problems of large computational complexity, slow clustering speed, and low clustering efficiency.
  • Embodiments of the present application provide a method, an apparatus, a computer-readable storage medium, and a terminal device for image clustering, which can reduce the computational complexity in the clustering process and improve the clustering speed and clustering efficiency.
  • a picture clustering method including:
  • a second aspect of an embodiment of the present application provides an image clustering device, including:
  • a first feature value extraction module configured to perform face detection on each picture to determine the face image in each picture, and perform feature value extraction on each face image to obtain a first feature value
  • an embodiment of the present application provides a picture clustering method.
  • the image clustering method includes:
  • Step S101 Perform face detection on each picture to determine the face image in each picture, and extract feature values from each face image to obtain a first feature value;
  • face recognition can be performed on each picture to detect the face image in each picture, and then each face can be detected through the CNN model of the convolutional neural network.
  • the image is subjected to feature value extraction to obtain the first feature value.
  • the 512-dimensional feature value of each face image can be extracted through the CNN model.
  • operations such as cropping, feature point labeling, and alignment can also be performed on each picture.
  • Step S102 Cluster the first feature value according to a preset K-split block clustering algorithm to obtain a first clustering result
  • the first feature value may be clustered according to a preset K-split block clustering algorithm to obtain a first clustering result.
  • the clustering the first feature value according to a preset K-split block clustering algorithm to obtain a first clustering result may include:
  • Step S201 Extract a first preset number of first feature values from the first feature values, and determine the extracted first feature values as second feature values;
  • each first feature value corresponds to a picture to be classified, and when there are N pictures to be classified, N first feature values may be correspondingly extracted.
  • N first feature values may be extracted after N first feature values are extracted, a first preset number of first feature values may be extracted from the N first feature values, and the extracted first feature values may be determined
  • K first feature values are extracted from N first feature values, where K is less than N, and the extracted K first feature values can be determined as the second feature values.
  • the similarity between each first feature value may be calculated first, and a similarity matrix may be constructed according to the calculated similarity, wherein, The value of (i, j) in the similarity matrix represents the similarity between the ith first eigenvalue and the jth first eigenvalue, and when the first eigenvalue is extracted, the similarity
  • K first feature values in a group with a lower similarity value can be extracted as second feature values to ensure that the second feature values are as far apart as possible To improve clustering accuracy.
  • Step S202 Calculate a first similarity or Euclidean distance between the unextracted first feature value and each of the second feature values;
  • the remaining (NK) first feature values can be calculated separately from the K second feature values
  • the first similarity between the feature values, or the Euclidean distance between the remaining (NK) first feature values and the K second feature values can be calculated.
  • the calculation of the similarity between the eigenvalues and the Euclidean distance may use existing common calculation methods. In the embodiments of the present application, the calculation methods of the similarity and the Euclidean distance are not limited.
  • Step S203 According to the first similarity or the Euclidean distance, separately classify the first feature value that has not been extracted into the corresponding second feature value to obtain the first preset number of classification groups;
  • the first feature value that has not been extracted can be classified according to the first similarity or Euclidean distance , That is, according to the first similarity or the Euclidean distance between the first feature value that has not been extracted and each second feature value, the first feature value that has not been extracted is classified into the corresponding second feature value, If it is determined that the similarity between the first feature value A and the second feature value F that have not been extracted is the largest, the first feature value A can be classified into the classification group where the second feature value F is located; When the Euclidean distance between the first feature value B and the second feature value G that have not been extracted is the smallest, the first feature value B can be classified into the classification group where the second feature value G is located, and so on.
  • Step S204 Determine whether the classification group meets a preset termination condition
  • Step S205 If the classification group meets the preset termination condition, determine the first preset number of classification groups as the first clustering result;
  • Step S302 Calculate the first average feature matrix of the classification group according to the first feature matrix and the second feature matrix;
  • Step S304 Calculate the average similarity of the second similarities, or obtain the smallest second similarity among the second similarities;
  • Step S306 When the average similarity is less than or equal to the first preset similarity threshold, or the minimum second similarity is less than or equal to the second preset similarity threshold, it is determined that the classification group is not The preset termination condition is satisfied.
  • Step S103 Determine a connected domain between various types of clusters in the first clustering result using a preset connected domain determination method
  • the determining the connected domain between the various clusters in the first clustering result using the predetermined connected domain determination method may include:
  • Step S401 Construct a third feature matrix corresponding to each first feature value of each type of cluster according to each first feature value of each type of cluster in the first clustering result;
  • Step S405 If the third similarity is greater than the third preset similarity threshold, the first type cluster and the second type cluster corresponding to the third similarity are marked as connected relationships;
  • Step S406 Determine a connected domain between various types of clusters in the first clustering result according to the connected relationship.
  • a third feature corresponding to the feature value of each cluster may be constructed first Matrix, and then obtain the second average feature matrix of each type of cluster in the first clustering result according to the third feature matrix, and calculate the third similarity between each second average feature matrix, here, calculate each second average feature
  • the calculation formula of the third similarity between the matrices can be:
  • Similarity i,j is the third similarity between the i-th second average feature matrix and the j-th second average feature matrix, MeanFeature i is the i-th second average feature matrix, and MeanFeature j is the j-th The second average feature matrix, T is the transposed symbol.
  • the third similarity between the second average feature matrices it may be determined whether the third similarity is greater than a third preset similarity threshold, if the third similarity is greater than the third predetermined similarity threshold, Then, the two clusters involved in the third similarity may be marked as a connected relationship. For example, the first cluster and the second cluster involved in the third similarity may be marked as a connected relationship. After all the third similarity judgments are completed, that is, after the labeling of all connected relationships is completed, the connected domains between the various clusters in the first clustering result may be determined according to the marked connected relationships.
  • the first clustering result can be determined according to the connected relationship A connected domain is A_B_C_F_G_H_I_Z.
  • Step S104 Combine the various clusters in the first clustering result according to the determined connected domain to obtain a second clustering result
  • the third A preset similarity threshold is preset, and the above-mentioned connected domain determination step can be performed again on each type of clusters in the second clustering result to recombine the clusters in the second clustering result to obtain a new Clustering results, that is, in the embodiment of the present application, iterative merge operations can be performed on the clusters until the proportion of mergeable clusters in the total cluster is very low, such as when the proportion of mergeable clusters in the total cluster is less than When one-hundredth, one-thousandth, or ten-thousandth, the end of the merge operation between classes to get the final clustering result.
  • Step a Extract a second preset number of first feature values from the first type cluster and the second type cluster, respectively, and send the first target picture corresponding to the extracted first feature value to the designated A terminal, so that the designated terminal labels whether to merge the clusters of the first type and the clusters of the second type according to the first target picture, and returns a corresponding first labeling result;
  • Step b Receive the first labeling result returned by the designated terminal, and when it is determined that the first labeling result is to merge the first type cluster and the second type cluster, combine the first type cluster and all The second type of cluster is marked as connected.
  • a second preset number of first feature values may be extracted from the first-type cluster and the second-type cluster, respectively.
  • the first-type cluster and the The first feature value with a low similarity in the second type cluster may send the first target picture corresponding to the extracted first feature value to a designated terminal, so that the designated terminal judges according to the first target picture Whether the first-type cluster and the second-type cluster can be merged, that is, whether the first target picture corresponding to the first-type cluster and the first target picture corresponding to the second-type cluster are the same person , If yes, it can be determined that the first-type cluster and the second-type family can be merged, and the first labeling result of combining the first-type cluster and the second-type cluster can be returned; If the first target picture corresponding to the first type group and the first target picture corresponding to the second type cluster are not the same person, it can be determined that the first type cluster and the second type family cannot be merged, And return the first labeling result that cannot be merged, and in the embodiment of the present application, only when receiving the first labeling result returned by the designated terminal that merges the first type cluster and the second type
  • the first type cluster and the second type cluster may be further extracted One or more first feature values with high similarity in the second type of cluster, and may send the second target picture corresponding to the extracted first feature value to the designated terminal, so that the designated terminal confirms again Whether the first type cluster and the second type cluster cannot be merged, if it is confirmed that the first type cluster and the second type cluster cannot be merged again, it is determined that the first type cluster and the second type cluster There is no connected relationship between the two types of clusters.
  • the first feature value D in the first type cluster has the largest similarity to the first feature value S in the second type cluster
  • the first feature value R in the first type cluster is
  • the similarity of the first eigenvalue Q in the second-type cluster is second
  • the first eigenvalue D and the first eigenvalue S can be extracted from the first-type cluster
  • the second target corresponding to the first eigenvalue D can be extracted
  • the second target picture S corresponding to the picture D and the first feature value S is sent to the designated terminal, and at the same time, the first feature value R and the first feature value Q in the second type cluster can also be extracted, and the first feature
  • the second target picture R corresponding to the value R and the second target picture Q corresponding to the first feature value Q are sent to the designated terminal, so that the designated terminal determines the second target pictures D, S and the second target picture R, Q is the same person, in order to confirm whether the first type cluster and the second type cluster can be merged, and return the corresponding labeling result, to reduce
  • a basemap class cluster may be pre-allocated for each basemap, and to ensure that each basemap The class family corresponds to the same person.
  • the similarity between the base map clusters can be calculated, and the merge operation between the base map clusters can be performed according to the similarity between the base map clusters.
  • the merge operation between clusters in the basemap is similar to the merge operation described above, and the principle is the same.
  • the merging operation between the various clusters in the second clustering result and the basemap clusters is similar to the merging operation described above, that is, one of the various clusters in the second clustering result can be extracted first or Multiple first eigenvalues, and calculate the similarity between the extracted first eigenvalues of various types of clusters and the corresponding eigenvalues of each base map, and then determine the types of clusters in the second clustering result according to the similarity Corresponding basemap clusters, and divide all types of clusters into corresponding basemap clusters.
  • various types of the second clustering result may also be calculated according to the first eigenvalues of various clusters in the second clustering result
  • the average eigenvalue of the cluster and the smallest similarity pair between the two first eigenvalues with the smallest similarity among various types of clusters min score then calculate the center score of the dot product between each first feature value and the average feature value of the corresponding cluster, after obtaining the center score of each cluster, the minimum dot product of each cluster can be obtained Value center Min score and average dot product value center avg score.
  • a preset number of clusters with a smaller center avg score can be obtained as the third cluster, and the third cluster can be split by the dbscan algorithm, and the split groups can be divided into multiple split groups.
  • the fourth target picture corresponding to the first feature value of is sent to the designated terminal, so that the designated terminal marks the merged condition of the split group, and returns the corresponding second labeling result.
  • Receiving a second labeling result returned by the designated terminal, and determining, according to the second labeling result, a split group that cannot be merged into the third type cluster, and splitting that cannot be merged into the third type cluster The group is separated from the third type cluster as a separate type cluster.
  • the min score and center min score continue to perform the above separation operation until the ratio of the split group separated to the split group obtained by the split meets the preset ratio value.
  • the method may further include :
  • Step S501 Obtain outliers in the second clustering result, and construct an outlier feature matrix of the outliers according to the first eigenvalues of the outliers;
  • Step S502 Determine a third average feature matrix of various types of clusters in the second clustering result
  • Step S503 Calculate a fourth similarity between the outlier feature matrix and each third average feature matrix
  • Step S504 Divide the outliers into corresponding clusters in the second clustering result according to the fourth similarity.
  • the outliers that exist separately in the second clustering result can be obtained, that is, the first characteristic value that exists alone can be obtained .
  • the existence or not can be determined according to the number of first feature values in the cluster, for example, the number of clusters with less than 3, 4 or 5 clusters can be determined as a separate outlier, here, separate
  • the existing quantity can be determined according to the actual situation.
  • the A preset K-split block clustering algorithm performs clustering on the first eigenvalues to obtain a first clustering result
  • a preset connected domain determination method may be used to determine the clusters of various types in the first clustering result Connected domains, to merge the various clusters in the first clustering result according to the determined connected domains to obtain a second clustering result, thereby clustering the pictures according to the second clustering result class.
  • the clustering of the first eigenvalues by means of block clustering can greatly reduce the calculation complexity in the clustering process to improve the clustering speed and clustering efficiency.
  • the connected domains are determined in a predetermined connected domain determination manner to perform the merge between the first clustering results according to the connected domains, which can effectively improve the inter-class merge efficiency and further improve the clustering speed, clustering efficiency, and clustering accuracy.
  • the block clustering module 602 is configured to cluster the first feature value according to a preset K-split block clustering algorithm to obtain a first clustering result;
  • the cluster merging module 604 is configured to merge various types of clusters in the first clustering result according to the determined connected domain to obtain a second clustering result;
  • a first feature value calculation unit configured to calculate a first similarity or Euclidean distance between the first feature value that has not been extracted and each of the second feature values
  • An iterative execution unit configured to perform extraction of a first preset number of first feature values from the first feature values for each of the classification groups if the classification group does not satisfy the preset termination condition, and The step of determining the extracted first feature value as the second feature value and subsequent steps.
  • the classification group judgment unit includes:
  • a feature matrix construction subunit configured to construct a corresponding first feature matrix and second feature matrix according to the first feature value and the second feature value in the classification group;
  • a first average feature matrix calculation subunit configured to calculate the first average feature matrix of the first classification group according to the first feature matrix and the second feature matrix;
  • a second similarity calculation unit for calculating the second similarity between the first feature matrix and the second feature matrix in the classification group and the first average feature matrix respectively;
  • a second termination condition determining unit configured to: if the average similarity is less than or equal to the first preset similarity threshold, or the minimum second similarity is less than or equal to the second preset similarity threshold, then It is determined that the classification group does not satisfy the preset termination condition.
  • the connected domain determination module 603 includes:
  • a third feature matrix construction unit configured to construct a third feature matrix corresponding to each first feature value in each type of cluster according to each first feature value of each type of cluster in the first clustering result
  • a second average feature matrix acquiring unit configured to obtain a second average feature matrix of various clusters according to a third feature matrix corresponding to each first feature value in each cluster;
  • a third similarity calculation unit configured to separately calculate a third similarity between the second average feature matrices
  • a third similarity judgment unit configured to judge whether the third similarity is greater than a third preset similarity threshold
  • a connected relationship labeling unit configured to mark the first type cluster and the second type cluster corresponding to the third similarity as the connected relationship if the third similarity is greater than the preset third similarity threshold;
  • Similarity i,j is the third similarity between the i-th second average feature matrix and the j-th second average feature matrix, MeanFeature i is the i-th second average feature matrix, and MeanFeature j is the j-th The second average feature matrix, T is the transposed symbol.
  • the connected relationship labeling unit includes:
  • the picture sending subunit is used to extract a second preset number of first feature values from the first type cluster and the second type cluster, respectively, and the first target corresponding to the extracted first feature value
  • the picture is sent to the designated terminal, so that the designated terminal labels whether to merge the first-type cluster and the second-type cluster according to the first target picture, and returns a corresponding first labeling result;
  • the connected relationship labeling subunit is used to receive the first labeling result returned by the designated terminal, and when determining that the first labeling result is to merge the first type cluster and the second type cluster, the The first type cluster and the second type cluster are marked as connected.
  • An outlier obtaining unit configured to obtain an outlier in the second clustering result, and construct an outlier feature matrix of the outlier according to the first eigenvalue of the outlier;
  • a third average feature matrix determining unit configured to determine a third average feature matrix of various types of clusters in the second clustering result
  • An outlier dividing unit is configured to divide the outlier into corresponding clusters in the second clustering result according to the fourth similarity.
  • the terminal device 7 of this embodiment includes: a processor 70, a memory 71, and computer-readable instructions 72 stored in the memory 71 and executable on the processor 70, such as image clustering program.
  • the processor 70 executes the computer-readable instruction 72
  • the steps in the above embodiments of each image clustering method are implemented, for example, steps S101 to S105 shown in FIG. 1.
  • the processor 70 executes the computer-readable instructions 72
  • the functions of each module/unit in the foregoing device embodiments are realized, for example, the functions of the modules 601 to 605 shown in FIG. 6.
  • the computer-readable instructions 72 may be divided into one or more modules/units, the one or more modules/units are stored in the memory 71 and executed by the processor 70, To complete this application.
  • the one or more modules/units may be a series of computer-readable instruction segments capable of performing specific functions, and the instruction segments are used to describe the execution process of the computer-readable instructions 72 in the terminal device 6.
  • the terminal device 7 may be a computing device such as a desktop computer, a notebook, a palmtop computer and a cloud server.
  • the terminal device may include, but is not limited to, a processor 70 and a memory 71.
  • FIG. 7 is only an example of the terminal device 7 and does not constitute a limitation on the terminal device 7, and may include more or less components than those illustrated, or a combination of certain components, or different components.
  • the terminal device may further include an input and output device, a network access device, a bus, and the like.
  • the processor 70 may be a central processing unit (Central Processing Unit (CPU), can also be other general-purpose processors, digital signal processors (DSP), application-specific integrated circuits (Application Specific Integrated Circuit (ASIC), ready-made programmable gate array (Field-Programmable Gate Array, FPGA) or other programmable logic devices, discrete gates or transistor logic devices, discrete hardware components, etc.
  • the general-purpose processor may be a microprocessor or the processor may be any conventional processor or the like.
  • the memory 71 may be an internal storage unit of the terminal device 7, such as a hard disk or a memory of the terminal device 7.
  • the memory 71 may also be an external storage device of the terminal device 7, for example, a plug-in hard disk equipped on the terminal device 7, a smart memory card (Smart Media Card, SMC), and secure digital (SD) Flash card Card) etc.
  • the memory 71 may also include both an internal storage unit of the terminal device 6 and an external storage device.
  • the memory 71 is used to store the computer-readable instructions and other programs and data required by the terminal device.
  • the memory 71 can also be used to temporarily store data that has been or will be output.
  • each functional unit in each embodiment of the present application may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit.
  • the above integrated unit may be implemented in the form of hardware or software functional unit.
  • the integrated unit is implemented in the form of a software functional unit and sold or used as an independent product, it may be stored in a computer-readable storage medium.
  • the technical solution of the present application essentially or part of the contribution to the existing technology or all or part of the technical solution can be embodied in the form of a software product, the computer software product is stored in a storage medium , Including several instructions to enable a computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the methods described in the embodiments of the present application.
  • the aforementioned storage media include: U disk, mobile hard disk, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), magnetic disks or optical disks and other media that can store program codes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及图像处理技术领域,尤其涉及一种图片聚类方法、装置、存储介质及终端设备。所述方法包括:对各图片进行人脸检测,以确定出各图片中的人脸图像,并对各人脸图像进行特征值提取,得到第一特征值;根据预设K-split分块聚类算法对第一特征值进行聚类,得到第一聚类结果;利用预设连通域确定方法确定第一聚类结果中各类簇之间的连通域;根据所确定的连通域对第一聚类结果中的各类簇进行合并,得到第二聚类结果;根据第二聚类结果对图片进行聚类。本申请中,通过分块聚类的方式进行特征值的聚类,可极大地降低计算复杂度,提高聚类速度和效率,通过预设连通域确定方式确定连通域,以根据连通域进行聚类结果之间的合并,可有效提高类间合并效率。

Description

一种图片聚类方法、装置、存储介质及终端设备
本申请要求于2018年12月11日提交中国专利局、申请号为201811508633.8 、发明名称为“一种图片聚类方法、装置、存储介质及终端设备”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请属于图像处理技术领域,尤其涉及一种图片聚类方法、装置、计算机可读存储介质及终端设备。
背景技术
在安防等人脸识别技术领域中,往往是在对图片、照片等进行聚类的基础上来实现人脸识别功能。其中,对图片、照片进行聚类,主要是指对图片、照片中的人脸进行聚类,即首先对图片、照片中的人脸进行特征提取,然后采用传统K均值(K-Means)聚类方法等来对所提取的特征进行聚类,以此实现图片聚类,而传统K-Means聚类方法则存在计算复杂度大、聚类速度慢、聚类效率低等问题。
综上,如何降低图片聚类中的计算复杂度、提高聚类速度和聚类效率成为本领域技术人员亟待解决的问题。
技术问题
本申请实施例提供了一种图片聚类方法、装置、计算机可读存储介质及终端设备,能够降低聚类过程中的计算复杂度,提高聚类速度和聚类效率。
技术解决方案
本申请实施例的第一方面,提供了一种图片聚类方法,包括:
对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
根据所述第二聚类结果对所述图片进行聚类。
本申请实施例的第二方面,提供了一种图片聚类装置,包括:
第一特征值提取模块,用于对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
分块聚类模块,用于根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
连通域确定模块,用于利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
聚类合并模块,用于根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
图片聚类模块,用于根据所述第二聚类结果对所述图片进行聚类。
本申请实施例的第三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如前述第一方面所述图片聚类方法的步骤。
本申请实施例的第四方面,提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现如下步骤:
对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
根据所述第二聚类结果对所述图片进行聚类。
有益效果
本申请实施例中,在对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值后,可根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果,并可利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域,以根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果,从而根据所述第二聚类结果对所述图片进行聚类。本申请实施例中,通过采用分块聚类的方式进行第一特征值的聚类,可极大地降低聚类过程中的计算复杂度,以提高聚类速度和聚类效率,另外,通过利用预设连通域确定方式确定连通域,以根据连通域进行第一聚类结果之间的合并,可有效提高类间合并效率,进一步提高了聚类速度、聚类效率以及聚类准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一种图片聚类方法的一个实施例流程图;
图2为本申请实施例中一种图片聚类方法在一个应用场景下得到第一聚类结果的流程示意图;
图3为本申请实施例中一种图片聚类方法在一个应用场景下确定分类组是否满足预设终止条件的流程示意图;
图4为本申请实施例中一种图片聚类方法在一个应用场景下确定连通域的流程示意图;
图5为本申请实施例中一种图片聚类方法在一个应用场景下进行离群点划分的流程示意图;
图6为本申请实施例中一种图片聚类装置的一个实施例结构图;
图7为本申请一实施例提供的一种终端设备的示意图。
本发明的实施方式
本申请实施例提供了一种图片聚类方法、装置、计算机可读存储介质及终端设备,用于降低聚类过程中的计算复杂度,提高聚类速度和聚类效率。
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
请参阅图1,本申请实施例提供了一种图片聚类方法,所述图像聚类方法,包括:
步骤S101、对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
本申请实施例中,在获取到需要分类的各图片后,可首先对各图片进行人脸识别,以检测出各图片中的人脸图像,随后可通过卷积神经网络CNN模型对各人脸图像进行特征值提取,得到第一特征值,如可通过CNN模型提取出各人脸图像的512维特征值。在此,在对各图片进行人脸识别时,还可以对各图片进行裁剪crop、特征点标注landmark、对齐alignment等操作。
步骤S102、根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
可以理解的是,在得到各图片所对应的第一特征值后,可根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果。其中,如图2所示,所述根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果,可以包括:
步骤S201、从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值;
可以理解的是,每一个第一特征值对应着一张待分类的图片,当存在N张待分类的图片时,则可对应提取到N个第一特征值。本申请实施例中,在提取到N个第一特征值后,可从这N个第一特征值中抽取第一预设数量的第一特征值,并可将所抽取的第一特征值确定为第二特征值,如从N个第一特征值中抽取K个第一特征值,其中,K小于N,所抽取的这K个第一特征值即可被确定为第二特征值。
优选地,本申请实施例中,在提取到各图片的第一特征值后,可首先计算各第一特征值之间的相似度,并可根据计算得到的相似度构建相似度矩阵,其中,相似度矩阵中(i,j)的值则表示第i个第一特征值与第j个第一特征值之间的相似度,而在进行第一特征值抽取时,则可根据所述相似度矩阵中的相似度值来进行抽取,如可抽取相似度值较低的一组中的K个第一特征值作为第二特征值,以确保第二特征值之间尽可能地拉开距离,从而提高聚类准确性。
步骤S202、计算未被抽取的第一特征值与各所述第二特征值之间的第一相似度或者欧式距离;
可以理解的是,在得到第一预设数量的第二特征值后,如在得到K个第二特征值后,可计算剩下的(N-K)个第一特征值分别与这K个第二特征值之间的第一相似度,或者可计算剩下的(N-K)个第一特征值分别与这K个第二特征值之间的欧式距离。在此,特征值之间的相似度和欧式距离的计算可以采用现有的常用计算方式,本申请实施例中,对相似度和欧式距离的计算方式不作任何限定。
步骤S203、根据所述第一相似度或者所述欧式距离,分别将未被抽取的第一特征值分类至对应的第二特征值中,得到所述第一预设数量的分类组;
在得到未被抽取的第一特征值与各第二特征值之间的第一相似度或者欧式距离后,则可根据第一相似度或者欧式距离来进行未被抽取的第一特征值的分类,即可根据未被抽取的第一特征值与各第二特征值之间的第一相似性或者欧式距离的大小,将未被抽取的第一特征值分类至对应的第二特征值中,如当确定未被抽取的第一特征值A与第二特征值F之间的相似度最大时,则可将第一特征值A分类至第二特征值F所在分类组中;又如当确定未被抽取的第一特征值B与第二特征值G之间的欧式距离最小时,则可将第一特征值B分类至第二特征值G所在分类组中,等等。
步骤S204、判断所述分类组是否满足预设终止条件;
步骤S205、若所述分类组满足所述预设终止条件,则将所述第一预设数量的分类组确定为所述第一聚类结果;
对于上述步骤S204和步骤S205,可以理解的是,在完成所有未被抽取的第一特征值的分类,得到第一预设数量的分类组后,可判断所述分类组是否满足预设终止条件,若满足的话,则可结束分类操作,并可将第一预设数量的分类组确定为上述的第一聚类结果。
在此,所述预设终止条件可根据具体情况进行设定,如可设定为某一分类组中特征值的数量小于预设数量,还可设定为分类组中特征值之间的平均相似度大于预设相似度,等等。
步骤S206、若所述分类组不满足所述预设终止条件,则分别对各所述分类组执行从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值的步骤以及后续步骤。
可以理解的是,若所述分类组不满足预设终止条件的话,则可分别对各所述分类组再次进行分类操作,即可在各所述分类组中迭代执行分类操作,也就是说,可在各所述分类组中重新抽取第一预设数量的第一特征值,作为第二特征值,并根据各所述分类组中未被抽取的第一特征值与各第二特征值之间的第一相似度或者欧式距离,来进行各所述分类组中特征值的重新分类,如可将K个分类组重新划分为(K*K)个新的分类组,然后可再继续判断新的分类组是否满足预设终止条件,若新的分类组满足预设终止条件的话,则可结束分类操作,并可将新的分类组确定为上述的第一聚类结果;若新的分类组仍不满足预设终止条件的话,则可分别对各新的分类组再次进行分类操作,直到满足预设终止条件为止。
本申请实施例中,在各所述分类组中所抽取的第一特征值可以是各所述分类组的中心点附近的第一特征值,如在抽取分类组c中的K个第一特征值时,可首先确定分类组c的中心点f,然后计算分类组c中各第一特征值所对应的点到中心点f之间的距离,并抽取距离最小的K个点所对应的第一特征值,作为第二特征值。
本申请实施例中,所述预设终止条件可优选为特征值之间的平均相似度大于第一预设相似度阈值,或者可优选为特征值之间的最小第二相似度大于第二预设相似度阈值,相应地,如图3所示,所述判断所述分类组是否满足预设终止条件,可以包括:
步骤S301、根据所述分类组中的第一特征值和第二特征值构建对应的第一特征矩阵和第二特征矩阵;
步骤S302、根据所述第一特征矩阵和所述第二特征矩阵计算得到所述分类组的第一平均特征矩阵;
步骤S303、分别计算所述分类组中的第一特征矩阵及第二特征矩阵与所述第一平均特征矩阵之间的第二相似度;
步骤S304、计算各所述第二相似度的平均相似度,或者获取所述第二相似度中的最小第二相似度;
步骤S305、当所述平均相似度大于第一预设相似度阈值,或者所述最小第二相似度大于第二预设相似度阈值时,确定所述分类组满足所述预设终止条件;
步骤S306、当所述平均相似度小于或者等于所述第一预设相似度阈值,或者所述最小第二相似度小于或者等于所述第二预设相似度阈值时,确定所述分类组不满足所述预设终止条件。
对于上述步骤S301和步骤S302,可以理解的是,在判断某一分类组是否满足预设终止条件时,可首先构建该分类组中各特征值对应的特征矩阵,即构建该分类组中的第一特征值所对应的第一特征矩阵和第二特征值所对应的第二特征矩阵,然后,可根据所构建的特征矩阵得到该分类组的第一平均特征矩阵。
在一个应用场景中,对于上述步骤S303至步骤S306,可以理解的是,当得到该分类组的第一平均特征矩阵后,则可计算该分类组中各特征值对应的特征矩阵与该第一平均特征矩阵之间的第二相似度,即可计算各第一特征矩阵、第二特征矩阵与所述第一平均特征矩阵之间的第二相似度,而在得到各第二相似度时,则可进一步判断各第二相似度中最小的第二相似度是否大于第二预设相似度阈值,若是的话,则可确定所述分类组满足所述预设终止条件;若否的话,则可确定所述分类组不满足所述预设终止条件,需对所述分类组继续执行分类操作。
在另一个应用场景中,对于上述步骤S303至步骤S306,可以理解的是,当得到该分类组的第一平均特征矩阵后,则可计算该分类组中各特征值对应的特征矩阵与该第一平均特征矩阵之间的第二相似度,即计算各第一特征矩阵、第二特征矩阵与所述第一平均特征矩阵之间的第二相似度,而在得到各第二相似度时,可进一步计算所有第二相似度的平均相似度,随后可判断所述平均相似度是否大于第一预设相似度阈值,若是的话,则可确定所述分类组满足所述预设终止条件;若否的话,则可确定所述分类组不满足所述预设终止条件,需对所述分类组继续执行分类操作。
步骤S103、利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
本申请实施例中,在得到预设K-split分块聚类算法聚类的第一聚类结果之后,可利用预设连通域确定方法确定出所述第一聚类结果中各类簇之间的连通域,以根据连通域进行类间合并。在此,类簇可为上述所述的分类组。
具体地,如图4所示,所述利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域,可以包括:
步骤S401、根据所述第一聚类结果中各类簇的各第一特征值分别构建与各类簇中各第一特征值对应的第三特征矩阵;
步骤S402、根据各类簇中各第一特征值对应的第三特征矩阵得到各类簇的第二平均特征矩阵;
步骤S403、分别计算各所述第二平均特征矩阵之间的第三相似度;
步骤S404、判断所述第三相似度是否大于第三预设相似度阈值;
步骤S405、若所述第三相似度大于所述第三预设相似度阈值,则将所述第三相似度对应的第一类簇和第二类簇标注为连通关系;
步骤S406、根据所述连通关系确定所述第一聚类结果中各类簇之间的连通域。
对于上述步骤S401至步骤S406,可以理解的是,连通域主要是根据类簇之间的相似性来确定,因而,本申请实施例中可先构建各类簇的特征值所对应的第三特征矩阵,然后根据第三特征矩阵得到第一聚类结果中各类簇的第二平均特征矩阵,并计算各第二平均特征矩阵之间的第三相似度,在此,计算各第二平均特征矩阵之间的第三相似度的计算公式可以为:
Similarity i,j = MeanFeature i * ( MeanFeature j ) T;
其中, Similarity i,j 为第i个第二平均特征矩阵与第j个第二平均特征矩阵之间的第三相似度, MeanFeature i 为第i个第二平均特征矩阵, MeanFeature j 为第j个第二平均特征矩阵,T为转置符号。
在得到第二平均特征矩阵之间的第三相似度后,可判断所述第三相似度是否大于第三预设相似度阈值,若所述第三相似度大于第三预设相似度阈值,则可将所述第三相似度涉及的两个类簇标注为连通关系,如可将第三相似度涉及的第一类簇和第二类簇标注为连通关系。在完成所有第三相似度的判断后,即在完成所有连通关系的标注后,可根据所标注的连通关系确定所述第一聚类结果中各类簇之间的连通域。如在某一具体应用场景中,根据第三相似度标注的连通关系有A_B、B_C、B_G、G_Z、G_H、H_I以及I_F时,则根据该连通关系可确定所述第一聚类结果中的某一连通域为A_B_C_F_G_H_I_Z。
步骤S104、根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
本申请实施例中,在得到所述第一聚类结果中各类簇之间的连通域后,则可根据所述连通域对所述第一聚类结果中的类簇进行合并,以得到第二聚类结果。如在某一具体应用中,第一聚类结果中所包括的类族有A、B、C、D、E、F、G、H、I、J、K、L、M、N、S以及Z,而所确定的连通域有A_B_C_F_G_H_I_Z和D_E_K时,则根据连通域A_B_C_F_G_H_I_Z可将类簇A、B、C、F、G、H、I以及Z合并为一个类簇,如合并至类簇A,同时根据连通域D_E_K可将类簇D、E及K合并为一个类簇,如合并至类簇E,以此得到第二聚类结果为类簇A、E、J、L、M、N及S。
需要说明的是,本申请实施例中,在根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,以得到第二聚类结果后,还可以下调所述第三预设相似度阈值,并可对所述第二聚类结果中的各类簇再次执行上述的连通域确定步骤,以对所述第二聚类结果中的类簇进行重新合并,得到新的聚类结果,即本申请实施例中,可对类簇执行迭代合并操作,直到可合并的类簇占总类簇的比例很低为止,如当可合并的类簇占总类簇的比例小于百分之一、千分之一或者万分之一时,结束类间的合并操作,以得到最终的聚类结果。
优选地,本申请实施例中,所述将所述第三相似度对应的第一类簇和第二类簇标注为连通关系,可以包括:
步骤a、从所述第一类簇和所述第二类簇中分别抽取第二预设数量的第一特征值,并将所抽取的第一特征值所对应的第一目标图片发送至指定终端,以使得所述指定终端根据所述第一目标图片标注是否合并所述第一类簇和所述第二类簇,并返回相应的第一标注结果;
步骤b、接收所述指定终端返回的第一标注结果,并在确定所述第一标注结果为合并所述第一类簇和所述第二类簇时,将所述第一类簇和所述第二类簇标注为连通关系。
对于上述步骤a和步骤b,可以理解的是,为了提高类簇之间连通关系确定的准确性,提高类间合并的准确率,本申请实施例中,在确定可将第一类簇和第二类簇标注为连通关系时,可从所述第一类簇和所述第二类簇中分别抽取第二预设数量的第一特征值,如可抽取所述第一类簇与所述第二类簇中相似度较低的第一特征值,并可将所抽取的第一特征值对应的第一目标图片发送至指定终端,以使得所述指定终端根据所述第一目标图片判断所述第一类簇和所述第二类簇之间是否可合并,即判断所述第一类族对应的第一目标图片与所述第二类簇对应的第一目标图片是否为同一人,若是的话,则可确定所述第一类簇与所述第二类族之间可合并,并返回合并所述第一类簇和所述第二类簇的第一标注结果;若确定所述第一类族对应的第一目标图片与所述第二类簇对应的第一目标图片不是同一人的话,则可确定所述第一类簇与所述第二类族之间不可合并,并返回不可合并的第一标注结果,而本申请实施例中,只有在接收所述指定终端返回的合并所述第一类簇和所述第二类簇的第一标注结果时,才可将所述第一类簇和所述第二类簇标注为连通关系,即本申请实施例中,通过指定终端进一步进行连通关系的确定,来提高连通关系确定的准确性,进而提高类间合并的准确率。
需要说明的是,本申请实施例中,当所述第一标注结果为不可合并所述第一类簇和所述第二类簇时,也可进一步抽取出所述第一类簇与所述第二类簇中相似度较高的一个或者多个第一特征值,并可将所抽取的第一特征值对应的第二目标图片发送至所述指定终端,以使得所述指定终端再次确认是否确实不可合并所述第一类簇和所述第二类簇,若再次确认不可合并所述第一类簇和所述第二类簇的话,则确定所述第一类簇和所述第二类簇之间无连通关系。如在某一具体应用场景中,第一类簇中的第一特征值D与第二类簇中的第一特征值S的相似度最大,第一类簇中的第一特征值R与第二类簇中的第一特征值Q的相似度其次,则可抽取从第一类簇中抽取第一特征值D和第一特征值S,并可将第一特征值D对应的第二目标图片D和第一特征值S对应的第二目标图片S发送至所述指定终端,同时还可抽取第二类簇中的第一特征值R和第一特征值Q,并可将第一特征值R对应的第二目标图片R和第一特征值Q对应的第二目标图片Q发送至所述指定终端,以使得所述指定终端确定第二目标图片D、S与第二目标图片R、Q是否为同一人,以此确认是否可合并所述第一类簇和所述第二类簇,并返回对应的标注结果,以通过指定终端的再次确认来减少标注错误,提高类间合并的准确率。
可以理解的是,上述合并操作优选地适用于无底图的应用场景中,在有底图的应用场景中,可先为各底图预分配一个底图类簇,而为确保每一底图类族对应同一人,可在分配底图类簇后,计算各底图类簇之间的相似度,并根据底图类簇之间的相似度进行底图类簇之间的合并操作,其中,底图类簇之间的合并操作与上述所述的合并操作相似,原理相同。在该有底图的应用场景中,得到待分类图片对应特征值的第二聚类结果后,则可以根据第二聚类结果中的各类簇与底图类簇之间的相似性,将第二聚类结果中的各类簇合并至对应的底图类簇中。
在此,第二聚类结果中的各类簇与底图类簇之间的合并操作与上述所述的合并操作相似,即首先可抽取出第二聚类结果的各类簇中的一个或者多个第一特征值,并分别计算所抽取的各类簇的第一特征值与各底图对应的特征值之间的相似度,然后根据相似度确定第二聚类结果中各类簇所对应的底图类簇,并将各类簇划分至对应的底图类簇中。同样地,在确定了第二聚类结果中某一类簇所对应的底图类簇之后,并在将该类簇划分至该对应的底图类簇之前,可先从该类簇中抽取第三预设数量的第一特征值,并将所抽取的第一特征值对应的第三目标图片和该底图类簇对应的底图发送至所述指定终端,以使得所述指定终端根据所述第三目标图片和对应的底图来判断该类簇是否可合并至该底图类簇,以提高合并准确率。
进一步地,本申请实施例中,得到所述第二聚类结果之后,还可以根据所述第二聚类结果中各类簇的第一特征值计算得到所述第二聚类结果中各类簇的平均特征值和各类簇中相似度最小的两第一特征值之间的最小相似度pair min score,随之计算各第一特征值与对应类簇的平均特征值之间的点积值center score,在得到各类簇中的各center score后,可获取各类簇中的最小点积值center min score和平均点积值center avg score。
随后,可获取center avg score较小的预设数量的类簇,作为第三类簇,并可通过dbscan算法对所述第三类簇进行拆分,将拆分得到的多个拆分组中的第一特征值对应的第四目标图片发送至所述指定终端,以使得所述指定终端标注所述拆分组的合并情况,并返回相应的第二标注结果。接收所述指定终端返回的第二标注结果,并根据所述第二标注结果确定不可以合并至所述第三类簇的拆分组,并将不可合并至所述第三类簇的拆分组从所述第三类簇中分离出来,作为单独的类簇。另外,还可以根据pair min score和center min score继续执行上述的分离操作,直到分离出的拆分组占拆分得到的拆分组的比例满足预设比例值为止。
可选地,如图5所示,本申请实施例中,在根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果之后,还可以包括:
步骤S501、获取所述第二聚类结果中的离群点,并根据所述离群点的第一特征值构建所述离群点的离群特征矩阵;
步骤S502、确定所述第二聚类结果中各类簇的第三平均特征矩阵;
步骤S503、计算所述离群特征矩阵与各所述第三平均特征矩阵之间的第四相似度;
步骤S504、根据所述第四相似度,将所述离群点划分至所述第二聚类结果中对应的类簇中。
对于上述步骤S501至步骤S504,可以理解的是,在得到所述第二聚类结果后,可获取所述第二聚类结果中单独存在的离群点,即获取单独存在的第一特征值,其中,单独存在与否可根据类簇中第一特征值的数量进行确定,如可将数量小于3个、4个或者5个的类簇确定为单独存在的离群点,在此,单独存在的数量可根据实际情况进行具体确定。在获取到单独存在的第一特征值之后,可首先根据该单独存在的第一特征值构建离群特征矩阵,同时可根据所述第二聚类结果中各类簇的第一特征值确定第二聚类结果中各类簇的第三平均特征矩阵,随后可计算所述离群特征矩阵与第二聚类结果中各类簇的第三平均特征矩阵之间的第四相似度,以根据所述第四相似度,将所述离群点划分至所述第二聚类结果中对应的类簇中,如可将所述离群点划分至第四相似度最大的类簇中。
步骤S105、根据所述第二聚类结果对所述图片进行聚类。
可以理解的是,在得到最终的第二聚类结果后,则可根据所述第二聚类结果来完成待分类的图片的聚类。
本申请实施例中,在对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值后,可根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果,并可利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域,以根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果,从而根据所述第二聚类结果对所述图片进行聚类。本申请实施例中,通过采用分块聚类的方式进行第一特征值的聚类,可极大地降低聚类过程中的计算复杂度,以提高聚类速度和聚类效率,另外,通过利用预设连通域确定方式确定连通域,以根据连通域进行第一聚类结果之间的合并,可有效提高类间合并效率,进一步提高了聚类速度、聚类效率以及聚类准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
上面主要描述了一种图片聚类方法,下面将对一种图片聚类装置进行详细描述。
图6示出了本申请实施例中一种图片聚类装置的一个实施例结构图。如图6所示,所述图片聚类装置,包括:
第一特征值提取模块601,用于对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
分块聚类模块602,用于根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
连通域确定模块603,用于利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
聚类合并模块604,用于根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
图片聚类模块605,用于根据所述第二聚类结果对所述图片进行聚类。
进一步地,所述分块聚类模块602,包括:
第一特征值抽取单元,用于从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值;
第一特征值计算单元,用于计算未被抽取的第一特征值与各所述第二特征值之间的第一相似度或者欧式距离;
第一特征值分类单元,用于根据所述第一相似度或者所述欧式距离,分别将未被抽取的第一特征值分类至对应的第二特征值中,得到所述第一预设数量的分类组;
分类组判断单元,用于判断所述分类组是否满足预设终止条件;
第一聚类结果确定单元,用于若所述分类组满足所述预设终止条件,则将所述第一预设数量的分类组确定为所述第一聚类结果;
迭代执行单元,用于若所述分类组不满足所述预设终止条件,则分别对各所述分类组执行从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值的步骤以及后续步骤。
优选地,所述分类组判断单元,包括:
特征矩阵构建子单元,用于根据所述分类组中的第一特征值和第二特征值构建对应的第一特征矩阵和第二特征矩阵;
第一平均特征矩阵计算子单元,用于根据所述第一特征矩阵和所述第二特征矩阵计算得到所述第一分类组的第一平均特征矩阵;
第二相似度计算单元,用于分别计算所述分类组中的第一特征矩阵及第二特征矩阵与所述第一平均特征矩阵之间的第二相似度;
平均相似度计算单元,用于计算各所述第二相似度的平均相似度,或者获取所述第二相似度中的最小第二相似度;
第一终止条件确定单元,用于若所述平均相似度大于所述第一预设相似度阈值,或者所述最小第二相似度大于所述第二预设相似度阈值,则确定所述分类组满足所述预设终止条件;
第二终止条件确定单元,用于若所述平均相似度小于或者等于所述第一预设相似度阈值,或者所述最小第二相似度小于或者等于所述第二预设相似度阈值,则确定所述分类组不满足所述预设终止条件。
可选地,所述连通域确定模块603,包括:
第三特征矩阵构建单元,用于根据所述第一聚类结果中各类簇的各第一特征值分别构建与各类簇中各第一特征值对应的第三特征矩阵;
第二平均特征矩阵获取单元,用于根据各类簇中各第一特征值对应的第三特征矩阵得到各类簇的第二平均特征矩阵;
第三相似度计算单元,用于分别计算各所述第二平均特征矩阵之间的第三相似度;
第三相似度判断单元,用于判断所述第三相似度是否大于第三预设相似度阈值;
连通关系标注单元,用于若所述第三相似度大于所述预设第三相似度阈值,则将所述第三相似度对应的第一类簇和第二类簇标注为连通关系;
连通域确定单元,用于根据所述连通关系确定所述第一聚类结果中各类簇之间的连通域。
进一步地,所述计算各所述第二平均特征矩阵之间的第三相似度的计算公式为:
Similarity i,j = MeanFeature i * ( MeanFeature j ) T;
其中, Similarity i,j 为第i个第二平均特征矩阵与第j个第二平均特征矩阵之间的第三相似度, MeanFeature i 为第i个第二平均特征矩阵, MeanFeature j 为第j个第二平均特征矩阵,T为转置符号。
优选地,所述连通关系标注单元,包括:
图片发送子单元,用于从所述第一类簇和所述第二类簇中分别抽取第二预设数量的第一特征值,并将所抽取的第一特征值所对应的第一目标图片发送至指定终端,以使得所述指定终端根据所述第一目标图片标注是否合并所述第一类簇和所述第二类簇,并返回相应的第一标注结果;
连通关系标注子单元,用于接收所述指定终端返回的第一标注结果,并在确定所述第一标注结果为合并所述第一类簇和所述第二类簇时,将所述第一类簇和所述第二类簇标注为连通关系。
可选地,所述图片聚类装置,还包括:
离群点获取单元,用于获取所述第二聚类结果中的离群点,并根据所述离群点的第一特征值构建所述离群点的离群特征矩阵;
第三平均特征矩阵确定单元,用于确定所述第二聚类结果中各类簇的第三平均特征矩阵;
第四相似度计算单元,用于计算所述离群特征矩阵与各所述第三平均特征矩阵之间的第四相似度;
离群点划分单元,用于根据所述第四相似度,将所述离群点划分至所述第二聚类结果中对应的类簇中。
图7是本申请一实施例提供的终端设备的示意图。如图7所示,该实施例的终端设备7包括:处理器70、存储器71以及存储在所述存储器71中并可在所述处理器70上运行的计算机可读指令72,例如图片聚类程序。所述处理器70执行所述计算机可读指令72时实现上述各个图片聚类方法实施例中的步骤,例如图1所示的步骤S101至步骤S105。或者,所述处理器70执行所述计算机可读指令72时实现上述各装置实施例中各模块/单元的功能,例如图6所示的模块601至模块605的功能。
示例性的,所述计算机可读指令72可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器71中,并由所述处理器70执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机可读指令72在所述终端设备6中的执行过程。
所述终端设备7可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器70、存储器71。本领域技术人员可以理解,图7仅仅是终端设备7的示例,并不构成对终端设备7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器70可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路 (Application Specific Integrated Circuit,ASIC)、现成可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器71可以是所述终端设备7的内部存储单元,例如终端设备7的硬盘或内存。所述存储器71也可以是所述终端设备7的外部存储设备,例如所述终端设备7上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器71还可以既包括所述终端设备6的内部存储单元也包括外部存储设备。所述存储器71用于存储所述计算机可读指令以及所述终端设备所需的其他程序和数据。所述存储器71还可以用于暂时地存储已经输出或者将要输出的数据。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (20)

  1. 一种图片聚类方法,其特征在于,包括:
    对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
    根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
    利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
    根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
    根据所述第二聚类结果对所述图片进行聚类。
  2. 根据权利要求1所述的图片聚类方法,其特征在于,所述根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果,包括:
    从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值;
    计算未被抽取的第一特征值与各所述第二特征值之间的第一相似度或者欧式距离;
    根据所述第一相似度或者所述欧式距离,分别将未被抽取的第一特征值分类至对应的第二特征值中,得到所述第一预设数量的分类组;
    判断所述分类组是否满足预设终止条件;
    若所述分类组满足所述预设终止条件,则将所述第一预设数量的分类组确定为所述第一聚类结果;
    若所述分类组不满足所述预设终止条件,则分别对各所述分类组执行从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值的步骤以及后续步骤。
  3. 根据权利要求2所述的图片聚类方法,其特征在于,所述判断所述分类组是否满足预设终止条件,包括:
    根据所述分类组中的第一特征值和第二特征值构建对应的第一特征矩阵和第二特征矩阵;
    根据所述第一特征矩阵和所述第二特征矩阵计算得到所述分类组的第一平均特征矩阵;
    分别计算所述分类组中的第一特征矩阵及第二特征矩阵与所述第一平均特征矩阵之间的第二相似度;
    计算各所述第二相似度的平均相似度,或者获取所述第二相似度中的最小第二相似度;
    当所述平均相似度大于第一预设相似度阈值,或者所述最小第二相似度大于第二预设相似度阈值时,确定所述分类组满足所述预设终止条件;
    当所述平均相似度小于或者等于所述第一预设相似度阈值,或者所述最小第二相似度小于或者等于所述第二预设相似度阈值,确定所述分类组不满足所述预设终止条件。
  4. 根据权利要求1所述的图片聚类方法,其特征在于,所述利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域,包括:
    根据所述第一聚类结果中各类簇的各第一特征值分别构建与各类簇中各第一特征值对应的第三特征矩阵;
    根据各类簇中各第一特征值对应的第三特征矩阵得到各类簇的第二平均特征矩阵;
    分别计算各所述第二平均特征矩阵之间的第三相似度;
    判断所述第三相似度是否大于第三预设相似度阈值;
    若所述第三相似度大于所述预设第三相似度阈值,则将所述第三相似度对应的第一类簇和第二类簇标注为连通关系;
    根据所述连通关系确定所述第一聚类结果中各类簇之间的连通域。
  5. 根据权利要求4所述的图片聚类方法,其特征在于,所述计算各所述第二平均特征矩阵之间的第三相似度的计算公式为:
    Similarity i,j = MeanFeature i * ( MeanFeature j ) T;
    其中, Similarity i,j 为第i个第二平均特征矩阵与第j个第二平均特征矩阵之间的第三相似度, MeanFeature i 为第i个第二平均特征矩阵, MeanFeature j 为第j个第二平均特征矩阵,T为转置符号。
  6. 根据权利要求4所述的图片聚类方法,其特征在于,所述将所述第三相似度对应的第一类簇和第二类簇标注为连通关系,包括:
    从所述第一类簇和所述第二类簇中分别抽取第二预设数量的第一特征值,并将所抽取的第一特征值所对应的第一目标图片发送至指定终端,以使得所述指定终端根据所述第一目标图片标注是否合并所述第一类簇和所述第二类簇,并返回相应的第一标注结果;
    接收所述指定终端返回的第一标注结果,并在确定所述第一标注结果为合并所述第一类簇和所述第二类簇时,将所述第一类簇和所述第二类簇标注为连通关系。
  7. 根据权利要求1至6中任一项所述的图片聚类方法,其特征在于,在根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果之后,还包括:
    获取所述第二聚类结果中的离群点,并根据所述离群点的第一特征值构建所述离群点的离群特征矩阵;
    确定所述第二聚类结果中各类簇的第三平均特征矩阵;
    计算所述离群特征矩阵与各所述第三平均特征矩阵之间的第四相似度;
    根据所述第四相似度,将所述离群点划分至所述第二聚类结果中对应的类簇。
  8. 一种图片聚类装置,其特征在于,包括:
    第一特征值提取模块,用于对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
    分块聚类模块,用于根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
    连通域确定模块,用于利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
    聚类合并模块,用于根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
    图片聚类模块,用于根据所述第二聚类结果对所述图片进行聚类。
  9. 根据权利要求8所述的图片聚类装置,其特征在于,所述分块聚类模块,包括:
    第一特征值抽取单元,用于从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值;
    第一特征值计算单元,用于计算未被抽取的第一特征值与各所述第二特征值之间的第一相似度或者欧式距离;
    第一特征值分类单元,用于根据所述第一相似度或者所述欧式距离,分别将未被抽取的第一特征值分类至对应的第二特征值中,得到所述第一预设数量的分类组;
    分类组判断单元,用于判断所述分类组是否满足预设终止条件;
    第一聚类结果确定单元,用于若所述分类组满足所述预设终止条件,则将所述第一预设数量的分类组确定为所述第一聚类结果;
    迭代执行单元,用于若所述分类组不满足所述预设终止条件,则分别对各所述分类组执行从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值的步骤以及后续步骤。
  10. 根据权利要求9所述的图片聚类装置,其特征在于,所述分类组判断单元,包括:
    特征矩阵构建子单元,用于根据所述分类组中的第一特征值和第二特征值构建对应的第一特征矩阵和第二特征矩阵;
    第一平均特征矩阵计算子单元,用于根据所述第一特征矩阵和所述第二特征矩阵计算得到所述第一分类组的第一平均特征矩阵;
    第二相似度计算单元,用于分别计算所述分类组中的第一特征矩阵及第二特征矩阵与所述第一平均特征矩阵之间的第二相似度;
    平均相似度计算单元,用于计算各所述第二相似度的平均相似度,或者获取所述第二相似度中的最小第二相似度;
    第一终止条件确定单元,用于若所述平均相似度大于所述第一预设相似度阈值,或者所述最小第二相似度大于所述第二预设相似度阈值,则确定所述分类组满足所述预设终止条件;
    第二终止条件确定单元,用于若所述平均相似度小于或者等于所述第一预设相似度阈值,或者所述最小第二相似度小于或者等于所述第二预设相似度阈值,则确定所述分类组不满足所述预设终止条件。
  11. 根据权利要求8所述的图片聚类装置,其特征在于,所述连通域确定模块,包括:
    第三特征矩阵构建单元,用于根据所述第一聚类结果中各类簇的各第一特征值分别构建与各类簇中各第一特征值对应的第三特征矩阵;
    第二平均特征矩阵获取单元,用于根据各类簇中各第一特征值对应的第三特征矩阵得到各类簇的第二平均特征矩阵;
    第三相似度计算单元,用于分别计算各所述第二平均特征矩阵之间的第三相似度;
    第三相似度判断单元,用于判断所述第三相似度是否大于第三预设相似度阈值;
    连通关系标注单元,用于若所述第三相似度大于所述预设第三相似度阈值,则将所述第三相似度对应的第一类簇和第二类簇标注为连通关系;
    连通域确定单元,用于根据所述连通关系确定所述第一聚类结果中各类簇之间的连通域。
  12. 根据权利要求11所述的图片聚类装置,其特征在于,所述连通关系标注单元,包括:
    图片发送子单元,用于从所述第一类簇和所述第二类簇中分别抽取第二预设数量的第一特征值,并将所抽取的第一特征值所对应的第一目标图片发送至指定终端,以使得所述指定终端根据所述第一目标图片标注是否合并所述第一类簇和所述第二类簇,并返回相应的第一标注结果;
    连通关系标注子单元,用于接收所述指定终端返回的第一标注结果,并在确定所述第一标注结果为合并所述第一类簇和所述第二类簇时,将所述第一类簇和所述第二类簇标注为连通关系。
  13. 一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述图片聚类方法的步骤。
  14. 一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如下步骤:
    对各图片进行人脸检测,以确定出各所述图片中的人脸图像,并对各所述人脸图像进行特征值提取,得到第一特征值;
    根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果;
    利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域;
    根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果;
    根据所述第二聚类结果对所述图片进行聚类。
  15. 根据权利要求14所述的终端设备,其特征在于,所述根据预设K-split分块聚类算法对所述第一特征值进行聚类,得到第一聚类结果,包括:
    从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值;
    计算未被抽取的第一特征值与各所述第二特征值之间的第一相似度或者欧式距离;
    根据所述第一相似度或者所述欧式距离,分别将未被抽取的第一特征值分类至对应的第二特征值中,得到所述第一预设数量的分类组;
    判断所述分类组是否满足预设终止条件;
    若所述分类组满足所述预设终止条件,则将所述第一预设数量的分类组确定为所述第一聚类结果;
    若所述分类组不满足所述预设终止条件,则分别对各所述分类组执行从所述第一特征值中抽取第一预设数量的第一特征值,并将所抽取的第一特征值确定为第二特征值的步骤以及后续步骤。
  16. 根据权利要求15所述的终端设备,其特征在于,所述判断所述分类组是否满足预设终止条件,包括:
    根据所述分类组中的第一特征值和第二特征值构建对应的第一特征矩阵和第二特征矩阵;
    根据所述第一特征矩阵和所述第二特征矩阵计算得到所述分类组的第一平均特征矩阵;
    分别计算所述分类组中的第一特征矩阵及第二特征矩阵与所述第一平均特征矩阵之间的第二相似度;
    计算各所述第二相似度的平均相似度,或者获取所述第二相似度中的最小第二相似度;
    当所述平均相似度大于第一预设相似度阈值,或者所述最小第二相似度大于第二预设相似度阈值时,确定所述分类组满足所述预设终止条件;
    当所述平均相似度小于或者等于所述第一预设相似度阈值,或者所述最小第二相似度小于或者等于所述第二预设相似度阈值,确定所述分类组不满足所述预设终止条件。
  17. 根据权利要求14所述的终端设备,其特征在于,所述利用预设连通域确定方法确定所述第一聚类结果中各类簇之间的连通域,包括:
    根据所述第一聚类结果中各类簇的各第一特征值分别构建与各类簇中各第一特征值对应的第三特征矩阵;
    根据各类簇中各第一特征值对应的第三特征矩阵得到各类簇的第二平均特征矩阵;
    分别计算各所述第二平均特征矩阵之间的第三相似度;
    判断所述第三相似度是否大于第三预设相似度阈值;
    若所述第三相似度大于所述预设第三相似度阈值,则将所述第三相似度对应的第一类簇和第二类簇标注为连通关系;
    根据所述连通关系确定所述第一聚类结果中各类簇之间的连通域。
  18. 根据权利要求17所述的终端设备,其特征在于,所述计算各所述第二平均特征矩阵之间的第三相似度的计算公式为:
    Similarity i,j = MeanFeature i * ( MeanFeature j ) T;
    其中, Similarity i,j 为第i个第二平均特征矩阵与第j个第二平均特征矩阵之间的第三相似度, MeanFeature i 为第i个第二平均特征矩阵, MeanFeature j 为第j个第二平均特征矩阵,T为转置符号。
  19. 根据权利要求17所述的终端设备,其特征在于,所述将所述第三相似度对应的第一类簇和第二类簇标注为连通关系,包括:
    从所述第一类簇和所述第二类簇中分别抽取第二预设数量的第一特征值,并将所抽取的第一特征值所对应的第一目标图片发送至指定终端,以使得所述指定终端根据所述第一目标图片标注是否合并所述第一类簇和所述第二类簇,并返回相应的第一标注结果;
    接收所述指定终端返回的第一标注结果,并在确定所述第一标注结果为合并所述第一类簇和所述第二类簇时,将所述第一类簇和所述第二类簇标注为连通关系。
  20. 根据权利要求14至19中任一项所述的终端设备,其特征在于,在根据所确定的连通域对所述第一聚类结果中的各类簇进行合并,得到第二聚类结果之后,还包括:
    获取所述第二聚类结果中的离群点,并根据所述离群点的第一特征值构建所述离群点的离群特征矩阵;
    确定所述第二聚类结果中各类簇的第三平均特征矩阵;
    计算所述离群特征矩阵与各所述第三平均特征矩阵之间的第四相似度;
    根据所述第四相似度,将所述离群点划分至所述第二聚类结果中对应的类簇。
PCT/CN2019/091546 2018-12-11 2019-06-17 一种图片聚类方法、装置、存储介质及终端设备 WO2020119053A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811508633.8A CN109815788B (zh) 2018-12-11 一种图片聚类方法、装置、存储介质及终端设备
CN201811508633.8 2018-12-11

Publications (1)

Publication Number Publication Date
WO2020119053A1 true WO2020119053A1 (zh) 2020-06-18

Family

ID=66602018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/091546 WO2020119053A1 (zh) 2018-12-11 2019-06-17 一种图片聚类方法、装置、存储介质及终端设备

Country Status (1)

Country Link
WO (1) WO2020119053A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782846A (zh) * 2020-06-30 2020-10-16 北京三快在线科技有限公司 图像选择方法、装置、计算机设备及存储介质
CN111783875A (zh) * 2020-06-29 2020-10-16 中国平安财产保险股份有限公司 基于聚类分析的异常用户检测方法、装置、设备及介质
CN112001414A (zh) * 2020-07-14 2020-11-27 浙江大华技术股份有限公司 聚类方法、设备及计算机存储介质
CN112070178A (zh) * 2020-09-18 2020-12-11 北京金山云网络技术有限公司 图像序列样本集的确定方法、装置以及计算机设备
CN112329717A (zh) * 2020-11-25 2021-02-05 中国人民解放军国防科技大学 一种面向海量数据相似度检测的指纹高速缓存方法
CN114662607A (zh) * 2022-03-31 2022-06-24 北京百度网讯科技有限公司 基于人工智能的数据标注方法、装置、设备以及存储介质
CN116433990A (zh) * 2023-06-12 2023-07-14 恒超源洗净科技(深圳)有限公司 基于视觉检测的超声波清洗机反馈调节系统
CN116580254A (zh) * 2023-07-12 2023-08-11 菲特(天津)检测技术有限公司 样本标签分类方法、系统及电子设备
CN117708613A (zh) * 2023-12-25 2024-03-15 北京中微盛鼎科技有限公司 一种面向产业链协同运作的数字资源匹配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102306276A (zh) * 2011-07-07 2012-01-04 北京云加速信息技术有限公司 基于分块聚类的视频车辆图像中车身颜色识别方法
US20160217344A1 (en) * 2015-01-22 2016-07-28 Microsoft Technology Licensing, Llc. Optimizing multi-class image classification using patch features
CN106503656A (zh) * 2016-10-24 2017-03-15 厦门美图之家科技有限公司 一种图像分类方法、装置和计算设备
CN107609466A (zh) * 2017-07-26 2018-01-19 百度在线网络技术(北京)有限公司 人脸聚类方法、装置、设备及存储介质
CN107798354A (zh) * 2017-11-16 2018-03-13 腾讯科技(深圳)有限公司 一种基于人脸图像的图片聚类方法、装置及存储设备
CN109815788A (zh) * 2018-12-11 2019-05-28 平安科技(深圳)有限公司 一种图片聚类方法、装置、存储介质及终端设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102306276A (zh) * 2011-07-07 2012-01-04 北京云加速信息技术有限公司 基于分块聚类的视频车辆图像中车身颜色识别方法
US20160217344A1 (en) * 2015-01-22 2016-07-28 Microsoft Technology Licensing, Llc. Optimizing multi-class image classification using patch features
CN106503656A (zh) * 2016-10-24 2017-03-15 厦门美图之家科技有限公司 一种图像分类方法、装置和计算设备
CN107609466A (zh) * 2017-07-26 2018-01-19 百度在线网络技术(北京)有限公司 人脸聚类方法、装置、设备及存储介质
CN107798354A (zh) * 2017-11-16 2018-03-13 腾讯科技(深圳)有限公司 一种基于人脸图像的图片聚类方法、装置及存储设备
CN109815788A (zh) * 2018-12-11 2019-05-28 平安科技(深圳)有限公司 一种图片聚类方法、装置、存储介质及终端设备

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783875A (zh) * 2020-06-29 2020-10-16 中国平安财产保险股份有限公司 基于聚类分析的异常用户检测方法、装置、设备及介质
CN111783875B (zh) * 2020-06-29 2024-04-30 中国平安财产保险股份有限公司 基于聚类分析的异常用户检测方法、装置、设备及介质
CN111782846A (zh) * 2020-06-30 2020-10-16 北京三快在线科技有限公司 图像选择方法、装置、计算机设备及存储介质
CN112001414A (zh) * 2020-07-14 2020-11-27 浙江大华技术股份有限公司 聚类方法、设备及计算机存储介质
CN112070178B (zh) * 2020-09-18 2023-10-27 北京金山云网络技术有限公司 图像序列样本集的确定方法、装置以及计算机设备
CN112070178A (zh) * 2020-09-18 2020-12-11 北京金山云网络技术有限公司 图像序列样本集的确定方法、装置以及计算机设备
CN112329717A (zh) * 2020-11-25 2021-02-05 中国人民解放军国防科技大学 一种面向海量数据相似度检测的指纹高速缓存方法
CN112329717B (zh) * 2020-11-25 2023-08-01 中国人民解放军国防科技大学 一种面向海量数据相似度检测的指纹高速缓存方法
CN114662607A (zh) * 2022-03-31 2022-06-24 北京百度网讯科技有限公司 基于人工智能的数据标注方法、装置、设备以及存储介质
CN116433990A (zh) * 2023-06-12 2023-07-14 恒超源洗净科技(深圳)有限公司 基于视觉检测的超声波清洗机反馈调节系统
CN116433990B (zh) * 2023-06-12 2023-08-15 恒超源洗净科技(深圳)有限公司 基于视觉检测的超声波清洗机反馈调节系统
CN116580254B (zh) * 2023-07-12 2023-10-20 菲特(天津)检测技术有限公司 样本标签分类方法、系统及电子设备
CN116580254A (zh) * 2023-07-12 2023-08-11 菲特(天津)检测技术有限公司 样本标签分类方法、系统及电子设备
CN117708613A (zh) * 2023-12-25 2024-03-15 北京中微盛鼎科技有限公司 一种面向产业链协同运作的数字资源匹配方法
CN117708613B (zh) * 2023-12-25 2024-05-14 北京中微盛鼎科技有限公司 一种面向产业链协同运作的数字资源匹配方法

Also Published As

Publication number Publication date
CN109815788A (zh) 2019-05-28

Similar Documents

Publication Publication Date Title
WO2020119053A1 (zh) 一种图片聚类方法、装置、存储介质及终端设备
WO2021072885A1 (zh) 识别文本的方法、装置、设备及存储介质
WO2020155518A1 (zh) 物体检测方法、装置、计算机设备及存储介质
WO2017118356A1 (zh) 文本图像处理方法和装置
WO2019218473A1 (zh) 一种字段匹配方法、装置、终端设备及介质
WO2021082863A1 (zh) 一种共识节点的评估方法及装置
WO2021169173A1 (zh) 数据聚类的存储方法、装置、计算机设备及存储介质
WO2022105179A1 (zh) 生物特征图像识别方法、装置、电子设备及可读存储介质
WO2020114100A1 (zh) 一种信息处理方法、装置和计算机存储介质
US11354883B2 (en) Image processing method and apparatus, and electronic device
WO2020082588A1 (zh) 异常业务请求的识别方法、装置、电子设备及介质
WO2019119396A1 (zh) 人脸表情识别方法及装置
WO2019196239A1 (zh) 一种线程接口的管理方法、终端设备及计算机可读存储介质
WO2020048048A1 (zh) 不平衡样本数据预处理方法、装置和计算机设备
WO2021104444A1 (zh) 一种数据流分类方法、装置及系统
EP3783503A1 (en) Information processing method, related device, and computer storage medium
CN114444619B (zh) 样本生成方法、训练方法、数据处理方法以及电子设备
WO2020042580A1 (zh) 人员分组方法、装置、电子装置及存储介质
WO2020168754A1 (zh) 基于预测模型的绩效预测方法、装置及存储介质
WO2022227218A1 (zh) 药名识别方法、装置、计算机设备和存储介质
US20210174104A1 (en) Finger vein comparison method, computer equipment, and storage medium
WO2014177050A1 (zh) 对文档进行聚类的方法和装置
WO2019119635A1 (zh) 种子用户拓展方法、电子设备及计算机可读存储介质
WO2022007596A1 (zh) 图像检索系统、方法和装置
US20200093392A1 (en) Brainprint signal recognition method and terminal device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19894457

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19894457

Country of ref document: EP

Kind code of ref document: A1