KR20210113607A - Facial attribute recognition method and apparatus, electronic device and storage medium - Google Patents
Facial attribute recognition method and apparatus, electronic device and storage medium Download PDFInfo
- Publication number
- KR20210113607A KR20210113607A KR1020217020828A KR20217020828A KR20210113607A KR 20210113607 A KR20210113607 A KR 20210113607A KR 1020217020828 A KR1020217020828 A KR 1020217020828A KR 20217020828 A KR20217020828 A KR 20217020828A KR 20210113607 A KR20210113607 A KR 20210113607A
- Authority
- KR
- South Korea
- Prior art keywords
- attribute
- image
- facial
- face
- type
- Prior art date
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 199
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000013528 artificial neural network Methods 0.000 claims description 90
- 238000012545 processing Methods 0.000 claims description 52
- 238000012549 training Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 15
- 230000008921 facial expression Effects 0.000 claims description 11
- 230000004580 weight loss Effects 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 9
- 230000000391 smoking effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 235000019504 cigarettes Nutrition 0.000 claims description 5
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 239000011521 glass Substances 0.000 claims description 5
- 206010011469 Crying Diseases 0.000 claims description 4
- 239000003651 drinking water Substances 0.000 claims description 4
- 235000020188 drinking water Nutrition 0.000 claims description 4
- 230000035622 drinking Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000012423 maintenance Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 102000020856 Copper Transport Proteins Human genes 0.000 description 1
- 108091004554 Copper Transport Proteins Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G06K9/00268—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G06K9/00288—
-
- G06K9/00302—
-
- G06K9/6256—
-
- G06K9/6277—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- G06K2009/00322—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
본 발명은 얼굴 속성 인식 방법 및 장치, 전자 기기 및 기억 매체에 관한 것으로, 상기 방법은 이미지에서의 얼굴의 특징을 추출하는 것(S10)과, 상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻는 것(S20)과, 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정하는 것(S30)을 포함하는 것으로, 이 방법은 복수 종류의 얼굴 속성 인식을 동시에 행할 수 있고, 얼굴 속성 인식의 인식 효율을 향상시킬 수 있다.The present invention relates to a method and apparatus for recognizing a face attribute, an electronic device and a storage medium, the method comprising extracting facial features from an image (S10), and a plurality of types of faces preset based on the facial features performing attribute recognition to obtain a probability prediction result of each type of face attribute (S20), and determining a facial attribute recognition result in the image based on the probability prediction result of each type of face attribute (S30) By including, this method can simultaneously perform multiple types of face attribute recognition, and can improve recognition efficiency of face attribute recognition.
Description
본 발명은 2018년 12월 29일에 중국 특허청에 제출된, 출원번호가 201811645459.1이고, 발명의 명칭이 「얼굴 속성 인식 방법 및 장치, 전자 기기 및 기억 매체」인 중국 특허출원의 우선권을 주장하고, 그 발명의 전체가 원용됨으로써 본원에 포함된다.The present invention claims the priority of a Chinese patent application filed with the Chinese Intellectual Property Office on December 29, 2018, the application number of which is 201811645459.1, and the title of the invention is "Method and Apparatus for Recognizing Facial Attributes, Electronic Devices and Storage Media"; The entirety of the invention is incorporated herein by reference.
본 발명은 이미지 인식 기술 분야에 관한 것으로, 특히 얼굴 속성 인식 방법 및 장치, 전자 기기 및 기억 매체에 관한 것이다.The present invention relates to the field of image recognition technology, and more particularly, to a method and apparatus for recognizing facial attributes, an electronic device, and a storage medium.
종래의 얼굴 속성 인식 기술에서는 얼굴에 대해 복수의 속성 인식을 행할 필요가 있을 때, 복수의 단일 속성의 얼굴 인식을 행하고, 추가로 복수의 단일 속성의 얼굴 인식 결과를 정합할 필요가 있다. 각 얼굴 속성간의 관련성이 고려되어 있지 않기 때문에, 복수의 속성의 얼굴 인식 결과의 정확도가 나쁘고, 연산 속도가 낮다.In the conventional face attribute recognition technology, when it is necessary to perform a plurality of attribute recognition on a face, it is necessary to perform face recognition of a plurality of single attributes, and further match the face recognition results of a plurality of single attributes. Since the relation between the respective facial attributes is not taken into account, the accuracy of the facial recognition result of the plurality of attributes is poor, and the calculation speed is low.
본 발명은 얼굴 속성 인식의 기술적 수단을 제공한다.The present invention provides technical means for facial attribute recognition.
본 발명의 일 측면에 의하면, 이미지에서의 얼굴의 특징을 추출하는 것과, 상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻는 것과, 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정하는 것을 포함하는 얼굴 속성 인식 방법을 제공한다.According to one aspect of the present invention, extracting a facial feature from an image, performing a plurality of types of facial attribute recognition preset based on the facial characteristic to obtain a probability prediction result of each type of facial attribute, Provided is a method for recognizing a face attribute, comprising determining a result of recognizing a face attribute in the image based on a result of predicting probability of each type of face attribute.
본 발명의 일 측면에 의하면, 이미지에서의 얼굴의 특징을 추출하기 위한 특징 추출 모듈과, 상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻기 위한 확률 예측 결과 취득 모듈과, 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정하기 위한 속성 인식 결과 취득 모듈을 포함하는 얼굴 속성 인식 장치를 제공한다.According to an aspect of the present invention, a feature extraction module for extracting facial features from an image, and performing recognition of a plurality of types of facial attributes preset based on the facial features, a probability prediction result of each type of facial attributes It provides a face attribute recognition apparatus comprising: a probability prediction result acquisition module for obtaining .
본 발명의 일 측면에 의하면, 프로세서와, 프로세서에 의해 실행 가능한 명령을 기억하기 위한 메모리를 포함하고, 상기 프로세서는 상기 중 어느 한 항에 기재된 방법을 실행하도록 구성되는 전자 기기를 제공한다.According to one aspect of the present invention, there is provided an electronic device comprising a processor and a memory for storing instructions executable by the processor, wherein the processor is configured to execute the method according to any one of the preceding claims.
본 발명의 일 측면에 의하면, 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행되면, 상기 중 어느 한 항에 기재된 방법을 실현하는 컴퓨터 판독 가능 기억 매체를 제공한다.According to one aspect of the present invention, there is provided a computer-readable storage medium storing computer program instructions, wherein when the computer program instructions are executed by a processor, the computer-readable storage medium realizes the method according to any one of the preceding claims. to provide.
본 발명의 일 측면에 의하면, 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드는 전자 기기에서 실행되면, 상기 전자 기기의 프로세서에 상기 얼굴 속성 인식 방법을 실현하기 위한 명령을 실행시키는 컴퓨터 프로그램을 제공한다.According to an aspect of the present invention, there is provided a computer program comprising computer readable code, wherein the computer readable code executes instructions for realizing the facial attribute recognition method in a processor of the electronic device when the computer readable code is executed in an electronic device. to provide.
본 발명의 실시예에서는 이미지에서의 얼굴의 특징을 추출하고, 얼굴의 특징에 기초하여, 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻고, 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여 이미지에서의 얼굴 속성 인식 결과를 결정할 수 있다. 본 발명의 실시예는 복수 종류의 얼굴 속성 인식을 동시에 행할 수 있고, 얼굴 속성 인식의 인식 효율을 향상시킬 수 있다.In an embodiment of the present invention, a facial feature is extracted from an image, and a plurality of types of preset facial attributes are recognized based on the facial features to obtain a probability prediction result of each type of facial attribute, and each type of face A face attribute recognition result in the image may be determined based on the attribute probability prediction result. Embodiments of the present invention can perform recognition of a plurality of types of facial attributes at the same time, and can improve recognition efficiency of facial attribute recognition.
이상의 일반적인 설명과 이하의 상세한 설명은 예시적 및 해석적인 것에 불과하고, 본 발명을 한정하는 것은 아닌 것으로 이해해야 한다.It should be understood that the above general description and the following detailed description are merely exemplary and interpretative, and do not limit the present invention.
이하, 도면을 참조하면서 예시적인 실시예를 상세하게 설명함으로써 본 발명의 다른 특징 및 측면은 명료해진다.BRIEF DESCRIPTION OF THE DRAWINGS Other features and aspects of the present invention will be clarified below by describing exemplary embodiments in detail with reference to the drawings.
여기서, 본 명세서의 일부로서 포함되는 도면은 본 발명의 실시예에 적합하고, 명세서와 함께 본 발명의 기술적 수단의 설명에 사용된다.
도 1은 본 발명의 실시예에 따른 얼굴 속성 인식 방법의 흐름도를 나타낸다.
도 2는 본 발명의 실시예에 따른 얼굴 속성 인식 방법의 흐름도를 나타낸다.
도 3은 본 발명의 실시예에 따른 얼굴 속성 인식 방법에서의 뉴럴 네트워크의 트레이닝 흐름의 모식도를 나타낸다.
도 4는 본 발명의 실시예에 따른 얼굴 속성 인식 장치의 블록도를 나타낸다.
도 5는 예시적인 일 실시예에 따른 전자 기기의 블록도이다.
도 6은 예시적인 일 실시예에 따른 전자 기기의 블록도이다.Here, the drawings included as a part of this specification are suitable for the embodiment of the present invention, and together with the specification are used for the description of the technical means of the present invention.
1 is a flowchart of a face attribute recognition method according to an embodiment of the present invention.
2 is a flowchart of a face attribute recognition method according to an embodiment of the present invention.
3 is a schematic diagram of a training flow of a neural network in a facial attribute recognition method according to an embodiment of the present invention.
4 is a block diagram of an apparatus for recognizing facial attributes according to an embodiment of the present invention.
Fig. 5 is a block diagram of an electronic device according to an exemplary embodiment.
6 is a block diagram of an electronic device according to an exemplary embodiment.
이하, 도면을 참조하면서 본 발명의 다양한 예시적인 실시예, 특징 및 측면을 상세하게 설명한다. 도면에서 동일한 부호는 동일하거나 또는 유사한 기능의 요소를 나타낸다. 도면에서 실시예의 다양한 측면을 나타냈지만, 특별히 언급하지 않는 한, 비례에 따라 도면을 그릴 필요가 없다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Various exemplary embodiments, features and aspects of the present invention will be described in detail below with reference to the drawings. In the drawings, the same reference numerals indicate elements having the same or similar functions. Although the drawings have shown various aspects of the embodiments, the drawings are not necessarily drawn to scale unless otherwise noted.
여기서의 용어「예시적」이란 「예, 실시예로서 사용되는 것 또는 설명적인 것」을 의미한다. 여기서 「예시적」으로 설명되는 어떠한 실시예도 다른 실시예보다 바람직하거나 또는 우수한 것으로 이해해서는 안된다.As used herein, the term “exemplary” means “an example, used as an embodiment, or explanatory.” Any embodiment described herein as “exemplary” should not be construed as preferred or superior to other embodiments.
본 명세서에서의 용어 「및/또는」은 단순히 관련 대상과의 관련 관계를 기술하는 것이고, 3개의 관계가 존재 가능함을 나타내며, 예를 들면, A 및/또는 B는 A만이 존재하고, A와 B가 모두 존재하고, B만이 존재하는 3개의 경우를 나타내도 된다. 또한, 본 명세서에서의 용어 「하나 이상」은 복수 중 어느 하나, 또는 복수 중 적어도 2개의 임의의 조합을 나타내고, 예를 들면 A, B, C 중 하나 이상을 포함하는 것은 A, B 및 C로 이루어지는 집합에서 선택된 어느 하나 또는 복수의 요소를 포함하는 것을 나타내도 된다.The term "and/or" in this specification simply describes a related relationship with a related object, and indicates that three relationships are possible, for example, A and/or B exists only in A, and A and B You may represent three cases in which all exist and only B exists. In addition, the term "one or more" in the present specification indicates any one of a plurality or any combination of at least two of the plurality, for example, A, B, and C including one or more of A, B, and C It may indicate including any one or a plurality of elements selected from the set.
또한, 본 발명을 보다 효과적으로 설명하기 위해 이하의 구체적인 실시형태에서 다양한 구체적인 상세를 나타낸다. 당업자라면 본 발명은 어떠한 구체적인 상세가 없어도 동일하게 실시할 수 있는 것으로 이해해야 한다. 일부 실시예에서는 본 발명의 취지를 강조하기 위해 당업자가 숙지하고 있는 방법, 수단, 요소 및 회로에 대해 상세한 설명을 행하지 않는다. In addition, various specific details are set forth in the following specific embodiments in order to more effectively explain the present invention. It should be understood by those skilled in the art that the present invention may be practiced without any specific details. In some embodiments, detailed descriptions of methods, means, elements and circuits known to those skilled in the art are not set forth in order to emphasize the spirit of the present invention.
도 1은 본 발명의 실시예에 따른 얼굴 속성 인식 방법의 흐름도를 나타낸다. 도 1에 나타내는 바와 같이, 상기 얼굴 속성 인식 방법은 단계(S10), 단계(S20) 및 단계(S30)를 포함한다.1 is a flowchart of a face attribute recognition method according to an embodiment of the present invention. As shown in FIG. 1 , the face attribute recognition method includes steps S10 , S20 , and S30 .
단계(S10)에서는 이미지에서의 얼굴의 특징을 추출한다.In step S10, facial features are extracted from the image.
가능한 일 실현형태에서는 이미지는 단일 이미지가 포함되어도 되고, 비디오 스트림의 프레임 이미지가 포함되어도 된다. 이미지는 RGB(적색(Red), 녹색(Green), 청색(Blue)) 이미지 등의 각 종류의 이미지가 포함되어도 된다.In one possible realization, the image may comprise a single image or a frame image of a video stream. The image may include each type of image such as an RGB (Red, Green, Blue) image.
가능한 일 실현형태에서는 얼굴의 원래의 고차원 특징 데이터를 저차원 데이터로 기술하고, 추출된 저차원 데이터는 상이한 얼굴을 효과적으로 구별하는 것에 사용되어도 된다. 얼굴의 특징에는 글로벌한 얼굴의 특징이 포함되어도 된다. 그 특징 정보는 얼굴 이미지의 전체에서 추출된 것이고, 전체의 얼굴 정보를 반영할 수 있다. 얼굴의 특징에는 국지적인(local) 얼굴의 특징이 추가로 포함되어도 된다. 그 특징 정보는 얼굴 이미지의 일부 화소 또는 일부 영역에서 추출된 것이고, 얼굴의 국지적인 세부를 반영할 수 있다. 본 발명에서는 얼굴의 특징의 종류 및 구체적인 내용을 한정하지 않고, 얼굴 속성 인식의 수요에 따라 이미지에서 각 종류의 얼굴 속성에 따른 특징을 추출할 수 있다.In one possible implementation form, the original high-dimensional feature data of a face is described as low-dimensional data, and the extracted low-dimensional data may be used to effectively distinguish different faces. The facial features may include global facial features. The feature information is extracted from the entire face image, and may reflect the entire face information. The facial features may further include local facial features. The feature information is extracted from some pixels or a partial region of the face image, and may reflect local details of the face. In the present invention, the types and specific contents of facial features are not limited, and features according to each type of facial attributes can be extracted from an image according to the demand for facial attribute recognition.
단계(S20)에서는 상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻는다.In step S20, a plurality of preset types of facial attributes are recognized based on the facial features, and a probability prediction result of each type of facial attributes is obtained.
가능한 일 실현형태에서는 상기 얼굴 속성은 연령, 성별, 장식품, 피부색, 표정, 동작 중 하나 이상을 포함해도 된다. 상기 장식품은 보통의 안경, 선글라스, 모자, 마스크 중 하나 이상을 포함하고, 상기 표정은 기쁨, 슬픔, 울음, 분노, 흥분 중 하나 이상을 포함하고, 상기 동작은 담배를 피우는 것, 물/음료를 마시는 것, 식사를 하는 것, 화장을 하는 것, 전화를 하는 것 중 하나 이상을 포함한다. 수요에 따라, 1종류의 얼굴 속성을 구성하는 하나 또는 복수의 속성을 결정할 수 있다.In one possible implementation form, the facial attribute may include one or more of age, gender, ornament, skin color, expression, and movement. The ornament includes one or more of ordinary glasses, sunglasses, a hat, and a mask, the expression includes one or more of joy, sadness, crying, anger, and excitement, and the action includes smoking a cigarette, drinking water Includes one or more of drinking, eating, putting on makeup, or making a phone call. According to demand, one or a plurality of attributes constituting one type of face attribute may be determined.
예를 들면, 얼굴 속성은 연령 및 성별(예를 들면, 중년 남성 또는 노년 남성 등), 또는 연령, 성별 및 장식품(예를 들면, 모자를 쓰고 있는 중년 남성, 안경을 쓰고 있는 노년 여성 등), 또는 연령, 성별, 피부색, 표정 및 동작(예를 들면, 중년의 백인 남성이 웃으며 전화를 하고 있는 것 등)을 포함할 수 있다.For example, a facial attribute may include age and gender (eg, a middle-aged man or an elderly man, etc.), or age, gender and ornament (eg, a middle-aged man wearing a hat, an elderly woman wearing glasses, etc.); or age, gender, skin color, facial expression, and behavior (eg, a middle-aged white male smiling on the phone, etc.).
가능한 일 실현형태에서는 수요에 따라 복수 종류의 얼굴 속성을 미리 설정해도 된다. 본 발명에서는 각 종류의 얼굴 속성에 포함되는 속성의 수 및 종류가 한정되지 않는다. 예를 들면, 연령(1), 성별(1) 및 장식품(1)인 얼굴 속성(1), 연령,(2), 성별(2), 장식품(1), 표정(1) 및 동작(1)인 얼굴 속성(2) 및 성별(3), 장식품(2), 표정(2) 및 동작(2)인 얼굴 속성(3)과 같은 3종류의 얼굴 속성을 미리 설정할 수 있다.In one possible implementation form, a plurality of types of facial attributes may be preset according to demand. In the present invention, the number and types of attributes included in each type of face attribute are not limited. For example, age(1), gender(1), and decoration(1) are facial attributes(1), age(2), gender(2), decoration(1), facial expression(1) and motion(1) Three types of facial attributes can be preset, such as face attribute (2) and gender (3), ornaments (2), facial expression (2), and facial attribute (3) that is motion (2).
가능한 일 실현형태에서는 이미지에서 추출된 얼굴의 특징을 미리 설정된 각 종류의 얼굴 속성에 따라 구별하여 각 종류의 얼굴 속성에 대한 특징을 얻고, 추가로 각 종류의 얼굴 속성에 대한 특징에 대해 분류 처리를 행하고, 각 종류의 얼굴 속성의 확률 예측 결과를 얻도록 해도 된다.In one possible implementation form, the facial features extracted from the image are distinguished according to each type of face attribute set in advance to obtain the characteristics of each type of facial attribute, and further classification processing is performed for the characteristics of each type of facial attribute. This may be performed to obtain a probability prediction result of each type of face attribute.
단계(S30)에서는 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정한다.In step S30, a result of recognizing a face attribute in the image is determined based on a result of predicting the probability of each type of face attribute.
가능한 일 실현형태에서는 상기 얼굴 속성 인식 결과는 상기 얼굴의 적어도 2개의 속성 인식 결과를 포함한다.In one possible realization, the face attribute recognition result includes at least two attribute recognition results of the face.
가능한 일 실현형태에서는 이미지에서의 얼굴 속성 인식 결과는 1종류 또는 복수 종류의 얼굴 속성 인식 결과를 포함해도 된다. 확률 임계치를 미리 설정하고, 확률 예측 결과가 확률 임계치보다 큰 1종류 또는 복수 종류의 얼굴 속성을 이미지에서의 얼굴 속성 인식 결과로서 결정할 수 있다.In one possible implementation form, the facial attribute recognition result in the image may include one type or a plurality of types of facial attribute recognition results. A probability threshold may be set in advance, and one type or a plurality of types of face attributes having a probability prediction result greater than the probability threshold value may be determined as the face attribute recognition result in the image.
본 실시예에서는 이미지에서의 얼굴의 특징을 추출하고, 얼굴의 특징에 기초하여, 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻고, 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여 이미지에서의 얼굴 속성 인식 결과를 결정할 수 있다. 본 발명의 실시예에서는 복수 종류의 얼굴 속성 인식을 동시에 행할 수 있고, 얼굴 속성 인식의 인식 효율을 향상시킬 수 있다.In this embodiment, facial features are extracted from the image, and a plurality of types of facial attributes are recognized in advance based on the facial features to obtain a probability prediction result of each type of facial attributes, and A result of recognizing a face attribute in an image may be determined based on the probability prediction result. In the embodiment of the present invention, a plurality of types of face attribute recognition can be performed simultaneously, and the recognition efficiency of face attribute recognition can be improved.
가능한 일 실현형태에서는 상기 이미지는 차량에 설치된 차재 카메라에 의해 촬상되는 차량이 위치하는 도로의 이미지 및/또는 차량 내의 이미지를 포함하고, 상기 이미지에서의 얼굴은 차량이 위치하는 도로의 보행자, 차량 운전자·승객 및/또는 다른 차량의 운전자·승객의 얼굴을 포함하고, 상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 속성 인식 결과를 포함한다.In one possible realization, the image includes an image of a road on which the vehicle is located and/or an image within the vehicle, which is captured by an in-vehicle camera installed in the vehicle, and the face in the image is a pedestrian on the road on which the vehicle is located, a driver of the vehicle. Includes the face of a passenger and/or a driver/passenger of another vehicle, and the attribute recognition result includes an attribute recognition result that satisfies one or more of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, and a predetermined motion do.
가능한 일 실현형태에서는 차량에 차재 카메라가 설치되어도 된다. 하나의 차재 카메라가 차량 내의 이미지 및 차량이 위치하는 도로의 이미지를 동시에 촬상하도록 설치되어도 되고, 차량 내의 이미지를 촬상하는 카메라와 차량이 위치하는 도로의 이미지를 촬상하는 카메라의 2개의 카메라가 개별적으로 설치되어도 되지만, 본 발명에서는 이것이 한정되지 않는다. 차재 카메라는 가시광 카메라, 적외 카메라 또는 양안 카메라 등으로 해도 되지만, 수요 및 적용 장면에 따라 차재 카메라를 선택할 수 있다.In one possible implementation mode, an on-vehicle camera may be installed in the vehicle. One in-vehicle camera may be installed to simultaneously capture an image in the vehicle and an image of a road on which the vehicle is located, and two cameras, a camera for capturing an image in the vehicle and a camera for capturing an image of a road on which the vehicle is located, are separately Although it may be provided, this is not limited in this invention. The in-vehicle camera may be a visible light camera, an infrared camera, a binocular camera, or the like, but an in-vehicle camera may be selected according to demand and application scenes.
가능한 일 실현형태에서는 차재 카메라는 차량이 위치하는 도로의 이미지를 촬상해도 된다. 차량이 위치하는 도로의 이미지에서 도로 위의 보행자의 얼굴을 포함해도 되고, 도로 위의 다른 차량의 운전자 또는 승객의 얼굴을 포함해도 된다. 본 발명의 실시예에 따른 방법에 의해 도로 위의 보행자 또는 다른 차량의 운전자·승객의 얼굴 속성 인식 결과를 결정할 수 있다. 얼굴 속성 인식 결과와 미리 설정된 제1 대상 오브젝트의 대응 관계를 미리 설정하고, 위험한 동작(전화를 함, 화장을 함 등)을 하고 있는 얼굴이나 감정이 불안정한 얼굴을 제1 대상 오브젝트로서 결정해도 된다. 제1 대상 오브젝트는 운전에 방해가 되거나, 또는 위험한 상황을 일으키는 위험한 요소를 갖는 대상자여도 된다.In one possible implementation form, the on-vehicle camera may capture an image of a road on which the vehicle is located. In the image of the road on which the vehicle is located, the face of a pedestrian on the road may be included, or the face of a driver or passenger of another vehicle on the road may be included. According to the method according to an embodiment of the present invention, a result of recognition of facial attributes of a pedestrian on a road or a driver/passenger of another vehicle may be determined. A corresponding relationship between the face attribute recognition result and the preset first target object may be set in advance, and a face making a dangerous action (calling, putting on makeup, etc.) or a face with unstable emotions may be determined as the first target object. The first target object may be a target having a dangerous element that interferes with driving or causes a dangerous situation.
예를 들면, 보행자(A)는 속성 인식 결과(1)(어린이, 달리고 있음), 보행자(B)는 속성 인식 결과(2)(고령자, 선글라스를 쓰고 있음, 서있음), 차량(A)의 운전자는 속성 인식 결과(3)(전화를 하고 있음), 차량(B)의 승객은 속성 인식 결과(4)(기쁨, 담배를 피우고 있음)이다. 속성 인식 결과와 미리 설정된 제1 대상 오브젝트의 대응 관계에 기초하여, 보행자(A)와 차량(A) 내의 운전자를 제1 대상 오브젝트로서 결정할 수 있다.For example, a pedestrian A has an attribute recognition result 1 (children, running), a pedestrian B has an attribute recognition result 2 (elderly person, wearing sunglasses, standing), and a driver of the vehicle A is the attribute recognition result (3) (they are on the phone), and the passenger of the vehicle B is the attribute recognition result (4) (joy, smoking). The pedestrian A and the driver in the vehicle A may be determined as the first target object based on the attribute recognition result and the preset corresponding relationship between the first target object.
가능한 일 실현형태에서는 차재 카메라는 차량의 운전자와 승객을 포함할 수 있는 차량 내의 이미지를 촬상해도 된다. 본 발명의 실시예에 따른 방법에 의해 차량의 운전자 및/또는 승객의 얼굴 속성 인식 결과를 결정할 수 있다. 수요에 따라, 속성 인식 결과가 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 얼굴을 제1 대상 오브젝트로서 결정할 수 있다. 여기서, 소정 연령에는 어린이, 고령자를 포함할 수 있고, 소정 성별에는 여성 또는 남성을 포함할 수 있고, 소정 장식품은 선글라스를 포함할 수 있고, 소정 표정은 분노, 슬픔 등을 포함할 수 있고, 소정 동작은 담배를 피우는 것, 화장을 하는 것 등을 포함할 수 있다. 상기 각 설정 조건을 조합하여 설정 조건을 만족하는 속성 인식 결과를 얻고, 설정 조건을 만족하는 얼굴을 제1 대상 오브젝트로서 결정해도 된다. 예를 들면, 얼굴 속성 인식 결과와 제2 대상 오브젝트의 대응 관계를 미리 설정하고, 위험한 동작(전화를 하는 것, 화장을 하는 것, 자는 것 등)을 하고 있는 얼굴이나 감정이 불안정한 얼굴을 제2 대상 오브젝트로서 결정해도 된다.In one possible realization, the on-vehicle camera may capture an image within the vehicle that may include the vehicle's driver and passengers. The method according to an embodiment of the present invention may determine a result of recognition of facial attributes of a driver and/or a passenger of a vehicle. According to the demand, a face whose attribute recognition result satisfies at least one of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined expression, and a predetermined motion may be determined as the first target object. Here, the predetermined age may include children and the elderly, the predetermined gender may include women or men, the predetermined ornament may include sunglasses, the predetermined expression may include anger, sadness, etc. The action may include smoking a cigarette, putting on makeup, and the like. The respective setting conditions may be combined to obtain an attribute recognition result that satisfies the setting conditions, and a face that satisfies the setting conditions may be determined as the first target object. For example, the correspondence relationship between the face attribute recognition result and the second target object is set in advance, and a face performing a dangerous action (calling, putting on makeup, sleeping, etc.) or a face with unstable emotions is set as the second You may decide as a target object.
예를 들면, 차량의 운전자는 속성 인식 결과(1)(뭔가 먹고 있음), 승객(A)은 속성 인식 결과(2)(선글라스를 쓰고 있음, 기쁨), 승객(B)는 속성 인식 결과(3)(전화를 하고 있음), 승객(C)은 속성 인식 결과(4)(기쁨, 담배를 피우고 있음)이다. 속성 인식 결과와 미리 설정된 제2 대상 오브젝트의 대응 관계에 기초하여, 차량의 운전자를 제2 대상 오브젝트로서 결정할 수 있다. 차량 운전자와 승객에 대해 상이한 속성 인식 결과와 제2 대상 오브젝트의 대응 관계를 설정해도 된다.For example, the driver of a vehicle has an attribute recognition result (1) (eating something), a passenger (A) has an attribute recognition result (2) (wearing sunglasses, joy), and a passenger (B) has an attribute recognition result (3) ) (calling), the passenger C is the attribute recognition result (4) (joy, smoking). The driver of the vehicle may be determined as the second target object based on the attribute recognition result and the preset corresponding relationship between the second target object. A correspondence relationship between different attribute recognition results and a second target object may be set for the vehicle driver and the passenger.
가능한 일 실현형태에서는 상기 방법은In one possible implementation, the method
상기 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제1 대상 오브젝트를 결정하는 것과,determining a first target object based on a result of recognizing face attributes in the image;
결정된 상기 제1 대상 오브젝트에 따라 차량이 속도 유지, 방향 유지, 감속, 조타, 브레이크 중 어느 하나를 실행하도록 제시 정보를 송신하거나, 및/또는 차량 제어 시스템에 제어 지령을 송신하는 것을 추가로 포함한다.The method further includes transmitting presentation information so that the vehicle executes any one of maintaining speed, maintaining direction, decelerating, steering, and braking according to the determined first target object, and/or transmitting a control command to a vehicle control system. .
가능한 일 실현형태에서는 차량 내의 이미지 및 차량이 위치하는 도로의 이미지의 얼굴 속성 인식은 인텔리전트 드라이빙 시스템, 운전 지원 시스템, 안전 운전 시스템 등에 적용 가능하다. 차량이 대응하는 운전 동작을 실행하도록 차량의 운전자 또는 차량의 관찰자에게 제시 정보를 송신해도 되고, 설정된 운전 제어 정보를 차량 운전 제어 시스템에 송신해도 된다.In one possible realization, the facial attribute recognition of an image in a vehicle and an image of a road on which the vehicle is located is applicable to an intelligent driving system, a driving assistance system, a safe driving system, and the like. The presentation information may be transmitted to the driver of the vehicle or the observer of the vehicle so that the vehicle executes the corresponding driving operation, and the set driving control information may be transmitted to the vehicle driving control system.
가능한 일 실현형태에서는 결정된 제1 대상 오브젝트에 따라 제시 정보를 송신해도 된다. 본 발명에서는 제시 정보의 구체적인 실현 형태 및 제시 내용이 한정되지 않는다. 예를 들면, 「전방에는 달리고 있는 아이들이 있기 때문에, 주의해주십시오」, 「운전자는 전화를 하지 마십시오. 안전 운전해주세요」 등과 같은 음성 제시를 송신해도 된다. 결정된 제1 대상 오브젝트에 기초하여 설정된 운전 제어 정보를 차량 운전 제어 시스템에 송신하여, 차량이 감속, 조타, 브레이크 중 하나 이상을 실행하도록 제어해도 된다. 제시 정보를 송신함과 함께 설정된 운전 제어 정보를 송신해도 된다. 본 발명에서는 이것이 한정되지 않는다.In one possible implementation form, the presentation information may be transmitted according to the determined first target object. In the present invention, the specific realization form and presentation content of the presentation information are not limited. For example, "There are children running ahead, so please be careful", "Drivers do not call. Please drive safely.” The driving control information set based on the determined first target object may be transmitted to the vehicle driving control system to control the vehicle to execute one or more of deceleration, steering, and braking. In addition to transmitting the presentation information, the set operation control information may be transmitted. In the present invention, this is not limited.
본 실시예에서는 차량에 설치된 차재 카메라에 의해 차량 내의 이미지 및/또는 차량이 위치하는 도로의 이미지를 촬상하여 차량이 위치하는 도로 상의 보행자, 차량의 운전자·승객 및/또는 다른 차량의 운전자·승객의 얼굴 속성 인식 결과를 얻는다. 본 실시예에 따른 속성 인식 결과는 인텔리전트 드라이빙, 운전 지원 등의 보안을 강화하는 것에 이용 가능하다.In this embodiment, an image in the vehicle and/or an image of a road on which the vehicle is located is captured by an in-vehicle camera installed in the vehicle, so that pedestrians on the road where the vehicle is located, drivers and passengers of the vehicle, and/or drivers and passengers of other vehicles Get the face attribute recognition result. The attribute recognition result according to the present embodiment can be used to enhance security such as intelligent driving and driving support.
가능한 일 실현형태에서는 상기 이미지는 쇼핑 센터, 학교, 대형 회장, 노면, 오피스 빌딩 중 어느 하나를 포함하는 관찰 장소에 설치된 관찰 카메라에 의해 촬상되는 관찰 이미지를 포함하고, 상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 속성 인식 결과를 포함한다.In one possible implementation form, the image includes an observation image captured by an observation camera installed in an observation place including any one of a shopping center, a school, a large venue, a road surface, and an office building, and the attribute recognition result is a predetermined age; The attribute recognition result that satisfies at least one of a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, and a predetermined motion is included.
가능한 일 실현형태에서는 쇼핑 센터, 학교, 대형 회장, 노면, 오피스 빌딩 등의 관찰 장소의 설정 위치에 관찰 카메라를 설치해도 된다. 예를 들면, 출입구, 중요한 도로, 중요한 장소에 관찰 카메라를 설치해도 된다. 관찰 카메라는 쇼핑 센터의 내부 또는 외부, 학교 운동장 또는 교실 내, 대형 회장 내부의 관찰 이미지를 촬상할 수 있다. 상기 관찰 장소에 출입하는 사람이 많기 때문에, 관찰 이미지에서 복수의 얼굴을 포함할 수 있다. 본 발명의 실시예에 따른 방법에 의해 관찰 이미지에서의 얼굴 속성 인식 결과를 결정할 수 있다. 여기에서, 설정 조건을 만족하는 속성 인식 결과를 제2 대상 오브젝트로서 결정하는 것에 대해서는 제1 대상 오브젝트로서 결정하는 경우의 관련 설명을 참조하면 되고, 여기에서 중복 설명을 생략한다.In one possible realization mode, the observation camera may be installed at a set position of an observation place such as a shopping center, a school, a large venue, a road surface, or an office building. For example, an observation camera may be installed at an entrance, an important road, or an important location. The observation camera may capture observation images inside or outside a shopping center, in a school yard or classroom, or inside a large venue. Since many people enter and exit the observation site, a plurality of faces may be included in the observation image. According to the method according to an embodiment of the present invention, a result of recognizing a face attribute in an observation image may be determined. Here, for determining the attribute recognition result that satisfies the setting condition as the second target object, reference may be made to the related description in the case of determining as the first target object, and redundant description will be omitted here.
예를 들면, 쇼핑 센터에 관찰 이미지를 촬상하는 관찰 카메라를 설치하여 쇼핑 센터 내의 스탭 또는 고객의 얼굴 속성 인식 결과를 얻어도 된다. 학교 교실 내 또는 운동장에 관찰 이미지를 촬상하는 관찰 카메라를 설치하여 교사, 학생 또는 학교 밖의 사람들의 얼굴 속성 인식 결과를 얻어도 된다. 관찰 이미지에서의 얼굴 속성 인식 결과는 보안 작업 또는 설정 정보의 방향성 송신에 이용 가능하다.For example, an observation camera for capturing an observation image may be provided in the shopping center to obtain the facial attribute recognition result of the staff or customer in the shopping center. An observation camera for capturing an observation image may be installed in a school classroom or a playground to obtain a result of recognition of facial attributes of teachers, students, or people outside the school. The facial attribute recognition result in the observation image can be used for security operation or directional transmission of setting information.
가능한 일 실현형태에서는 상기 방법은In one possible implementation, the method
상기 관찰 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제2 대상 오브젝트를 결정하는 것과,determining a second target object based on a result of facial attribute recognition in the observation image;
결정된 상기 제2 대상 오브젝트에 따라 상기 관찰 장소에서 설정 정보를 송신하거나, 또는 결정된 상기 제2 대상 오브젝트에 따라 제시 정보를 관찰자에게 송신하는 것을 추가로 포함한다.The method further includes transmitting setting information at the observation location according to the determined second target object, or transmitting presentation information to an observer according to the determined second target object.
가능한 일 실현형태에서는 얼굴 속성 인식 결과와 미리 설정된 제2 대상 오브젝트의 대응 관계를 미리 설정해도 된다. 감정이 불안정한 얼굴을 제2 대상 오브젝트로서 결정해도 되고, 설정 조건을 만족하는 여성 등의 속성 인식 결과가 만족하는 얼굴을 제2 대상 오브젝트로서 결정해도 된다. 예를 들면, 방과 시간에 학교의 관찰 이미지에서의 얼굴 속성 인식 결과에 기초하여, 학생을 제2 대상 오브젝트로 하여, 라디오에서 「학생들은 운동장에서 나와주세요」라는 취지의 방송 메시지를 내보내도록 해도 된다. 쇼핑 센터의 관찰 이미지에서의 얼굴 속성 인식 결과 중, 여성 고객을 제2 대상 오브젝트로 하여, 쇼핑 센터의 대형 화면에 화장품에 대한 광고 등의 설정 정보를 재생해도 되고, 남성 고객을 제2 대상 오브젝트로 하여 쇼핑 센터의 대형 화면에 자동차에 대한 광고 등의 설정 정보를 재생해도 된다. 제2 대상 오브젝트에 따라, 제2 대상 오브젝트가 위험 대상자 또는 관찰 대상자 등인 취지의 제시 정보를 관찰 장소의 관찰자에게 송신해도 된다. 본 발명에서는 설정 정보 또는 제시 정보의 실현 형태 및 정보 내용이 한정되지 않는다.In one possible implementation mode, a correspondence relationship between the face attribute recognition result and a preset second target object may be preset. A face with unstable emotions may be determined as the second target object, or a face with which the attribute recognition result such as a woman who satisfies a setting condition is satisfied may be determined as the second target object. For example, during school hours, based on the facial attribute recognition result in the school observation image, the student may be the second target object, and a broadcast message to the effect of "Students, please leave the playground" may be sent out on the radio. . Among the facial attribute recognition results in the observation image of the shopping center, setting information such as advertisements for cosmetics may be reproduced on a large screen of the shopping center with the female customer as the second target object, and the male customer as the second target object Accordingly, setting information such as advertisements for automobiles may be reproduced on a large screen of a shopping center. According to the second target object, presentation information indicating that the second target object is a dangerous person or an observation target or the like may be transmitted to the observer at the observation location. In the present invention, the realization form and information content of setting information or presentation information are not limited.
본 실시예에서는 관찰 장소에 설치된 관찰 카메라에 의해 관찰 이미지를 촬상하여 관찰 이미지에서의 얼굴 속성 인식 결과를 얻는다. 본 실시예에 따른 속성 인식 결과는 관찰 장소의 보안을 강화시키는 것, 또는 관찰 장소에 설정 정보를 송신하는 것에 이용 가능하다.In the present embodiment, an observation image is captured by an observation camera installed at the observation site to obtain a facial attribute recognition result in the observation image. The attribute recognition result according to the present embodiment can be used to enhance the security of the observation site, or to transmit setting information to the observation site.
도 2는 본 발명의 실시예에 따른 얼굴 속성 인식 방법의 흐름도를 나타낸다. 도 2에 나타내는 바와 같이, 상기 얼굴 속성 인식 방법의 단계(S10)는 상기 이미지에 대해 합성곱 처리를 행하여, 상기 얼굴의 합성곱 특징을 추출하는 단계(S11)를 포함한다.2 is a flowchart of a face attribute recognition method according to an embodiment of the present invention. As shown in FIG. 2 , the step (S10) of the face attribute recognition method includes a step (S11) of performing convolutional processing on the image to extract convolutional features of the face.
가능한 일 실현형태에서는 합성곱 코어는 통상 m*n의 2차원 매트릭스이다. 미리 설정된 합성곱 코어 및 스텝 폭을 사용하여 이미지에서의 상이한 위치의 이미지 블록에 대해 합성곱 처리를 행하여, 이미지에서 특정한 특징을 추출한다. 예를 들면, 이미지에서의 대상 오브젝트의 윤곽, 색의 농담 등의 특징을 얼굴의 합성곱 특징으로서 추출해도 된다.In one possible implementation, the convolutional core is usually a two-dimensional matrix of m*n. Convolution processing is performed on image blocks at different positions in the image using preset convolutional cores and step widths to extract specific features from the image. For example, features such as the outline of the target object in the image and the shade of color may be extracted as convolutional features of the face.
단계(S20)는 단계(S21)와 단계(S22)를 포함한다. 단계(S21)에서는 상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻는다.Step S20 includes steps S21 and S22. In step S21, features of each type of face attribute are extracted from the convolutional features of the face to obtain attribute features of each type of face attribute.
가능한 일 실현형태에서는 추출된 얼굴의 합성곱 특징에는 복수 종류의 얼굴 속성의 특징이 포함된다. 미리 설정된 얼굴 속성에 기초하여, 추출된 합성곱 특징에서 각 종류의 얼굴 속성의 속성 특징을 얻도록 해도 된다. 예를 들면, 이미지(1)에서 추출된 얼굴의 합성곱 특징에는 (특징 정보(1), 특징 정보(2), …특징 정보(100))가 포함되고, 미리 설정된 3종류의 얼굴 속성에 기초하여, 추출된 얼굴의 합성곱 특징을 구별하여, 얼굴 속성(1)에 대한 속성 특징(특징 정보(1), 특징 정보(2), …특징 정보(50)), 얼굴 속성(2)에 대한 속성 특징(특징 정보(20), 특징 정보(21), …특징 정보(80)), 얼굴 속성(3)에 대한 속성 특징(특징 정보(1), 특징 정보(2), …특징 정보(100))을 얻도록 해도 된다.In one possible implementation form, the extracted convolutional features of the face include features of a plurality of types of facial attributes. Based on the preset facial attributes, the attribute features of each type of facial attributes may be obtained from the extracted convolutional features. For example, the convolutional features of the face extracted from the image (1) include (feature information (1), feature information (2), ... feature information (100)), and based on three types of preset face attributes Thus, by distinguishing the convolutional features of the extracted face, the attribute features for the face attribute (1) (feature information (1), feature information (2), … feature information (50)), and for the face attribute (2) Attribute characteristics (feature information (20), characteristic information (21), ... characteristic information (80)), attribute characteristics (characteristic information (1), characteristic information (2), ... characteristic information (100) for face attribute (3) )) can be obtained.
단계(S22)에서는 각 상기 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 얼굴 속성의 확률 예측 결과를 확인한다.In step S22, classification processing is performed on the attribute characteristics of each of the face attributes, and the probability prediction result of each face attribute is confirmed.
가능한 일 실현형태에서는 각 종류의 얼굴 속성의 속성 특징에 기초하여 분류 처리를 행하여 각 종류의 얼굴 속성의 확률 예측 결과를 얻도록 해도 된다. 예를 들면, 이미지(1)에 대해, 얼굴 속성(1)의 확률 예측 결과가 10%, 얼굴 속성(2)의 확률 예측 결과가 80%, 얼굴 속성(3)의 확률 예측 결과가 70%이다. 확률 임계치를 50%로 하는 경우, 이미지(1)에서의 얼굴 속성 인식 결과는 얼굴 속성(2)과 얼굴 속성(3)이다.In one possible implementation mode, classification processing may be performed based on the attribute characteristics of each type of facial attribute to obtain a probability prediction result of each type of facial attribute. For example, for the image 1, the probability prediction result of the face attribute 1 is 10%, the probability prediction result of the face attribute 2 is 80%, and the probability prediction result of the face attribute 3 is 70%. . When the probability threshold is 50%, the face attribute recognition results in the image (1) are the face attribute (2) and the face attribute (3).
본 실시예에서는 이미지의 합성곱 특징을 추출하고, 합성곱 특징에 기초하여 각 종류의 얼굴 속성의 속성 특징을 얻은 후에, 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여 각 종류의 얼굴 속성의 확률 예측 결과를 얻도록 해도 된다. 합성곱 특징 및 분류 처리에 의해, 얼굴 속성의 확률 예측 결과의 정밀도를 한층 더 향상시킬 수 있다.In this embodiment, after extracting the convolutional features of the image, and obtaining the attribute features of each type of facial attribute based on the convolutional characteristic, classification processing is performed on the attribute characteristics of each type of facial attribute to perform a classification process for each type of facial attribute You may make it obtain the probability prediction result of . By the convolutional feature and classification processing, the precision of the probabilistic prediction result of the face attribute can be further improved.
가능한 일 실현형태에서는 상기 얼굴 속성 인식 방법의 단계(S11)는 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는 것을 포함한다. 단계(S21)는 상기 뉴럴 네트워크의 전체 결합층에 의해 상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여, 각 종류의 얼굴 속성의 속성 특징을 얻는 것을 포함한다. 단계(S22)는 상기 뉴럴 네트워크의 분류층에 의해 상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하는 것을 포함한다.In one possible realization, step S11 of the facial attribute recognition method includes performing convolutional processing on the image by a convolutional layer of a neural network to extract convolutional features of the image. Step S21 includes extracting features of each type of facial attribute from the convolutional features of the face by the entire coupling layer of the neural network, and obtaining attribute features of each type of facial attribute. Step S22 includes performing classification processing on the attribute feature of each type of face attribute by the classification layer of the neural network, and confirming the probability prediction result of each type of face attribute.
가능한 일 실현형태에서는 뉴럴 네트워크는 입력층, 중간층 및 출력층을 포함할 수 있다. 입력층, 중간층 및 출력층은 전부 복수의 뉴런을 포함하고, 각 뉴런 사이에서 가변 가중치를 갖는 유향 접속(directed network)을 사용해도 된다. 뉴럴 네트워크는 이미 알려진 정보에 의해 학습·트레이닝을 반복하여 행하고, 뉴런 접속 가중치를 서서히 조정, 변경하는 방법에 의해, 입력과 출력의 관계를 시뮬레이션하는 모델을 제조하는 목적을 달성한다. 트레이닝이 끝난 뉴럴 네트워크는 시뮬레이션이 끝난 입력과 출력 관계의 모델을 사용하여, 입력 정보를 검출하고, 입력 정보에 대응하는 출력 정보를 제공할 수 있다.In one possible implementation, the neural network may comprise an input layer, an intermediate layer and an output layer. The input layer, the intermediate layer, and the output layer all include a plurality of neurons, and a directed network having a variable weight between each neuron may be used. A neural network achieves the purpose of producing a model that simulates the relationship between input and output by repeatedly learning and training based on known information, and gradually adjusting and changing the neuron connection weights. The trained neural network may detect input information and provide output information corresponding to the input information by using the simulated input-output relationship model.
가능한 일 실현형태에서는 뉴럴 네트워크는 복수의 합성곱층, 전체 결합층 및 분류층 등을 포함할 수 있다. 뉴럴 네트워크의 합성곱층에 의해 이미지에 대해 합성곱 처리를 행하여, 이미지의 합성곱 특징을 추출하고, 합성곱 특징에 기초하여, 전체 결합층에 의해 각 종류의 얼굴 속성의 속성 특징을 추출한 후, 추가로 각 종류의 얼굴 속성의 속성 특징을 분류층에 의해 분류 처리하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻도록 해도 된다.In one possible implementation, the neural network may include a plurality of convolutional layers, a full coupling layer and a classification layer, and the like. Convolutional processing is performed on the image by the convolutional layer of the neural network, and the convolutional features of the image are extracted. , the attribute characteristics of each type of facial attribute may be classified by the classification layer to obtain a probability prediction result of each type of facial attribute.
본 실시예에서는 이미지를 뉴럴 네트워크에 입력하고, 뉴럴 네트워크의 합성곱층, 전체 결합층 및 분류층을 사용하여 이미지의 합성곱 특징을 추출하고, 합성곱 특징에 기초하여, 각 종류의 얼굴 속성의 속성 특징을 얻고, 추가로 속성 특징에 대해 분류 처리를 행하여 이미지의 각 종류의 얼굴 속성의 확률 예측 결과를 얻도록 해도 된다. 뉴럴 네트워크의 강력한 처리 능력에 의해, 얼굴 속성 인식의 인식 효율을 한층 더 향상시키고, 인식 결과의 정밀도를 한층 더 향상시킬 수 있다.In this embodiment, an image is input to a neural network, and a convolutional feature of the image is extracted using the convolutional layer, the total coupling layer, and the classification layer of the neural network, and based on the convolutional feature, the properties of each type of face attribute It is also possible to obtain a feature and further perform classification processing on the attribute feature to obtain a probability prediction result of each type of face attribute of the image. With the powerful processing power of the neural network, the recognition efficiency of face attribute recognition can be further improved, and the precision of the recognition result can be further improved.
가능한 일 실현형태에서는 상기 뉴럴 네트워크는 샘플 이미지 세트에 기초하여 감독 트레이닝이 미리 행해진 것이고, 상기 샘플 이미지 세트 내의 샘플 이미지는 복수 종류의 얼굴 속성의 레이블 정보가 포함되어 있다.In one possible implementation, the neural network has been previously supervised by training based on a sample image set, and the sample image in the sample image set includes label information of a plurality of types of facial attributes.
가능한 일 실현형태에서는 복수 종류의 얼굴 속성을 포함하는 샘플 이미지로 이루어지는 샘플 이미지 세트를 사용하여 뉴럴 네트워크의 감독 트레이닝을 행해도 된다. 예를 들면, 샘플 이미지 세트는 N개의 샘플 이미지를 포함하고, 각 샘플 이미지는 복수 종류의 얼굴 속성의 레이블 정보를 포함할 수 있다. 예를 들면, 샘플 이미지(1)의 얼굴은 각각이 제1 종류의 얼굴 속성, 제4 종류의 얼굴 속성 및 제8 종류의 얼굴 속성인 3종류의 얼굴 속성의 레이블 정보를 포함하고, 샘플 이미지(2)의 얼굴은 각각이 제2 종류의 얼굴 속성 및 제4 종류의 얼굴 속성인 2종류의 얼굴 속성의 레이블 정보를 포함하고, …복수 종류의 얼굴 속성을 포함하는 샘플 이미지로 이루어지는 샘플 이미지 세트를 이용하여 뉴럴 네트워크를 트레이닝해도 된다.In one possible realization, supervised training of the neural network may be performed using a sample image set comprising sample images including a plurality of types of facial attributes. For example, the sample image set may include N sample images, and each sample image may include label information of a plurality of types of facial attributes. For example, the face of the sample image 1 includes label information of three types of face attributes, each of which is a first type of face attribute, a fourth type of face attribute, and an eighth type of face attribute, and the sample image ( The face of 2) includes label information of two types of facial attributes, each of which is a second type of facial attribute and a fourth type of facial attribute, ... A neural network may be trained using a sample image set comprising sample images including a plurality of types of facial attributes.
본 실시예에서는 복수 종류의 얼굴 속성을 포함하는 샘플 이미지로 이루어지는 샘플 이미지 세트를 사용하여, 뉴럴 네트워크의 감독 트레이닝을 행해도 된다. 뉴럴 네트워크의 트레이닝 효율을 향상시킬 수 있고, 트레이닝이 끝난 뉴럴 네트워크가 복수 종류의 얼굴 속성을 동시에 인식할 수 있도록 한다.In this embodiment, supervised training of the neural network may be performed using a sample image set comprising sample images including a plurality of types of facial attributes. The training efficiency of the neural network can be improved, and the trained neural network can recognize a plurality of types of facial attributes at the same time.
가능한 일 실현형태에서는 상기 뉴럴 네트워크의 트레이닝 과정은 뉴럴 네트워크에 의해 상기 샘플 이미지의 각 종류의 얼굴 속성의 예측 결과를 각각 얻는 것과, 각 종류의 얼굴 속성의 예측 결과와 그 레이블 정보에 기초하는 제1 손실을 각각 결정하는 것과, 각 종류의 얼굴 속성의 제1 손실에 기초하여 제2 손실을 결정하는 것과, 상기 제2 손실에 기초하여 뉴럴 네트워크의 네트워크 파라미터를 조정하는 것을 포함한다.In one possible implementation form, the training process of the neural network is to obtain prediction results of each type of facial attribute of the sample image by the neural network, and a first method based on the prediction result of each type of facial attribute and the label information. respectively determining a loss, determining a second loss based on a first loss of each kind of facial attribute, and adjusting a network parameter of the neural network based on the second loss.
가능한 일 실현형태에서는 뉴럴 네트워크의 트레이닝 과정에서는 샘플 이미지를 뉴럴 네트워크에 입력하여 샘플 이미지의 각 종류의 얼굴 속성의 예측 결과를 얻도록 해도 된다. 예를 들면, 샘플 이미지(1)는 얼굴 속성(1)의 레이블 정보, 얼굴 속성(2)의 레이블 정보, 얼굴 속성(3)의 레이블 정보, 얼굴 속성(4)의 레이블 정보 및 얼굴 속성(5)의 레이블 정보와 같은 5종류의 얼굴 속성의 레이블 정보가 포함되어 있다. 샘플 이미지에서의 얼굴의 실제 속성에 기초하여, 각 얼굴 속성의 레이블 정보를 얻을 수 있다. 예를 들면, 샘플 이미지의 얼굴에 대해서는 얼굴 속성(3)이 존재하지 않는 경우, 얼굴 속성(3)의 레이블 정보는 0 또는 null로 해도 된다. 뉴럴 네트워크에서 미리 설정된 얼굴 속성은 얼굴 속성(1)∼얼굴 속성(5)의 5개가 포함된다. 예를 들면, 샘플 이미지(1)의 각 종류의 얼굴 속성의 예측 결과에 대해 얼굴 속성(1)의 예측 결과가 80%, 얼굴 속성(2)의 예측 결과가 40%, 얼굴 속성(3)의 예측 결과가 60%, 얼굴 속성(4)의 예측 결과가 10%, 얼굴 속성(5)의 예측 결과가 20%이다.In one possible implementation mode, in the training process of the neural network, a sample image may be input to the neural network to obtain prediction results of face attributes of each type of the sample image. For example, the sample image 1 includes label information of face attribute 1, label information of face attribute 2, label information of face attribute 3, label information of face attribute 4, and face attribute 5 ), label information of 5 types of face attributes is included. Based on the actual attributes of the face in the sample image, label information of each face attribute may be obtained. For example, when the face attribute 3 does not exist for the face of the sample image, the label information of the face attribute 3 may be set to 0 or null. In the neural network, preset face attributes include five face attributes (1) to (5). For example, with respect to the prediction result of each type of facial attribute of the sample image 1, the prediction result of the face attribute (1) is 80%, the prediction result of the face attribute (2) is 40%, and the prediction result of the facial attribute (3) is 40%. The prediction result is 60%, the prediction result of the face attribute (4) is 10%, and the prediction result of the face attribute (5) is 20%.
가능한 일 실현형태에서는 각 종류의 얼굴 속성의 예측 결과 및 각 종류의 얼굴 속성의 레이블 정보에 기초하여, 각 종류의 얼굴 속성의 제1 손실을 산출해도 된다. 미리 설정된 손실 함수, 대상 얼굴 속성의 예측 결과 및 대상 얼굴 속성의 레이블 정보에 기초하여, 대상 얼굴 속성의 제1 손실을 산출해도 된다. 대상 얼굴속성은 어느 얼굴 속성이다.In one possible implementation mode, the first loss of each type of facial attribute may be calculated based on the prediction result of each type of facial attribute and label information of each type of facial attribute. The first loss of the target facial attribute may be calculated based on a preset loss function, the prediction result of the target facial attribute, and label information of the target facial attribute. The target face attribute is a certain face attribute.
가능한 일 실현형태에서는 샘플 이미지의 각 종류의 얼굴 속성의 제1 손실을 가산하여 제2 손실을 얻도록 해도 된다.In one possible implementation, the first loss of each type of facial attribute in the sample image may be added to obtain a second loss.
가능한 일 실현형태에서는 어느 1종류의 상기 얼굴 속성을 포함하는 대상 얼굴 속성의 제1 손실 및 상기 대상 얼굴 속성의 가중치에 기초하여, 상기 대상 얼굴 속성의 가중치 손실을 결정하는 것과, 각 종류의 상기 대상 얼굴 속성의 가중치 손실에 기초하여, 상기 뉴럴 네트워크의 제2 손실을 결정하는 것을 포함한다.In one possible implementation form, determining a weight loss of the target facial attribute based on a first loss of the target facial attribute including any one type of the facial attribute and the weight of the target facial attribute; and determining a second loss of the neural network based on a weight loss of the facial attribute.
가능한 일 실현형태에서는 각 종류의 얼굴 속성마다 상이한 가중치를 설정해도 된다. 예를 들면, 5종류의 얼굴 속성을 미리 설정하고 얼굴 속성(1)의 가중치를 K1로 하고, 얼굴 속성(2)의 가중치를 K2로 하고, …각 종류의 얼굴 속성의 제1 손실과 그 대응하는 가중치를 곱셈하여, 대상 얼굴 속성의 가중치 손실을 얻는다. 또한, 각 얼굴 속성의 가중치 손실을 가산하여, 제2 손실을 얻도록 해도 된다.In one possible implementation form, different weights may be set for each type of face attribute. For example, five types of facial attributes are preset, the weight of the face attribute (1) is set to K1, the weight of the face attribute (2) is set to be K2, ... The weight loss of the target facial attribute is obtained by multiplying the first loss of each type of facial attribute by the corresponding weight. In addition, the weight loss of each facial attribute may be added to obtain a second loss.
가능한 일 실현형태에서는 뉴럴 네트워크에 제2 손실의 구배를 역방향으로 전파하여, 뉴럴 네트워크의 네트워크 파라미터를 조정해도 된다. 미리 설정된 수속 조건을 만족하거나 또는 미리 설정된 트레이닝 횟수에 도달할 때까지 샘플 이미지 세트의 각 샘플 이미지를 뉴럴 네트워크에 순차 입력하고, 뉴럴 네트워크에 대해 반복하여 트레이닝을 행하여, 뉴럴 네트워크의 트레이닝을 완성시켜도 된다.In one possible implementation, the second loss gradient may be propagated in the reverse direction to the neural network to adjust the network parameters of the neural network. Each sample image of the sample image set is sequentially input to the neural network until a preset procedure condition is satisfied or a preset number of training is reached, and the neural network is repeatedly trained to complete the training of the neural network. .
본 실시예에서는 샘플 이미지를 뉴럴 네트워크에 입력하여 각 종류의 얼굴 속성의 예측 결과를 얻고, 각 종류의 얼굴 속성의 예측 결과와 그 레이블 정보에 기초하는 제1 손실을 각각 결정하고, 각 종류의 얼굴 속성의 제1 손실에 기초하여 제2 손실을 결정하고, 상기 제2 손실에 기초하여 뉴럴 네트워크의 네트워크 파라미터를 조정해도 된다. 본 실시예에서는 각 종류의 얼굴 속성의 손실에 기초하여 결정된 손실에 기초하여, 뉴럴 네트워크의 파라미터를 조정함으로써, 특정 얼굴 속성의 관련성이 뉴럴 네트워크의 파라미터 조정에 충분히 반영되기 때문에, 뉴럴 네트워크에 의한 복수 종류의 얼굴 속성 인식의 정밀도를 향상시킬 수 있다.In this embodiment, a sample image is input to a neural network to obtain prediction results of each type of face attribute, and a first loss based on a prediction result of each type of face attribute and its label information is determined, respectively, and each type of face A second loss may be determined based on a first loss of an attribute, and a network parameter of the neural network may be adjusted based on the second loss. In the present embodiment, by adjusting the parameters of the neural network based on the loss determined based on the loss of each type of facial attribute, the relevance of the specific facial attribute is sufficiently reflected in the parameter adjustment of the neural network. It is possible to improve the precision of recognition of facial attributes of types.
도 3은 본 발명의 실시예에 따른 얼굴 속성 인식 방법의 뉴럴 네트워크의 트레이닝 흐름의 모식도를 나타낸다. 도 3에 나타내는 바와 같이, 상기 뉴럴 네트워크의 트레이닝 흐름은 이하를 포함한다.3 is a schematic diagram of a training flow of a neural network of a facial attribute recognition method according to an embodiment of the present invention. As shown in FIG. 3 , the training flow of the neural network includes the following.
1. 뉴럴 네트워크의 합성곱층에 의해 얼굴의 특징을 추출한다.1. Extract facial features by the convolutional layer of the neural network.
2. 뉴럴 네트워크의 전체 결합층에 의해, 미리 설정된 각 얼굴 속성에 따라 각 종류의 얼굴 속성의 속성 특징을 얻는다. 도 3에 나타내는 바와 같이, 얼굴 속성(1)의 속성 특징, 얼굴 속성(2)의 속성 특징, …얼굴 속성(N)의 속성 특징을 얻는다.2. By the entire bonding layer of the neural network, the attribute features of each kind of facial attribute are obtained according to each preset facial attribute. As shown in Fig. 3, the attribute characteristic of the facial attribute (1), the attribute characteristic of the facial attribute (2), ... Get the attribute feature of the face attribute (N).
3. 뉴럴 네트워크의 분류층에 의해, 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻는다. 각 종류의 얼굴 속성의 확률 예측 결과 및 샘플 이미지의 레이블 정보에 기초하여, 각 종류의 얼굴 속성의 제1 손실을 얻는다.3. Classification processing is performed on the attribute characteristics of each type of facial attribute by the classification layer of the neural network, and a probability prediction result of each type of facial attribute is obtained. A first loss of each type of face attribute is obtained based on the result of predicting the probability of each type of face attribute and the label information of the sample image.
4. 각 종류의 얼굴 속성의 제1 손실 및 각종 얼굴 속성에 대응하는 가중치(K)에 기초하여, 제2 손실을 얻는다.4. A second loss is obtained based on the first loss of each type of facial attribute and a weight (K) corresponding to the various facial attributes.
5. 제2 손실을 이용하여 뉴럴 네트워크의 파라미터를 조정하여, 뉴럴 네트워크의 트레이닝을 완성시킨다.5. Adjust the parameters of the neural network using the second loss to complete the training of the neural network.
가능한 일 실현형태에서는 상기 뉴럴 네트워크의 트레이닝 방법은 제1 이미지에 대해 반전, 크롭, 평행 이동, 노이즈의 부가 중 하나 이상을 행하여, 상기 제1 이미지의 노이즈 이미지를 얻는 것과, 상기 제1 이미지 및 상기 노이즈 이미지를 샘플 이미지로서 결정하여, 상기 샘플 이미지 세트를 얻는 것을 추가로 포함한다.In one possible implementation, the training method of the neural network comprises: performing one or more of inversion, cropping, translation, and addition of noise on a first image to obtain a noisy image of the first image; determining a noise image as a sample image to obtain the sample image set.
가능한 일 실현형태에서는 뉴럴 네트워크의 트레이닝에 사용되는 원본 이미지에 대해, 수평 반전, 랜덤 크롭, 평행 이동, 색 공간의 랜덤 요란(擾亂) 등의 노이즈 추가를 행하여, 원본 이미지의 노이즈 이미지를 얻고, 노이즈 이미지 및 원본 이미지 전부를 샘플 이미지로 하여, 샘플 이미지 세트를 얻는다.In one possible implementation form, noises such as horizontal inversion, random cropping, translation, and random disturbance of color space are added to the original image used for training the neural network to obtain a noise image of the original image, By taking both the image and the original image as sample images, a sample image set is obtained.
본 실시예에서는 이미지에 대해 반전, 크롭, 평행 이동, 노이즈의 부가 중 하나 이상을 행하여, 상기 이미지의 노이즈 이미지를 얻음으로써, 샘플 이미지의 수를 늘릴 수 있고, 뉴럴 네트워크의 일반화 능력을 높일 수 있다.In this embodiment, by performing one or more of inversion, cropping, translation, and noise addition on the image, to obtain a noisy image of the image, the number of sample images can be increased and the generalization ability of the neural network can be increased. .
가능한 일 실현형태에서는 단계(S10)는 상기 이미지의 해상도를 조정하여 제1 처리 이미지를 얻는 것과, 상기 제1 처리 이미지에서의 얼굴의 특징을 추출하는 것을 포함한다.In one possible implementation, step S10 includes obtaining a first processed image by adjusting the resolution of the image, and extracting facial features from the first processed image.
가능한 일 실현형태에서는 이미지의 해상도를 조정함으로써, 해상도가 조정된 이미지를 뉴럴 네트워크에 입력하여 얼굴 속성 인식을 행할 수 있다. 예를 들면, 수요에 따라 이미지의 해상도를 224×224, 128×128, 96×96, 64×64로 조정해도 된다. 이미지의 해상도가 낮을수록 뉴럴 네트워크에 의한 얼굴 속성 인식의 속도가 빨라진다. 얼굴 속성 인식의 정밀도 요구를 만족시키고, 이미지의 해상도를 낮게 하여 얼굴 속성 인식의 속도를 높게 할 수 있다.In one possible realization, by adjusting the resolution of the image, the image whose resolution has been adjusted is input to the neural network to perform facial attribute recognition. For example, the resolution of the image may be adjusted to 224x224, 128x128, 96x96, or 64x64 according to the demand. The lower the resolution of the image, the faster the facial attribute recognition by the neural network. It is possible to satisfy the precision requirement of facial attribute recognition and increase the speed of facial attribute recognition by lowering the resolution of the image.
본 실시예에서는 이미지의 해상도를 조정함으로써, 뉴럴 네트워크에 의한 얼굴 속성 인식의 속도를 높일 수 있다.In the present embodiment, the speed of facial attribute recognition by the neural network can be increased by adjusting the resolution of the image.
가능한 일 실현형태에서는 상기 방법은 상기 뉴럴 네트워크의 특징의 채널수를 조정하여 조정 뉴럴 네트워크를 얻는 것을 추가로 포함하고, 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는 것은 상기 조정 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는 것을 포함한다.In one possible realization, the method further comprises obtaining a coordinated neural network by adjusting the number of channels of the features of the neural network, performing convolution processing on the image by a convolutional layer of the neural network, Extracting the convolutional features includes performing convolutional processing on the image by a convolutional layer of the coordinated neural network to extract the convolutional features of the image.
가능한 일 실현형태에서는 뉴럴 네트워크의 특징의 채널수를 조정하고, 예를 들면, 뉴럴 네트워크의 합성곱층의 합성곱 코어의 채널수를 조정해도 된다. 채널수를 감소시킴으로써, 뉴럴 네트워크에 의한 얼굴 속성 인식의 속도를 높일 수 있다.In one possible implementation mode, the number of channels of the feature of the neural network may be adjusted, for example, the number of channels of the convolutional core of the convolutional layer of the neural network may be adjusted. By reducing the number of channels, the speed of facial attribute recognition by the neural network can be increased.
도 4는 본 발명의 실시예에 따른 얼굴 속성 인식 장치의 블록도를 나타낸다. 도 4에 나타내는 바와 같이, 상기 얼굴 속성 인식 장치는 이미지에서의 얼굴의 특징을 추출하기 위한 특징 추출 모듈(100)과, 상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻기 위한 확률 예측 결과 취득 모듈(200)과, 각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정하기 위한 속성 인식 결과 취득 모듈(300)을 포함한다.4 is a block diagram of an apparatus for recognizing facial attributes according to an embodiment of the present invention. As shown in FIG. 4 , the facial attribute recognition apparatus performs a
가능한 일 실현형태에서는 상기 얼굴 속성 인식 결과는 상기 얼굴의 적어도 2개의 속성 인식 결과를 포함한다.In one possible realization, the face attribute recognition result includes at least two attribute recognition results of the face.
가능한 일 실현형태에서는 상기 얼굴 속성은 연령, 성별, 장식품, 피부색, 표정, 동작 중 하나 이상을 포함한다.In one possible realization, the facial attribute includes one or more of age, gender, ornament, skin color, expression, and motion.
가능한 일 실현형태에서는 상기 장식품은 보통의 안경, 선글라스, 모자, 마스크 중 하나 이상을 포함하고, 상기 표정은 기쁨, 슬픔, 울음, 분노, 흥분 중 하나 이상을 포함하고, 상기 동작은 담배를 피우는 것, 물/음료를 마시는 것, 식사를 하는 것, 화장을 하는 것, 전화를 하는 것 중 하나 이상을 포함한다.In one possible realization, the ornament comprises at least one of ordinary glasses, sunglasses, a hat, and a mask, the expression comprises at least one of joy, sadness, crying, anger, and excitement, and the action comprises smoking a cigarette. , drinking water/beverage, eating, putting on makeup, or making a phone call.
가능한 일 실현형태에서는 상기 이미지는 차량에 설치된 차재 카메라에 의해 촬상되는 차량이 위치하는 도로의 이미지 및/또는 차량 내의 이미지를 포함하고, 상기 이미지에서의 얼굴은 차량이 위치하는 도로의 보행자, 차량 운전자·승객 및/또는 다른 차량의 운전자·승객의 얼굴을 포함하고, 상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 속성 인식 결과를 포함한다.In one possible realization, the image includes an image of a road on which the vehicle is located and/or an image within the vehicle, which is captured by an in-vehicle camera installed in the vehicle, and the face in the image is a pedestrian on the road on which the vehicle is located, a driver of the vehicle. Includes the face of a passenger and/or a driver/passenger of another vehicle, and the attribute recognition result includes an attribute recognition result that satisfies one or more of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, and a predetermined motion do.
가능한 일 실현형태에서는 상기 장치는 상기 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제1 대상 오브젝트를 결정하기 위한 제1 대상 오브젝트 결정 모듈과, 결정된 상기 제1 대상 오브젝트에 따라 차량이 속도 유지, 방향 유지, 감속, 조타, 브레이크 중 어느 하나를 실행하도록 제시 정보를 송신하거나 및/또는 차량 제어 시스템에 제어 명령을 송신하기 위한 운전 제어 모듈을 추가로 포함한다.In one possible implementation form, the apparatus includes a first target object determination module for determining a first target object based on a result of recognizing face attributes in the image, and a vehicle maintaining speed and direction according to the determined first target object It further includes a driving control module for transmitting presentation information and/or sending a control command to the vehicle control system to execute any one of holding, deceleration, steering, and braking.
가능한 일 실현형태에서는 상기 이미지는 쇼핑 센터, 학교, 대형 회장, 노면, 오피스 빌딩 중 어느 하나를 포함하는 관찰 장소에 설치된 관찰 카메라에 의해 촬상되는 관찰 이미지를 포함하고, 상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 속성 인식 결과를 포함한다.In one possible implementation form, the image includes an observation image captured by an observation camera installed in an observation place including any one of a shopping center, a school, a large venue, a road surface, and an office building, and the attribute recognition result is a predetermined age; The attribute recognition result that satisfies at least one of a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, and a predetermined motion is included.
가능한 일 실현형태에서는 상기 장치는 상기 관찰 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제2 대상 오브젝트를 결정하기 위한 제2 대상 오브젝트 결정 모듈과, 결정된 상기 제2 대상 오브젝트에 따라 상기 관찰 장소에서 설정 정보를 송신하거나, 또는 결정된 상기 제2 대상 오브젝트에 따라 제시 정보를 관찰자에게 송신하기 위한 관찰 제어 모듈을 추가로 포함한다.In one possible implementation form, the apparatus includes a second target object determining module configured to determine a second target object based on a result of facial attribute recognition in the observation image, and setting at the observation location according to the determined second target object. It further includes an observation control module for sending information, or for sending presentation information to an observer according to the determined second target object.
가능한 일 실현형태에서는 상기 특징 추출 모듈은 상기 이미지에 대해 합성곱 처리를 행하여 상기 얼굴의 합성곱 특징을 추출한다.In one possible implementation, the feature extraction module performs convolutional processing on the image to extract convolutional features of the face.
가능한 일 실현형태에서는 상기 확률 예측 결과 취득 모듈은 상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻기 위한 얼굴 속성 특징 추출 서브 모듈과, 상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하기 위한 확률 예측 결과 취득 서브 모듈을 포함한다.In one possible implementation form, the probability prediction result acquisition module includes: a facial attribute feature extraction submodule for extracting features of each type of facial attribute from the convolutional features of the face to obtain attribute features of each type of facial attribute; and a probabilistic prediction result obtaining submodule for performing classification processing on the attribute characteristics of the type of face attribute, and confirming the probability prediction result of each type of face attribute.
가능한 일 실현형태에서는 상기 특징 추출 모듈은 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하고, 상기 얼굴 속성 특징 추출 서브 모듈은 상기 뉴럴 네트워크의 전체 결합층에 의해 상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻고, 상기 확률 예측 결과 취득 서브 모듈은 상기 뉴럴 네트워크의 분류층에 의해 상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인한다.In one possible realization, the feature extraction module performs convolution processing on the image by the convolutional layer of the neural network to extract convolutional features of the image, and the facial attribute feature extraction submodule is configured to: By extracting the features of each type of facial attribute from the convolutional features of the face by the concatenation layer, the attribute features of each type of facial attribute are obtained, and the probability prediction result acquisition submodule is configured to extract each type of facial attribute by the classification layer of the neural network. Classification processing is performed on the attribute characteristics of the type of face attribute, and the probability prediction result of each type of face attribute is confirmed.
가능한 일 실현형태에서는 상기 뉴럴 네트워크는 샘플 이미지 세트에 기초하여 감독 트레이닝이 미리 행해진 것이고, 상기 샘플 이미지 세트 내의 샘플 이미지는 복수 종류의 얼굴 속성의 레이블 정보가 포함되어 있다.In one possible implementation, the neural network has been previously supervised by training based on a sample image set, and the sample image in the sample image set includes label information of a plurality of types of facial attributes.
가능한 일 실현형태에서는 상기 장치는 상기 뉴럴 네트워크의 트레이닝을 행하기 위한 트레이닝 모듈을 추가로 포함하고, 상기 트레이닝 모듈은 뉴럴 네트워크에 의해 상기 샘플 이미지의 각 종류의 얼굴 속성의 예측 결과를 각각 취득하고, 각 종류의 얼굴 속성의 예측 결과와 그 레이블 정보에 기초하는 제1 손실을 각각 결정하고, 각 종류의 얼굴 속성의 제1 손실에 기초하여 제2 손실을 결정하고, 상기 제2 손실에 기초하여 뉴럴 네트워크의 네트워크 파라미터를 조정한다.In one possible realization, the apparatus further comprises a training module for performing training of the neural network, wherein the training module obtains prediction results of each type of facial attribute of the sample image by the neural network, respectively; A first loss is respectively determined based on a prediction result of each type of facial attribute and its label information, a second loss is determined based on a first loss of each type of facial attribute, and a neural network is based on the second loss. Adjust the network parameters of the network.
가능한 일 실현형태에서는 각 종류의 얼굴 속성의 제1 손실에 기초하여 상기 뉴럴 네트워크의 제2 손실을 결정하는 것은 어느 1종류의 얼굴 속성을 포함하는 대상 얼굴 속성의 제1 손실 및 상기 대상 얼굴 속성의 가중치에 기초하여, 상기 대상 얼굴 속성의 가중치 손실을 결정하는 것과, 상기 대상 얼굴 속성의 가중치 손실에 기초하여, 상기 뉴럴 네트워크의 제2 손실을 결정하는 것을 포함한다.In one possible realization, determining the second loss of the neural network based on the first loss of each type of facial attribute includes a first loss of a target facial attribute including any one type of facial attribute and a first loss of the target facial attribute. determining a weight loss of the target face attribute based on a weight, and determining a second loss of the neural network based on the weight loss of the target face attribute.
가능한 일 실현형태에서는 상기 트레이닝 모듈은 추가로, 제1 이미지에 대해 반전, 크롭, 평행 이동, 노이즈의 부가 중 하나 이상을 행하여, 상기 제1 이미지의 노이즈 이미지를 얻고, 상기 제1 이미지 및 상기 노이즈 이미지를 샘플 이미지로서 결정하여, 상기 샘플 이미지 세트를 얻는다.In one possible implementation, the training module is further configured to perform one or more of inversion, cropping, translation, and addition of noise on the first image to obtain a noise image of the first image, the first image and the noise An image is determined as a sample image to obtain the sample image set.
가능한 일 실현형태에서는 상기 특징 추출 모듈은 상기 이미지의 해상도를 조정하여 제1 처리 이미지를 얻기 위한 제1 처리 이미지 취득 모듈과, 상기 제1 처리 이미지에서의 얼굴의 특징을 추출하기 위한 제1 특징 추출 서브 모듈을 포함한다.In one possible realization, the feature extraction module includes a first processed image acquisition module for obtaining a first processed image by adjusting the resolution of the image, and a first feature extraction for extracting facial features from the first processed image Contains submodules.
가능한 일 실현형태에서는 상기 장치는 상기 뉴럴 네트워크의 특징의 채널수를 조정하여 조정 뉴럴 네트워크를 얻기 위한 채널 조정 모듈을 추가로 포함하고, 상기 특징 추출 모듈은 추가로, 상기 조정 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출한다.In one possible realization, the apparatus further comprises a channel adjustment module for adjusting the number of channels of the features of the neural network to obtain a coordinated neural network, wherein the feature extraction module is further configured to: Convolutional processing is performed on the image by the method to extract a convolutional feature of the image.
본 발명에서 언급되는 상기 각 방법의 실시예는 원리와 논리에 위반되지 않는 한 서로 조합하여 실시예를 형성할 수 있음을 이해해야 한다. 분량에 한계가 있으므로, 본 발명에서는 상세한 설명을 생략한다.It should be understood that the embodiments of the respective methods mentioned in the present invention may be combined with each other to form embodiments as long as the principles and logic are not violated. Since there is a limit to the amount, a detailed description is omitted in the present invention.
또한, 당업자라면 구체적인 실시형태에 따른 상기 방법에서는 각 단계의 기재 순서는 실행 순서를 엄밀하게 한정하여 실시 과정을 한정하는 것이 아니고, 각 단계의 실행 순서가 그 기능과 내부의 논리에 의해 구체적으로 결정된 것을 이해해야 한다.In addition, for those skilled in the art, in the above method according to a specific embodiment, the description order of each step does not limit the execution process by strictly limiting the execution order, and the execution order of each step is determined specifically by its function and internal logic. have to understand
일부 실시예에서는 본 발명의 실시예에 따른 장치가 구비하는 기능 또는 모듈은 상술한 방법의 실시예에 설명되는 방법을 실행하기 위해 이용할 수 있고, 그 구체적인 실현에 대해 상술한 방법의 실시예의 설명을 참조하면 되고, 간략화를 위해, 여기에서 상세한 설명을 생략한다.In some embodiments, functions or modules provided by the apparatus according to the embodiments of the present invention may be used to implement the methods described in the embodiments of the above-described methods, and for specific realizations thereof, refer to the description of the embodiments of the above-described methods. reference, and for the sake of brevity, a detailed description thereof is omitted here.
본 발명의 실시예는 컴퓨터 프로그램 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체로서, 상기 컴퓨터 프로그램 명령은 프로세서에 의해 실행되면, 상기 방법을 실현시키는 컴퓨터 판독 가능 기억 매체가 추가로 제공된다. 당해 컴퓨터 판독 가능 기억 매체는 불휘발성 컴퓨터 판독 가능 기억 매체여도 된다.An embodiment of the present invention further provides a computer readable storage medium having computer program instructions stored thereon, wherein when the computer program instructions are executed by a processor, the computer readable storage medium realizes the method. The computer readable storage medium may be a nonvolatile computer readable storage medium.
본 발명의 실시예에서는 프로세서와, 프로세서에 의해 실행 가능한 명령을 기억하는 메모리를 포함하고, 상기 프로세서는 상기 방법을 실행하도록 구성되는 전자 기기가 추가로 제공된다.In an embodiment of the present invention, there is further provided an electronic device comprising a processor and a memory for storing instructions executable by the processor, wherein the processor is configured to execute the method.
전자 기기는 단말, 서버 또는 다른 형태의 기기로서 제공되어도 된다.The electronic device may be provided as a terminal, server, or other type of device.
도 5는 예시적인 일 실시예의 전자 기기(800)의 블록도를 나타낸다. 예를 들면, 전자 기기(800)는 휴대 전화, 컴퓨터, 디지털 방송 단말, 메시지 송수신 기기, 게임 콘솔, 태블릿형 기기, 의료 기기, 파트니스 기기, 퍼스널 디지털 어시스턴트 등의 단말이어도 된다.Fig. 5 shows a block diagram of an
도 5를 참조하면, 전자 기기(800)는 처리 컴포넌트(802), 메모리(804), 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 입력/출력(I/O) 인터페이스(812), 센서 컴포넌트(814) 및 통신 컴포넌트(816) 중 하나 이상을 포함해도 된다.Referring to FIG. 5 , the
처리 컴포넌트(802)는 통상 전자 기기(800)의 전체적인 동작, 예를 들면, 표시, 전화의 호출, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작을 제어한다. 처리 컴포넌트(802)는 상기 방법의 전부 또는 일부 단계를 실행하기 위해, 명령을 실행하는 하나 이상의 프로세서(820)를 포함해도 된다. 또한, 처리 컴포넌트(802)는 다른 컴포넌트와의 상호 작용을 위한 하나 이상의 모듈을 포함해도 된다. 예를 들면, 처리 컴포넌트(802)는 멀티미디어 컴포넌트(808)와의 상호 작용을 위해 멀티미디어 모듈을 포함해도 된다.The
메모리(804)는 전자 기기(800)에서의 동작을 서포트하기 위한 다양한 타입의 데이터를 기억하도록 구성된다. 이들 데이터는 예로서, 전자 기기(800)에서 조작하는 모든 어플리케이션 프로그램 또는 방법의 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(804)는 예를 들면, 정적 랜덤 액세스 메모리(SRAM), 전기적 소거 가능 프로그래머블 판독 전용 메모리(EEPROM), 소거 가능 프로그래머블 판독 전용 메모리(EPROM), 프로그래머블 판독 전용 메모리(PROM), 판독 전용 메모리(ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광디스크 등의 다양한 타입의 휘발성 또는 불휘발성 기억 장치 또는 이들의 조합에 의해 실현할 수 있다.The
전원 컴포넌트(806)는 전자 기기(800)의 각 컴포넌트에 전력을 공급한다. 전원 컴포넌트(806)는 전원 관리 시스템, 하나 이상의 전원 및 전자 기기(800)를 위한 전력 생성, 관리 및 배분에 관련된 다른 컴포넌트를 포함해도 된다. The
멀티미디어 컴포넌트(808)는 상기 전자 기기(800)와 사용자 사이에서 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서는 스크린은 액정 디스플레이(LCD) 및 터치 패널(TP)을 포함해도 된다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터의 입력 신호를 수신하는 터치 스크린으로서 실현해도 된다. 터치 패널은 터치, 슬라이드 및 터치 패널에서의 제스처를 검지하기 위해 하나 이상의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 슬라이드 동작의 경계를 검지할 뿐만 아니라, 상기 터치 또는 슬라이드 조작에 관련되는 지속 시간 및 압력을 검출하도록 해도 된다. 일부 실시예에서는 멀티미디어 컴포넌트(808)는 전면 카메라 및/또는 배면 카메라를 포함한다. 전자 기기(800)가 동작 모드, 예를 들면, 촬영 모드 또는 촬상 모드가 되는 경우, 전면 카메라 및/또는 배면 카메라는 외부의 멀티미디어 데이터를 수신하도록 해도 된다. 각 전면 카메라 및 배면 카메라는 고정된 광학 렌즈계 또는 초점 거리 및 광학 줌 능력을 갖는 것이어도 된다. The
오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들면, 오디오 컴포넌트(810)는 하나의 마이크(MIC)를 포함하고, 마이크(MIC)는 전자 기기(800)가 동작 모드, 예를 들면, 호출 모드, 기록 모드 또는 음성 인식 모드가 되는 경우, 외부의 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 추가로 메모리(804)에 기억되거나 또는 통신 컴포넌트(816)를 통해 송신되어도 된다. 일부 실시예에서는 오디오 컴포넌트(810)는 추가로 오디오 신호를 출력하기 위한 스피커를 포함한다. The
I/O 인터페이스(812)는 처리 컴포넌트(802)와 주변 인터페이스 모듈 사이에서 인터페이스를 제공하고, 상기 주변 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등이어도 된다. 이들 버튼은 홈 버튼, 음량 버튼, 시작 버튼 및 잠금 버튼을 포함해도 되지만, 이들에 한정되지 않는다.I/
센서 컴포넌트(814)는 전자 기기(800)의 각 측면의 상태 평가를 위해 하나 이상의 센서를 포함한다. 예를 들면, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 예를 들면, 전자 기기(800)의 표시 장치 및 키패드와 같은 컴포넌트의 상대적 위치 결정을 검출할 수 있고, 센서 컴포넌트(814)는 추가로 전자 기기(800) 또는 전자 기기(800)가 있는 컴포넌트의 위치 변화, 사용자와 전자 기기(800)의 접촉 유무, 전자 기기(800)의 방위 또는 가감속 및 전자 기기(800)의 온도 변화를 검출할 수 있다. 센서 컴포넌트(814)는 어떠한 물리적 접촉도 없는 경우에 근방의 물체의 존재를 검출하도록 구성되는 근접 센서를 포함해도 된다. 센서 컴포넌트(814)는 추가로 CMOS 또는 CCD 이미지 센서와 같은 이미징 어플리케이션에서 사용하기 위한 광센서를 포함해도 된다. 일부 실시예에서는 상기 센서 컴포넌트(814)는 추가로 가속도 센서, 자이로스코프 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함해도 된다.The
통신 컴포넌트(816)는 전자 기기(800)와 다른 기기의 유선 또는 무선 통신을 실현하도록 구성된다. 전자 기기(800)는 통신 규격에 기초하는 무선 네트워크, 예를 들면, WiFi, 2G 또는 3G, 또는 이들 조합에 액세스할 수 있다. 일 예시적 실시예에서는 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 일 예시적 실시예에서는 상기 통신 컴포넌트(816)는 추가로 근거리 통신을 촉진시키기 위해 근거리 무선 통신(NFC) 모듈을 포함한다. 예를 들면, NFC 모듈은 무선 주파수 식별(RFID) 기술, 적외선 데이터 협회(IrDA) 기술, 초광대역(UWB) 기술, 블루투스(BT) 기술 및 다른 기술에 의해 실현할 수 있다. The
예시적인 실시예에서는 전자 기기(800)는 하나 이상의 특정 용도용 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 시그널 디바이스(DSPD), 프로그래머블 로직 디바이스(PLD), 필드 프로그래머블 게이트 어레이(FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 요소에 의해 실현되고, 상기 방법을 실행하기 위해 사용될 수 있다. In an exemplary embodiment, the
예시적인 실시예에서는 추가로 불휘발성 컴퓨터 판독 가능 기억 매체, 예를 들면, 컴퓨터 프로그램 명령을 포함하는 메모리(804)가 제공되고, 상기 컴퓨터 프로그램 명령은 전자 기기(800)의 프로세서(820)에 의해 실행되면 상기 방법을 실행시킬 수 있다. In the exemplary embodiment, there is further provided a nonvolatile computer readable storage medium, for example, a
본 발명의 실시예에서는 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램 제품으로서, 당해 컴퓨터 판독 가능 코드는 기기에서 동작하면 기기의 프로세서에 상술한 어느 실시예에 따른 방법을 실현하기 위한 명령을 실행시키는 컴퓨터 프로그램 제품이 추가로 제공된다.In an embodiment of the present invention, a computer program product comprising computer readable code, wherein the computer readable code executes instructions for realizing the method according to any of the above embodiments to a processor of the device when the computer readable code is operated in a device. Additional products are provided.
당해 컴퓨터 프로그램 제품은 하드웨어, 소프트웨어, 또는 이들의 조합에 의해 구체적으로 실현할 수 있다. 선택 가능한 일 실시예에서는 상기 컴퓨터 프로그램 제품은 컴퓨터 기억 매체로서 구현화된다. 선택 가능한 다른 실시예에서는 컴퓨터 프로그램 제품은 소프트웨어 제품, 예를 들면, 소프트웨어 개발 키트(Software Development Kit, 약칭 SDK) 등으로서 구현화된다.The computer program product may be specifically realized by hardware, software, or a combination thereof. In one selectable embodiment, the computer program product is embodied as a computer storage medium. In another optional embodiment, the computer program product is embodied as a software product, for example, a Software Development Kit (SDK for short) or the like.
도 6은 예시적인 일 실시예의 전자 기기(1900)의 블록도를 나타낸다. 예를 들면, 전자 기기(1900)는 서버로서 제공되어도 된다. 도 6을 참조하면, 전자 기기(1900)는 하나 이상의 프로세서를 포함하는 처리 컴포넌트(1922) 및 처리 컴포넌트(1922)에 의해 실행 가능한 명령, 예를 들면, 어플리케이션 프로그램을 기억하기 위한, 메모리(1932)를 대표로 하는 메모리 자원을 포함한다. 메모리(1932)에 기억되어 있는 어플리케이션 프로그램은 각각이 하나의 명령군에 대응하는 하나 이상의 모듈을 포함해도 된다. 또한, 처리 컴포넌트(1922)는 명령을 실행함으로써 상기 방법을 실행하도록 구성된다.6 shows a block diagram of an
전자 기기(1900)는 추가로 전자 기기(1900)의 전원 관리를 실행하도록 구성되는 전원 컴포넌트(1926), 전자 기기(1900)를 네트워크에 접속하도록 구성되는 유선 또는 무선 네트워크 인터페이스(1950) 및 입출력(I/O) 인터페이스(1958)를 포함해도 된다. 전자 기기(1900)는 메모리(1932)에 기억되어 있는 오퍼레이팅 시스템, 예를 들면, Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM 또는 유사한 것에 기초하여 동작할 수 있다. The
예시적인 실시예에서는 추가로 불휘발성 컴퓨터 판독 가능 기억 매체, 예를 들면, 컴퓨터 프로그램 명령을 포함하는 메모리(1932)가 제공되고, 상기 컴퓨터 프로그램 명령은 전자 기기(1900)의 처리 컴포넌트(1922)에 의해 실행되면, 상기 방법을 실행시킬 수 있다.In the exemplary embodiment, there is further provided a nonvolatile computer readable storage medium, eg, a
본 발명은 시스템, 방법 및/또는 컴퓨터 프로그램 제품이어도 된다. 컴퓨터 프로그램 제품은 프로세서에 본 발명의 각 측면을 실현시키기 위한 컴퓨터 판독 가능 프로그램 명령이 갖고 있는 컴퓨터 판독 가능 기억 매체를 포함해도 된다. The present invention may be a system, method and/or computer program product. The computer program product may include a computer readable storage medium having computer readable program instructions for realizing each aspect of the present invention in the processor.
컴퓨터 판독 가능 기억 매체는 명령 실행 장치에 사용되는 명령을 저장 및 기억 가능한 유형(有形)의 장치여도 된다. 컴퓨터 판독 가능 기억 매체는 예를 들면, 전기 기억 장치, 자기 기억 장치, 광 기억 장치, 전자 기억 장치, 반도체 기억 장치, 또는 상기의 임의의 적당한 조합이어도 되지만, 이들에 한정되지 않는다. 컴퓨터 판독 가능 기억 매체의 보다 구체적인 예(비망라적 리스트)로는 휴대형 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그래머블 판독 전용 메모리(EPROM 또는 플래시 메모리), 정적 랜덤 액세스 메모리(SRAM), 휴대형 콤팩트 디스크 판독 전용 메모리(CD-ROM), 디지털 다용도 디스크(DVD), 메모리 스틱, 플로피 디스크, 예를 들면, 명령이 기억되어 있는 천공 카드 또는 슬롯 내 돌기 구조와 같은 기계적 부호화 장치, 및 상기의 임의의 적당한 조합을 포함한다. 여기에서 사용되는 컴퓨터 판독 가능 기억 매체는 일시적인 신호 자체, 예를 들면, 무선 전파 또는 기타 자유롭게 전파되는 전자파, 도파로 또는 다른 전송 매체를 경유하여 전파되는 전자파(예를 들면, 광파이버 케이블을 통과하는 광펄스), 또는 전선을 경유하여 전송되는 전기 신호로 해석되는 것은 아니다.The computer-readable storage medium may be a tangible device capable of storing and storing instructions used in the instruction execution device. The computer-readable storage medium may be, for example, but not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electronic storage device, a semiconductor storage device, or any suitable combination of the above. More specific examples (non-exhaustive list) of computer-readable storage media include portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), Static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (DVD), memory stick, floppy disk, e.g., punched cards or slots in which instructions are stored; such mechanical encoding devices, and any suitable combination of the above. A computer-readable storage medium as used herein is a transitory signal itself, for example, radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating via waveguides or other transmission media (eg, optical pulses passing through optical fiber cables). ), or an electrical signal transmitted via a wire.
여기에서 기술한 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 기억 매체에서 각 계산/처리 기기에 다운로드되어도 되고, 또는 네트워크, 예를 들면, 인터넷, 로컬 에어리어 네트워크, 광역 네트워크 및/또는 무선 네트워크를 경유하여 외부의 컴퓨터 또는 외부 기억 장치에 다운로드되어도 된다. 네트워크는 구리 전송 케이블, 광파이버 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및/또는 에지 서버를 포함해도 된다. 각 계산/처리 기기 내의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크에서 컴퓨터 판독 가능 프로그램 명령을 수신하고, 상기 컴퓨터 판독 가능 프로그램 명령을 전송하고, 각 계산/처리 기기 내의 컴퓨터 판독 가능 기억 매체에 기억시킨다.The computer readable program instructions described herein may be downloaded from a computer readable storage medium to each computing/processing device, or externally via a network, for example, the Internet, a local area network, a wide area network and/or a wireless network. It may be downloaded to your computer or external storage device. The network may include copper transport cables, fiber optic transport, wireless transport, routers, firewalls, switchboards, gateway computers and/or edge servers. A network adapter card or network interface in each computing/processing device receives a computer readable program command from the network, transmits the computer readable program command, and stores the computer readable program command in a computer readable storage medium in each computing/processing device.
본 발명의 동작을 실행하기 위한 컴퓨터 프로그램 명령은 어셈블리 명령, 명령 세트 아키텍처(ISA) 명령, 기계어 명령, 기계 의존 명령, 마이크로 코드, 펌웨어 명령, 상태 설정 데이터 또는 Smalltalk, C++ 등의 오브젝트 지향 프로그래밍 언어, 및 「C」언어 또는 유사한 프로그래밍 언어 등의 일반적인 절차형 프로그래밍 언어를 포함하는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성된 소스 코드 또는 목표 코드여도 된다. 컴퓨터 판독 가능 프로그램 명령은 완전히 사용자의 컴퓨터에서 실행되어도 되고, 부분적으로 사용자의 컴퓨터에서 실행되어도 되고, 독립형 소프트웨어 패키지로서 실행되어도 되고, 부분적으로 사용자의 컴퓨터에서 또한 부분적으로 리모트 컴퓨터에서 실행되어도 되고, 또는 완전히 리모트 컴퓨터 혹은 서버에서 실행되어도 된다. 리모트 컴퓨터의 경우, 리모트 컴퓨터는 로컬 에어리어 네트워크(LAN) 또는 광역 네트워크(WAN)를 포함하는 임의의 종류의 네트워크를 경유하여 사용자의 컴퓨터에 접속되어도 되고, 또는 (예를 들면, 인터넷 서비스 프로바이더를 이용해 인터넷을 경유하여) 외부 컴퓨터에 접속되어도 된다. 일부 실시예에서는 컴퓨터 판독 가능 프로그램 명령의 상태 정보를 이용하여, 예를 들면, 프로그래머블 논리 회로, 필드 프로그래머블 게이트 어레이(FPGA) 또는 프로그래머블 논리 어레이(PLA) 등의 전자 회로를 맞춤 제조하고, 상기 전자 회로에 의해 컴퓨터 판독 가능 프로그램 명령을 실행함으로써 본 발명의 각 측면을 실현하도록 해도 된다. Computer program instructions for carrying out the operations of the present invention may include assembly instructions, instruction set architecture (ISA) instructions, machine language instructions, machine dependent instructions, microcode, firmware instructions, state setting data or an object-oriented programming language such as Smalltalk, C++, etc.; and source code or target code written in any combination of one or more programming languages including a general procedural programming language such as "C" language or a similar programming language. The computer readable program instructions may execute entirely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partly on a remote computer, or It may run entirely on a remote computer or server. In the case of a remote computer, the remote computer may be connected to the user's computer via any kind of network, including a local area network (LAN) or wide area network (WAN), or (eg, an Internet service provider via the Internet) may be connected to an external computer. In some embodiments, state information from computer readable program instructions is used to customize electronic circuitry, such as, for example, a programmable logic circuit, a field programmable gate array (FPGA) or a programmable logic array (PLA), the electronic circuit Each aspect of the present invention may be realized by executing computer readable program instructions by
여기서 본 발명의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하면서 본 발명의 각 양태를 설명했지만, 흐름도 및/또는 블록도의 각 블록, 및 흐름도 및/또는 블록도의 각 블록의 조합은 전부 컴퓨터 판독 가능 프로그램 명령에 의해 실현할 수 있음을 이해해야 한다. Although each aspect of the present invention has been described herein with reference to a flowchart and/or block diagram of a method, apparatus (system) and computer program product according to an embodiment of the present invention, each block in the flowchart and/or block diagram, and the flowchart and It should be understood that all combinations of blocks in the block diagram may be realized by computer readable program instructions.
이들 컴퓨터 판독 가능 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서에 제공되고, 이들 명령이 컴퓨터 또는 기타 프로그래머블 데이터 처리 장치의 프로세서에 의해 실행되면, 흐름도 및/또는 블록도의 하나 이상의 블록에서 지정된 기능/동작을 실현시키도록 장치를 제조해도 된다. 이들 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 기억 매체에 기억되고, 컴퓨터, 프로그래머블 데이터 처리 장치 및/또는 다른 기기를 특정 방식으로 동작시키도록 해도 된다. 이에 의해, 명령이 기억되어 있는 컴퓨터 판독 가능 기억 매체는 흐름도 및/또는 블록도 중 하나 이상의 블록에서 지정된 기능/동작의 각 측면을 실현하는 명령을 갖는 제품을 포함한다. These computer readable program instructions are provided to a processor of a general purpose computer, dedicated computer, or other programmable data processing device, and when these instructions are executed by the processor of the computer or other programmable data processing device, one or more of the flowcharts and/or block diagrams The device may be manufactured to realize the functions/actions specified in the block. These computer readable program instructions may be stored in a computer readable storage medium, and may cause a computer, a programmable data processing apparatus, and/or other apparatus to operate in a specific manner. Thereby, a computer-readable storage medium having instructions stored thereon includes a product having instructions for realizing each aspect of a function/action specified in one or more blocks of the flowchart and/or block diagram.
컴퓨터 판독 가능 프로그램 명령은 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에 로드되고, 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에 일련의 동작 단계를 실행시킴으로써, 컴퓨터에 의해 실현되는 프로세스를 생성하도록 해도 된다. 이렇게 하여, 컴퓨터, 기타 프로그래머블 데이터 처리 장치 또는 기타 기기에서 실행되는 명령에 의해 흐름도 및/또는 블록도 중 하나 이상의 블록에서 지정된 기능/동작을 실현한다. The computer readable program instructions may be loaded into a computer, other programmable data processing device, or other device, and cause the computer, other programmable data processing device, or other device to execute a series of operational steps, thereby generating a process realized by the computer. . In this way, functions/operations specified in one or more blocks of the flowchart and/or block diagram are realized by instructions executed in a computer, other programmable data processing device, or other device.
도면 중 흐름도 및 블록도는 본 발명의 복수의 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 실현 가능한 시스템 아키텍처, 기능 및 동작을 나타낸다. 이 점에서는 흐름도 또는 블록도에서의 각 블록은 하나의 모듈, 프로그램 세그먼트 또는 명령의 일부분을 대표할 수 있고, 상기 모듈, 프로그램 세그먼트 또는 명령의 일부분은 지정된 논리 기능을 실현하기 위한 하나 이상의 실행 가능한 명령을 포함한다. 일부 대체로서의 실현형태에서는 블록에 표기되는 기능은 도면에 붙인 순서와 상이한 순서로 실현해도 된다. 예를 들면, 연속적인 2개의 블록은 실질적으로 병렬로 실행해도 되고, 또한 관련된 기능에 따라 반대 순서로 실행해도 된다. 또한, 블록도 및/또는 흐름도에서의 각 블록 및 블록도 및/또는 흐름도에서의 블록의 조합은 지정되는 기능 또는 동작을 실행하는 하드웨어에 기초하는 전용 시스템에 의해 실현해도 되며, 또는 전용 하드웨어와 컴퓨터 명령의 조합에 의해 실현해도 된다는 점에도 주의해야 한다. Flowcharts and block diagrams in the drawings represent realizable system architectures, functions, and operations of systems, methods, and computer program products according to a plurality of embodiments of the present invention. In this regard, each block in the flowchart or block diagram may represent one module, program segment, or portion of an instruction, said module, program segment, or portion of instructions being one or more executable instructions for realizing a specified logical function. includes In some alternative implementations, the functions indicated in the blocks may be implemented in an order different from the order attached to the drawing. For example, two consecutive blocks may be executed substantially in parallel, or may be executed in the reverse order depending on the function involved. In addition, each block in the block diagram and/or the flowchart and the combination of the blocks in the block diagram and/or the flowchart may be realized by a dedicated system based on hardware for executing designated functions or operations, or dedicated hardware and a computer It should also be noted that it may be realized by a combination of commands.
이상, 본 발명의 각 실시예를 기술했지만, 상기 설명은 예시적인 것에 불과하고, 망라적인 것이 아니며, 또한 개시된 각 실시예에 한정되는 것도 아니다. 당업자에게 있어서, 설명된 각 실시예의 범위 및 정신에서 벗어나지 않고, 다양한 수정 및 변경이 자명하다. 본 명세서에 선택된 용어는 각 실시예의 원리, 실제 적용 또는 기존 기술에 대한 개선을 바람직하게 해석하거나, 또는 다른 당업자에게 본 명세서에 개시된 각 실시예를 이해시키기 위한 것이다.As mentioned above, although each embodiment of this invention was described, the said description is only exemplary, and is not exhaustive, nor is it limited to each disclosed embodiment. Various modifications and changes will be apparent to those skilled in the art without departing from the scope and spirit of each described embodiment. The terminology selected herein is intended to advantageously interpret the principle, practical application, or improvement of existing techniques of each embodiment, or to enable others skilled in the art to understand each embodiment disclosed herein.
Claims (37)
상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻는 것과,
각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정하는 것을 포함하는, 얼굴 속성 인식 방법.extracting facial features from the image,
Recognizing a plurality of preset types of facial attributes based on the facial features to obtain a probability prediction result of each type of facial attributes;
and determining a face attribute recognition result in the image based on a probability prediction result of each type of face attribute.
상기 얼굴 속성 인식 결과는 상기 얼굴의 적어도 2개의 속성 인식 결과를 포함하는, 방법.The method of claim 1,
The method of claim 1, wherein the facial attribute recognition result includes at least two attribute recognition results of the face.
상기 얼굴 속성은 연령, 성별, 장식품, 피부색, 표정, 동작 중 하나 이상을 포함하는, 방법.3. The method according to claim 1 or 2,
The facial attribute comprises one or more of age, gender, ornament, skin color, expression, and motion.
상기 장식품은 보통의 안경, 선글라스, 모자, 마스크 중 하나 이상을 포함하고, 상기 표정은 기쁨, 슬픔, 울음, 분노, 흥분 중 하나 이상을 포함하고, 상기 동작은 담배를 피우는 것, 물/음료를 마시는 것, 식사를 하는 것, 화장을 하는 것, 전화를 하는 것 중 하나 이상을 포함하는, 방법.4. The method of claim 3,
The ornament includes one or more of ordinary glasses, sunglasses, a hat, and a mask, the expression includes one or more of joy, sadness, crying, anger, and excitement, and the action includes smoking a cigarette, drinking water A method comprising one or more of drinking, eating, putting on makeup, and making a phone call.
상기 이미지는 차량에 설치된 차재 카메라에 의해 촬상되는 차량이 위치하는 도로의 이미지 및/또는 차량 내의 이미지를 포함하고,
상기 이미지에서의 얼굴은 차량이 위치하는 도로의 보행자, 차량 운전자·승객 및/또는 다른 차량의 운전자·승객의 얼굴을 포함하고,
상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 속성 인식 결과를 포함하는, 방법.5. The method according to claim 3 or 4,
The image includes an image of a road on which the vehicle is located and/or an image within the vehicle, which is captured by an in-vehicle camera installed in the vehicle,
The face in the image includes the face of a pedestrian on the road on which the vehicle is located, the driver/passenger of the vehicle and/or the face of the driver/passenger of another vehicle,
The attribute recognition result includes an attribute recognition result that satisfies at least one of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, and a predetermined motion.
상기 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제1 대상 오브젝트를 결정하는 것과,
결정된 상기 제1 대상 오브젝트에 따라 차량이 속도 유지, 방향 유지, 감속, 조타, 브레이크 중 어느 하나를 실행하도록 제시 정보를 송신하거나, 및/또는 차량 제어 시스템에 제어 지령을 송신하는 것을 추가로 포함하는, 방법.6. The method of claim 5,
determining a first target object based on a result of recognizing face attributes in the image;
Transmitting presentation information so that the vehicle executes any one of maintaining speed, maintaining direction, decelerating, steering, and braking according to the determined first target object, and/or transmitting a control command to a vehicle control system , Way.
상기 이미지는 쇼핑 센터, 학교, 대형 회장, 노면, 오피스 빌딩 중 어느 하나를 포함하는 관찰 장소에 설치된 관찰 카메라에 의해 촬상되는 관찰 이미지를 포함하고,
상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작 중 하나 이상을 만족하는 속성 인식 결과를 포함하는, 방법.5. The method according to claim 3 or 4,
The image includes an observation image captured by an observation camera installed in an observation place including any one of a shopping center, a school, a large venue, a road surface, and an office building,
The attribute recognition result includes an attribute recognition result that satisfies at least one of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, and a predetermined motion.
상기 관찰 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제2 대상 오브젝트를 결정하는 것과,
결정된 상기 제2 대상 오브젝트에 따라 상기 관찰 장소에서 설정 정보를 송신하거나, 또는 결정된 상기 제2 대상 오브젝트에 따라 제시 정보를 관찰자에게 송신하는 것을 추가로 포함하는, 방법.8. The method of claim 7,
determining a second target object based on a result of facial attribute recognition in the observation image;
The method further comprising: transmitting setting information at the viewing location according to the determined second target object, or transmitting presentation information to an observer according to the determined second target object.
이미지에서의 얼굴의 특징을 추출하는 것은
상기 이미지에 대해 합성곱 처리를 행하여, 상기 얼굴의 합성곱 특징을 추출하는 것을 포함하는, 방법.9. The method according to any one of claims 1 to 8,
Extracting facial features from images
performing convolution processing on the image to extract convolutional features of the face.
상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻는 것은
상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻는 것과,
상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하는 것을 추가로 포함하는, 방법.10. The method of claim 9,
Recognizing a plurality of preset types of facial attributes based on the facial features to obtain a probability prediction result of each type of facial attributes
extracting the characteristics of each type of facial attribute from the convolutional features of the face to obtain attribute characteristics of each type of facial attribute;
and performing classification processing on the attribute features of the face attributes of each type, and further comprising confirming a probability prediction result of each type of face attribute.
상기 이미지에 대해 합성곱 처리를 행하여, 상기 얼굴의 합성곱 특징을 추출하는 것은
뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는 것을 포함하고,
상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻는 것은
상기 뉴럴 네트워크의 전체 결합층에 의해 상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여, 각 종류의 얼굴 속성의 속성 특징을 얻는 것을 포함하고,
상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하는 것은
상기 뉴럴 네트워크의 분류층에 의해 상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하는 것을 포함하는, 방법.11. The method of claim 10,
Extracting the convolutional features of the face by performing convolution processing on the image
performing convolution processing on the image by a convolutional layer of a neural network to extract convolutional features of the image;
Extracting the characteristics of each type of facial attribute from the convolutional features of the face to obtain the attribute characteristics of each type of facial attribute
extracting features of each type of facial attribute from the convolutional features of the face by the entire coupling layer of the neural network, and obtaining attribute features of each type of facial attribute;
Performing classification processing on the attribute characteristics of each type of face attribute and confirming the probability prediction result of each type of face attribute
performing classification processing on the attribute feature of each type of facial attribute by a classification layer of the neural network, and confirming a probability prediction result of each type of facial attribute.
상기 뉴럴 네트워크는 샘플 이미지 세트에 기초하여 감독 트레이닝이 미리 행해진 것이고, 상기 샘플 이미지 세트 내의 샘플 이미지는 복수 종류의 얼굴 속성의 레이블 정보가 포함되어 있는, 방법.12. The method of claim 11,
The method of claim 1, wherein the neural network has been previously supervised by training based on a sample image set, and the sample image in the sample image set includes label information of a plurality of types of facial attributes.
상기 뉴럴 네트워크의 트레이닝 과정은
뉴럴 네트워크에 의해 상기 샘플 이미지의 각 종류의 얼굴 속성의 예측 결과를 각각 얻는 것과,
각 종류의 얼굴 속성의 예측 결과와 그 레이블 정보에 기초하는 제1 손실을 각각 결정하는 것과,
각 종류의 얼굴 속성의 제1 손실에 기초하여 제2 손실을 결정하는 것과,
상기 제2 손실에 기초하여 뉴럴 네트워크의 네트워크 파라미터를 조정하는 것을 포함하는, 방법.13. The method of claim 12,
The training process of the neural network is
Obtaining prediction results of each type of face attribute of the sample image by a neural network, respectively;
Determining a first loss based on a prediction result of each type of face attribute and the label information, respectively;
determining a second loss based on the first loss of each type of facial attribute;
and adjusting a network parameter of the neural network based on the second loss.
각 종류의 얼굴 속성의 제1 손실에 기초하여 상기 뉴럴 네트워크의 제2 손실을 결정하는 것은
어느 1종류의 대상 얼굴 속성을 포함하는 얼굴 속성의 제1 손실 및 상기 대상 얼굴 속성의 가중치에 기초하여, 상기 대상 얼굴 속성의 가중치 손실을 결정하는 것과,
상기 각 종류의 얼굴 속성의 가중치 손실에 기초하여, 상기 뉴럴 네트워크의 제2 손실을 결정하는 것을 포함하는, 방법.14. The method of claim 13,
Determining the second loss of the neural network based on the first loss of each type of facial attribute comprises:
determining a weight loss of the target facial attribute based on a first loss of the facial attribute including any one type of target facial attribute and a weight of the target facial attribute;
and determining a second loss of the neural network based on the weight loss of each type of face attribute.
상기 뉴럴 네트워크의 트레이닝 방법은
제1 이미지에 대해 반전, 크롭, 평행 이동, 노이즈의 부가 중 하나 이상을 행하여, 상기 제1 이미지의 노이즈 이미지를 얻는 것과,
상기 제1 이미지 및 상기 노이즈 이미지를 샘플 이미지로서 결정하여, 상기 샘플 이미지 세트를 얻는 것을 추가로 포함하는, 방법.15. The method according to any one of claims 12 to 14,
The training method of the neural network is
performing one or more of inversion, cropping, translation, and addition of noise on the first image to obtain a noise image of the first image;
determining the first image and the noise image as sample images to obtain the set of sample images.
이미지에서의 얼굴의 특징을 추출하는 것은
상기 이미지의 해상도를 조정하여 제1 처리 이미지를 얻는 것과,
상기 제1 처리 이미지에서의 얼굴의 특징을 추출하는 것을 포함하는, 방법.16. The method according to any one of claims 1 to 15,
Extracting facial features from images
adjusting the resolution of the image to obtain a first processed image;
and extracting facial features in the first processed image.
상기 뉴럴 네트워크의 특징의 채널수를 조정하여 조정 뉴럴 네트워크를 얻는 것을 추가로 포함하고,
뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는 것은
상기 조정 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는 것을 포함하는, 방법.17. The method according to any one of claims 11 to 16,
Further comprising adjusting the number of channels of the feature of the neural network to obtain a coordinated neural network,
Extracting convolutional features of the image by performing convolution processing on the image by the convolutional layer of the neural network
performing convolution processing on the image by a convolutional layer of the coordinating neural network to extract convolutional features of the image.
상기 얼굴의 특징에 기초하여 미리 설정된 복수 종류의 얼굴 속성 인식을 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 얻기 위한 확률 예측 결과 취득 모듈과,
각 종류의 얼굴 속성의 확률 예측 결과에 기초하여, 상기 이미지에서의 얼굴 속성 인식 결과를 결정하기 위한 속성 인식 결과 취득 모듈을 포함하는, 얼굴 속성 인식 장치.A feature extraction module for extracting facial features from an image;
a probability prediction result acquisition module for recognizing a plurality of types of facial attributes preset based on the facial features to obtain a probability prediction result of each type of facial attributes;
and an attribute recognition result acquisition module for determining a facial attribute recognition result in the image, based on a probability prediction result of each type of face attribute.
상기 얼굴 속성 인식 결과는 상기 얼굴의 적어도 2개의 속성 인식 결과를 포함하는, 장치.19. The method of claim 18,
The apparatus of claim 1, wherein the face attribute recognition result includes at least two attribute recognition results of the face.
상기 얼굴 속성은 연령, 성별, 장식품, 피부색, 표정, 동작, 인종 중 하나 이상을 포함하는, 장치.20. The method according to claim 18 or 19,
wherein the facial attribute includes one or more of age, gender, ornament, skin color, expression, motion, and race.
상기 장식품은 보통의 안경, 선글라스, 모자, 마스크 중 하나 이상을 포함하고, 상기 표정은 기쁨, 슬픔, 울음, 분노, 흥분 중 하나 이상을 포함하고, 상기 동작은 담배를 피우는 것, 물/음료를 마시는 것, 식사를 하는 것, 화장을 하는 것, 전화를 하는 것 중 하나 이상을 포함하는, 장치.21. The method of claim 20,
The ornament includes one or more of ordinary glasses, sunglasses, a hat, and a mask, the expression includes one or more of joy, sadness, crying, anger, and excitement, and the action includes smoking a cigarette, drinking water A device comprising one or more of drinking, eating, putting on makeup, and making a phone call.
상기 이미지는 차량에 설치된 차재 카메라에 의해 촬상되는 차량이 위치하는 도로의 이미지 및/또는 차량 내의 이미지를 포함하고,
상기 이미지에서의 얼굴은 차량이 위치하는 도로의 보행자, 차량 운전자·승객 및/또는 다른 차량의 운전자·승객의 얼굴을 포함하고,
상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작, 소정 인종 중 하나 이상을 만족하는 속성 인식 결과를 포함하는, 장치.22. The method of claim 20 or 21,
The image includes an image of a road on which the vehicle is located and/or an image within the vehicle, which is captured by an in-vehicle camera installed in the vehicle,
The face in the image includes the face of a pedestrian on the road on which the vehicle is located, the driver/passenger of the vehicle and/or the face of the driver/passenger of another vehicle,
and the attribute recognition result includes an attribute recognition result that satisfies at least one of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, a predetermined motion, and a predetermined race.
상기 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제1 대상 오브젝트를 결정하기 위한 제1 대상 오브젝트 결정 모듈과,
결정된 상기 제1 대상 오브젝트에 따라 차량이 속도 유지, 방향 유지, 감속, 조타, 브레이크 중 어느 하나를 실행하도록 제시 정보를 송신하거나 및/또는 차량 제어 시스템에 제어 명령을 송신하기 위한 운전 제어 모듈을 추가로 포함하는, 장치.23. The method of claim 22,
a first target object determination module configured to determine a first target object based on a result of recognizing face attributes in the image;
adding a driving control module for sending presentation information and/or sending a control command to a vehicle control system so that the vehicle executes any one of speed maintenance, direction maintenance, deceleration, steering, and braking according to the determined first target object A device comprising:
상기 이미지는 쇼핑 센터, 학교, 대형 회장, 노면, 오피스 빌딩 중 어느 하나를 포함하는 관찰 장소에 설치된 관찰 카메라에 의해 촬상되는 관찰 이미지를 포함하고,
상기 속성 인식 결과는 소정 연령, 소정 성별, 소정 장식품, 소정 피부색, 소정 표정, 소정 동작, 소정 인종 중 하나 이상을 만족하는 속성 인식 결과를 포함하는, 장치.22. The method of claim 20 or 21,
The image includes an observation image captured by an observation camera installed in an observation place including any one of a shopping center, a school, a large venue, a road surface, and an office building,
and the attribute recognition result includes an attribute recognition result that satisfies at least one of a predetermined age, a predetermined gender, a predetermined ornament, a predetermined skin color, a predetermined facial expression, a predetermined motion, and a predetermined race.
상기 관찰 이미지에서의 얼굴 속성 인식 결과에 기초하여, 제2 대상 오브젝트를 결정하기 위한 제1 대상 오브젝트 결정 모듈과,
결정된 상기 제2 대상 오브젝트에 따라 상기 관찰 장소에서 설정 정보를 송신하거나, 또는 결정된 상기 제2 대상 오브젝트에 따라 제시 정보를 관찰자에게 송신하기 위한 관찰 제어 모듈을 추가로 포함하는, 장치.25. The method of claim 24,
a first target object determination module configured to determine a second target object based on a result of facial attribute recognition in the observation image;
The apparatus further comprising: an observation control module for transmitting setting information at the observation place according to the determined second target object, or for transmitting presentation information to an observer according to the determined second target object.
상기 특징 추출 모듈은 상기 이미지에 대해 합성곱 처리를 행하여 상기 얼굴의 합성곱 특징을 추출하는, 장치.26. The method according to any one of claims 18 to 25,
and the feature extraction module performs convolution processing on the image to extract convolutional features of the face.
상기 확률 예측 결과 취득 모듈은
상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻기 위한 얼굴 속성 특징 추출 서브 모듈과,
상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하기 위한 확률 예측 결과 취득 서브 모듈을 추가로 포함하는, 장치.27. The method of claim 26,
The probability prediction result acquisition module is
a facial attribute feature extraction submodule for extracting features of each type of facial attribute from the convolutional features of the face to obtain attribute features of each type of facial attribute;
and a probabilistic prediction result acquisition submodule for performing classification processing on the attribute characteristics of the respective types of facial attributes to confirm the probability prediction results of each type of facial attributes.
상기 특징 추출 모듈은 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하고,
상기 얼굴 속성 특징 추출 서브 모듈은 상기 뉴럴 네트워크의 전체 결합층에 의해 상기 얼굴의 합성곱 특징에서 각 종류의 얼굴 속성의 특징을 추출하여 각 종류의 얼굴 속성의 속성 특징을 얻고,
상기 확률 예측 결과 취득 서브 모듈은 상기 뉴럴 네트워크의 분류층에 의해 상기 각 종류의 얼굴 속성의 속성 특징에 대해 분류 처리를 행하여, 각 종류의 얼굴 속성의 확률 예측 결과를 확인하는, 장치.28. The method of claim 27,
The feature extraction module performs convolution processing on the image by a convolutional layer of a neural network to extract convolutional features of the image,
the facial attribute feature extraction submodule extracts features of each type of facial attribute from the convolutional features of the face by the entire coupling layer of the neural network to obtain attribute features of each type of facial attribute;
and the probabilistic prediction result acquisition submodule performs classification processing on the attribute feature of each type of face attribute by the classification layer of the neural network, and confirms the probability prediction result of each type of face attribute.
상기 뉴럴 네트워크는 샘플 이미지 세트에 기초하여 감독 트레이닝이 미리 행해진 것이고, 상기 샘플 이미지 세트 내의 샘플 이미지는 복수 종류의 얼굴 속성의 레이블 정보가 포함되어 있는, 장치.29. The method of claim 28,
The apparatus of claim 1, wherein the neural network has undergone supervised training in advance based on a sample image set, and the sample image in the sample image set includes label information of a plurality of types of facial attributes.
상기 뉴럴 네트워크의 트레이닝을 행하기 위한 트레이닝 모듈을 추가로 포함하고,
상기 트레이닝 모듈은
뉴럴 네트워크에 의해 상기 샘플 이미지의 각 종류의 얼굴 속성의 예측 결과를 각각 취득하고,
각 종류의 얼굴 속성의 예측 결과와 그 레이블 정보에 기초하는 제1 손실을 각각 결정하고,
각 종류의 얼굴 속성의 제1 손실에 기초하여 제2 손실을 결정하고,
상기 제2 손실에 기초하여 뉴럴 네트워크의 네트워크 파라미터를 조정하는, 장치.30. The method of claim 29,
Further comprising a training module for performing training of the neural network,
The training module
Acquire prediction results of each type of face attribute of the sample image by a neural network,
determining a first loss based on a prediction result of each type of face attribute and its label information, respectively;
determine a second loss based on the first loss of each kind of facial attribute;
and adjusting a network parameter of the neural network based on the second loss.
각 종류의 얼굴 속성의 제1 손실에 기초하여 상기 뉴럴 네트워크의 제2 손실을 결정하는 것은
어느 1종류의 대상 얼굴 속성을 포함하는 얼굴 속성의 제1 손실 및 상기 대상 얼굴 속성의 가중치에 기초하여, 상기 대상 얼굴 속성의 가중치 손실을 결정하는 것과,
상기 각 종류의 얼굴 속성의 가중치 손실에 기초하여, 상기 뉴럴 네트워크의 제2 손실을 결정하는 것을 포함하는, 장치.31. The method of claim 30,
Determining the second loss of the neural network based on the first loss of each kind of facial attribute comprises:
determining a weight loss of the target facial attribute based on a first loss of the facial attribute including any one type of target facial attribute and a weight of the target facial attribute;
and determining a second loss of the neural network based on the weight loss of each type of face attribute.
상기 트레이닝 모듈은 추가로,
제1 이미지에 대해 반전, 크롭, 평행 이동, 노이즈의 부가 중 하나 이상을 행하여, 상기 제1 이미지의 노이즈 이미지를 얻고,
상기 제1 이미지 및 상기 노이즈 이미지를 샘플 이미지로서 결정하여, 상기 샘플 이미지 세트를 얻는, 장치.32. The method according to any one of claims 29 to 31,
The training module further comprises:
performing one or more of inversion, cropping, translation, and addition of noise on the first image to obtain a noise image of the first image;
determining the first image and the noise image as sample images to obtain the set of sample images.
상기 특징 추출 모듈은
상기 이미지의 해상도를 조정하여 제1 처리 이미지를 얻기 위한 제1 처리 이미지 취득 모듈과,
상기 제1 처리 이미지에서의 얼굴의 특징을 추출하기 위한 제1 특징 추출 서브 모듈을 포함하는, 장치.33. The method according to any one of claims 18 to 32,
The feature extraction module is
a first processed image acquisition module for obtaining a first processed image by adjusting the resolution of the image;
and a first feature extraction sub-module for extracting facial features from the first processed image.
상기 뉴럴 네트워크의 특징의 채널수를 조정하여 조정 뉴럴 네트워크를 얻기 위한 채널 조정 모듈을 추가로 포함하고,
상기 특징 추출 모듈은 추가로,
상기 조정 뉴럴 네트워크의 합성곱층에 의해 상기 이미지에 대해 합성곱 처리를 행하여, 상기 이미지의 합성곱 특징을 추출하는, 장치.34. The method according to any one of claims 28 to 33,
Further comprising a channel adjustment module for obtaining a coordinated neural network by adjusting the number of channels of the feature of the neural network,
The feature extraction module further comprises:
performing convolutional processing on the image by a convolutional layer of the coordinated neural network to extract convolutional features of the image.
프로세서에 의해 실행 가능한 명령을 기억하기 위한 메모리를 포함하고,
상기 프로세서는 제 1 항 내지 제 17 항 중 어느 한 항의 방법을 실행하도록 구성되는, 전자 기기.processor and
a memory for storing instructions executable by the processor;
The electronic device, wherein the processor is configured to execute the method of any one of claims 1 to 17.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811645459.1A CN111382642A (en) | 2018-12-29 | 2018-12-29 | Face attribute recognition method and device, electronic equipment and storage medium |
CN201811645459.1 | 2018-12-29 | ||
PCT/CN2019/121973 WO2020134858A1 (en) | 2018-12-29 | 2019-11-29 | Facial attribute recognition method and apparatus, electronic device, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210113607A true KR20210113607A (en) | 2021-09-16 |
Family
ID=71126803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217020828A KR20210113607A (en) | 2018-12-29 | 2019-11-29 | Facial attribute recognition method and apparatus, electronic device and storage medium |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022515719A (en) |
KR (1) | KR20210113607A (en) |
CN (1) | CN111382642A (en) |
WO (1) | WO2020134858A1 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860254A (en) * | 2020-07-10 | 2020-10-30 | 东莞正扬电子机械有限公司 | Driver abnormal behavior detection method and device, storage medium and equipment |
CN112036369A (en) * | 2020-09-22 | 2020-12-04 | 北京中房智宝科技有限公司 | Face recognition hardware device |
CN112232173B (en) * | 2020-10-12 | 2023-04-07 | 济南博观智能科技有限公司 | Pedestrian attribute identification method, deep learning model, equipment and medium |
CN114387633A (en) * | 2020-10-19 | 2022-04-22 | 北京澎思科技有限公司 | Face attribute recognition method, apparatus and computer-readable storage medium |
CN112597886A (en) * | 2020-12-22 | 2021-04-02 | 成都商汤科技有限公司 | Ride fare evasion detection method and device, electronic equipment and storage medium |
CN112597944B (en) * | 2020-12-29 | 2024-06-11 | 北京市商汤科技开发有限公司 | Key point detection method and device, electronic equipment and storage medium |
CN112613447B (en) * | 2020-12-29 | 2024-09-17 | 上海商汤智能科技有限公司 | Key point detection method and device, electronic equipment and storage medium |
CN112651364B (en) * | 2020-12-31 | 2023-06-20 | 北京市商汤科技开发有限公司 | Image processing method, device, electronic equipment and storage medium |
CN113033374A (en) * | 2021-03-22 | 2021-06-25 | 开放智能机器(上海)有限公司 | Artificial intelligence dangerous behavior identification method and device, electronic equipment and storage medium |
CN112699856A (en) * | 2021-03-24 | 2021-04-23 | 成都新希望金融信息有限公司 | Face ornament identification method and device, electronic equipment and storage medium |
CN115668315A (en) * | 2021-04-01 | 2023-01-31 | 京东方科技集团股份有限公司 | Face attribute detection method and device, storage medium and electronic equipment |
CN113221695B (en) * | 2021-04-29 | 2023-12-12 | 深圳数联天下智能科技有限公司 | Method for training skin color recognition model, method for recognizing skin color and related device |
CN113221086B (en) * | 2021-05-21 | 2023-04-07 | 深圳和锐网络科技有限公司 | Offline face authentication method and device, electronic equipment and storage medium |
CN113428176B (en) * | 2021-06-25 | 2023-11-14 | 阿波罗智联(北京)科技有限公司 | Unmanned vehicle driving strategy adjustment method, device, equipment and storage medium |
CN113505674B (en) * | 2021-06-30 | 2023-04-18 | 上海商汤临港智能科技有限公司 | Face image processing method and device, electronic equipment and storage medium |
CN113435390A (en) * | 2021-07-09 | 2021-09-24 | 上海商汤智能科技有限公司 | Crowd positioning method and device, electronic equipment and storage medium |
CN113947803B (en) * | 2021-12-22 | 2022-03-25 | 北京的卢深视科技有限公司 | Model training, sample data generation method for face recognition and electronic equipment |
CN114444594A (en) * | 2022-01-25 | 2022-05-06 | 阳光保险集团股份有限公司 | Smoking identification method, device, equipment and readable storage medium |
CN114677730A (en) * | 2022-03-22 | 2022-06-28 | 北京市商汤科技开发有限公司 | Living body detection method, living body detection device, electronic apparatus, and storage medium |
CN114429611B (en) * | 2022-04-06 | 2022-07-08 | 北京达佳互联信息技术有限公司 | Video synthesis method and device, electronic equipment and storage medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5100688B2 (en) * | 2009-03-10 | 2012-12-19 | 株式会社豊田中央研究所 | Object detection apparatus and program |
EP2697742A4 (en) * | 2011-04-11 | 2014-11-05 | Intel Corp | Personalized advertisement selection system and method |
JP6254785B2 (en) * | 2012-07-24 | 2017-12-27 | サイトセンシング株式会社 | Audience rating survey system, facial expression information generation device, and facial expression information generation program |
WO2017040519A1 (en) * | 2015-08-31 | 2017-03-09 | Sri International | Method and system for monitoring driving behaviors |
CN105678250B (en) * | 2015-12-31 | 2019-10-11 | 北京迈格威科技有限公司 | Face identification method and device in video |
CN106203395B (en) * | 2016-07-26 | 2020-01-14 | 厦门大学 | Face attribute recognition method based on multitask deep learning |
CN107784372B (en) * | 2016-08-24 | 2022-02-22 | 阿里巴巴集团控股有限公司 | Target object attribute prediction method, device and system |
JP6788264B2 (en) * | 2016-09-29 | 2020-11-25 | 国立大学法人神戸大学 | Facial expression recognition method, facial expression recognition device, computer program and advertisement management system |
CN106778682B (en) * | 2017-01-11 | 2019-07-09 | 厦门中控智慧信息技术有限公司 | A kind of training method and its equipment of convolutional neural networks model |
JP7169094B2 (en) * | 2017-06-01 | 2022-11-10 | 株式会社東芝 | Image processing system and medical information processing system |
CN107697069B (en) * | 2017-10-31 | 2020-07-28 | 上海汽车集团股份有限公司 | Intelligent control method for fatigue driving of automobile driver |
CN107844781A (en) * | 2017-11-28 | 2018-03-27 | 腾讯科技(深圳)有限公司 | Face character recognition methods and device, electronic equipment and storage medium |
CN108596011A (en) * | 2017-12-29 | 2018-09-28 | 中国电子科技集团公司信息科学研究院 | A kind of face character recognition methods and device based on combined depth network |
-
2018
- 2018-12-29 CN CN201811645459.1A patent/CN111382642A/en active Pending
-
2019
- 2019-11-29 JP JP2021533534A patent/JP2022515719A/en active Pending
- 2019-11-29 KR KR1020217020828A patent/KR20210113607A/en not_active Application Discontinuation
- 2019-11-29 WO PCT/CN2019/121973 patent/WO2020134858A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2020134858A1 (en) | 2020-07-02 |
CN111382642A (en) | 2020-07-07 |
JP2022515719A (en) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210113607A (en) | Facial attribute recognition method and apparatus, electronic device and storage medium | |
JP6852150B2 (en) | Biological detection methods and devices, systems, electronic devices, storage media | |
CN109740516B (en) | User identification method and device, electronic equipment and storage medium | |
CN111340766B (en) | Target object detection method, device, equipment and storage medium | |
JP7262659B2 (en) | Target object matching method and device, electronic device and storage medium | |
TWI759647B (en) | Image processing method, electronic device, and computer-readable storage medium | |
US20200042775A1 (en) | Artificial intelligence server and method for de-identifying face area of unspecific person from image file | |
CN110956061B (en) | Action recognition method and device, and driver state analysis method and device | |
KR102391792B1 (en) | Biometric detection methods, devices and systems, electronic devices and storage media | |
KR20210102180A (en) | Image processing method and apparatus, electronic device and storage medium | |
US11443438B2 (en) | Network module and distribution method and apparatus, electronic device, and storage medium | |
JP7394147B2 (en) | Image generation method and device, electronic equipment, and storage medium | |
WO2022227393A1 (en) | Image photographing method and apparatus, electronic device, and computer readable storage medium | |
CN111435422B (en) | Action recognition method, control method and device, electronic equipment and storage medium | |
KR102454515B1 (en) | Network optimization method and apparatus, image processing method and apparatus, and storage medium | |
KR102360181B1 (en) | Electronic device and method for controlling operation of vehicle | |
WO2019205605A1 (en) | Facial feature point location method and device | |
CN111476057B (en) | Lane line acquisition method and device, and vehicle driving method and device | |
CN116824533A (en) | Remote small target point cloud data characteristic enhancement method based on attention mechanism | |
US20210124990A1 (en) | Method and apparatus for computer vision | |
WO2022151686A1 (en) | Scene image display method and apparatus, device, storage medium, program and product | |
KR101189043B1 (en) | Service and method for video call, server and terminal thereof | |
CN111178115B (en) | Training method and system for object recognition network | |
CN114549797A (en) | Painting exhibition method, device, electronic equipment, storage medium and program product | |
CN109543544B (en) | Cross-spectrum image matching method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITB | Written withdrawal of application |